본문 바로가기

전체 글127

훌라훌라 - 마포구 망원동 http://naver.me/xorKFXUz 훌라훌라 : 네이버 방문자리뷰 394 · 블로그리뷰 477 m.place.naver.com https://www.instagram.com/hulahula_mangwon/ 마포구 망원동 훌라훌라 강아지를 반기는 식당입니다. 점심 먹는 내내 강아지를 볼 수 있으며 주인분께서도 강아지용 간식을 항상 갖고 다니십니다. 상당히 오픈된 공간에 있는데 날 좋을 때 오면 시너지가 나는 식당 같습니다. 음식은 좀 맵긴 하지만, 대체로 괜찮습니다. 2022. 4. 12.
한강 에스프레소 - 마포구 망원동 http://naver.me/501vNhWl 한강 에스프레소 : 네이버 방문자리뷰 92 · 블로그리뷰 74 m.place.naver.com https://www.instagram.com/hangang_espresso 마포구 망원동 한강 에스프레소 에스프레소 전문점입니다. 다양한 에스프레소를 판매합니다. 날씨 좋은 날 창가에서 마시기 좋습니다. 2022. 4. 12.
절대 해서는 안되는 송금 실수 평소에는 꼼꼼하게 확인하고는 하는데, 오늘 송금 과정에서 큰 실수가 있었습니다. Avalanche Mainnet C-Chain에서 타 거래소 계좌로 USDt를 보내려는 상황이었습니다. 제가 사용하는 거래소의 USDt는 TRC20, ERC20, Polygon등을 지원하는데 안타깝게도 Avalanche C-Chain은 지원하지 않았습니다. 아무 생각 없이 USDT-ERC20 주소로 송금을 눌렀고 transaction 자체는 성공하였으나 제 USDt는 거래소에서 지원하지 않는 가상의 공간으로 간 셈입니다. 성공은 했으나 제 거래소에서는 확인되지 않았습니다. 원래는 어떻게 했어야 할까요? 그냥 그 USDt로 Avalanche를 사서 거래소의 Avalanche 주소로 보냈어야 합니다. 아니면 좀 덜 효율적이지만 .. 2022. 4. 11.
국제수입식당 - 강남구 역삼동 http://naver.me/FzHmmhyB 국제수입식당 본점 : 네이버 방문자리뷰 342 · 블로그리뷰 384 m.place.naver.com 강남구 역삼동 국제수입식당 셀프바의 음식을 잘 조합하면 삼겹살 1인분 씩을 먹고도 배부를 수 있습니다. 돈까스를 파는 것이 놀라운데, 나쁘지 않은 조합입니다. 패드를 이용하여 주문이 편리한 편입니다. 친한 친구와 편하게 가는 고깃집의 측면에서, 추천도는 90/100입니다. 2022. 4. 5.
CS224w - 10. Heterogeneous Graphs and Knowledge Graph Embeddings Part 2 Knowledge Graph Completion: TransE, TransR, DistMul, ComplEx 기존의 문제에서는 모든 그래프가 비어있었고 (node만 있고 edge가 없음), edge를 예측해야했습니다. 여기서 변형하여, KG에서 특정 node와 다른 node가 특정 relation을 갖고 있는지 없는지를 맞추는 문제로 바꿀 수 있습니다. 이 작업은 node의 embedding vector가 필요합니다. 그냥 embedding vector는 아니고 triple의 embedding vector입니다. Head와 relation과 tail의 embedding vector가 필요한 상황입니다. TransE의 경우 마치 node2vec과 같은 vector embedding을 추구합니다. Obama.. 2022. 3. 31.
CS224w - 10. Heterogeneous Graphs and Knowledge Graph Embeddings Part 1 지금까지 저희는 단일한 종류의 edge로 이루어진 graph만을 다루었습니다. 그런데 만약 여러개의 edge가 있다면 어떻게 해야할까요? Heterogeneous Graphs and Relational GCN (RGCN) 일단 정의부터 다시 시작해야 합니다. 기존에 그래프를 $G=(V, E)$에서 정의하던 것을 넘어, $G=(V, E, R, T)$로 정의하게 됩니다. $R$은 edge의 type, $T$는 node의 type이 되겠습니다. RGCN에 대해 이야기 하기 전 우리가 기존 GNN을 어떻게 접근했는지 확인해봅시다. 각 node는 $l$번째 layer에서 message $m_{u}^{(l)}$을 생산하는데 이는 전 단계의 message aggregation의 결과인 $h_{u}^{(l-1)}$에 .. 2022. 3. 31.