본문 바로가기

CS224W28

CS224w - 04. Graph as Matrix: PageRank, Random Walks and Embeddings PageRank (AKA the Google Algorithm) 이번 장에서는 위의 세 가지 항목에 대해서 학습합니다. Page Rank, Personalized Page Rank, Random Walk with Restarts가 그것입니다. Page Rank는 마치 자신의 importance를 내가 연결한 다른 page에 배분하는 것과 같습니다. 내 page가 3개의 page에 연결되어 있다면 3개의 page에 동등하게 내 importance를 배분합니다. 그리고 importance 배분은 위의 $\mathbf{r}=\mathbf{M}\cdot \mathbf{r}$으로 간단하게 나타낼 수 있습니다. Toy network해보면 금방 이해가 됩니다. 주의할 점은, 보통 행이 i 열이 j인데 여기서는 표기가.. 2022. 3. 7.
CS224w - 03. Node Embeddings Node Embeddings: Encoder and Decoder Node Embedding은 그래프 내의 node들을 특정한 embedding space로 옮기는 과정입니다. 위 예시에서 embedding space는 2D가 되겠습니다. Embedding은 encoder와 decoder로 나뉘어집니다. Encoder는 original network에서 embedding space로 node embedding을 보내려 합니다. ENC가 enocder에 해당합니다. 그리고 실제 네트워크에서의 유사도와 embedding space에서의 유사도가 흡사하기를 바라니다. Embedding space에서의 유사도는 벡터간 내적으로 구하면 되는데, origianl network에서의 유사도는 어떻게 구할까요? 역할을.. 2022. 2. 18.
CS224w - 02. Traditional Methods for Machine Learning in Graphs 인트로에서 말했던 것처럼, GNN에는 여러 task가 있습니다. Node-level prediction을 예시로 든다면 node V가 왔을 때 이를 실수 공간 R로 mapping하는 function을 찾고 싶은 것입니다. 과연 과거의 전통적 방법론들은 어떤 접근을 했을까요? 여기서 소개된 Node-level feature에는 네가지가 있습니다. Node degree, node centrality, clustering coefficient, graphlets이 그것입니다. Degree는 특정 node에 연결된 edge의 개수입니다. Degree는 각 node의 중요성을 고려하여 정해지는 인자는 아닙니다. 하지만 node centrality는 node의 importance를 고려합니다. Centrality를.. 2022. 2. 17.
CS224w - 01. Intro 본 글은 graph neural network을 다룬 CS224w 수업 제1강의 요약입니다. 너무 일반적인 이야기는 제외하였습니다. 흔히 등장하는 Graph Deep Learning이 필요한 이유입니다. 이미지는 격자형으로 정형화, 텍스트는 단어 순서대로 정형화되어있습니다. 이에 반해 네트워크 데이터는 격자나 연속된 하나의 흐름으로 만들 수 없는 경우가 많습니다. Fixed size 데이터가 아닌 것이고, graph에서는 image에서 상하좌우가 의미를 갖는 것처럼 위치 정보가 의미를 갖지도 않습니다. 이런 이유에서 그래프를 위한 러닝 프레임워크인 Graph Neural Network(GNN)이 필요합니다. 소셜 네트워크처럼 정보 그 자체가 그래프인 Natural Graph와 정보 연결을 나타내는 Inf.. 2022. 2. 15.