본문 바로가기

분류 전체보기127

티스토리 북클럽 글씨 크기 및 리스트 여백 변경 티스토리에는 여러가지 스킨이 존재합니다. 이 중에서 북클럽 스킨의 폰트 크기 변경에 대해서 확인해보겠습니다. 먼저 스킨 편집 - CSS에 들어갑니다. 그 다음 CSS에 커서를 놓고 Ctrl+F에서 ".entry-content"를 검색합니다. 아마 이런 식으로 검색 결과가 등장할텐데, 저 .entry-content 뒤에 있는 각 키워드가 글에서의 위계를 나타냅니다. 정확하지는 않은데, h1, h2, h3, h4까지는 제목 위계인 것 같고, 본문 위계의 경우 p 하나로 다 관리됩니다. 본문1, 본문2, 본문3은 저 p의 값에 따라서 비율로 글씨 크기가 변하는 듯 합니다. h에 속하는 margin은 전부 60px 0 19px으로 되어있는데, 60px 0 19px을 50px 0 19px으로 바꾸었더니 제목 위계.. 2022. 3. 16.
CS224w - 06. Graph Neural Networks Part 2 Graph Convolutional Network Computation graph는 node의 neighbor를 연결한 것을 recursive한 manner로 나타낸 것입니다. k개의 layer를 만들면 k-hop 거리에 있는 node feature도 반영할 수 있습니다. Aggregation function은 permutation invariant한 것을 활용하면 어떤 것을 쓰든 괜찮습니다. Average는 확실히 permutation invariant한 function입니다. 위 두 슬라이드의 수학적 표현입니다. 식이 복잡해 보이지만, node $v$ 근처 neighbor의 layer k에서의 embedding 평균낸 값에 $W_{k}$ 곱해주고 자기 자신의 embedding에도 $B_{k}$ 곱해서.. 2022. 3. 16.
CS224w - 06. Graph Neural Networks Part 1 시작하기 전, 과거 자료에서 다루었던 shallow encoder에 대해서 논의 해봅시다. 실제 네트워크에서 가까이 있는 node끼리는 encoding된 embedding vector 내적의 크기가 커야 합니다. (Embedding vector의 내적을 보통 decoding 과정이라고 이야기 합니다.) Shallow encoder의 경우 encoding은 embedding vector에서 다 되어있다고 생각하고 그저 embedding matrix에서 값을 읽어올 뿐이었습니다. 이 때문에 여러 limitation이 있습니다. 첫 번째 limitation은 parameter를 share하지 않아 $O(|V|)$개의 parameter가 필요하다는 것입니다. 두 번째 transductive한 (inductive.. 2022. 3. 16.
아주 작은 습관의 힘 (Atomic Habits) 이 책에는 챕터 말미마다 챕터 내용을 요약 파트가 있습니다. 해당 부분을 위주로 느낀 점을 적어보려합니다. Part 1. Chapter 1. 습관은 복리로 작용한다. 매일 1퍼센트씩 나아지는 것은 장기적인 관점에서 매우 중요하다. (Habits are the compound interest of self-improvement. Getting 1 percent better every day counts for a lot in the long run.) 습관은 양날의 검이다. 우리에게 도움이 될 수도 있고, 우리를 좌절시킬 수도 있다. 매일의 사소한 일들이 얼마나 근본적인 것인지를 이해해야 한다. (Habits are a double-edged sword. They can work for you or aga.. 2022. 3. 11.
CS224w - 05. Message Passing and Node Classification 이번 node classification 문제를 주위 node에서 message(feature)를 전달 받는 message passing scheme으로 풀게 됩니다. 몇몇 node는 ground truth가 있어야 message를 전달 받을 수 있습니다. 따라서 일부 node의 label을 안 상태에서 다른 node의 label을 확인하는 semi-supervised node classification 문제로 접근합니다. 일부 node만 알고 있다면 어떻게 접근할 수 있을까요? 우리는 아래 세 가지 방법을 통해서 위 문제를 해결할 것 입니다. Relational classification Iterative classification Correct & Smooth 비슷한 성질을 지내고 있는 node는 서.. 2022. 3. 8.
CS224w - 04. Graph as Matrix: PageRank, Random Walks and Embeddings PageRank (AKA the Google Algorithm) 이번 장에서는 위의 세 가지 항목에 대해서 학습합니다. Page Rank, Personalized Page Rank, Random Walk with Restarts가 그것입니다. Page Rank는 마치 자신의 importance를 내가 연결한 다른 page에 배분하는 것과 같습니다. 내 page가 3개의 page에 연결되어 있다면 3개의 page에 동등하게 내 importance를 배분합니다. 그리고 importance 배분은 위의 $\mathbf{r}=\mathbf{M}\cdot \mathbf{r}$으로 간단하게 나타낼 수 있습니다. Toy network해보면 금방 이해가 됩니다. 주의할 점은, 보통 행이 i 열이 j인데 여기서는 표기가.. 2022. 3. 7.