본문 바로가기

분류 전체보기127

낙원타코 - 서초구 서초동 영업시간 매일 11:00~22:00 라스트 오더 21:00 입구 내부 2인석 약 10자리, 4인석 약 20자리 메뉴판 태블릿 메뉴판 음식 여기에 브리또 하나 더 시킬까 고민했는데, 타코가 생각보다 커서 타코 하나에 파스타 하나면 둘이 먹기에 충분한 양이었다. 파스타는 가장 덜 매운 것으로 주문. 고추 표시가 하나 있는데, 그래도 적당히 매운 맛이 느껴짐. 특이사항 1. 음식점 공기가 매움(옆 사람도 기침함. 근데 적응되면 견딜만한 정도) 2. 파히타를 안 시켰다고 해서 파히타 받침대(초가 같이 있는)를 치워주지는 않음 3. 바로 아랫층에 미즈 컨테이너 위치 링크 https://naver.me/FlhEgpu7 네이버 지도 낙원타코 강남역점 map.naver.com 2022. 12. 18.
교통 혼잡 지표 (속도 위주) 1. Measuring Urban Traffic Congestion – A Review (2012) Journal: International Journal for Traffic and Transport Engineering Authors: Amudapuram Mohan Rao, and Kalaga Ramachandra Rao Cited by 320 (2022-12-08) 혼잡에는 (a) micro-level factors (b) macro-level factors가 있다고 합니다. 혼잡은 micro-level에 의해 trigger 되고(e.g. on the road), and macro-level에서 driven 됩니다. 예를 들어, micro-level factors는 "many people want .. 2022. 12. 8.
그 개는 무엇을 보았나 말콤 글래드웰의 "그 개는 무엇을 보았나"를 읽다가 나심 탈레브에 대한 재미있는 부분이 보여서 공유해봅니다. 아래 내용은 거의 책을 따랐지만, 이해를 돕기 위해 순서가 바뀌는 등 수정된 부분이 있습니다. 이 글을 읽기 전까지 저는 나심 탈레브가 철학자, 사상가인줄 알았습니다. "행운에 속지 마라" 이런 책들의 제목을 보면서 사회를 계몽시키는 운동가라고 예상을 했는데, 의외로 특이한 방식으로 투자하는 투자자였습니다. 이 글은 탈레브가 유명한 저서들을 쓰기 전의, 대략 1990년대 후반~2000년대 초반의 이야기입니다. 워런 버핏은 오마하의 현인으로 불린다. 버핏이 성공한 데는 나름대로 비결이 있다. 탈레브는 그 비결이 진정한 성공의 토대인지 아니면 나중에 만들어진 합리화인지 의심했다. 조지 소로스가 성공한.. 2022. 12. 6.
CS224w - 17. Advanced Topics in Graph Neural Networks Part 2 Advanced Cluster-GCN Advanced Cluster-GCN의 아이디어는 몇개의 node group을 mini-batch에서 합치는 것입니다. 이를 위해서 조금 더 작은 node group을 만들게 됩니다. 여러 노드 그룹을 쓰기 때문에 전체 그래프를 보다 잘 표현할 수 있습니다. 그리고 그룹 간의 링크가 있어, message가 그룹 사이에도 흐를 수 있습니다. Pre-processing 단계에서는, vanilla와 같이 subgraph으로 나누되 더 작게 나눠서 나중에 aggregate 됐을 때 사이즈가 너무 커지지 않게 합니다. Mini-batch training은 subgraph 중 random으로 일부 샘플링합니다. 그 다음 속한 node들을 전부 aggregate해서 하나의 sub.. 2022. 12. 5.
CS224w - 17. Advanced Topics in Graph Neural Networks Part 1 Scaling Up Graph Neural Networks and Modern Applications 일반적인 learning scheme에서 large data에 대해서는 mini-batch에서 SGD를 수행합니다. 하지만 GNN에서는 mini-batch 내에서 노드를 샘플링하면 노드가 서로 멀리 떨어진 상태일 확률이 높습니다. 따라서 mini-batch에서 얻어진 node들을 가지고 neighborhood update를 하기 어렵습니다. 이런 문제를 피하기 위해서 full batch로 학습할 수도 있지만, GPU memory의 문제로 불가능합니다. 따라서 본 강의에서는 subgraph를 이용한 학습(Neighbor Sampling, Cluster-GCN), 그리고 feature preprocessin.. 2022. 12. 5.
CS224w - 16. Advanced Topics in Graph Neural Networks Part 2 Identity-Aware Graph Neural Networks 서로 다른 node이지만 같은 computational graph를 가져서 같은 embedding으로 계산되는 문제가 다양한 graph에서 나타납니다. Node, edge, graph level의 task에서 모두 보이는 문제점들입니다. 이에 대한 해결방법으로 root node에 대해서 colorize한 뒤, computational graph에 colorize를 반영하는 방법이 있습니다. 이 경우 Graph 구조가 다르다면, computational graph에서 colorize 되는 부분이 달라지기 때문에 구별이 가능합니다. Edge level과 graph level에 대해서도 똑같이 적용할 수 있습니다. 다른 종류(color)의 no.. 2022. 12. 4.