본문 바로가기

분류 전체보기127

Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting 요약 및 설명 두 번째 graph neural network(GNN)을 활용한 시계열 예측 논문입니다. 제목은 Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting입니다. Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting 2019년 7월 17일 publish In Proceedings of the AAAI conference on artificial intelligence Shengnan Guo, Youfang Lin, Ning Feng, Chao Song, and Huaiyu Wan 2022년 8월.. 2022. 8. 6.
RL Course by David Silver - Lecture 4: Model Free Prediction This article summarizes RL Course by David Silver - Lecture 4: Model Free Prediction. This chapter will mainly discuss how to predict the value of each state. Monte Carlo and Time Difference is a two main streams algorithm. Chapter 3 was about known MDP. Here we deal with an unknown MDP. Model-free prediction updates the value function of unknown MDP, and Model control updates the policy based o.. 2022. 8. 4.
Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting 요약 및 설명 몇 개의 글을 거쳐서 graph neural network를 활용하여 시계열 예측을 한 사례들을 확인해보고자 합니다. 첫 논문은 Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting입니다. Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting 2017년 9월 14일 최초 공개, 2018년 7월 12일 최종 수정 arxiv 2022년 8월 4일 기준 citation 수 1500회 Bing Yu, Haoteng Yin, and Zhanxing Zhu 북경대의 연구진들이 진행한.. 2022. 8. 4.
On-Policy, Off-Policy, Online, Offline 강화학습 On-Policy, Off-Policy, Online, Offline 강화학습은 기본 개념에 속하는 단어이지만, 그 개념을 잘 파악하기 이전까지는 계속 헷갈리는 워딩입니다. 이번 글에서는 짤막하게 위 분류에 대해서 확인해보려 합니다. On-Policy/Off-Policy 강화학습 먼저 이해가 비교적 쉬운 On-Policy와 Off-Policy 강화학습부터 살펴보겠습니다. On-Policy와 Off-Policy 알고리즘에 대해서 스터디원이 해준 비유가 있습니다. 여러분이 스타크래프트를 배우려 하는 상황을 가정해봅시다. 스타크래프트를 배울 때는 내가 직접 플레이하면서 이기고 지는 것을 반복하며 배울수도 있습니다. 하지만 이와 반대로 친구가 하는 것을 뒤에서 보면서 '아 지금은 멀티 먹지 말고 타이밍 러쉬 갔.. 2022. 6. 23.
RL Course by David Silver - Lecture 3: Planning by Dynamic Programming This article summarizes RL Course by David Silver - Lecture 3: Planning by Dynamic Programming. This chapter will discuss policy evaluation, policy iteration, and value iteration. Each concept has an important role in reinforcement learning. Introduction Before we start, what is dynamic programming? A dynamic problem has a sequential or temporal component. Programming is optimizing a program(in .. 2022. 5. 18.
Graph Attention Networks(GAT)와 교통분야에서의 응용 위 자료는 Justin Johnson 교수님의 EECS 498 수업과 고려대학교 DMQA 연구실의 Transformer in Computer Vision 발표, Graph Attention Networks 발표를 참조하였습니다. 각 슬라이드에서 그림 자료도 가지고 왔습니다. Seq2Seq Model 그래프 어텐션 네트워크에 대해 알아보기 전에 어텐션 메커니즘을 확인하여 보겠습니다. 어텐션 메커니즘의 등장 배경으로 흔히 Seq2Seq 모델을 이야기 합니다. 기존의 Seq2Seq 모델은 input 문장에서 단일한 context vector을 추출하여 그 context vector와 token을 사용하여 번역을 시작하였습니다. 이러한 번역 시스템은 input sentence가 어떤 길이이든 관계 없이 단일한 .. 2022. 5. 11.