전체 글
-
Deep Reinforcement Learning for Multi-Agent systems 논문 리뷰최신 기술동향/인공지능 (AI) 2020. 8. 6. 11:02
이번에 리뷰할 논문 [1]에서는 최근에 핫한 Deep Reinforcement Learning (DRL) 시스템 중에서도 내가 최근 가장 관심있게 보고 있는 Multi-Agent system에 대해 다룬다. 최근 5G, 6G 논문 읽고 연구를 할 때, Multi-user나 V2V system을 고려한다. 이 때 많은 논문들이 BS는 모든 Channel state을 알고 있고, 이를 토대로 User들을 Control할 수 있다는 가정을 한거나 DRL을 사용하는데, 각 User들이 같은 Environment를 보고 있다는 가정을 한다. 하지만, User 및 Vehicle들은 각자가 Monitoring하는 Channel도 다르고, V2V pair마다 Channel은 매우 Dynamic하게 변한다. 이를 고려했..
-
RNN vs LSTM vs GRU최신 기술동향/인공지능 (AI) 2020. 8. 1. 10:43
이번 글에서는 시계열분석에 필요한 RNN 계열 모델들을 정리한다. 대표적으로, Recurrent Neural Network (RNN)과 이를 보완하기 위한 Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU) 모델이 있다. RNN RNN은 이름에 '순환'이라는 Recurrent가 들어감에서 알 수 있듯이, 한 쪽 방향으로 정보가 흘러가는 것이 아니라, Layer에서 순환하는 구조를 갖고 있다. 이는 그림을 통해서 조금 더 알기 쉽게 설명할 수 있다. 이를 위해 다른 Blog [1]에 잘 설명되어 있는 그림을 가져왔다. RNN 모델에서는 여러 개의 input x_t (보통 시계열) 값을 input으로 받아서 h_t라는 output 값을 계산해서 내보냄과 동..
-
5G BWP 논문 리뷰 (BWP Switching)5G & 6G 통신 기반 기술 2020. 7. 31. 18:35
이 논문은 5G의 Bandwidth Part (BWP)를 Dynamic하게 Adaptation하는 방법에 대해 다루고 있다. BWP는 5G에서 처음 도입된 개념으로 UE로 하여금, 전체 Carrier Bandwidth (CBW)를 Monitoring하고 있을 필요없이, CBW의 일부를 BWP로 지정하여 그 영역에서만 데이터를 주고 받는 개념을 말한다. 비교적 적은 Frequency bandwidth만 보고 있으면 되기 때문에 UE의 Power 소모는 줄어들지만, BWP를 자주 Switching해야 하는 경우에는, Latency 측면에서 Disadvantage가 있다. 이 논문 [1]에서는 BWP Switching에서 고려해야할 요소들을 다루고 있다. 제목: Impact of Bandwidth Part (..
-
Samsung Research의 6G White Paper 리뷰5G & 6G 통신 기반 기술 2020. 7. 30. 22:07
2020년 7월 14일, Samsung에서 6G에 관련한 White Paper [1]를 공개했다. White Paper를 공개한 Samsung Research연구소는 Samsung내에서 5G, 6G의 표준화와 선행연구를 담당한다. 5G 표준화도 아직 진행 중인 상황에서 6G에 대한 문서를 보니, 상당히 먼 미래의 기술처럼 보였지만, 어떤 방향으로 연구가 진행될지에 대해서 알아보기 위해 관련 내용을 리뷰해보기로 했다. Megatrends toward 6G 대부분의 White Paper들이 그렇듯이, 이 White Paper도 이 기술이 왜 필요한지, 주요 Use case 등의 큰 그림을 보여주는 것으로 글을 시작한다. 요약하면, 2030년까지 약 500 Billion개의 device들이 연결될 것으로 Ci..
-
5G Vehicular Network RL 논문 리뷰 (Slot Format)5G & 6G 통신 기반 기술 2020. 7. 27. 09:21
이 논문은 5G Vehicular Network 상황에서 V2I의 Throughput을 최대화하기 위해 Reinforcement Learning을 사용한다. 이전 LTE Vehicular Reinforcement Leraning 논문에서 언급했듯이, Vehicular Network 환경만 제대로 설계되어 있으면, 그 안에 들어갈 다양한 강화학습 알고리즘들을 워낙 사용하기 쉬운 API들이 많기 때문에 어렵지 않게 적용할 수 있다. 제목: Reinforcement Learning-based Radio Resource Control in 5G Vehicular Network 저널명 : IEEE Wireless Communications Letters 출판년도 : MAY, 2020 저자 : Yibo Zhou, ..
-
Vehicular Network RL 논문 리뷰(Multi-Agent)5G & 6G 통신 기반 기술/LTE Communication 2020. 7. 25. 11:11
이 논문은 Vehicular Network 상황에서 V2V와 V2I의 Global Network Performance를 최대화하기 위해 Reinforcement Learning을 사용한다. 강화학습을 적용하기 위해서는 '환경(Environment)'를 설계하는 것이 거의 전부라고 해도 과언이 아닐 정도로 환경 설정이 중요한 이슈다. Vehicular Network 환경만 제대로 정리되어 있으면, 그 안에 들어갈 다양한 강화학습 알고리즘들을 워낙 사용하기 쉬운 API들이 많기 때문에 가져다 쓰면 된다. 따라서, 이번 글에서는 어떻게 환경을 설정했는지에 조금 더 초점을 맞춰서 리뷰해보도록 한다. 제목: Spectrum sharing in vehicular networks based on multi-agent..
-
LTE-V2X vs NR-V2X / TR 37.985 / Release 165G & 6G 통신 기반 기술 2020. 7. 17. 21:05
이번 글에서는 LTE-V2X와 NR-V2X를 비교하기 위해 TR 37.985 Release 16/(2020.06)를 리뷰해보기로 한다. 보통 36.xxx라고 되어있는 문서들은 LTE (E-UTRA)에 대한 내용, 38.xxx라고 되어있는 문서들은 NR에 대한 내용이다. 그리고 37.xxx에서는 이번 글에서처럼 LTE와 NR을 비교하거나, 함께 사용하는 Dual-Connectivity가 많다. 5G 시스템에서 가장 중요한 Use case로 거론되는 V2X에 대한 논의는 계속 이어지고 있다. 이에 따라, 많은 논문들이 V2X 상황을 가정했지만, 실제 C-V2X의 Mode 4나 NR-V2X의 Mode 2 표준 기준을 적용하는 논문은 많이 못 본 것 같다. 따라서, 이번 글에서는 기지국에서 자원할당을 받지 못하..
-
딥러닝의 개념최신 기술동향/인공지능 (AI) 2020. 7. 7. 10:52
Deep Learning은 Machine Learning 알고리즘의 한 종류다. 신경망 (Neural Network)라고도 불리는데, Deep Neural Network (DNN)은 신경망을 구성하는 Layer가 많아지는 구조로 이루어져있다. 아래 그림은 가장 기본적인 Neural Network의 예시인데, Input X가 Hidden-Layer 1과 Hidden-Layer 2로 들어가서 Output Y로 나오는 구조다. Hidden Layer를 보면, 이전 Layer의 output과 Hidden Layer의 Weight Maxtrix를 곱하고, 비선형함수 (Non-Linear Funcation)에 넣는다. 여기서 '비선형함수'가 중요한 이유는 비선형 함수 없이 선형함수만으로 Hidden Layer를 구..