ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • AI-Enabled Cellular Network 논문 리뷰 (5G/6G)
    5G & 6G 통신 기반 기술 2020. 8. 14. 11:50
    반응형

    이번에 리뷰할 논문은 Beyond 5G, 6G에 AI가 어떻게 쓰일 수 있을지에 대해 다룬다. 기존의 최적화 알고리즘과 다르게, 왜 AI가 사용되어야 하는지, 어떤 기술에 적용되고 있고, 연구가 진행될 분야가 무엇인지에 대해 다루고 있다. Samsung Research America의 연구진이 출판한 논문이다.


     

    제목: Artificial Intelligence-Enabled Cellular Networks: A Critical Path to Beyond-5G and 6G [1]

     

    저널명 : IEEE Wireless Communications

     

    출판년도 : April, 2020

     

    저자 : Rubayet Shafin, Lingjia Liu, Vikram Chandrasekhar, Hao Chen, Jeffrey Reed, and Jianzhong (Charlie) Zhang


     

    Cellular Network에 AI를 적용하는 Key Motivation

    1) Network Complexity

     5G와 6G로 넘어가면서, 복잡해진 Topology, Flexible Numerology 등으로 인해 기존 4G 시스템보다 시스템을 구축하는데 어려움이 생겼다. 이렇게 복잡한 시스템에서 기존의 최적화방법으로는 여러 control parameter를 동시에 고려하며 Optimal Performance를 찾는 것이 불가능에 가깝다. 이런 경우, AI를 사용해서 조금 더 pragmatic (실용적인) Solution을 찾아낼 수 있다.

    2) Model Deficit

     기존 시스템 모델들은 깔끔한 수학적 정리를 위해 많은 Approximation과 Simple Model을 가정했다. 하지만, 실제 환경에서는 이런 Approximation에 오차가 클 수도 있고, Linear하다는 가정이 Linear하지 않을 수도 있다. 따라서, tractable하기 힘든 환경을 AI-Based model로 해결하는 방법이 제시되었다.

    3) Algorithm Deficit

    Hueristic에 많이 의존해야 하는 문제에서는 Complexity가 큰 문제로 떠오른다. 이런 경우 구현을 위해 Sub-optimal한 Solution으로 대체하는 경우가 많다. 이런 경우 AI를 이용해 performance와 complexity 측면에서의 Trade-off를 조절하면서 Solution을 제시할 수 있다.

     

    Wireless에 AI가 적용되고 있는 분야

    1) PHY / MAC Layer

     Channel Estimation, Symbol Detection, Channel Coding 등에 CNN,RNN,DNN 등을 이용한 논문들이 많이 나오고 있다. 예를 들면, Channel Estimation을 위해 Pilot Signal을 보내는데, 5G NR에서는 Pilot Signal의 양를 제한하기 때문에 적은 Pilot Signal로도 Channel Estimate이 가능하도록 DNN을 사용한 논문들이 나온다. 모두 중요한 내용이지만, 개인적으로 흥미가 있는 분야는 Dynamic Spectrum Access에 Deep Reinforcement Learning (DRL)을 적용하는 연구[2]다. 

    2) Network Layer

    Network Layer에서는 Fault Recovery, Energy Optimization 등 중요한 연구가 있다. 개인적으로 흥미가 있는 Resource management and scheduling [3]에 DRL을 적용하는 분야다. 5G의 다양한 Parameter를 control해서 Scheduling을 위해서는 고려해야 할 요소가 매우 많기 때문에 이로 인한 High-Complexity나 Sub-optimal Solution인 분야를 극복하기 위해 AI가 많이 사용된다.

    최근 DRL과 Scheduling 두 가지에 관심이 많기 때문에 두 토픽을 연결한 논문들이 가장 먼저 읽어보고 싶어졌다. 따라서 이 리뷰 다음에는 [2] [3] 논문에 대해서 리뷰를 해볼 예정이다.

     

    Challenges

    1. Uplink control overhead가 크기 때문에, over-the-air Feedback을 통해 Training하는 것도 많은 cost를 필요로 하게 된다. 따라서 Training overhead를 줄이는 것이 AI를 적용하기 위해 중요하다. 

    2. 기존 방법을 쓸 때보다, Worst-Case의 경우 Performance Guarantee가 어렵다.

    3. AI의 특성상, 기존 이론에 기반한 최적화보다 Explainability가 부족하다.

    4. Training을 시킬 때와 실제의 환경이 달라지면 Generalization이 힘들다.

    5. 다른 Module들과의 Interoperability(상호호환성)이 부족할 때, Network의 성능 감소가 있을 수 있다.

     

    Technology Roadmap

     Generalization, Interoperability, Overhead 등의 Challenge들을 극복하는 형태로 여러 기술들이 나올 것으로 보인다. Air Interface에 DNN을 적용할 때의 Signaling overhead를 Evaluate하고 최소화하는 방법에 대한 논의도 이루어져야 한다. 또한, Training 단계에서, Edge와 Cloud를 분리할 수 있는 Federated Learning, Distributed Learning 등이 부각될 것이다. 여러 Sensory data들을 통합적으로 활용하는 AI 기술이 나올 것이며, 주변 환경, User들과의 관계들도 input으로 활용될 것이다. 예를 들어, Geographic location이나 주변 User들의 preference, Trusted Neighbors 등이 새로운 고려 요소로 들어갈 것이다.

     

    Conclusion

     이런 AI 기반 기술들과 Human Expert의 Feedback이 더해진다면 더욱 Robust한 모델이 탄생할 것이다. 이 논문에서는 5G와 6G에 AI가 활용될 수 있는 부분과 Challenge 등을 overview하였다. 앞으로 Deep Leraning, DRL 등을 5G, 6G에 적용하는 논문을 읽거나 연구할 때, 이 논문에서 언급한 Challenge들을 어떻게 극복할 수 있을지 (e.g., 다른 Module과의 Interoperability를 극복하기 위해 Multi-Agent DRL을 사용) 등을 함께 고민하면서 System Modeling을 해야겠다는 생각을 했다.

     개인적으로 궁금했던 점은, Train이 끝난 DRL 모델을 사용하는 BS에 Input이 들어갔을 때, Output(Decision)을 뽑아내기까지 걸리는 Run time을 알고 싶었다. 당연히, Train에 들어가는 시간보다는 훨씬 적게 들고, DRL 모델의 구조에 따라 다를 것이다. 하지만, Machine Learning 알고리즘이 복잡해진다면, Scheduling time이 5G, 6G의 Latency Requirement 입장에서는 크게 느껴질 수도 있을 것이라 생각했기 때문에, 이에 대해서도 추후에 알아봐야겠다는 생각을 했다.

     

    Reference

    [1] R. Shafin, L. Liu, V. Chandrasekhar, H. Chen, J. Reed and J. C. Zhang, "Artificial Intelligence-Enabled Cellular Networks: A Critical Path to Beyond-5G and 6G," in IEEE Wireless Communications, vol. 27, no. 2, pp. 212-217, April 2020, doi: 10.1109/MWC.001.1900323.

    [2] H. Chang et al., “Distributive Dynamic Spectrum Access  through Deep Reinforcement Learning: A Reservoir Computing - based Approach,” IEEE Internet Things J., vol. 6, no. 2, April 2019, pp. 1938–48

    [3] S. Chinchali et al., “Cellular Network Traffic Scheduling with Deep Reinforcement Learning,” 32nd AAAI Conf. Artificial Intelligence, 2018.

    반응형

    댓글

Designed by Tistory.