earticle

논문검색

협업 기계 학습에서의 통신 상황을 고려한 학습과 추론 연산 분배에 대한 분석 연구

원문정보

Analysis of Training and Inferencing Processing Allocation in Cooperative Machine Learning with Considering Communication Situation

이웅희, 김황남

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Due to the development of artificial intelligence (AI) and computing technologies supporting AI, services utilizing AI technologies are provided in so many areas. In addition, advances in network and cloud technologies also allow devices with low computing power to directly utilize AI by performing training and inference in the cloud. Recently, the cooperative machine learning, in which not only the cloud but also mobile devices perform computations for learning and inference together, is a form of learning techniques attracting attention. For this form of learning, when learning and performing inference operations using mobile devices, it is important to consider the performance of the application as well as the latency and power consumption in the mobile devices. Therefore, in this paper, we conduct analyses in the network situation when the cooperative machine learning is performed on multi-hop-based networks connected to the cloud. By considering the communication situation, from the latency and power consumption perspectives, we conduct the analyses of major cases depending on the distribution of learning and inference operations, All in-cloud case, Training in-cloud case, and All on-device case. Through the analyses, we show that the distribution method of learning and inference computation should be chosen with considering the communication situation. Furthermore, we show that, in the multi-hop networks, the overhead of communication can increase dramatically as the number of hops increases.

한국어

인공지능 기술과 이를 뒷받침 해줄 수 있는 컴퓨팅 기술의 발전으로 인해 매우 많은 영역에서 인공지능 기술을 활용한 서비스를 제공하고 있다. 이와 더불어 네트워크와 클라우드(Cloud) 기술의 발전으로 인해 인공지능의 학습 (Training)과 추론(Inferencing)을 클라우드에서 수행함으로써 컴퓨팅 성능이 낮은 기기들 또한 인공지능을 직접적 으로 활용할 수 있다. 최근에는 클라우드 뿐 아니라 모바일 기기들이 함께 학습과 추론을 위한 연산들을 나누어 수행 하고 이를 다시 종합하는 협업 기계 학습은 많은 주목을 받고 있는 학습 기법들 중 한 형태이다. 이러한 형태의 학습의 경우, 모바일 기기들을 활용하여 학습하고 추론 연산을 수행할 때, 응용의 성능뿐 아니라 통신 상황과 그로 인한 지연 시간 및 모바일 기기들에서 소모되는 전력을 종합적으로 고려하는 것은 매우 중요하다. 따라서 본 논문에서는 클라우 드와 연결된 멀티 홉 기반의 네트워크에서 협업 기계 학습을 수행할 때, 학습 및 추론 연산 분배에 따른 주요 사례(All in-cloud, Training in-cloud, All on-device)들에 대해, 통신 상황을 고려하여 지연시간과 소모 전력에 대한 분석 을 수행하였다. 분석을 통해, 통신 상황을 고려하여 학습 및 추론 연산 분배 방식을 선택해야 함을 보였으며, 멀티 홉 네트워크인 경우 홉 수가 증가할수록 통신 상황에 따른 오버헤드가 급격히 증가될 수 있음을 보였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. 분석
3.1 분석을 위해 가정된 상황
3.2 All in-cloud 사례 분석
3.3 Training in-cloud 사례 분석
3.4 All on-device 사례 분석
3.5 분석 결과
4. 결론
Acknowledgements
부록
참고문헌

저자정보

  • 이웅희 Woonghee Lee. 한성대학교 IT융합공학부
  • 김황남 Hwangnam Kim. 고려대학교 전기전자공학부

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.