earticle

논문검색

MR-IoT Session

Edge TPU 에서의 실시간 DNN 작업을 위한 SRAM 할당 및 모델 분할 기법

원문정보

SRAM Allocation and Model Partitioning for Real-time DNN Tasks on Edge TPU

한창헌, 오상은

피인용수 : 0(자료제공 : 네이버학술정보)

초록

한국어

딥러닝 가속기는 저전력 고효율의 특징을 가지며, 임베디드 시스템에서 직접 DNN 작업을 수행할 수 있어 높은 반응성을 얻을 수 있다. 본 논문에서는 실시간성을 보장하기 위한 Edge TPU에서의 우리의 프레임워크를 제안한다. 이를 위해 Edge TPU 내부적으로 실시간성을 방해하는 문제를 발견하였으며, SRAM 할당 및 모델 분할을 지원하는 프레임워크를 소개한다. 최적의 SRAM 할당 및 모델 분할 개수를 찾기 위해 혼합 정수 계획법 기반의 알고리즘을 고안하였고, 이를 우리의 프레임워크에 적용하여 Edge TPU에서의 실시간성을 극대화할 수 있었다.

목차

요약
1. 서론
2. SRAM 할당 및 모델 분할 프레임워크
3. 결론 및 향후 연구
Acknowledgement
참고문헌

저자정보

  • 한창헌 AI 융합네트워크학과 아주대학교
  • 오상은 AI 융합네트워크학과 아주대학교

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.