earticle

논문검색

디바이스와 모듈

텐서 처리부의 분석 및 파이썬을 이용한 모의실행

원문정보

Analysis of Tensor Processing Unit and Simulation Using Python

이종복

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

The study of the computer architecture has shown that major improvements in price-to-energy performance stems from domain-specific hardware development. This paper analyzes the tensor processing unit (TPU) ASIC which can accelerate the reasoning of the artificial neural network (NN). The core device of the TPU is a MAC matrix multiplier capable of high-speed operation and software-managed on-chip memory. The execution model of the TPU can meet the reaction time requirements of the artificial neural network better than the existing CPU and the GPU execution models, with the small area and the low power consumption even though it has many MAC and large memory. Utilizing the TPU for the tensor flow benchmark framework, it can achieve higher performance and better power efficiency than the CPU or CPU. In this paper, we analyze TPU, simulate the Python modeled OpenTPU, and synthesize the matrix multiplication unit, which is the key hardware.

한국어

컴퓨터 구조의 연구 결과, 특정 영역의 하드웨어를 개발하는 과정에서 가격 대 에너지 성능의 획기적인 개선이 이뤄진다고 알려져 있다. 본 논문은 인공신경망(NN)의 추론을 가속화시킬 수 있는 텐서 처리부(TPU) ASIC에 대한 분석 을 수행하였다. 텐서 처리부의 핵심장치는 고속의 연산이 가능한 MAC 행렬곱셈기와 소프트웨어로 관리되는 온칩 메모 리이다. 텐서 처리부의 실행모델은 기존의 CPU와 GPU의 실행모델보다 인공신경망의 반응시간 요구사항을 제대로 충족 시킬 수 있으며, 수많은 MAC과 큰 메모리를 장착함에도 불구하고 면적이 작고 전력 소비가 낮다. 텐서플로우 벤치마크 프레임워크에 대하여 텐서 처리부를 활용함으로써, CPU 또는 GPU보다 높은 성능과 전력 효율을 나타낼 수가 있다. 본 논문에서는 텐서 처리부를 분석하고, 파이썬을 이용하여 모델링한 OpenTPU에 대하여 모의실행을 하였으며, 그 핵 심장치인 행렬 곱셈부에 대한 합성을 시행하였다.

목차

요약
Abstract
I. 서론
II. 기존의 신경망 하드웨어 연구에 대한 고찰
III. 텐서 처리부의 구조 및 구현
1. 배경 및 텐서 처리부의 블럭도
2. 텐서처리부의 행렬 곱셈부
3. 텐서 처리부의 명령어
4. 시스톨릭 처리 방식
IV. 텐서 처리부 모의실험 환경 및 결과
1. 모의실험 환경
2. 명령어 집합
3. 마이크로 구조
4. 모의실험 결과 및 합성
V. 결론
References

저자정보

  • 이종복 Jongbok Lee. 정회원, 한성대학교 전자정보공학과

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

      0개의 논문이 장바구니에 담겼습니다.