원문정보
Artificial Intelligence Algorithm Based Digital Circuit Performance Prediction
초록
영어
This work proposes an efficient and accurate method for the method to predict the speed of a digital circuit. As technology scales down, the enlarged process variation makes the circuit speed more uncertain. The conventional Monte Carlo (MC) simulation necessitates an impractically large number of simulations. An alternative approach, Quasi MC simulation requires smaller number of simulations by assuming the delay to follow the normal distribution. However, it is not accurate because the normal distribution assumption does not hold anymore. The proposed method utilizes the artificial intelligence algorithm which adopts the probability model that reflects the unique characteristics of the given transistors and is trained by a practically acceptable number of MC simulation data. Our results show that the proposed method can speed up the delay prediction procedure by 106 times compared to MC, and it can achieve better accuracy by 23∼81 times compared to QMC.
한국어
본 논문에서는 디지털 반도체 회로의 속도를 결정하는 딜레이를 칩 제작 전 개발 단계에서 정확하고 효 율적으로 예측하는 방법을 제안한다. 반도체 공정이 미세화되면서 공정 과정에서 편차가 심해지고, 이에 반도체로 구현된 성능에 대한 불확실성이 증가하여 개발된 반도체 칩의 성능을 예측하기가 더욱 어려워졌다. 특히 반도체 공정 편차를 개발과정에 모델링해서 회로 시뮬레이션을 통해 직접 성능 분포를 Monte Carlo (MC) simulation은 목표 수율이 높은 최근 개발 환경에서는 비현실적으로 오래 시간을 필요로 한다. 성능 특성을 정규분포로 가정하 여 소수의 MC simulation data를 통해 전체 분포를 추정하는 Quasi MC 방법은 딜레이 분포가 높은 수율 영역 에서 정규분포를 벗어나므로 정확성이 매우 떨어지는 한계가 있다. 제안하는 방법은 반도체 공정의 특성이 반영된 모델을 체계적으로 구축한 후, 적은 수의 MC simulation data를 이용하여 해당 모델을 훈련하는 인공지능 알고리 즘을 통해 반도체 회로의 성능을 예측하는 방법을 제안한다. MC simulation 대비 106배 소요시간을 줄였으며, QMC대비 23∼81배 정확성을 개선하였다.
목차
Abstract
Ⅰ. 서론
Ⅱ. 기존 딜레이 추정의 한계
Ⅲ. 제안 딜레이 예측 모델
3.1 단일 MOSFET 회로 딜레이 분포 도출
3.2 일반화된 분포 도출
3.3 인공지능 기반 딜레이 추정 모델
Ⅳ. 실험 결과 및 분석
Ⅴ. 결론
REFERENCES