earticle

논문검색

엔터테인먼트

신경망 학습에서 프라이버시 이슈 및 대응방법 분석

원문정보

Analysis of privacy issues and countermeasures in neural network learning

홍은주, 이수진, 홍도원, 서창호

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

With the popularization of PC, SNS and IoT, a lot of data is generated and the amount is increasing exponentially. Artificial neural network learning is a topic that attracts attention in many fields in recent years by using huge amounts of data. Artificial neural network learning has shown tremendous potential in speech recognition and image recognition, and is widely applied to a variety of complex areas such as medical diagnosis, artificial intelligence games, and face recognition. The results of artificial neural networks are accurate enough to surpass real human beings. Despite these many advantages, privacy problems still exist in artificial neural network learning. Learning data for artificial neural network learning includes various information including personal sensitive information, so that privacy can be exposed due to malicious attackers. There is a privacy risk that occurs when an attacker interferes with learning and degrades learning or attacks a model that has completed learning. In this paper, we analyze the attack method of the recently proposed neural network model and its privacy protection method.

한국어

PC, SNS, IoT의 대중화로 수많은 데이터가 생성되고 그 양은 기하급수적으로 증가하고 있다. 거대한 양의 데이 터를 활용하는 방법으로 인공신경망 학습은 최근 많은 분야에서 주목받는 주제이다. 인공신경망 학습은 음성인식, 이미 지 인식에서 엄청난 잠재력을 보였으며 더 나아가 의료진단, 인공지능 게임 및 얼굴인식 등 다양하고 복잡한 곳에 광범 위하게 적용된다. 인공신경망의 결과는 실제 인간을 능가할 정도로 정확성을 보이고 있다. 이러한 많은 이점에도 불구하 고 인공신경망 학습에는 여전히 프라이버시 문제가 존재한다. 인공신경망 학습을 위한 학습 데이터에는 개인의 민감한 정보를 포함한 다양한 정보가 포함되어 악의적인 공격자로 인해 프라이버시가 노출될 수 있다. 공격자가 학습하는 도중 개입하여 학습이 저하되거나 학습이 완료된 모델을 공격할 때 발생하는 프라이버시 위험이 있다. 본 논문에서는 최근 제안된 신경망 모델의 공격 기법과 그에 따른 프라이버시 보호 방법을 분석한다.

목차

요약
Abstract
1. 서론
2. 연구배경
2.1 인공신경망(Artificial Neural Network : ANN)
2.2 차분 프라이버시(Differential Privacy : DP)
2.3 동형 암호(Homomorphic Encryption : HE)
2.4 안전한 다자간 계산(Secure Multiparty Computation: SMC)
3. 신경망에 대한 프라이버시 이슈
3.1 학습 단계에서의 프라이버시 이슈
3.2 예측 단계에서의 프라이버시 이슈
4. 신경망에 대한 프라이버시 대응 방안
4.1 학습 단계에서의 대응 방안
4.2 예측 단계에서의 대응 방안
5. 결론
REFERENCES

저자정보

  • 홍은주 Eun-Ju Hong. 공주대학교 융합과학과 박사과정
  • 이수진 Su-Jin Lee. 공주대학교 수학과 석사과정
  • 홍도원 Do-won Hong. 공주대학교 응용수학과 교수
  • 서창호 Chang-Ho Seo. 공주대학교 응용수학과 교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,000원

      0개의 논문이 장바구니에 담겼습니다.