earticle

논문검색

알고리즘 혁신의 민사적 쟁점

원문정보

Civil Issues in Algorithmic Innovation

조장우

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

If damage compensation is problematic due to hatred, discrimination, or biased results caused by algorithms, it is difficult to prove intentional or negligence, and only mental damage is likely to be problematic, so the effectiveness of relief is not great. In this regard, it is necessary to interpret the algorithm as a software product and apply the "defect estimation" provision of the 「Product Liability Act」 or apply the provisions of Article 29 of the 「Cloud Computing Development and User Protection Act」. Considering that it is remarkably difficult to prove due to information asymmetry, switching the burden of proof based on the risk liability law is considered a realistic way to remedy after death. Since it is not practically easy to receive ex-post relief for civil liability, it is also necessary to refer to the introduction of liability insurance, deduction, or compensation accumulation system, as in Article 39-9 newly established in the revision of the 「Personal Information Protection Act」. On the other hand, foreign legal trends generally erase the obligation to notify and explain algorithm service providers and give users the right to consent and choice in a way that users do not know regardless of the user's intention. In the bills actively proposed by the 21st National Assembly, we also focus on enhancing transparency and accountability by imposing an obligation to explain and agree to profiling in advance, and granting users the right to refuse or choose. However, it would be desirable to regulate similar regulations through the 「Algorithm Service User Protection Act」 in terms of legal stability or the improvement of uniform legislation, rather than confusing similar regulations.

한국어

알고리즘에 의한 혐오나 차별 또는 편향적 결과 발생으로 인해 손해배상이 문제될 경우 고의나 과실의 입증이 어려울 뿐만 아니라 정신적 손해만이 문제될 가능성이 커서 구제의 실효성이 크지 않 다. 이러한 점에서 알고리즘을 소프트웨어 제조물로 해석하여 「제 조물책임법」의 “결함 추정”규정을 적용하거나 「클라우드컴퓨팅 발전 및 이용자 보호에 관한 법률」 제29조의 입증책임 전환규정을 유추적용할 필요가 있다. 정보의 비대칭으로 인해 입증이 현저히 곤란한 점을 고려하면 위험책임법리에 근거하여 입증책임을 전환하 는 것이 사후적 구제를 위한 현실적인 방안으로 생각된다. 소액의 배상규모와 번거로운 소송절차로 인해 사법상 구제를 기피할 가능 성이 크다는 점에서 민사책임으로 사후적 구제를 받는 것이 현실적 으로 쉽지 않으므로 「개인정보보호법」의 개정에서 신설된 제39조 의9 항목과 같이 책임보험이나 공제가입제도 또는 배상액 적립제도 를 도입하는 것도 입법정책의 마련에 참고할 필요가 있다. 한편 이용자의 의사와 상관없이 이용자가 알지 못하는 방식으로 취향정보를 프로파일링하는 것에 대하여 외국 법제의 동향은 대체 로 알고리즘 서비스 제공자에게 고지와 설명의무를 지우며 이용자 에게는 동의와 선택에 관한 권리를 부여하고 있다. 우리도 21대 국 회에서 활발히 발의된 법안들에서 알고리즘 서비스 제공자에게는 설명의무와 프로파일링에 대한 사전동의 의무를 부과하고 이용자에 게는 적용거부권 또는 선택권을 부여함으로써 투명성과 책임성 제 고에 중점을 두고 있다. 그러나 유사한 내용의 규정이 여러 법률에 도입 시도되는 것은 각각의 법률이 적용대상이나 내용에 차이가 있 다 하더라도 중복규제와 수범자들의 혼란이 우려될 수 있으므로 유 사한 내용의 규정을 난립시키는 것 보다 가칭 「알고리즘 서비스 이용자 보호에 관한 법률」을 통해 알고리즘의 공정성과 프로파일링의 문제를 아울러 규율하는 방안도 법적 안정성 확보나 통일성 있는 법제의 정비 측면에서 고려할 필요가 있을 것이다.

목차

Ⅰ. 머리말
Ⅱ. 의도된 알고리즘의 공정성
1. 데이터의 가치중립
2. 민사책임의 실익
Ⅲ. 성향정보의 프로파일링(Profiling)
1. 성향 또는 취향정보의 법적 성질
2. 정보의 비대칭과 다크패턴(Dark Patterns)
3. 사전적 규율
Ⅳ. 규율 현황과 시사점
1.「알고리즘 책임법안(Algorithmic Accountability Act)」
2.「필터버블 투명성법안(Filter Bubble Transparency Act)」
3.「개인정보보호법(General Data Protection Regulation)」
4.「개인정보보호에 관한 법률(個人情報の保護に関する法律)」
5.「인공지능규제법(Artificial Intelligence Act)」
6.「AI 및 알고리즘 활용 지침(Using Artificial Intelligence and Algorithms)」
7. 우리 법제의 동향
Ⅴ. 맺음말
참고문헌
<국문초록>

저자정보

  • 조장우 Cho, Jang Woo. 영남대학교 강사, 법학박사.

참고문헌

자료제공 : 네이버학술정보

    ※ 기관로그인 시 무료 이용이 가능합니다.

    • 7,600원

    0개의 논문이 장바구니에 담겼습니다.