초록 열기/닫기 버튼

인공지능 연구에서 중요한 위치를 차지하고 있는 머신러닝 연구가 가져올 사회적 효능에 대한 기대의 이면에는 그 부작용으로서 사회의 데이터에 기반을두고 생성된 알고리즘이 차별을 재생산하거나 사회의 차별적 구조를 고착시킬수 있다는 우려가 문제로 제기된다. 이 글은 머신러닝에 의한 특성추론이 어떻게 그와 같은 문제로 이어질 수 있는지 복잡한 머신러닝의 작동원리를 염두에두면서 그에 못지않게 복잡한 차별 개념의 의미와 구조를 분석한다. 또한 머신러닝 알고리즘이 어떤 방식으로 차별에 관한 법 모델과 연결될 수 있는지 살펴봄으로써 이른바 ‘4차 산업혁명’의 기반이자 사회의 지배 조건 중 하나가 될 수있는 인공지능 기술이 갖는 법적 함의의 일부를 추적한다. 차별 개념에는 사람 또는 사물의 차이를 인식하고 구별, 분리, 분류하는 맥락에서 사용될 경우 정당성이나 부당성의 평가에 종속되지 않는다는 측면에서 사실적이고, 정당성이나 부당성의 평가를 위해 전제된 상황을 묘사한다는 측면에서 서술적인 의미가 부여될 뿐만 아니라, 평등, 자유, 존엄성 등의 가치와 결합할 수 있다는 측면에서 규범적 의미 또한 중첩적으로 부여된다. 차별을 법적으로 규율하기 위한 차별금지법 모델을 구성하고 적용할 때 행위를 중심에 둘 것인지 아니면 결과에 중심을 둘 것인지, 그리고 각각의 행위와 결과를 구별 자체에 초점을 맞출 것인지 아니면 그 구별을 기초로 한 후행 조치에 초점을 맞출 것인지에 따라 차별의 불법성 여부도 첨예하게 갈라질 수 있다. 특히 차별 개념을 폭넓게 이해하는 간접차별 개념을 차별의 한 유형으로 포착하는 차별금지법 모델의 경우 어떤 특성을 기준으로 한 구별, 분리, 분류 그자체 또는 이에 기초한 그 후속 결정들에 대한 법적 규제 가능성을 폭넓게 열어둔다. 그러나 역설적으로 어떤 특성을 기준으로 삼는 형식적 구조를 갖는 차별금지법 모델은 그러한 특성과 무관한 또는 통계적 관련성이 높아 합리적으로보이는 또 다른 특성들을 추론해 내는 머신러닝을 통해 어렵지 않게 우회될 수있다. 또한 합리적 차별을 불법으로 규정하지 않는 차별금지법 모델에서 간접차별 또는 차별효과는 그 간접성 또는 부수성으로 인해 쉽게 정당화되거나 합리화될 수 있다는 점에서 대용물을 자유자재로 사용할 수 있는 머신러닝은 차별의 양식도 대부분 간접차별의 형태로 만들어 불법적인 차별의 영역 자체를불명확하게 만들 수 있다.


Machine learning is very important area of study in artificial intelligence (AI). AI is emphasized as the leading technology in the process of so-called ‘fourth industry revolution.’ But it also can function as one of governing conditions to manage partial systems of society. From this point of view, this article focuses on the discrimination issues in relation of machine learning inference, especially indirect discrimination. Machine learning system trained from dataset, which is collected and selected in social communication systems, may reproduce and reinforce discrimination by discovering the differential structure of society. The conception of discrimination in legal models is as complex as the mechanism of machine learning is. Descriptive meanings of discrimination such as distinction, division, and classification make the legal models of anti-discrimination subscribe to cognitive operations. Then normative meanings of discrimination which are connected to the virtues such as liberty, equality, and dignity make these significant. It is possible that legal models of anti-discrimination are constituted to be action-centric or result-centric. We can also construct them to be applied to distinction as such or following decision on the basis of that. However, in case that machine learning systems infer new or statistically rational features in the dataset from social system, feature-centric or rationality-centric legal models of anti-discrimination may become useless. Because a lot of proxies, which are utilized in machine learning process to correlate data, mask the features on the basis of which prohibited to decide and make those rational reasons of decision-making. This is why that it should be addressed in terms of asking for a reflective review on the limitations of anti-discrimination law that form social system to protect human beings.