초록 열기/닫기 버튼

인공지능이란 컴퓨터가 학습할 수 있음을 전제로 사용되는 개념이다. 인공지능의 학습 대상은 데이터이고 학습의 결과는 일정한 규칙(rule)이다. 특정(specific)한 데이터를 학습해서 컴퓨터가 일반적(general)인 규칙을찾아낸다. 학습을 마친 인공지능은, 즉 인공지능 모델은 일반적 규칙을 적용하여 개별 사건에 대해서 추론(inference)한다. 법적판단에 해당하는 인공지능 모델의 추론이 법적논증으로 성립될 수 있다. 또는 인공지능 모델이 법적논증의 근거로서 기능할 수도 있다, 즉 법규범과 경험적 명제에서 연역적 귀결의 근거로서 일정한 규칙이나 절차 또는 명제가 찾아지면 법적논증은 성립한다. 머신러닝 알고리즘은 문언을 읽고 법리에 따라 해석하여 연역적으로 사고하는 것이 아니라, 피처를 선별한 데이터, 즉 가공데이터를 정수(integer)로 연산해서 추론의 규칙을 도출한다. 따라서 연역적 사고에 따른 논리적 타당성은 측정될 수 없고, 추론규칙의 정확도가 계산된다. 딥러닝의 BERT 모델은 함수식을 도출하고 그에 따라서 추론을 한다. 따라서 주어진 법리가 논리적으로 타당하게 적용되는가의 여부가 아니라추론 규칙의 정확도, 즉 함수식의 정확도가 계산된다. 머신러닝 피처 엔지니어링과는 달리, BERT 모델은 언어의 이해를 전제로 하기에 수식의 정확도를 둘러싸고 다양한 쟁점이 제기된다. BERT 모델의 정확도가 신뢰되지 않는다면 법리적용의 타당성 요건이 충족되지 않는다. 또한 법리의 이론적 정당성에 관해서는, 약관 라벨링 모델은 300개의 데이터셋을 학습하여 약관규제법에 따라 무효 라벨링과 유효 라벨링에 각각해당하는 함수식을 도출한다. 300개의 데이터셋 각각은 약관규제법 조항에 따라 무효 또는 유효로 판정되는 조문을 담고 있다. 달리 말하면 데이터셋 각각은 약관규제법에 따라서 유효 또는 무효로 판정되는 사실관계에해당한다. 그래서 그러한 사실관계와 라벨링간의 관계를 BERT를 이용한 라벨링 모델이 학습해서 도출하는 함수식은 약관규제법 조항의 해석 규칙내지는 적용 원리를 담고 있다. 그래서 약관 라벨링 모델의 추론이 법적논증이기 위해서는 그 함수식이 법리의 정당성 요건을 충족하야야 한다. 정당성 요건중의 하나는 보편성이다. 사람이 통제할 수 있는 과정이 매우 제한적이라는 점에서 BERT 모델은 사람에 의한 편향성 문제를 겪지않을 것이고, 그래서 보편성을 충족할 수도 있다. 그러나 편향성 문제가 없는 점과는 대비되는 쟁점으로서, 사람의 통제가 없다면 법리를 적용하는 것이 정당한가에 관한 가치체계가 모델의 연산에 주입될 수 없다는 쟁점은제기된다. 따라서 약관 모델링은 법적논증으로서 성립된다고 보기 어렵다.


Artificial intelligence as a concept is based upon the presupposition that computer is able to learn. The object of the learning is the data, and the result of the learning is a sort of rule. AI learns and finds training data and general rules. AI may perform the inference regarding the specific case according to the general rule. Such inference as a sort of legal decision may be equal to a valid legal argumentation. AI model may also operate as a logical basis for the legal argumentation. Legal argumentation is valid as legal norms and empirical propositions is providing the deductive basis for a certain rulem or propositions. The output of machine learning feature engineering model is not the result of deductive reasoning over the text but the inference based upon the rules resulting from integer calculation of the feature. Therefore, validity of the logical reasoning is not to be witnessed. The precision will be measured. BERT model has learned the 300 datasets with labelled data and made the inference function corresponding each labelling such as valid article or invalid article of end user agreement. 300 datasets are made of 300 article of end user agreement. In other words, each datasets equal to the specific relevant factual statetement. Therefore, the BERT classification model returns the inference function including the rule and rationale of interpretation of article of the agreement. One element of the justification of the rule and rationale consists in an universality. As objective calculation is free from the human bias, BERT model may fulfill such condition. However, a calculation may not entail value propositions such that BERT model inference is not a valid legal argumentation.