초록 열기/닫기 버튼

인공지능은 우리의 생활에 더 자주, 더욱 광범위하게 개입하고 있고 심지어 중요한 결정에 관해서도 점점 더 깊이 개입하고 있다. 그러나 기술적 성공에 기대어 눈앞의 편익이나 긍정적 산출물에 도취한 나머지 그 시스템의 설계 또는 학습과정에서의 오류를 애써 무시하고 있거나 축소하기도 한다. 또한 현실적으로도 기술적 발전에 따른 규범적 공백은 여전하다. 그 인공지능기술에 대한 규율적 대응, 기술활용에 대한 표준화된 인증 및 관리, 감독 방안, 그리고 그 책임분배에 대해 명확한 입장을 정립하고 있지 못한 상황이다. 유럽은 이 문제에 대해 깊이 있는 논의를 거쳐 인공지능으로부터 발생하는 오류로 발생하는 피해를 방지하고 그 관리를 위해 입법을 추진하게 되었다. 그 결과 EU는 그동안 장시간 논의를 끌어온 결과, 드디어 최근에 세계 최초로 “AI규제법”에 합의하기에 이르렀다. EU의 인공지능의 안전과 책임 확보방안은 기존의 법제인 제조물안전지침, 기계지침 등을 적용하되, 제조물에 대한 리스크 평가 인증 제도 등을 도입하고 있다. 인공지능이 적용된 제조물의 특수성 즉 연결성, 자동성, 데이터 의존성, 모호성, 복잡성 등을 고려하여 리스크 평가 조치, 리스크 대응 조치 등에 관한 도입 논의 역시 주목해야 할 것이다. 따라서 EU의 리스크를 기반으로 한 안전과 책임 논의로써 신뢰가능한 인공지능 설계를 위한 법적인 체계의 논의는 우리에게도 참고가 될 것이다. 이를 기초로 신뢰가능한 인공지능에서 제안하고 있는 평가체계에 바탕하여 평가리스트를 마련함으로써 인공지능이 적용된 제조물에 대한 평가방식도 구체적으로 마련할 수 있을 것이다. 결론적으로 인공지능에 대한 규제내용을 중복적으로 제정하기보다는 향후 기술적 발전을 감안하여 기술중립성을 기초로 일관된 방향을 정하여 제시하는 것이 필요할 것이다. 이를 위하여 EU의 인공지능에 관한 법, 그리고 논의들, 특히 인공지능에 대한 리스크를 평가하기 위한 평가체계와 관리방안 그리고 책임배분 등은 우리의 법제화에 기여할 수 있으리라 사료된다.


Obwohl künstliche Intelligenz zunehmend in wichtige Entscheidungen in unserem Leben involviert ist, sind wir von ihren positiven Ergebnissen so berauscht, dass wir versuchen, die Fehler des Systems und in Wirklichkeit die Verwaltung und Überwachung des Einsatzes künstlicher Intelligenz und deren Auswirkungen zu ignorieren Es gibt keine klaren Regelungen zur Verantwortung. Nach eingehenden Diskussionen zu diesem Thema hat Europa Gesetze zur Vermeidung und Bewältigung von Schäden durch Fehler aufgrund künstlicher Intelligenz vorangetrieben. Infolgedessen einigte sich die EU nach langer Diskussion schließlich auf das weltweit erste „KI-Regulierungsgesetz“. Der Plan der EU zur Gewährleistung der Sicherheit und Verantwortung künstlicher Intelligenz wendet bestehende Gesetze wie die Produktsicherheitsrichtlinie und die Maschinenrichtlinie an, führt aber auch ein Risikobewertungs- und Zertifizierungssystem für Produkte ein. Angesichts der besonderen Eigenschaften von Produkten, auf die künstliche Intelligenz angewendet wird, wie Konnektivität, Automatisierung, Datenabhängigkeit, Mehrdeutigkeit und Komplexität, sollten auch Diskussionen über die Einführung von Risikobewertungsmaßnahmen und Risikoreaktionsmaßnahmen berücksichtigt werden. Daher scheint die Diskussion über die Rechtsordnung zur Gestaltung vertrauenswürdiger künstlicher Intelligenz im Rahmen der risikobasierten Diskussion der EU zu Sicherheit und Verantwortung auch für uns klare Implikationen zu haben. Durch die Erstellung einer Bewertungsliste auf der Grundlage des von zuverlässiger künstlicher Intelligenz vorgeschlagenen Bewertungssystems wird es möglich sein, eine detaillierte Bewertungsmethode für Produkte vorzubereiten, auf die künstliche Intelligenz angewendet wird. Anstatt immer wieder Vorschriften zur künstlichen Intelligenz zu erlassen, ist es notwendig, eine einheitliche Richtung vorzugeben und zu präsentieren, und zu diesem Zweck wird davon ausgegangen, dass die Gesetze und Diskussionen zur künstlichen Intelligenz in der EU zentrale Themen sein werden, die es wert sind, erwähnt zu werden.