초록 열기/닫기 버튼

이 논문은 초지능의 실현 전망, 즉 인간의 지능을 능가하는 기계지능이 등장할 것인지 그 개연성을 평가한다. 논자는 초지능을 “사실상 모든 관심 영역에서 인간의 인지능력을 뚜렷이 상회하는 지능”으로 규정하는 보스트롬의 정의를 활용하면서 인공지능이 그러한 수준에 이르렀는지를 평가할 수 있는 수학적 구도를 제안한다. 그것은 인지능력의 다양한 요소들이 그 공간의 차원들에 대응하는 다차원의 추상적 공간에서 인간이나 특수한 기계지능 같은 지능 체계가 점유하는 부피를 평가하고 비교하는 것이다. 보스트롬이 말한 의미의 초지능이 실현된다면 그것은 이와 같은 다차원의 인지능력 공간에서 인간 수준의 지능이 점하는 부피를 고스란히 진부분집합으로 포함하는 부피로 나타날 것이다. 그러나 그처럼 다양한 인지능력의 차원들을 모두 포괄하는 기계지능을 개발하는 것은 비현실적 과제이고, 무엇보다도 인간의 지능이 계속 새로운 차원의 능력을 개발해낸다는 사실을 고려할 때 사실상 실현불가능한 과제다. 이로써 이 논문의 물음은 해결되었지만, 인간에게 없는 지능의 차원을 가진 인공지능이 등장할 수 있다는, 모종의 현실적 위험을 함축하는 새로운 문제가 제기된다. 지능이 작동하는 것처럼 보이는 현상이 있다고 해서 반드시 지능을 가진 존재, 곧 지능적 주체가 있다고 볼 이유는 없다. 그러나 진정한 지능적 주체의 존재 여부와 무관하게 우리는 인공지능 기술이 구현하는 날로 새로운 지능 현상을 우리의 제어가능성 범위 안에 두는 일에 유념하지 않으면 안 된다.


This paper prospects the future of machine intelligence and examines whether the “superintelligence” that surpasses the human intelligence will be realized. It suggests a mathematical framework for assessment of whether a machine intelligence has reached such a level, on the basis of Nick Bostrom's definition of superintelligence. One can measure and compare the volumes that each intelligent system contains in the multidimensional space, in which every dimension represents a specific element of cognitive ability. Superintelligence corresponds to a volume in that multidimensional space that includes the volume of human-level intelligence as its proper subset. Considering that the human intelligence continues to develop new dimensions of intelligence, it appears to be a practical impossibility, or at least a never-ending task to develop such superintelligence. Hereby it is argued that superintelligence in Bostrom’s sense shall not be realized. But we confront a new problem that implies significant risk. It is that AI can get a novel dimension of intelligence that we humans do not have. It is a real risk, because we will not be able to control properly what we do not understand. Even if there will be no superintelligent artificial agent in proper sense, we should care to keep the outcomes of AI technologies within the boundary of controllability.