‘AI 교과서’ 저자가 말하는 인공지능과 공존의 길
인공지능을 둘러싼 논쟁에서 빠지지 않는 주제는 ‘인공지능이 사람을 능가하는 상황이 과연 올 것인가’이다. 기술 발달로 인해 결국엔 사람보다 뛰어난 지능을 지닌 ‘강한 인공지능(Strong AI)’이나 ‘일반 인공지능(Artificial General Intelligence)’의 등장에 관한 논쟁이다. 스티븐 호킹, 빌 게이츠, 일론 머스크 등 저명인사들이 한목소리로 사람을 능가하는 인공지능은 재앙이 될 것이라고 여러 차례 경고에 나선 바 있다. 한편 인공지능 연구자나 산업종사자들은 “현재의 인공지능 개발 수준은 지극히 낮은 단계이고 강한 인공지능은 공상과학적 상상일 뿐 현실에서는 기우에 불과하다”고 반박하곤 했다. 인공지능 종사자들이 내세운 주장에는 “강한 인공지능을 우려하는 사람들은 인공지능을 개발하거나 연구하는 사람들이 아닌 유명인들일 뿐이고, 정작 인공지능 전문가가 아니다”라는 것도 근거로 들어 있다. 인공지능 분야에 대해서 잘 모르기 때문에 ‘강한 인공지능’을 막아야 한다고, 비전문가들이 황당한 주장을 펼친다는 것이다.
이 논란을 무의미한 것으로 만들 수 있는 이 분야 최고의 전문가가 무대에 올랐다. 13개 언어로 번역돼 118개국의 1500여 대학에서 교재로 쓰이고 있는 <인공지능: 현대적 접근방식>의 저자 스튜어트 러셀 미국 버클리대 컴퓨터공학 교수가 그 주인공이다.
러셀은 2021년 국내에서 <어떻게 인간과 공존하는 인공지능을 만들 것인가>(원제: 휴먼 컴패티블)를 펴냈다. 인공지능의 위협을 인정하고 새로운 인공지능 개발 모델을 제시하는 책이다. 기존 저서가 공학도와 전공자를 위한 ‘AI 교과서’였다면, 이번 책은 인공지능이 불러온 다양한 문제들에 관심있는 일반 독자를 위한 책이다. 그는 인공지능에게 인간보다 더 지적인 존재가 되라는 잘못된 목적을 부여한다면 기계는 그 목적을 달성할 것이고 인간은 패배하는 파국이 올 것이라고 경고한다.
어니스트 러더퍼드는 1908년 노벨화학상 수상자다. 양성자를 발견하고 원자핵의 구조를 밝혀내 오늘날과 같은 원자 모형을 만들어낸 인물로, 20세기 초반 세계에서 가장 유명하고 권위 있는 핵물리학자였다. 러더퍼드는 1933년 9월 영국의 학회 연설에서 “원자핵이 엄청난 양의 에너지를 갖고 있지만, 그 원자를 변화시켜 힘의 원천으로 삼으려는 것은 헛짓거리다”라고 단언했다. 이튿날 런던 신문에 실린 러더퍼드의 발언을 읽던 헝가리 물리학자 레오 실라르드는 바로 중성자 유도 핵 연쇄반응을 생각해냈고, 이는 특허등록에 이어 핵무기 개발로 연결됐다.
러셀이 ‘강한 인공지능’ 등장을 대비해야 한다는 주장을 펼치며 내세운 핵물리학 분야의 사례다. 러셀은 “인간의 창의성을 깔보는 쪽에 내기를 거는 행위는 어리석은 짓”이라고 말한다. 강한 인공지능의 등장이 필연적인 것이라는 게 아니라, 과학 발달의 역사를 볼 때 ‘대비’해야 한다는 주장이다.
스탠퍼드대학이 2016년 펴낸 <AI 100 보고서>는 “인공지능이 인류에게 임박한 위협이라고 걱정할 이유가 전혀 없다”고 밝혔지만, 러셀은 이 주장의 잘못을 지적한다. 이 보고서를 비롯한 인공지능 옹호론자들은 인공지능에 대한 두려움과 의심이 인공지능 개발을 저해하는 주 요인이라며, 강한 인공지능에 대한 우려가 화성의 인구과잉을 걱정하는 것처럼 ‘허수아비 때리기’ 오류라고 지적한다. 러셀은 이에 대해 강한 인공지능에 대한 우려가 그 등장 시기의 임박성 때문은 아니라며, 장기적 위험이라고 해도 걱정하기 알맞은 때는 나중 시점이 아니라고 말한다. 또한 ‘화성의 인구과잉 걱정’이라는 주장에 대해서도 현재 화성은 한 사람도 살 수 없는 상황이기 때문에 이미 화성 자체가 인구 과잉인 상태라고 반박한다.
강한 인공지능이 불가피하다는 주장의 논리 기반인 어빙 굿의 ‘지능 폭발’ 개념에 대해서 러셀은 동의하지 않는다. 그는 ‘지능 폭발’은 기계가 자신의 소프트웨어와 하드웨어의 발전된 버전을 스스로 설계할 수 있을 정도로 충분히 똑똑해질 때 어떤 일이 일어날지를 말하는데, 이는 기계가 스스로의 소프트웨어와 하드웨어를 비약적으로 발전시킬 능력이 없다면 결코 시작될 수 없다고 말한다. 현재의 기술 수준에서 기계를 빠르게 만드는 것은 “잘못된 답을 더 빠르게 얻는 방법일 뿐”이라는 게 그의 주장이다.
지능 폭발과 강한 인공지능의 등장은 미지수이지만, 인공지능 기술의 발달은 인간과 기계의 관계에 근본적 전환을 가져온다는 게 그의 견해다. 오늘날 인공지능과 제어이론에 지대한 영향을 끼친 사이버네틱스의 창시자 노버트 위너는 1964년 저서 <신과 골렘>에서 “이전에 인간의 부분적이고 미흡한 목적관이 비교적 무해했던 까닭은 그러한 목적을 실행하는 데 기술적 한계가 있었기 때문이다.… 이는 인간의 무능함 덕분에 인간의 어리석음이 끼칠 전면적인 파괴적 충격으로부터 보호를 받아온 영역의 하나다”라고 말했다.
하지만 러셀은 “이 보호의 시대가 빠르게 끝나가고 있다”고 말한다. 다양한 분야에서 과학기술이 비약적으로 발달하며, 사람은 거의 모든 영역에 인공지능과 같은 첨단 기술을 적용하고 인간의 목적을 기계를 통해 광범하게 이전하고 있는 상황이다.
러셀은 기계를 인간이 부여한 목표를 수행하는 도구로 보고, 인공지능 개발의 표준 모형 또한 인간이 인공지능에 어떠한 목적을 부여하느냐에 따라 그 쓰임이 달라진다는 주장을 한다. 그래서 인간이 기계에 인간보다 더 지적인 존재가 되라는 ‘잘못된 목적’을 부여하면 장기적으로 기계는 그 목적을 달성하고 인간은 패배할 것이라고 말한다.
인공지능 분야 최고의 전문가인 러셀이 우리에게 인공지능에 대비하라고 일러주는 길은 그래서 기계보다 사람을 연구하는 방법이다. 교육제도와 과학탐구를 물질세계보다 인간에 초점을 맞춰야 한다고 강조한다. 미래엔 지적 노동이건, 물리적 노동이건 반복적 업무는 기계의 몫이다. 그는 미래에 사람들의 주요한 역할은 인간에 대한 이해를 바탕으로 다른 사람들의 삶을 개선시켜주는 인간 관계 기반의 직무일 것이라고 전망한다. 인공지능이 발달할수록 인간에 대해 현재보다 훨씬 깊은 이해가 필요하다는 주장이다.
인공지능이 사람의 일을 대신하게 될 때 인간에게 주어질 일을 찾으려면, 어떻게 해야 할까? 러셀은 기계보다 사람이 잘 할 수 있는 일이 무엇인지, 또 사람이 하기를 선호할 일이 무엇인지 질문해야 한다고 말한다. 이는 대부분 ‘돌봄’ 직무다. 어린이나 노인 보살피기, 심리상담 등 전통적인 활동만이 아니다. 진로 설계 전문가, 인테리어 디자이너 등의 직업들도 사실은 고객과 소통하며 개인의 삶을 발전시키는 일이다. 친구도 개인의 삶을 발달시키는 목적에선 매한가지다. 인문학과 인간학이 인류의 미래에 핵심적이라고 러셀이 말하는 이유다.
러셀의 기술통제에 관한 견해도 주목할 만하다. 그는 답이 없더라도 문제를 인식하고 거론하는 게 중요하다는 태도를 강조한다. 그는 필자와의 2021년 8월 <한겨레> 인터뷰에서 이렇게 말했다.
“아무도 문제를 인식하지 않거나 얘기하지 않는데 문제가 해결될 것이라는 생각은 내게 이해되지 않는다. 체르노빌 핵발전소의 문제는 알려져 있었지만, 설계자들이 언급하는 게 금지되어 있었다. 그럼에도 문제는 자연스럽게 해결되지 않았고 발전소는 폭발했다. 연구자들이 문제를 솔직하게 논의하는 게 필수적이다. 우리가 문제를 의도적으로 숨긴다면 사람들이 어떻게 우리를 신뢰할 수 있겠는가. 우리는 인공지능의 위험성을 해결하지 못하는 한 인공지능의 혜택을 누릴 수 없다. 내가 제안한 새로운 인공지능 모델은 인공지능이 우리보다 훨씬 능력이 뛰어날 때에도 인간이 통제권을 잃는 상황을 방지할 수 있다고 믿는다.”