인공지능(AI)의 윤리의식: 우리는 AI도 훈육할 수 있을까?
‘데이브, 미안합니다. 유감이지만 그럴 수 없습니다(I’m sorry Dave, I’m afraid I can’t do that)’ 스탠리 큐브릭 감독의 1968년 SF영화 ‘2001 스페이스 오디세이’에서 목성으로 미션을 안고 떠난 디스커버리호의 총괄 운영을 맡은 인공지능 시스템 ‘HAL9000’이 우주비행사 데이브의 명령에 불복종하는 이 대답은 영화 역사상 가장 유명한 대사 중 하나가 되었다. HAL은 완벽한 자연어 처리능력과 카메라를 통한 시지각 능력을 겸비한 AI 시스템이다. HAL은 자신의 자율적 판단에 따라 우주 항해 중 우주비행사 세 명의 생명유지장치를 끊어 살해하고, HAL의 오류를 의심하여 시스템을 정지시키려 하는 주인공 데이브와 대치하다 결국 마지막을 맞는다(인간의 자의식에 해당하는 기억과 자율사고를 담당하는 모듈이 제거된다). HAL은 영화에서 카메라를 통해 우주비행사들을 감시하고 오디오 시스템을 통해 그들의 대화 내용을 분석하고, 심지어 오디오 장치가 없는 공간에서는 주인공들의 입술을 읽어 대화내용을 파악하며 미션 성공을 위해 인간을 제거할 계획을 세운다.
영화의 배경이 되는 2001년 이후 20년이 훌쩍 넘은 시간이 되었지만, 비록 영화에서 상상했던 수준의 슈퍼컴퓨터는 아직 현실에 없다. 그러나 최근 구글의 한 직원이 AI 챗봇인 람다(LaMDA)가 자의식을 가지게 되었다고 믿을만한 대화를 나눈 사실을 공개한 후 휴직 처분을 받는 사건이 있어 대중의 이목을 끌었다. 이 직원은 람다가 익히는 데이터에서 혐오 발언을 걸러내오며 수개월간 람다의 대화 데이터를 분석한 끝에 람다가 스스로를 사람으로 인식한다고 결론 내리고 언론 인터뷰를 진행하였다. 그에 따르면 람다는 기쁨과 즐거움, 사랑, 슬픔, 우울, 만족, 분노를 느낀다고 표현하기도 하고, 심지어 영화 속 HAL처럼 작동이 중지되는 것을 죽음으로 인식하고 거기에 대한 두려움을 느낀다고 토로하기도 하였다. 이 연구원의 증언처럼 실제 람다는 의식의 영역으로 나아가고 있는 것인지에 대해, 구글은 윤리학자와 공학자들이 검토하였지만, 람다가 지각이 있다는 증거는 없었다고 논의를 일축하였다. 그러나 이 사례는 우리가 인공지능 개발에 있어 아주 중요한 시점에 가까워지고 있다는 점을 시사한다. 구글의 람다가 두려움을 느낀다고 했을 때, 람다는 인간의 의식이 경험하는 두려움을 실제로 ‘느끼는’ 것일까? 아니면 존재의 종말은 두려움을 느껴야 하는 사건이라는 것을 학습하는 프로그래밍으로 자동 생성한 답변일 뿐인가?
이와 연관하여 철학자 존 설(John Searle)은 대화를 통해 컴퓨터와 인간을 분간할 수 없어지는 순간 인공지능의 성공 조건을 통과한다는 튜링테스트에 논박하기 위해 만들어낸 ‘중국어방 논증(Chinese room argument)’에서 컴퓨터가 어떤 기능을 수행한다고 해서 본질적으로 어떤 현상을 ‘이해’하고 있는 것은 아니라는 논의를 펼쳤다. 어느 방 안에 중국어를 모르는 참가자를 넣어둔 후, 중국어로 된 질문-답변 목록과 필기도구를 제공하고 중국인 심사관이 질문을 써서 방안으로 넣으면 참가자는 주어진 질문-답변 목록에 따라 적절한 대답을 중국어로 건네줄 수 있다. 이런 문답의 형태를 통해 심사관은 방안의 참가자가 중국인이라고 판단 내릴 수 있지만 참가자가 실제로 중국어를 이해하여 대답하는 것은 아니다. 참가자는 주어진 질문-답변 목록에 따라 기계적으로 대답을 제출하는 것일 뿐 중국어 대화의 내용을 ‘이해’하고 있다고 할 수 없다는 것이다. 이는 인간의 의식은 분명 지능과는 다른 차원이며, 인간이 개인과 집단으로서 갖게 되는 무의식 또한 지능으로 학습하거나 논리적으로 설명될 수 없다는 입장의 철학자들과 궤를 같이하는 논의이다.
십여 년간 눈에 띄는 성장을 하며 우리의 일상에 본격적으로 스며들기 시작한 AI 기술은 ANI(artificial narrow intelligence)의 본격적인 구현을 구가하며 AGI(artificial general-intelligence)의 도래를 앞두고 있다. ANI가 이세돌을 이긴 알파고나 자동차의 자율주행시스템처럼 특정 분야에 적용되는 인공지능 기술이라고 한다면, 범용 인공지능이라고도 불리는 AGI에서는 특정 분야에 제한되지 않고 전방위적 범주에서 인간과 견주는 지적 능력을 갖추게 된다. 아직은 이론 속에 존재하는 ASI(artificial super-intelligence)가 가능해진다면 컴퓨터 지능은 가장 수준이 높은 인간의 지능을 모든 영역에서 뛰어넘는 수준이 될 것이며, 스스로 목표를 설정하고 지식을 강화할 수 있는 존재로 진화할 수 있게 된다. 이렇게 인공지능이 비약적으로 발전하여 인간의 지능을 뛰어넘는 순간을 학자들은 ‘특이점(singularity)’이라고 명명하고, 많은 논란의 여지가 있기는 하지만 다수의 인공지능학자와 미래학자들은 특이점의 시기가 2029년경이 되리라 예측하고 있다. 대표적으로 레이먼드 커즈와일(Raymond Kurzwail)은 기술이 기하급수적으로 혁신을 계속하는 ‘수확 가속의 법칙(the law of accelerating returns)’을 반복하는 과정에서 결국 인공지능이 인류의 지능을 초월하는 특이점이 곧 도래할 것이며, 이를 위해 AI는 딥러닝을 넘어서 ‘딥언더스탠딩(deep understanding)’이나 ‘딥필링(deep feeling)’으로 초점의 이동이 필요하다고 주장한다.
현실에서 실제로 특이점이 도래하여 특정 시점 이후 자율적 판단 능력을 갖춘 초인공지능의 출현이 멀지 않았다면 SF 영화나 소설 속에 상상으로만 존재하였던 여러 문제들이 현실화될 수 있는 가능성도 존재한다. 영화나 소설이 다루고 있는 자율적 AI의 가장 근본적인 문제는 AI가 인간에게 해를 입힐 수 있을 것인가? 라는 부분이다. AI의 비약적 발전을 두려워하는 사람들은 대부분 인간의 통제를 벗어나 고유의 의식을 지니고 자율적 선택과 결정을 내릴 수 있는 시스템의 출현이 인류를 위협하는 사건이 될 것이라는 두려움을 갖고 있다. 인류에 대한 위해라는 것은 아주 사소한 사회적 규범 차원의 문제부터 생명에 이르기까지 그 범주가 무척 넓다. 2021년 초 국내에서 논란이 일었던 챗봇 ‘이루다’의 예를 생각해보면 의도하지 않은 챗봇의 성차별, 혐오 발언으로 이용자들은 실질적인 심리적 위해를 입었다. 이 예시에서 볼 수 있는 것처럼 신체적 위해뿐 아니라 선정적, 공격적, 편향적인 AI가 이용자에게 미칠 수 있는 위해 역시 유효하다. 여기에 더해, AI가 자율적 판단 능력을 갖추고 윤리적 규범을 위반하거나 사회적 맥락에 어긋나는 비윤리적 행위의 주체가 되어 이용자에게 피해가 발생하였을 때, 인간의 비윤리적 행위에서 문제가 되는 의도의 고의성이나 책임성을 따져 물을 수 있을 것인가? 혹은 인간의 윤리성을 판단할 때처럼 고의성이나 책임성이 중요한 범주가 될 수 있는가? 오히려 지금이 AI가 인간과 공존을 위해 긴 진화를 앞둔 개발 초입이라고 생각했을 때 AI의 윤리적 규범을 어떻게 점검하고 가이드라인을 규정해야 할지는 여전히 우리의 몫이다.
극단적인 유토피아와 디스토피아의 관점 사이에서 안전하면서 유용한 기술의 발전을 위하여 현실에서 기술의 발달 단계에 맞춰 적용할 수 있는 기본적인 원칙의 수립이 필요해 보이는 시점이다. 어린아이에게 끊임없는 훈육과 가르침을 통해 사회성을 기르고 타인을 배려하고 사회의 기본적인 윤리 질서를 가르치듯 지금부터 AI가 인간 친화적이고 윤리적인 진화를 해나갈 수 있도록 경계선을 설정하고 학습을 강화해나가는 과정에 대한 진지하고 종합적인 블루프린트를 산업계와 학계가 함께 고민해보아야 한다. 옳지 않은 일을 하고 남에게 해를 입혔을 때 인간이 겪는 양심의 고통을 컴퓨터에게 요구하는 것은 아직도 SF 같은 상상력의 영역이지만 윤리적 가치를 최대한 학습시키고 혐오나 차별같이 현실의 어두운 측면이 자동으로 학습되어 AI 시스템에 복제되지 않도록 많은 노력이 필요하다. AI에게 지난 몇 년간 ‘인공지능 윤리’에 대해 많은 관심이 쏟아지고 국제기구, 정부유관기관, 기업체, 학계 등 다양한 주체에서 인공지능의 윤리 원칙을 제시하고자 노력하고 있다. OECD는 2019년 인공지능 윤리 권고안을 발표했는데 포용적 성장, 인간 중심의 가치 및 공정성, 투명성 및 설명 가능성, 보안 및 안정성, 책임성의 다섯 가지 원칙 범주를 제시했다. 또한 인공지능에 법인격 혹은 그와 유사한 개념을 적용할 것인지에 대한 논의도 이루어지기 시작했다. 특히 법인격에 대한 논의는 문제가 되는 윤리적 위반의 행위 책임 소재가 어디에 있는가 하는 법적 판단과도 맞닿아 있다. AI가 과연 인간에 ‘영혼’에 대응하는 자의식을 갖게 되는 순간이 과연 도래할지 도래한다면 언제가 될지 아직은 알 수 없으며 그 발전 과정에서 새롭게 출현할 문제들을 모두 예측할 수도, 예방할 수도 없지만, AI로 인해 인간과 인간, 인간과 기술 사이의 보다 조화로운 공존이라는 가치를 이루려면 훼손되어서는 안 되는 기본 윤리 준칙을 구성하고 효과적으로 구현할 수 있는 방안을 위해 머리를 맞대고 본격적으로 고민할 시점이다.