“흐름은 그 흐름에서 벗어나야 보인다!”
초거대 언어모델(LLM)은 인간의 언어인 자연어를 인간이 아닌 제3의 객체가 이해한 최초의 것이다. 전문가의 영역에 있던 인공지능(AI)을 일반인이 쉽게 접근할 수 있게 되었다. 자연어를 이해하는 커다란 장점을 갖는 AI는 보통의 기술처럼 단점도 내재한다. 이러한 단점을 극복하기 위해 이 책 『더 커밍 웨이브』에서 무스타파 술레이만(Mustafa Suleyman)이 반복적으로 사용한 키워드는 ‘억제(containment)’이다. 억제(抑制)란 사전적으로, “의식의 영역에서 벌어지는 특정 행위를 자발적으로 금지하는 일”로 정의된다. 우리가 억제하는 경우는 어떤 상황을 더 엇나가지 않도록 하거나 아직은 때가 아니기 때문에 그 때를 기다리기 위한 전략적인 의사결정을 하기 위한 때이다. 이 책에서 억제는 기술 개발이나 배포 단계에서 기술을 통제하고 제한하며 필요한 경우 사용을 중단하는 의미 있는 가드레일을 말한다.(70면, 393면) 억제는 스스로를 어떤 상황에서 벗어나게 하거나, 아니면 오히려 그러한 상황을 이끌기 위한 경우에 행하여지는 행태(behavior)이다.
억제는 바둑에서 볼 때, 미생을 넘어 완생이 될 수 있도록 하는 의도성이 강하다. 아직은 실체를 확인하기 어렵거나, 실체를 확인했어도 진실이 아니거나 다른 변형적인 모습으로 재구성될 수 있을지 알 수 없을 때도 마찬가지다. AI의 모습은 인간의 모습을 닮고, 인간을 위한 것이어야 한다는 당위는 인정되나 어떻게 활용될 것이고 현재의 기술 수준은 어떠한지는 제대로 파악하기 어렵다. 누가 어디서 어떤 것을 완전히 공개한 것은 아니기 때문이다. 이러한 상황에서 인공합성물이나 ‘미지의 기술’인 AI를 포함한 수많은 기술에 대한 억제는 어쩌면 당연한 과정일지도 모른다.
기술에 대한 억제의 모습은 다양하다. 자기검열이나, 규제나 안전장치의 도입 등 이해관계나 또는 주장하는 입장에 따라 다른 모습으로 발현된다. 예를 들면, 내가 개발하는 코드, 수집하는 데이터, 학습과정에서의 미세조정(fine-tuning)이나 레드팀(red team)의 구성 등 다양한 방법으로 이루어질 수 있다. 정책적으로는 관료의 이타적이거나 공리주의적인 규제의 모습일 수 있다. 안전을 위한 시민단체의 주장도 담긴다. 이러한 다양한 이해관계가 현상을 재구성하기도 한다. 기술은 억제 과정에서 진보하면서 살아남기도 하고, 그 상황을 극복하지 못한다면 퇴화하기도 한다. 기술이 인류에게 피해를 주고 있다면 실패한 기술이기 때문이다.(43면)
현실적으로 쓰임새가 높은 기술이라면 지속적인 자가발전을 이룬다. 인쇄술은 목판 인쇄술에서 금속활자로, 타자기에서 워드프로세서로 틀이 바뀌었다. 지금은 생성형AI로 완전히 탈바꿈하였다. 도구적인 활용은 손과 발을 활용하여 다양한 매체를 이용한다는 의미였다. 창작의 도구로서 눈에 보이는 망치나 톱, 연필이나 붓을 이용해 왔다. 최소한 마우스를 클릭하면서 도구적으로 이용했다. 이제는 마우스 클릭도 과하다. 프롬프트(prompt)로 입력한 내용을 AI 모델이 의도와 맥락을 이해하여 생성한다. 생각만을 입력했는데, 의도와 맥락에 따라 결과가 나오고 있는 상황이다. 이렇게 기술은 시스템을 완벽하게 바꿈으로써 ‘혁명적’이라는 수식어가 낯설지 않다. 그렇지만, 법적으로 여전히 ‘창작도구’를 요구한다. AI를 이용한 창작은 부정된다. ‘도구’라는 도그마에 집착한 결과이다. 인간의 지능을 능가하는 도구가 되면 어떻게 될까?(100면)
이세돌과 알파고의 대국은 AI가 무엇인지, 어떤 모습인지를 글로벌 구성원들에게 각인시켜주었다. 결과는 인간의 패배였다고 평가할 수 있지만, 인간이 개발한 AI였다는 점에서 인간과 인간을 대리하는 기계의 대국으로 볼 수 있다. 기계는 인간의 의도성이 반영된 것이기 때문이다. 앞으로도, 이러한 상황은 지속될 것이다. 물론, 특이점이 온다면 세상은 달라질 것이다. 그렇다고, 캄브리아기의 변혁과 같은 모습은 아닐 것이다. 이미 AI는 우리 곁에 와 있기 때문이다.(110면)
AI는 어떤 모습으로 진화할지는 예측하기 어렵다. 아니, 수많은 예측이 가능하다. 미래의 모습을 예측한다는 것은 누구라도 가능하기 때문이다. AI는 더 이상, 기술이 아닌 현상이다. 챗GPT가 가져온 변화는 더 이상 전문가의 영역에서 AI가 떠돌지는 않을 것이라는 점이다. 누구라도 AI를 조작하거나 이용할 수 있게 되었다. AI는 다양한 영역에서 ‘민주화’를 이끌고 있다.
AI가 발전하면서 경쟁의 양상도 달라질 것이다. 오히려, 사람과의 경쟁이 더욱 심화될 것이다. 이세돌과 AlphaGO와의 대결처럼 AI와 사람의 대결이라기보다는, AI를 이용하는 사람과 그렇지 않는 사람과의 경쟁이 될 공산이 크다. AI에 대한 거부감은 AI시대를 살아가야 할 사람이라면, 버려야할 습관과도 같은 것이 될 수 있다. AI 문해력(literacy)이 필요한 이유이다. 여전히 장인의 고집스러움도 의미있겠지만, AI를 활용함으로써 새로운 창작의 영역에 들어선 사람도 의미 있기 때문이다.
AI를 잘 이용하는 사람의 세상과 그렇지 않은 사람은 서로 다른 세상을 살아갈 것이다. 전통을 고수하거나 새로운 것을 혁신의 수단으로 삼거나 다 같은 존재의 이유이다. 그 중심에는 기술과 사람이 교차한다. 어느 것에 비중을 줄 수 있는 것이 아니다. 사람과 AI라는 등가의 실체가 현상학적으로 존재하게 될 것이다. 그 시간을 예측할 수 있느냐 묻는다면, 기술에는 수많은 변수가 내재하고 외생변수가 발생한다는 점에서 어렵다고 답할 수밖에 없다. 미래를 예측한다는 것은 어쩌면 어제와 오늘의 반복이라고 할 수 있다. 역사의 반복은 인간의 단순성과 한계의 한 모습이다. 기록된 역사에서 배우는 것은 실수를 되풀이 하지 않는다는 것이다. 그렇지만, 기록보다는 기억에 의존하는 동물적인 본능을 쉽게 따른다.
서설이 길었다. 인류에게 AI는 새로운 기회이다. 인터넷 시대의 도래에서 수많은 기회가 왔고, 그 걸 잡은 사람과 그렇지 않은 사람의 부의 격차는 컸다. AI를 준비한 사람과 그렇지 않은 사람도 마찬가지다. 물론, 운 좋은 사람도 있다. 엔비디아 CEO 젠슨 황은 게임의 열풍이 커지면서, 실감 있는 게임을 즐기기 위해 이미지 처리를 효과적으로 할 수 있을까를 고민했다. 그 결과가 GPU이다. 게임산업이 오늘날의 엔비디아를 만들었고, 엔비디아는 다시 AI 혁명을 이끌고 있다.
『더 커밍 웨이브』에서 저자는 몇 가지 기술적인 사항에 대해 고민한다. 크게 AI와 합성생물학이다. 현장에서 기술을 대하면서 고민했던 내용의 기록이자, 공유이다. 아직은 정리된 것은 아니다. 기술은 지속적으로 진보하기 때문이다. 이는 기술의 누적적인 특성에 따른 것이기도 하다. 또한, 기술이 발전하는 것은 수요가 있기 때문이다. 그 수요를 맞추기 위해 다양한 방식으로 응용된다. 변형되기도 한다.
무엇보다, 억제를 강조하지만 대체적으로 기술에 대한 저자의 평가는 긍정적이다. 의도성에서 보면, 기술개발은 선의였다. 일종의 기술중립성 원칙에 따른 것이다. 물론, 모두가 선한 의도를 갖는 것은 아니다.(360면) 기술은 이용방식에 따라 다른 결과를 가져온다. AI도 선의의 것이다. 그렇지만, 개발자의 의지가 선의였다고 하더라도, 이용하는 과정에서 다르게 이용되는 경우라면 어떠할까? 테이(tay) 사건이나 이루다 사건을 보면 쉽게 이해할 수 있다. 이용자의 악의적인 이용이 가져온 불상사였다. 좋은 의도로 발명한 기술이라도, 실제 그 기술을 어떻게 사용할지는 장담할 수 없음을 보여준다.(67면) 이로써, 기계학습에 검증되지 않은 데이터를 통해 전체 시스템이 오염되지 않도록 개발해야 한다는 값진 교훈을 얻었다. 개발자는 물론 이용자에 있어서도 윤리와 사회적 책임이 요구되는 이유이다.
기술은 정치적이다.(265면) 알고리즘은 보이지 않는 힘을 갖는다. 보이지 않는 시장의 손을 능가하는 힘이다. 권력으로서 기술은 정치적일 수밖에 없다.(278면) 정치적인 권력은 시민의 힘으로 통제되어야 한다. 투명하고 공개된 알고리즘을 요구하는 이유이다. 알고리즘을 구현하는 데이터는 기계학습의 전부이다. 데이터는 학습을 목적으로 한다. 그렇지만, 데이터는 인간의 문화와 생활양식이 담겨있는 박제이다. 오랫동안 시베리아 빙하에 잠겨있던 맘모스일지도 모른다. 그 것들이 그 수십년에서 수천년의 문화적 진화를 무시하고 현실에서 부활하여 AI의 영혼을 만들어내는 것이다. 문화적으로 배제된 수많은 표현이나 가치가 리셋된 상태로 기계에 입력되고 있는 상황이다. 인간의 장단점을 확장한 기술로서 AI는 가치와 위험을 동시에 지닌다.(357면) 그 결과는 우리가 알고 있고 경험하고 있는 할루시네이션이나 편향된 결과물의 생성이다. 박물관이나 도서관에서 학예사나 사서의 설명을 통해 그 의미를 이해해야 하는 ‘과거’의 데이터가 아무런 설명 없이 ‘현재’의 표현으로 나타나는 혼란스러운 상황이 연출되고 있는 것이다.
AI가 안전하지 못하다는 것은 다양한 의미를 갖는다. 먼저, AI의 기술적인 이용에 있어서 인명살상용 무기로 활용된다거나 테러로 악용되는 경우 등 이중용도(dual use)에 따라,(194면) 물리적으로 안전하지 못한 상황을 가져온다는 점이다. AI를 현실세계와 연결해 주는 다리인 로봇(172면)의 통제불능 상태의 대비를 위한 비상버튼이나 전원스위치의 구축이 필요한 이유이다.(412면) 또한, AI가 가져오는 차별이나 부의 재편과정에서의 사회적인 위험을 가져올 수 있다는 점이다. 기술적 실업도 여기에 포함된다. 알파고 충격에도 우리가 안도할 수 있었던 것은 인간의 창의적인 영역에 대해 기계가 관여할 수는 없을 것이라는 의견이 지배적이었기 때문이었다. 그렇지만, 생성형(generative) AI는 어떠한가? 미드저니(midjourney)로 그린 그림이나 회화는 인간이상의 결과를 보여주고 있으며, 소라(SORA)를 이용한 영화까지 큰 흐름은 이어지고 있다. 새로운 일자리가 만들어지고 있지만, 그것은 일자리를 잃는 사람의 것이 아니다. 이로써, 수많은 사람들이 불안정성을 겪게 될 것이다.(309면) 18세기, 영국에서의 러다이트운동은 산업혁명 시대의 기술에 대한 반감이었다면, 21세기 글로벌 환경에서 AI에 대한 반감도 무시할 수 없는 일이다.
AI의 등장으로 인간의 본질에 대한 이해가 필요한 시대가 되었다. 삶의 가치는 무엇이며, 어떻게 사는 것이 바람직한 것인지 등 본질적이고 철학적인 질문과 답이 요구된다. 그 과정에서 AI의 위치와 역할에 대한 사회적 합의가 구체화되어야 한다. 새로운 흐름을 외면하지 않고 안전한 사회를 이루기 위해서는 기술에 대한 통제, 악용에 대한 억제를 통해 흐름이 잘 이루어질 수 있도록 해야 할 것이다. EU 인공지능법처럼 위험기반의 규제를 한다는 의미이기도 하지만, AI가 대체하는 사회적인 요소에 대한 전반적인 프레임을 재구성해야 하다는 의미이다. 그 프레임에서 인간의 역할과 의미를 제대로 구현해 낼 수 있어야 한다. 그렇지 않을 경우, 인간의 존재의미를 찾는 지난한 과정이 반복될 수 있기 때문이다.
AI의 안전성을 담보하기 위하여 공적 제재를 받는 전문기관이나 시스템을 구축할 필요가 있다.(419면) 아울러, 기술하는 사람은 해당 기술을 제대로 평가할 수 있는 조직(red team)의 구성이 필요하고, 정보주체인 개인에게 충분한 설명이 필요하고, 딥페이크(deepfake)와 같은 기술의 악의적인 활용 또한 제한될 필요가 있다. 서비스 제공자에게는 AI가 가져올 문제에 대한 사회적 책임을 넘어, 법적 책임과 의무를 부과해야 한다. 이용자에게도 표현의 자유를 제한하지 않는 범위에서 책임을 물을 필요가 있다. 개발과 이용은 동전의 양면과도 같기 때문이다.
AI가 내린 결정에 대한 사람의 의존도는 높아간다. 원인과 결과에 대해 설명하지 못하는 기계의 결정을 신뢰하는 것이지만, 인과관계를 알지 못하는 상황에서의 AI에 의한 의사결정은 위험성이 크다. 기술 개발과 서비스에 있어서 투명성은 선택이 아닌 필수적인 것임을 인식할 필요가 있다.(418면) 그럼으로써, 기술의 한계를 극복할 수 있는 기술이나 다양한 방안이 강구될 것이다.
마지막으로, 저자는 기술에 대한 인간의 강력한 통제력이 필요하다는 점을 강조한다. 그러한 노력의 보상으로써, “인류라는 소중한 종의 안전하고 장기적인 번영이 보장될 것이다”라고 주장한다.(478면)
* 저자인 무스타파 술레이만(Mustafa Suleyman)은 Microsoft 인공지능 그룹인 MS AI의 CEO 겸 총괄부사장이다. 딥마인드(DeepMind)를 공동 설립했고, 구글의 AI 제품 관리 및 AI 정책 담당 부사장직을 역임했다. 이후, 인펙션AI(Infection AI)을 공동 설립하기도 했다.
** 김윤명은 디지털정책연구소 소장으로, AI 관련 정책이나 법제를 연구한다. 국회 보좌관, 네이버 정책수석, SW정책연구소 선임연구원으로 일했다.