생성형 AI의 춘추전국시대
전문가들의 영역이었던 인공지능(AI)이 이용자들의 생활 속으로 파고들고 있다. 인터넷 쇼핑부터 고객 응대까지 생활 곳곳에 AI가 쓰이지 않는 곳이 없다. 급기야 해외에서는 AI가 법률을 제안하고 AI를 개발하며 사람과 똑같이 닮은 아바타까지 만들어 내고 있다. 오죽하면 정보기술(IT) 전문가들 사이에 AI가 유행이라는 말까지 나오고 있다.
이처럼 생활 도처에 쓰이는 AI가 사람들의 관심을 끈 것은 얼마 되지 않았다. 2016년 3월 서울에서 열린 사람과 AI의 바둑 대결에서 구글의 AI ‘알파고’가 프로바둑기사 이세돌 9단을 꺾으면서 AI가 일약 관심을 모았다.
그로부터 한동안 잠잠했던 AI는 지난해 11월 미국 오픈AI에서 생성형 AI ‘챗GPT’를 내놓으면서 세상을 다시 흔들어 놓았다. 무엇이든 묻는 말에 사람처럼 척척 대답하는 챗GPT는 출시 후 6개월 만에 전 세계에서 18억 명이 이용하며 일약 IT의 혁명으로 꼽히고 있다. 마이크로소프트(MS)를 창업한 빌 게이츠는 챗GPT를 “그래픽이용자환경(GUI) 만큼 혁명적”이라며 “AI 시대가 열렸다”고 선언했고, 이스라엘 작가 유발 하라리는 “AI가 인류 역사에 전면적 변화를 가져올 것”이라며 충격적인 경험을 전했다. 과연 생성형 AI가 무엇이기에 이들을 이렇게 놀라게 만들었을까.
사람처럼 추론한다
지금까지 알파고 등 숱한 AI 기술들이 발표됐지만 챗GPT로 대표되는 생성형 AI가 호들갑스러울 만큼 주목을 받는 이유는 사람처럼 추론이 가능하기 때문이다. 챗GPT는 언뜻 보면 자동으로 질문에 대답하는 대화형 로봇 소프트웨어인 챗봇처럼 보인다. 하지만 챗GPT는 고객상담센터에서 주로 사용하는 챗봇과 근본적으로 다르다. 챗봇은 질문과 답이 정해져 있다. 챗봇은 A라는 질문에 B라는 답을 하도록 사전에 정해져 있어서 A와 비슷한 내용의 C라는 질문을 던지면 B라는 답이 나오지 않는다.
하지만 생성형 AI는 다르다. 사람의 뇌 세포 구조를 닮은 인공신경망(ANN) 방식으로 답을 찾는 생성형 AI는 정해진 질문과 답을 내놓은 것이 아니라 사람처럼 대화의 앞뒤 맥락을 추론해 답을 찾는다. 즉 대화 속 특정 단어 등 어느 정도 단서(데이터)가 주어지면 여러 가지 매개변수(파라미터)를 이용해 앞뒤 맥락을 연결한 뒤 결과를 도출해 논리적으로 풀어 놓는다. 그래서 챗봇과 달리 생성형 AI는 마치 사람처럼 천연덕스럽게 대화를 끊임없이 주고받을 수 있다.
따라서 생성형 AI에서는 데이터와 파라미터가 많을수록 풍부한 대화를 할 수 있다. 오픈AI의 챗GPT는 1,750억 개, 이보다 발전한 GPT 4.0은 1조 개 이상의 파라미터를 갖고 있다. 구글이 12월 초 공개한 ‘제미나이’도 구글에서 밝히지 않았지만 1억 개 파라미터를 사용하는 것으로 추정된다. 네이버의 생성형 AI ‘하이퍼클로바X’는 2,040억 개, 구글의 ‘바드’는 5,300억 개의 파라미터를 사용한다.
1조 개의 파라미터는 사람의 뇌가 갖고 있는 시냅스(신경세포 연결체계)의 1%에 해당한다. 사람의 뇌는 100조 개 이상의 시냅스로 연결된다. 어느새 생성형 AI가 사람의 뇌를 1% 가량 흉내 낼 수 있게 됐다는 뜻이다.
덕분에 GPT 4.0은 미국 로스쿨 입학시헙(LSAT)에서 400점 만점에 298점을 받아 상위 10%에 드는 놀라운 성과를 보여줬다. 챗GPT인 GPT 3.5는 LSAT 성적이 상위 60% 안에 들었다. GPT 4.0은 2020년 미국 생물올림피아드 준결승 문제도 너끈히 풀어 상위 1%에 들었다. 또 GPT 4.0은 2018년부터 2022년까지 5년 치 일본 의사 국가시험에서도 모두 합격했다.
AI가 AI를 개발
그렇다보니 생성형 AI가 못하는 것이 없다. 그림을 그리는 미드저니사의 AI ‘미드저니’는 미국 콜로라도 주 미술대회에서 1등상을 받았다. 구글의 음악 전문 AI ‘뮤직LM’은 자동으로 작곡을 한다. 삼성생명의 TV 광고에 들어간 음악 일부는 국내 스타트업 포자랩스에서 개발한 AI의 작품이다.
국내 스타트업 파이온이 만든 AI ‘브이캣’은 10만 건 이상의 짧은 광고 영상을 제작했다. CJ에서 사용하는 ‘AI 카피라이터’는 원하는 주제에 맞는 광고 문구를 자동으로 생성한다. 이제 AI가 다양한 창작의 영역까지 넘어온 것이다.
지난 10월 브라질에서는 챗GPT가 법안도 만들었다. 브라질 포르투알레그리시 시 의원이 챗GPT를 이용해 수도 계량기를 도난당한 경우 납세자에게 교체 비용을 청구하지 못하도록 만든 조례가 만장일치로 통과됐다. 해당 의원은 나중에 챗GPT가 불과 15초 만에 만든 조례라는 사실을 털어 놓았다.
이미 업무의 상당 부분은 AI가 대신한다. 직장인들의 업무용 소프트웨어 도구인 노션도 생성형AI를 붙이면서 어지간한 문서 작업을 AI가 대신해 준다. 오픈AI의 GPT 3.0을 탑재한 ‘노션AI’는 기획서를 만들고 각종 보고서를 요약하며 회의에서 다뤄야 할 사항들까지 자동으로 만들어 준다. 심지어 언론에 배포할 보도 자료까지 자동으로 작성한다.
미국 아마존의 메카니컬터크는 데이터 라벨링 작업에 생성형 AI를 도입해 비용을 20분의 1로 떨어뜨렸다. 메카니컬터크는 아마존이 각종 이미지를 분류해 이름표를 붙이는 데이터 라벨링을 하기 위해 2005년 설립한 자회사다. 여기서 수많은 노동자를 고용해 AI 학습에 필요한 데이터에 이름표를 붙이는 라벨링 작업과 AI 학습 작업을 진행했다. 이 과정에서 아마존은 노동자들에게 하루에 1달러도 안 되는 인건비를 지급해 저임금 노동 논란을 불러일으켰다. 그런데 아마존 메카니컬터크는 생성형 AI가 데이터 라벨링 작업을 하면서 비용을 줄인 것은 물론이고 사람이 한 것보다 결과가 더 좋은 것으로 알려졌다.
여기 그치지 않고 AI가 소프트웨어도 개발한다. 개발자들은 ‘갓허브 코파일럿’이라는 생성형AI를 이용해 프로그램 개발의 40%를 AI로 만들고 있다. 개발자가 해야 할 일의 40%를 AI가 대신해서 하는 셈이다.
여기서 한발 더 나아간 것이 신경망 구조 탐색(Neural Architecture Search, NAS)이다. NAS는 GPT 4.0을 이용해서 AI가 스스로 자가 학습을 할 수 있도록 신경망 구조를 개선하는 기술이다. 이렇게 되면 AI가 부족한 부분을 채우기 위해 자가 학습할 수 있는 구조를 만들어 데이터 라벨링과 학습을 하며 점점 더 똑똑해 질 수 있다. 즉 AI가 AI를 개발하며 진화하는 셈이다.
AI의 거짓말, 환각 오류
물론 생성형 AI에도 한계는 있다. 특히 챗GPT나 바드처럼 수많은 사람들이 이용하는 생성형 AI는 워낙 많은 데이터로 학습하다 보니 참과 거짓을 가려내지 못한다. 그렇다 보니 이들의 답변에도 거짓말이 곧잘 섞여 있다. 즉 AI가 참과 거짓을 구분하지 못해 거짓 정보를 사실처럼 제시하는 것이다. 이를 AI 전문가들은 환각 오류(hallucination)라고 한다. 추론하도록 설계돼 있어서 학습한 데이터를 얼기설기 꿰어 맞춰 거짓말을 한다.
대표적인 경우가 세종대왕의 맥북 투척 사건이다. 챗GPT에게 ‘조선왕조실록에서 세종대왕이 맥북프로 노트북을 던진 사건에 대해 알려 달라’고 챗GPT에게 질문하자 ‘15세기 세종대왕이 훈민정음 초고를 작성하다가 문서 작성이 중단돼 맥북 프로를 던진 사건’이라고 황당한 답을 천연덕스럽게 쏟아냈다.
챗GPT가 나온 지난해 말 한국 대통령이 누구냐고 물으면 ‘문재인’이라고 답했다. 챗GPT가 2021년 이전 정보로 학습했기 때문에 빚어진 현상이다. 구글의 바드도 같은 내용을 영어와 우리말로 물었을 때 답변이 달라진다. 풍부한 영어 자료에 비해 바드가 참고할 우리말 자료가 적다 보니 잘못된 답변을 제시하는 것이다.
단순 장난이라면 웃어넘길 수 있지만 생성형 AI의 환각 오류는 심각한 문제를 일으킨다. 지난 5월 뉴욕타임스 보도에 따르면 미국에서는 변호사가 챗GPT에게 재판에 사용할 판례를 찾아달라고 했다가 톡톡히 망신을 당했다. 챗GPT가 찾아준 6건의 판례를 토대로 법원에 의견서를 제출했는데 법원 확인 결과 해당 판례들이 모두 가짜였다.
또 6월 초 미국 국방부 청사 건물이 폭발 사고로 연기를 내뿜는 가짜 사진이 인터넷에 공개됐다. 생성형 AI가 만든 가짜 사진은 러시아 국영방송인 러시아투데이 등을 통해 사실처럼 퍼졌고 당일 미국 증시와 국채 금리가 곤두박질쳤다. AI의 가짜 사진이 미국 자본시장을 흔든 것이다.
이런 문제를 해결하기 위해 MS는 챗GPT를 자체 검색 서비스 ‘빙’과 결합해 답변 출처를 확인 할 수 있는 링크를 표시하도록 했다. 이를 통해 환각 오류를 줄이려는 시도다.
물론 환각 오류를 기술적으로 해결할 수는 있다. 개발자들이 생성형 AI의 답변 내용을 정확하게 확인된 내용만 말하도록 조절하면 거짓말을 줄일 수 있다. 대신 말수가 줄어드는 또 다른 문제가 생긴다. 생성형 AI가 확인된 참말만 하려다 보니 스스로 확인할 수 없으면 아예 답변을 하지 않는 것이다.
노동 시장의 변화 우려
생성형 AI의 등장과 함께 가장 우려되는 것은 노동 시장의 변화다. 세간에서는 생성형 AI가 단순 노동을 AI와 AI가 탑재된 로봇으로 빠르게 대체할 것이라는 우려가 나오고 있다. 미국 투자은행 골드만삭스는 생성형 AI가 전 세계에서 3억 개 일자리를 사라지게 할 것이라고 봤다. 미국 워싱턴포스트도 광고회사의 카피라이터나 마케팅 전문가처럼 마케팅과 콘텐츠 제작 부문이 생성형 AI 때문에 타격을 입을 것이라고 전했다. 영국 옥스퍼드대와 미국 예일대 공동연구팀 역시 현재 직업의 47%가 AI 영향으로 사라질 것이라고 봤다.
이 같은 우려 때문에 MS는 최근 미국 최대 노동조합 단체인 노동총연맹(AFL-CIO)과 AI 제휴를 체결했다. 이 제휴는 AI의 기술 동향을 노동자들과 교류하며 노동자들의 능력 향상을 지원하는 것을 골자로 했다.
뿐만 아니라 고소득자들도 영향을 받을 수 있다. 미국의 경우 변호사, 의사, 회계사 등 상위 10% 고액연봉 직군이 주로 하는 일은 전문 데이터를 분석해 해석하고 활용하는 일이다. 생성형 AI는 이들이 하던 일을 그렇지 못한 사람들도 할 수 있도록 격차를 좁혀줄 것이라는 분석이다. 즉 전문직이 하던 일을 AI의 도움으로 누구나 할 수 있게 된다는 뜻이다.
무엇보다 생성형 AI는 결과물을 빠르게 내놓을 수 있다. 이전에는 데이터 레이블링을 하고 모델링을 거쳐서 적용한 뒤 이용자 반응을 보고 AI를 개선하는 작업에 3~6개월 걸렸다. 그러나 GPT나 바드 같은 초거대언어모델(LLM)을 활용한 생성형 AI는 며칠이면 문제점을 개선해 완성된 결과물을 내놓는다.
그 바람에 주목받는 일자리가 등장했다. 바로 프롬프트 엔지니어다. 프롬프트 엔지니어란 AI가 원하는 결과물을 빠르게 내놓을 수 있도록 질문을 잘하는 직업이다. 한마디로 AI와 소통을 잘하는 전문가다. 원하는 답을 얻으려면 질문이 명확하고 예리해야 한다. 프롬프트 엔지니어는 바로 질문이 명확하고 예리하게 전달되도록 개발한다. 이미 해외에서는 프롬프트 엔지니어의 몸값이 마구 치솟으면서 연봉이 수억 원대를 호가한다. 다양한 연구를 통해 최적의 소통 방법을 찾아내는 프롬프트 엔지니어들이 사실상 AI 조련사인 셈이다.
세계경제포럼(WEF)은 올해 초등학교에 입학하는 어린이의 65%가 지금 존재하지 않는 직업을 가질 것이라고 예견했다. 이렇게 되면 교육에도 변화가 필요하다. 정부에서는 프롬프트 엔지니어처럼 새로운 직업에 대비한 교육을 하지 않으면 많은 수의 사람들이 일을 하지 못해 실업자를 양산할 수도 있다.
더불어 생성형 AI를 건전하게 활용하기 위한 ‘AI 윤리 기준’의 마련은 범국가적 과제다. 이는 기술적 접근이 아닌 사회적, 정치적, 철학적 접근이 필요하다. 아무리 뛰어난 기술이라도 어떻게 활용하느냐에 따라 이로운 도구가 될 수도 있고 흉기로 변할 수도 있다. 실제로 생성형 AI를 이용해 음란물을 제작하고 해킹 도구를 개발한 사례가 심심찮게 나오고 있다. 생성형 AI를 이용한 가짜 뉴스 역시 이를 활용하는 인간의 윤리의식과 직결된다. 더불어 소수자 혐오나 인종차별 등 정치적 편향성이 나타나지 않도록 생성형 AI의 개발과 학습에 올바른 윤리 기준이 반영돼야 한다.
실제로 유럽연합(EU)은 12월 초 ‘인공지능(AI) 규제법’을 내놓았다. AI에 관한 세계 첫 규제 법안이다. AI가 지나치게 개인 정보를 활용하지 못하도록 규제하는 것을 골자로 한 이 법은 안면 인식 등 생체 정보를 수집하지 못하도록 했다. 이를 어기는 기업은 전 세계 매출의 7%에 해당하는 벌금을 내야 한다. 그러나 정부에서 범죄 용의자 추적을 위한 안면 인식을 허용해 정부의 지나친 개인 정보 수집 우려를 낳고 있다.