챗GPT 시대의 필수역량 ‘AI 리터러시’

거대 언어모델(LLM) 기반의 대화형 인공지능 ‘챗GPT’(ChatGPT) 열풍이 전세계를 휩쓸고 있다. 언론에는 날마다 챗GPT에게 물어본 내용을 다룬 기사와 칼럼이 수십건씩 쏟아지고 있으며, 챗GPT가 각국의 대학입학 시험과 의사·변호사 등 전문직 자격시험을 통과했다는 뉴스가 끊이지 않는다. 2022년 11월30일 오픈에이아이(Open AI)가 공개한 챗GPT가 선풍적 관심을 일으키면서 마이크로소프트, 구글, 페이스북, 네이버, 카카오, 바이두 등 거대 정보기술기업들도 앞다퉈 유사한 기능의 대화형 인공지능 챗봇 서비스와 개발에 나서며 경쟁이 뜨거워지고 있다. 인공지능이 증기기관, 전기, 컴퓨터, 모바일 통신, 스마트폰처럼 모든 사람의 생활환경과 산업을 바꿀 또 하나의 보편 기술이 될 것이라는 전망이 나오고 있다.

  • GPT로 일어난 변화 모습들

2016년 3월 이세돌-알파고 대국이 예고편이라면, 챗GPT는 인공지능 시대의 본격 개막 신호다. 거대 언어모델 기반의 이미지 창작 도구인 ‘미드저니’·‘달리2’에 이어 대화형 인공지능 챗GPT의 출현은 사고와 창작 활동이 더 이상 인간 고유의 영역이 아니라는 걸 알려준다. 프로그램 코드 작성, 수학 문제 풀이, 발표 자료 만들기, 기사 쓰기 등에서 챗GPT 활용 사례가 경탄과 탄식 속에 알려지고 있다. 챗GPT로 작성한 논문 초록이 독창성 점수 100%로 표절검사기를 통과했고, 전문 리뷰어 수준의 진위 식별 능력을 과시해 과학자들을 우롱했다. 인공지능이 사람의 자연언어를 이해할 수 있게 돼 사람이 코딩할 필요 없이 말과 글로 명령할 수 있게 됐다. 코딩 교육 무용론도 나오고 있다. 글쓰기 과제에서 오·탈자와 비문이 없으면 챗GPT 사용을 의심해야 할 상황이다.

챗GPT의 능력이 알려지면서 상반된 반응이 나오고 있다. 챗GPT를 자료 조사, 보고서·연설문 작성, 번역·어학 공부에 활용하는 법을 알려주는 콘텐츠가 쏟아지는 한편 시험·과제물 제출 등에 쓰는 사례를 적발하기 위한 교육 당국의 시도도 활발하다.

미국에서는 뉴욕주 일부 공립학교에서 교내 와이파이망에서 챗GPT를 차단하고 있으며, 조지워싱턴대 등은 방과 후 과제들을 단계적으로 폐지하고 구술시험과 필답고사를 확대하기로 했다. 국내에선 2023년 1월 인천의 한 국제학교가 챗GPT를 이용해 영어작문 과제를 제출한 학생 7명 학생을 적발해 0점 처리했다는 소식도 보도됐다. <네이처> <사이언스> 등 국제 학술지는 챗GPT를 논문의 공동필자로 포함시킬 수 없다는 지침을 발표했고, 개발자와 프로그래머들이 애용하는 문답 사이트 ‘스택 오버플로’는 챗GPT로 만든 답변 등록을 아예 금지했다.

  • 챗GPT 사용을 둘러싼 상반된 관점

챗GPT 사용 여부를 탐지하는 도구도 속속 등장하고 있다. OpenAI는 챗GPT를 포함해 인공지능을 활용해 문장을 작성했는지를 탐지하는 ‘분류기(Classifier)’를 개발했다고 공개했고, 프린스턴대의 에드워드 톈이 개발한 탐지 소프트웨어 ‘GPT 제로(GPT Zero)’도 나왔다. 메릴랜드대 연구진도 인공지능 언어모델이 만든 문장에 워터마크를 적용하는 방법을 개발해 무료 공개했다. 논문 표절 검사도구 개발업체인 미국의 ‘턴잇인(Turnitin)’은 2023년 2월 자체 실험결과, 챗GPT와 GPT3를 활용한 문장의 97%를 식별해낼 수 있는 탐지기를 개발했다고 발표했다.

한편 챗GPT 같은 인공지능은 갈수록 일상적 도구가 될 것이기 때문에 오히려 학교에서 적극적으로 가르쳐야 한다는 주장도 있다. 국제인증 교육 프로그램인 국제바칼로레아(IB)는 학생들이 제출하는 글에 챗GPT 활용을 금지하지 않겠다는 방침을 밝혔다. 이 기관은 “교직원들이나 평가자들이 챗GPT를 두려워해서는 안 되며 오히려 기회로 활용해야 한다”면서 “맞춤법 검사기, 번역 소프트웨어, 계산기 등과 마찬가지로 일상의 일부가 될 것이라는 점을 받아들여야 한다”고 밝혔다.1 오픈AI의 주요 투자사인 마이크로소프트는 자사의 검색과 오피스, 윈도 상품에 챗GPT를 결합해, 기존 서비스를 개선하는 데 활용하고 있다.

챗GPT에 대한 반응은 일면적이지 않고 혼란스럽다. SF 작품을 접수해 발간하는 유명 사이트 ‘클락스월드’(Clarkesworld)는 챗GPT로 작성한 작품 응모가 쏟아져 2023년 2월 접수를 중단했다. 아마존 킨들 스토어에는 챗GPT가 쓴 수백 종의 전자책이 올라 있고, 국내에도 챗GPT에 질문을 던져서 단기간에 만들어낸 책들이 여러 종 발간됐다. 정확도가 크게 개선된 인공지능 번역툴 디플(DeepL)은 이용자들의 찬사를 받고 있지만, 통·번역가 등 관련 직업군을 불안으로 내몰고 있다. 챗GPT와 디플을 활용해 코딩과 엑셀, 번역, 보고서 작성업무 등에서 효율성을 높이는 방법을 공유하는 현상이 확산되고 있다.

  • 허용과 제한을 넘어선 ‘공존’의 길

챗GPT가 안긴 충격에 대한 대응방법은 적극적인 활용과 차단, 제한적 사용 등으로 나타나고 있다. 하지만 이는 지나치게 피상적이다. 챗GPT 등 최신 인공지능 기술은 ‘생성적 대립 신경망(GAN)’을 기반으로 하는데, 적대관계인 상대의 전략을 파악하고 그에 맞춤해서 나의 전략을 업그레이드하는 구조다. 신기술 개발과 탐지 기술이 끝없이 물고 물리는 관계이기 때문에 어느 한쪽의 안정적 승리가 보장되지 못한다. 이는 챗GPT와 같은 강력한 답변도구가 스마트폰이나 검색엔진처럼 일상이 되는 환경이 되는 것을 의미한다. 챗GPT와의 공존만이 유일한 길이다.

우리는 사람보다 빠르게 말하고 요약하고 정리해내는 도구를 일찍이 만나본 적이 없다. 어떤 질문에든지 즉각 ‘모범답안’을 쏟아내는 ‘척척박사’ 도구와의 공존방법을 알지 못한다. 더욱이 사회 시스템과 일상생활에서는 사람만이 생각하고 정리하고 말하는 역할을 수행할 수 있다는 전제 아래 각종 제도와 장치가 만들어져 있다. 그러므로 챗GPT 환경에선 각종 시험과 글쓰기, 교육제도 영역만 혼란에 빠지는 게 아니다. 개인과 사회가 담당해온 영역 대부분에서 처음 겪는 혼란을 만나고 아노미 현상을 경험할 수 있다.

대화형 인공지능의 특징과 장단점을 알고 있을 때만 개인과 사회가 충격을 넘어 강력한 도구를 제대로 활용하고 대응할 수 있다. 챗GPT가 충격으로 다가온 이유는 사람처럼 유연하게 다양한 주제에 대해 자연스럽게 대화하고 무엇에든지 요약 정리하는 능력이 뛰어난 도구라는 점이다. 지금까지 각종 기계를 비롯해 컴퓨터와 알고리즘은 사람이 구체적이고 명확한 업무를 지시하거나 방법을 알려주면, 그 일을 빠르고 정확하게 처리하는 도구였다. 알파고가 뛰어난 바둑프로그램이지만 다른 용도로 사용하는 것은 불가능했다. 검색과 소셜미디어가 지식정보 환경에 큰 영향을 끼쳤지만 이용자가 어떤 검색어와 글을 입력하느냐가 그 결과를 만들어내는 방식이었다. 지금까지의 도구는 사용자인 인간이 특정한 조작법을 통해서 작동시키고 그 결과를 예상하는 게 가능했다. 하지만 챗GPT가 보여준 능력은 일종의 ‘일반인공지능(AGI)’이라는 인상을 갖게 만들 정도로, 다양한 주제에 대해서 개인이 예상할 수 없는 유연하고 창의적인 답변을 내놓는다는 점이 다르다.

챗GPT 충격은 대화형 인공지능에 대한 피상적이고 잘못된 이해에서 생겨났다. 무엇보다 챗GPT는 사실을 말하는 도구가 아니라, 사실처럼 여겨지게 자연스럽게 문장을 구성해내는 도구라는 점이다. 챗GPT의 기반기술은 ‘생성형 사전학습 트랜스포머’(GPT:Generative pretrained Transformer)이다. 트랜스포머는 문자메시지 자동완성처럼 문장에서 한 단어 다음에 이어질 단어와 문장을 예측하는 알고리즘이다. 챗GPT는 방대한 데이터를 학습해, 해당 문장과 단어가 어떠한 문맥과 의미에서 쓰였는지를 파악하는데 뛰어나 자연스러운 대화를 구성해내지만 사실에 기반한 것이 아니다. 또한 챗GPT는 자연스러운 문장으로 막힘없이 답변하지만, 사전학습 데이터가 2021년까지 생산된 것이어서 최근 상황을 반영하지 못한다. 방대한 데이터에서 답변내용을 조합해 만들어내지만 출처와 근거를 제시하지 않고 사람이 알아내기도 어렵다. 챗GPT가 논문 요약이나 복잡한 문제에 대한 답변을 요령있고 충실하고 수행한다는 점에서 이용자들은 놀라고 있으며, 챗GPT가 황당한 거짓말을 그럴듯하게 들리도록 꾸며낸다는 점에서 이용자들은 기술을 비판하고 있다. 하지만 놀랄 일도, 기술을 비판할 일도 아니다. 챗GPT라는 ‘생성형 사전학습 트랜스포머’ 알고리즘의 특징일 따름이다.

  • 인공지능 기술보다 이용자인 사람의 역할 중요

문제는 사람이 그럴듯한 말과 이야기, 논리에 잘 동의하거나 과도한 분노를 표출한다는 점이다. 사기꾼이 누군가를 속이기 위해서 또는 작가가 소설을 쓰기 위해서는 오랜 시간과 노력을 들여 정교한 구조를 만들어야 했지만, 챗GPT는 이런 비용을 0에 가깝게 만들었다. 이는 인터넷이 사실 아닌 이야기 또는 허위정보로 넘쳐나는 공간이 된다는 점이다. 미국의 컨설팅업체 가트너는 2017년 ‘미래 전망 보고서’에서 “2022년이 되면 선진국 대부분의 시민들은 진짜 정보보다 거짓 정보를 더 많이 이용하게 될 것”이라고 예측했는데, 챗GPT로 인해 현실이 되었다.2

대화형 챗봇이 천연덕스럽게 거짓말을 하고 이상한 정보를 만들어내는 현상은 인공지능이 인터넷을 학습했기 때문이다. 챗봇은 사람들이 만들어낸 정보를 학습하는 속성상 사람들의 행동과 마음을 비추는 거울 역할을 한다. 인공지능은 사용자의 의도에 따라 작동하기 때문에 인공지능을 어뷰징하려는 시도는 인공지능을 위험하고 사악한 도구로 기능하게 한다. 미국 소크연구소의 컴퓨터공학자 테리 세즈노프스키는 “당신이 찾는 것이 무엇이든, 원하는 것이 무엇이든 인공지능은 그것을 제공할 것”이라고 말한다.3

챗GPT와 같은 대화형 인공지능은 앞으로 더욱 많은 서비스에 결합해 일찍이 경험하지 못한 편리함을 제공할 것이다. 이는 인공지능을 이용해 데이터를 만들거나 작업을 지시하는 문턱이 낮아지게 된다는 걸 의미한다. 기존에 해당 분야 종사자와 전문가들의 전유물이던 영역이 앞으로는 언어를 사용할 수 있는 만인에게 개방되는 환경이기 때문이다.

하지만 챗GPT는 인공지능 범용화 시대가 닥친다는 것과 함께 그 환경을 살아가기 위한 필수적 능력을 모든 시민이 갖춰야 한다는 것을 알려준다. 인공지능 기술의 특성과 장단점을 파악하고 그에 적응하는 능력이다. 챗GPT 시대엔 무엇보다 이용자의 비판적 사고와 사실 검증 능력이 요구된다. 챗GPT에서 머무를 수도 없다. 앞으로 인공지능 기술이 발달하며 새로운 기능과 모습이 구현될 때마다 그 사용자인 인간에게는 그 기술을 유용하게 사용하기 위한 새로운 리터러시 능력이 요구된다. 인공지능 대응능력인 ‘AI 리터러시’라고 부를 수 있다. 그 능력을 갖추지 못한다면 이용자와 사회는 최신 도구를 설계하고 조작하는 소수집단에 농락당하고 이용당하는 불행을 벗어나지 못하게 된다. 인공지능 시대에는 ‘AI 리터러시’가 개인적 차원만이 아니라, 사회적 차원에서 시민들에게 이뤄져야 할 필수 역량교육이다.

  1. Dan Milmo, “ChatGPT allowed in International Baccalaureate essays”, The Guardian, 2023.2.27. [본문으로]
  2. Gartner Reveals Top Predictions for IT Organizations and Users in 2018 and Beyond, 2017.10.3. https://www.gartner.com/en/newsroom/press-releases/2017-10-03-gartner-reveals-top-predictions-for-it-organizations-and-users-in-2018-and-beyond [본문으로]
  3. Cade Mets, “Why Do A.I. Chatbots Tell Lies and Act Weird? Look in the Mirror”, The NewYork Times, 2023.2.26. [본문으로]
저자 : 구본권

KISO저널 편집위원, 한겨레신문사 사람과디지털연구소장