캠퍼스에 들어온 ‘AI 조교’의 빛과 그림자

1. 기술과 교육기관
2025년 사회의 화두는 단연 AI다. 새롭게 출범한 정부에서도 AI 강국을 외치고 있으며, 세계적으로도 다양한 분야에서 AI를 적용한 프로젝트가 운영되고 있다. 특히 AI 기술의 발전에 따라 학교 등 각종 교육기관에서 행정 업무의 효율성을 높이고, 학습 환경을 개선하여 학생들에게 맞춤형 교육을 제공하는 다양한 방식으로 AI를 활용하고 있다. AI는 반복적이고 시간 소모적인 업무를 자동화하거나, 대규모 데이터를 처리하여 더 나은 의사결정을 돕는 데 중요한 역할을 하고 있다. 특히 교육 분야에서 AI 활용 사례는 단순한 자동화에 그치지 않고, 교육의 질을 높이는 데 큰 기여를 하고 있다.
이런 변화에 맞춰서 AI 전문 기업들도 교육 분야에 진출을 시도하고 있다. 대표적인 예로 오픈 AI가 교육 분야에서 ‘AI-네이티브 대학’ 전략이라는 것을 시도하고 있는데, AI를 대학 교육 시스템의 핵심 요소로 통합하여, 학생들의 학습 경험을 더욱 개인화하고, 교수와 행정 시스템의 효율성을 높이는 것을 목표로 하고 있다. ‘AI-네이티브 대학’에서는 AI 기술을 학생들에게 교육하는 것뿐만 아니라, AI의 윤리적 사용에 대한 교육도 중요하게 다루고 있다. 학생들은 이를 통해 AI가 가져오는 사회적ㆍ윤리적 영향을 이해하고, 기술을 책임감 있게 사용할 수 있도록 학습하게 된다.
이처럼 AI의 교육적 활용은 대학에서부터 사기업까지 적극적으로 이루어지고 있다. 대학은 초중고에 비해서 상대적으로 유연하고 다양한 교육 프로그램이 가능하다는 점에서 기술 활용이 더 적합한 것으로 보인다. 따라서 대학에서의 AI 활용이 현재 어떤 방식으로 이루어지고 있고, 발전적으로 지속되기 위해서는 무엇을 고민해야 하는지 논의해 볼 시점이다.
2. AI 중심 캠퍼스
대학 캠퍼스는 전통적으로 교수와 학생 간의 대면적 상호작용을 중심으로 운영되어 왔다. 그러나 최근 몇 년간 AI 기술이 캠퍼스에 빠르게 도입되면서 학습 지원, 행정 효율화, 연구 지원 등 다양한 분야에서 AI 기반 시스템들이 핵심적인 역할을 하고 있다.
우리나라의 많은 대학들은 이미 AI를 통해 캠퍼스 내 시스템을 효율적으로 개선하고 있으며, 이는 학생, 교수, 그리고 학교를 운영하는 행정 측면에 큰 영향을 미치고 있다. 현재 국내 대학에서 운영하고 있는 AI 활용은 크게 세 가지 정도로 나눠 볼 수 있는데 AI 기반 학습관리시스템(LMS), AI 기반의 챗봇 시스템, 방대한 양의 데이터 분석 등이 있다.
AI 기반 학습관리시스템(LMS)은 학생들의 학습 패턴을 분석하고, 그에 맞는 맞춤형 학습 자료를 추천하는 시스템으로 운영되고 있고, AI 챗봇은 학사 행정 업무를 자동화하고, 학생들에게 필요한 정보를 실시간으로 답할 수 있도록 지원하고 있다. 데이터 분석은 연구 활동에 AI를 활용하여 방대한 양의 데이터를 빠르게 분석하고, 관련 논문을 자동으로 추천하는 등의 시스템을 말한다.
하지만 이런 AI 기술이 꼭 긍정적인 역할만을 하는 것은 아니다. AI 기반 시스템이 학생들에게 더 나은 학습 경험을 제공하기는 하지만 인간적 교감 부족, 기술적 오류, 개인정보 보호 문제 등의 부작용도 나타나고 있다. 특히, 학생들의 개인정보를 처리하면서 발생할 수 있는 보안 위협에 대한 사회적 합의나 학생들의 의존성 증가 등의 문제는 중요한 논의거리가 되고 있다. 또한, 학생이 AI를 활용할 때 어느 정도의 능동성을 보여야 하는데 지나치게 수동적인 경우, AI가 제공하는 자동화된 피드백과 정보가 학생들에게 적절한 해결책이 되지 못하는 경우도 발생한다.
AI 기술의 등장과 이를 캠퍼스에 적용하고 있는 현상은 대학 교육의 효율성과 개인화된 학습 환경을 제공하는 새로운 패러다임 전환을 가져오고 있다. 하지만 패러다임 적응에 앞서 AI의 도입이 가지고 있는 명과 암에 대해서 잘 파악하고 이를 균형 있게 활용하기 위한 사회적 논의도 필요한 시점이다.
최근 대학은 새로운 사회적 요구에 대응하고 있다. 몇 년 전부터 학생들의 ‘전공 선택권’ 보장이라는 명목으로 여러 융합 전공 시도, 무전공 입학생 도입 등이 시행되었다. 과거에는 특정 학과를 지망해서 들어와 그 전공으로 졸업을 했다면 이제는 들어온 학과에 관계없이 다양한 융합 전공을 습득하도록 하는 것이 학생들이 사회에 적응하는데 필요하다고 정책적인 판단을 한 것이다. 나아가서 전공을 정하지 않고 학교에 들어와 수업을 듣고, 들은 교과목을 바탕으로 학생의 적성에 맞는 전공이 구성되도록 하는 블록화 교육체계를 구축하라고 요구하고 있다. 따라서 학생들의 입학부터 졸업까지의 체계가 갈수록 복잡해지고 이를 지원하는 시스템의 AI화가 필요한 시점이다.
대학에서 이뤄지는 업무는 크게 학생들의 학습에 관한 부분, 대학의 전반적인 행정적 부분으로 나눌 수 있다. AI 시스템이 학생들의 학습을 지원하는 것은 인공지능 튜터, 개인화된 학습 경로 지원 등이 있을 수 있다. 인공지능 튜터는 AI 챗봇이나 튜터 시스템이 학생들에게 과제, 시험 준비, 강의 내용 등을 보조해 주는 역할을 하며 이것이 언어 기반 모델로 확장된다면 문답형 학습이 가능하게 되며, 현재 챗GPT를 사용하는 것과 같은 방법으로 학생 개인의 학습 플랜을 도움받을 수 있다. 개인화된 학습 경로는 학생들의 학습 패턴을 분석하고 이를 기반으로 맞춤형 체계를 제공하는 것이다. 앞서 제시한 사회에서 요구하는 다양한 융합 전공 및 개인화된 전공의 실현이 이 부분에서 가능할 것으로 기대되며, 개인의 수준별 맞춤 학습도 가능해질 것이다.
대학의 행정적 부분은 학생들의 학습 지원 데이터를 바탕으로 구성될 수 있다. AI를 통해 학생들의 성향을 파악 후, 진로 상담, 수업 추천, 시간표 조정 등이 쉽게 가능하며 이를 토대로 일률적인 교육 과정이 아닌 개인화된 다양한 교육 과정이 형성될 수 있다. 또한, 복잡한 경우의 수가 존재하는 졸업 사정이 손쉽게 이루어질 수 있다. 이는 학교의 행정적 부담을 적게 해주고, 단순 작업 외에 창의적인 학생 지원이 가능하도록 하는 장점이 있다.
3. AI 캠퍼스의 미래지향적 활용을 위한 대비
AI 캠퍼스가 항상 장밋빛 미래만을 보여주는 것은 아니다. 기존에 없던 기술을 활용하다 보니 분명히 부작용이 존재한다. 여러 가지 세부적인 문제가 있겠지만 크게 보면 개인정보 보호 문제, 기술 격차 등의 문제를 들 수 있다.
첫 번째로 개인정보 보호 문제는 새로운 기술을 통해 편리함을 추구할 때 항상 발생하는 부분이다. 이미 인터넷 공간에서 우리는 편안함을 누리기 위해 많은 개인 정보를 제공하고 있다. 알고리즘을 통해 무엇인가를 자동으로 추천받으려면 나의 정보가 지속적으로 축적되어야 하고 이를 통해 생활의 편리함을 얻는 것이다. AI는 이런 부분이 극대화되는 시스템이다. AI의 기본은 방대한 양의 데이터 학습이고, 나를 위한 AI가 형성되기 위해서는 개인정보가 끊임없이 축적되어야 한다. 따라서 일정 부분 개인정보 제공은 필요할 수밖에 없다. 그래서 앞으로는 개인정보 보호의 새로운 정의가 필요하다. 과거 개인정보 보호는 무조건적인 개인정보 제공 불가였다면 새로운 개인정보 보호는 데이터 주권을 개인이 갖는 것이다. 나의 개인정보가 어디에 제공되었는지, 어떻게 쓰였는지 명확하게 아는 것이 필요하고, 이를 통제할 수 있다면 개인정보가 보호된다고 해야 할 것이다. 과거의 개인정보 보호 개념에 갇혀 있다면 AI를 제대로 활용하는 것은 거의 불가능할 것이기 때문에 새로운 개념 정의는 필수적일 것이다.
두 번째는 기술 격차의 문제이다. 기술이 발전하고 사회의 정보가 유료화될수록 소득에 따른 기술 격차, 정보격차가 발생할 수 있다. 따라서 이에 대한 대비는 분명히 필요할 것이다. 과거에는 사람 간의 대화로 해결되던 문제가 기기를 통해 이루어지다 보니 단말기가 있어야 하고 이를 연결해 주는 통신 장치가 있어야 한다. 더 나아가서는 결국 이런 기기의 차이가 소득에 따른 차등으로 나타나기도 할 것이다. 교육의 부분과 사회의 공적 영역은 이런 차별이 일어나지 않도록 대비해야 할 것이며, 특히 대학에서는 이를 보완하기 위한 장치를 논의해야 할 것이다. 그렇지 않다면 동일한 기관에서 교육을 받음에도 소득에 따라 차등이 발생할 확률이 매우 높기 때문이다.
4. AI에 기술에 대한 인식 변화
AI 기술의 확산은 법적인 측면에서도 논쟁이 되고 있다. 국가와 국제적 차원에서 개인정보 보호 등을 위한 법과 규제를 강화하는 것이 필수적이라는 인식이 확산되면서 기존의 법적 틀을 현대화하고, 기술 발전에 맞춰 유연하게 대응할 수 있는 새로운 규제체계가 필요하다는 주장이 커지고 있다.
물론 불법적 사항에 대한 대응을 위한 법률 정비는 필요하다. 새로운 기술의 발전을 정책과 법이 따라가지 못한다는 지적은 항상 나왔었다. 그렇기 때문에 불법적 부분에 대한 이용자 보호를 위한 법적 정비는 필수적으로 신속하게 해야 한다.
그러나 AI 기술을 장기적으로 부작용 없이 사용하기 위해서는 윤리적 교육과 사회적 인식의 변화가 반드시 수반되어야 한다. 특히 대학을 중심으로 한 교육 환경에서 AI 활용은 사용자가 주의 깊게 데이터를 다룰 수 있도록 개인정보 제공의 중요성과 그에 따른 위험 요소를 인지할 수 있는 이용자 교육이 필요하다. 또한, AI 윤리 기준을 확립할 필요가 있다. AI 기술 개발자와 기업, 학교 등이 윤리적 기준을 따르는 방향으로 시스템을 설계해야 하며, 데이터 보호와 AI의 책임성을 보장할 수 있는 제도 등을 마련해야 한다.
AI 시대의 부작용을 해결하려면 기술, 법률, 윤리적 관점에서 다각적인 접근이 필요하다. 데이터 주권 강화, 보안 강화, 투명성 증대, 법적 규제 강화, AI 윤리적 사용 등이 모두 중요한 요소이다. 그럼에도 분명한 건 사회적 인식이 명확해져야 한다는 것이다. 최근 심심치 않게 AI 기술을 사용한 청소년 범죄가 늘고 있다는 뉴스를 볼 수 있다. 이에 대한 강력한 처벌의 목소리도 있지만 궁극적으로 AI 기술이 대학 등의 교육기관을 넘어 사회에 정착하기 위해서는 제대로 기술을 사용하는 방법에 대한 윤리적 교육이 선행되어야 하며, 나아가서는 기술을 활용한 범죄가 사회적으로 큰 문제가 된다는 인식이 확립되어야 한다. AI는 인간의 생활을 편리하게 도와주는 기술로 존재해야 의미가 있을 것이다. AI에 지나치게 의존하거나 기술을 오용하는 것을 항상 경계하여 윤택한 사회적 도구로 AI가 자리 잡을 수 있기를 기원한다.