챗봇 윤리 가이드라인 정책 리뷰
1. 들어가며
이제 일상에서 챗봇 서비스를 이용하는 것은 매우 익숙한 일이 되었다. 이러한 챗봇의 확산은 빠르게 진화하는 인공지능 환경에서 인간과 컴퓨터 간의 상호작용의 중심에 서 있다고 할 것이다. 이렇게 이제는 일상이 된 대화형 에이전트의 보편화와 고도화는 굳이 ‘이루다’ 사건을 떠올리지 않는다 하더라도 챗봇의 윤리적 의미에 대한 비판적인 검토의 필요성을 느끼게 한다. 이러한 현실에서 챗봇 기술의 책임 있는 개발 및 사용에 대한 방향을 설정하는 것을 목표로 하는 다양한 윤리 가이드라인이나 가이드라인이 전 세계적으로 논의되었다.
이 리뷰는 2023년 한국인터넷자율정책기구(KISO)가 발표한 ‘챗봇 윤리 가이드라인’에 대하여 그 사회적 의미와 내용, 그리고 향후 과제에 대한 분석을 해보고자 한다. 먼저 이 챗봇 윤리 가이드라인은 우리나라에서는 처음으로 민간기구를 통해 챗봇에 특화된 윤리 가이드라인이 만들어졌다는 점에서 큰 의미가 있다. 거의 모든 영역에서 정부 주도로 규율이 이루어지는 것에 익숙한 우리나라에서 민간기구가 윤리 가이드라인을 발표했다는 것은 그 자체로 상당히 주목할 만한 일이라 할 것이다.
2. 챗봇 윤리 가이드라인의 내용
기술 발전과 인간 생활 사이의 섬세한 균형을 추구하고 있다고 평할 수 있는 이 윤리 가이드라인은 개발자, 운영자 및 사용자를 윤리적 행동으로 유도하기 위한 다양한 원칙을 포함하고 있다. 이 가이드라인은 챗봇의 개발, 운영 및 사용에 있어서 다각도의 윤리적 고려 사항을 다루고 있는데, 그 주요 내용을 요약하면 다음과 같다:
① 긍정적인 영향과 부정적인 영향 해결: 챗봇이 사회에 미칠 수 있는 긍정적인 영향과 부정적인 영향을 동시에 끼칠 수 있다는 것을 인정하면서, 가이드라인은 이러한 영향의 균형을 맞출 필요성을 강조하고 있다.
② 기본 원칙 : 인간의 존엄과 권리 존중, 프라이버시, 다양성, 투명성, 책임의 핵심 원칙은 개발자, 운영자, 사용자의 윤리적 행동의 기본적 기준을 제공한다.
③ 개발자 준수사항: 개발자는 사용자의 권리를 존중하고 개인 정보 및 정보 보안을 유지하며 편향을 방지하고 투명성을 보장하며 창작물의 영향에 대한 책임을 지도록 함으로써 챗봇의 윤리적 사용을 보장하는 임무를 수행한다.
④ 운영자 준수사항: 운영자는 컴플라이언스를 방해하는 상황을 관리하고, 서비스 정책에 대해 사용자에게 알리며, 이의 또는 방해 사항을 처리하는 등 챗봇 서비스 내 컴플라이언스를 감독하는 역할을 해야 한다.
⑤ 사용자 준수사항: 사용자는 챗봇과의 상호 작용에서 인간의 존엄성, 사생활, 다양성, 투명성을 존중하고, 책임감 있게 서비스를 이용하며, 개선을 위해 사업자에게 이슈나 부작용을 보고할 것을 권장한다.
이 가이드라인은 사용자의 권리와 개인 정보 보호부터 투명성과 책임에 이르기까지 윤리적 고려 사항을 포괄적으로 다루고 있다. 잠재적인 위험을 인식하고 지속적인 개선을 장려하는 동시에 챗봇과 사용자 사이에 조화롭고 유익한 관계를 만드는 것을 목표로 하고 있다고 볼 수 있다. 그리고 이 가이드라인은 챗봇 개발, 운영 및 사용의 모든 측면에서 윤리적 행동을 우선시하고 있다는 것을 확인할 수 있다.
3. 챗봇 윤리 가이드라인을 위한 첨언
이 가이드라인은 챗봇과 관련된 다양한 윤리적 측면을 포섭하려고 하고 있지만, 이것으로 챗봇 윤리가 완성된다고 생각하는 사람은 아무도 없을 것이다. 이 챗봇 윤리 가이드라인은 우리의 논의를 촉발하고 더 나은 윤리 규율 패러다임을 위한 시도라는 것을 생각하면서 몇 가지 의견을 피력하고자 한다.
가장 먼저 생각할 것은 아직 구체성이 부족하다는 것이다. 현재 상황에서 이것은 당연한 것이고 앞으로 구체성을 확보해야 하는 것이겠지만, 어쨌든 아직 이 가이드라인은 광범위한 것에 비하여 세부 영역에 대한 구체성이 부족한 것은 사실이다. 예를 들어, 개발자나 사업자가 이러한 원칙을 위반할 수 있는 특정 상황에 어떻게 대처해야 하는지에 대한 명확한 판단 기준을 제공하지 못하고 있다. EU AI 윤리 가이드라인과 판단 기준(Assessment)의 예에서 볼 수 있듯이 윤리 가이드라인의 모호성을 보완하기 위해서는 보다 구체화된 판단 기준의 마련이 뒤따라야 할 것이다.
둘째, 챗봇 윤리 가이드라인의 준수를 어떻게 끌어낼 것인지에 대한 이야기가 없다는 것이다. 물론 이러한 윤리 가이드라인의 강제성은 윤리라는 규범의 본질적인 한계라고 할 것이다. 하지만 윤리 가이드라인의 준수를 어떻게 만들어 갈 것인지 또는 위반 사항을 어떻게 처리할 것인지에 대한 계획이나 아이디어가 언급되어 있지 않다는 것은 앞으로 중요하게 논의해야 할 문제로 생각한다. 법규범과의 연계를 통한 복합적 규제 구조의 방향성이나 노력이 없다면 개발자, 운영자 또는 사용자는 이러한 윤리 가이드라인을 간과하거나 덜 심각하게 받아들일 것이다.
셋째, 사용자 권한이 상당히 제한적으로 부여되어 있다. 물론 윤리 가이드라인 마지막에 사용자는 문제나 부작용을 운영자에게 알려주도록 권장하고 있지만, 그 외에 사용자의 구체적 권리를 부여하거나 문제에 대한 알림을 넘어 챗봇의 윤리적 사용에 효과적으로 참여할 수 있는 방법에 대한 가이드라인을 제공하고 있지 않다. 물론 윤리 가이드라인이 권리보다는 의무를 주로 천명하게 되는 것은 맞지만, 챗봇 기술에 있어서 소극적 주체일 수밖에 없는 사용자에게 보다 분명한 권리를 주는 것이 필요하다고 본다.
넷째, 챗봇 윤리 가이드라인의 지속적 발전을 위한 청사진을 제시하고 있지 못하다는 것이다. 어찌 보면 이것이 가장 중요하다고 할 수 있는데, 서론에서 언급한 바와 같이 이번 챗봇 윤리 가이드라인의 발표가 단지 이것이 완결이라고 생각하는 사람은 없을 것이다. 이것은 분명 건전한 챗봇 윤리 형성을 위한 첫걸음이라고 보는 것이 타당할 것이다. 그러한 점에서 앞으로 어떻게 이 챗봇 윤리 가이드라인을 수정 및 조정해 나갈지에 대한 언급이 필요하다고 생각한다. 그러한 과정에서 앞서 지적한 문제점들도 논의되고 포섭되어 갈 것으로 생각한다.
아울러 그러한 과정에서 글로벌한 맥락에서 윤리 가이드라인 개선도 고려해야 할 것이다. 물론 한국어로 서비스되는 챗봇이라면 국내에서 이용되는 것이 기본이라고 하겠지만, 국내적으로도 다문화가 점점 확장될 것은 분명한 일이며, 국제적 관점에서 윤리 가이드라인의 정합성도 고려되어야 할 것이다. 또한 소규모 개발자나 운영자의 경우 이러한 가이드라인을 구현하기가 어려울 수 있다. 기술적 또는 재정적 능력이 충분하지 않은 기업에 대한 고려도 있어야 할 것이다.
정리해 보자면, 이 챗봇 윤리 가이드라인은 챗봇 서비스에 있어서 윤리적 고려를 위한 기초를 천명하였다는 점에서 큰 의미가 있지만, 윤리 지침의 구체성, 가이드라인 준수 강제의 메커니즘, 사용자 권한 부여라는 측면에서 아쉬움이 있으며, 특히 앞으로의 발전 방법에 대한 발표가 없었다는 점에서 우리의 노력을 요청하고 있다고 할 수 있다.
4. 마무리하며
‘챗봇 윤리 가이드라인’은 챗봇 기술의 개발, 운영 및 사용에 있어 윤리적 고려 사항의 포괄적인 틀을 제시했다는 점에서 훌륭한 첫걸음이라고 할 것이다. 특히 인간의 존엄성과 권리 존중, 사생활 보호 및 정보 보안, 다양성, 투명성, 책임 등 5가지 기본 원칙을 포함하는 이 가이드라인은 기술 발전과 사회적 가치 사이의 균형을 추구하고 있다는 점에서 매우 의미 있다고 할 것이다.
중요한 것은 앞서 수차례 강조한 바와 같이 이번 챗봇 윤리 가이드라인의 발표가 챗봇 윤리의 완성이 아니라 챗봇 윤리 형성의 시작이라는 것이다. 앞으로 챗봇 기술 및 인공지능 기술은 지속해서 발전할 것이며, 사회 환경도 계속해서 변화할 것이다. 그에 따라 챗봇 윤리도 지속적으로 개선해야 한다. 그러한 과정에서 부족한 것은 채워나가고, 모호한 것은 구체화해야 할 것이며, 구식이 되어 버린 것은 새롭게 고쳐야 할 것이다.
그런 과정을 통해 인간의 존엄성, 사생활, 다양성, 투명성 및 책임에 대한 기본 원칙을 생각하면서 이 윤리 가이드라인의 장점과 단점이 논의되고 발전방향에 대한 지속적 노력이 이루어져야 할 것이다. 다양한 문화 환경에 대한 적응성과 기술의 동적 특성으로 인해 발생하는 윤리적 문제를 해결할 수 있는가에 대하여도 고려하여야 할 것이고, 현실적으로 적용 가능한 것인가에 대하여도 생각해야 할 것이다. 또한, 우리는 대규모 운영자에서 개별 개발자에 이르기까지 다양한 이해 관계자에 대한 적용 가능성을 평가하고 준수 및 책임을 보장하기 위한 메커니즘을 논의하면서 이러한 가이드라인의 실용성과 집행 가능성을 높일 수 있을 것이다.
아울러 챗봇 윤리 가이드라인에 대한 지속적인 교육과 인식을 촉진하는 조치가 마련되기를 바란다. 개발자, 운영자 및 사용자를 목표로 하는 리소스, 교육 모듈 또는 인식 캠페인을 개발하는 것을 생각해 볼 수 있다. 이러한 이해 관계자에게 챗봇의 윤리적 고려 사항, 잠재적 편향 및 사회적 영향에 대해 교육하는 것은 챗봇의 개발, 배치 및 사용에 대한 보다 책임감 있는 행동과 참여를 끌어낼 수 있다. 어찌 보면 이러한 것이 자율정책기구의 주요한 역할이지 않을까 생각한다.
결론적으로 ‘챗봇 윤리 가이드라인’은 챗봇 생태계의 윤리적 실천을 위한 훌륭한 출발점이 될 수 있을 것이다. 챗봇 윤리의 중요한 원칙과 책임을 수립하고 지침을 구체화하는 동안, 미래 사회에 어울리는 규제 구조를 형성하는 계기가 될 수도 있을 것이다.