로봇에 대한 윤리와 법제의 대응이 필요하다
인간계의 대표 이세돌이 기계계의 대표 ‘알파고(AlphaGo)’와의 지능대결에서 패하였다. 처음에는 엄청난 충격으로 다가왔지만, 이제는 담담하게 받아들이는 분위기이다. 인간과 기계문명의 대결은 어제 오늘의 얘기가 아니다. 그동안 기계문명에 대한 인류의 대처는 환호와 두려움, 노여움이 복합적으로 나타난다. 말보다 빠른 자동차와 기차, 새보다 빠른 비행기에는 환호를 보냈고, 노동력을 대신하는 기계에는 노여움이 표출되었다.
오늘 맞닥뜨린 인공지능, 로봇에 대한 충격은 사뭇 다르다. 그간 기계문명은 인간이 한계를 느끼는 육체적인 힘을 대체하거나 확장하는 수단이었다. 로봇도 마찬가지 역할을 하고 있다. 용접을 하는 로봇, 무거운 짐을 운반하는 로봇, 인명구조활동을 하는 로봇 등은 인간의 육체적 한계를 확장하고 대체하는 수단과 도구일 뿐이다.
그런데 최근의 인공지능 또는 로봇은 이제 단순한 도구나 수단으로 보기 어려운 점이 많다. 동일한 규칙 내에서 사람과 동등한 자격으로 경기를 하는 ‘알파고’와 ‘왓슨(Watson)’, ‘딥블루(Deep Blue)’의 인공지능, ‘페퍼(Pepper)’나 영화 ‘그녀(Her)’의 ‘사만다’와 같이 사람과 교감하기 위하여 만들어진 인공지능 또는 로봇은 그간 우리가 보아왔던 기계덩어리로 보기에는 뭔가 찜찜하다.
여기서 로봇을 인간의 수단 또는 도구로만 볼 것인지, 아니면 독자적인 행위의 주체로도 인정할 수 있을지 문제가 된다. 이는 법적인 문제인 동시에 윤리적인 문제이기도 하다. 로봇의 윤리적인 문제는 1942년 아이작 아시모프(Isaac Asimov)가 천명한 로봇3원칙에서 유래한다. 로봇은 인간을 해칠 수 없고, 인간의 명령에 절대 복종하며, 스스로 보호되어야 한다는 것을 내용으로 한다. 이 원칙은 로봇을 도구로 보는 전통적인 견해에 입각한 것이고, 두려움을 반영한 것이다.
로봇의 윤리문제는 로봇이 어떠하여야 한다는 측면과 로봇을 어떻게 취급하여야 한다는 측면으로 나누어 볼 수 있다. 로봇을 도구로 보는 경우도, 또는 주체성을 가진 존재로 보는 경우에도 동일하게 적용되는 문제이기는 하다. 하지만 로봇을 어떻게 취급하여야 할지의 문제는 로봇을 도구 이상의 특별한 존재로 여기는 문제와 연결된다.
구글은 2015년 2월 몸무게 73kg인 개 모양의 로봇인 ‘스팟(Spot)’을 발로 차는 모습의 동영상을 공개하였다. 이는 로봇의 안전성을 시험하기 위한 것이었다. 그런데 네티즌의 반응에는 불쾌하다거나 학대라는 의견이 다수 나타났다. 이는 동영상 공개의 의도와는 전혀 다른 것이었다. 네티즌은 사람으로부터 차이면서 넘어지지 않으려고 애를 쓰는 로봇개의 움직임에서 생명체의 움직임을 인지하고 공감하고 있는 것이다. 이 경우 로봇을 차는 행위는 법으로 어떻게 평가할 것인가. 생명체로 인식하고 생명체 보호에 관한 법률을 적용하여야 하는가.
이와 반대로, 로봇은 인간을 해칠 수 있는가. 해친다면 어떠한 법적 취급을 하여야 할까. 이 문제는 로봇과 인간의 공존을 전제로 하는 로봇의 주체성에 관한 대표적인 이슈가 될 것이다. 2015년 7월에 독일의 폭스바겐 자동차공장에서 22살의 젊은 엔지니어가 작업 로봇에게 살해당하는 사고가 발생되었다. 이 사고의 책임을 두고 논란이 발생되고 두려움이 확산되기도 하였다. 최근 30년 동안 미국에서만 로봇에 의하여 사망한 사람이 26명에 이른다고 한다. 물론 법적인 의미에서의 살인이라기보다는 오작동으로 인한 사고일 가능성이 높다. 만일 그렇지 않다고 한다면, 이러한 사고에서 로봇의 책임이 문제될 것이다. 이는 로봇의 책임능력, 책임부과방법 등의 논점으로 발전할 수 있다. 물론 현행법으로는 적용하기 어려운 문제이다.
로봇은 명령대로 움직이도록 제작된다. 즉 로봇은 제작 목적에 따라 다양한 기능을 수행하고, 그 기능 중에는 인간이 하는 행위를 수행하도록 제작되고 인간의 모습과 정서를 닮은 로봇도 있을게다. 이러한 로봇의 경우에는 주체성의 문제가 훨씬 더 복잡할 수 있다. 영화 ‘Her’에서는 인공지능인 ‘사만다’와 사랑에 빠진 주인공의 애착과 상실의 모습이 그려지고 있다. 보통 사랑에 빠진 남녀의 감정과 정서와 크게 다르지 않다. 이런 인공지능을 단순히 도구와 수단으로만 평가할 수 있을까.
그러면 도구나 수단이 아닌 주체성이란 무엇을 의미하는 것인가. 현행 법체계로 설명하면 이는 보통 심각한 문제가 아니다. 주체성이란 독립적으로 법적인 행위를 할 수 있는 자격이고, 그 행위는 법적·사회적으로 유의미하게 평가된다는 것을 의미하기 때문이다. 과연 로봇에게 로봇을 만든 인간으로부터 독립한 주체성을 인정할 수 있겠는가. 제2의 인간인 법인의 주체성도 따지고 보면 완전한 독립성을 의미하지는 않으니 인간의 결단이 있으면 불가능한 것만은 아니라는 상상도 가능하다. 그러나 인간의 모습을 하고 인간과 같이 사고하며 인간의 행위를 대신하는 로봇이라고 하여 인간에 유사한 인격체의 지위를 인정할 수 있는 이유가 되지는 못한다.
이 문제는 자연사물에 주체성을 인정할 것인가의 논의와 상당히 유사하다. 동물과 나무, 돌이 단순한 대상을 넘어서 자연의 주체로서 지위를 가질 수 있겠는가 하는 점이다. 특히 최근 동물의 경우에는 단순히 보호의 대상을 넘어서 ‘동물 복지권’ 차원에서 법제가 마련되기도 하였다. 실생활에서도 반려동물을 가족의 일원으로 동일시하는 것이 보편화되고 있다. 이는 특별한 경우 동물은 인간생활의 도구나 대상 이상의 의미로 받아들여지고 있다는 것을 의미한다.
설령 주체성을 인정한다고 하더라도 생명체인 동물의 지위와 견주어 볼 수 있지 않을까 생각한다. 로봇개를 발로 차는 행위에 불쾌감을 드러내는 입장은 결국 동물과 유사하게 바라본다는 것을 의미하기 때문이다. 만약 인공지능 로봇에 동물 정도의 지위를 인정하게 된다면 동물에 대한 학대를 규제하는 것과 같이 로봇의 복지, 로봇의 보호 법제의 마련도 상상할 수 있겠다. 1942년 아이작 아시모프가 천명한 로봇3원칙에서 세 번째 원칙인 ‘스스로 보호할 것’이 아니라 인간의 보호대상으로 승격되는 것이다.
이처럼 인공지능과 로봇은 우리가 상상하지 않았던 윤리와 법적 과제를 던지고 있다. 아직은 현실화하기 어려운 상상속의 논점이긴 하지만, 주체성에 대한 논쟁, 움직임(또는 행위)에 대한 평가, 그로부터 발생되는 사고의 책임 소재, 인간과의 관계에서 발생되는 윤리 문제 등이 그것이다. 이에 대한 윤리·법제는 로봇의 기능과 모양에 따라 다른 내용으로 형성될 것으로 예상된다. 단순한 노동 또는 운반수단에 대한 윤리·법제와 ‘스팟’ 또는 ‘페퍼’를 동일하게 취급할 수는 없는 노릇이기 때문이다.
‘알파고’로부터 시작된 충격은 인간이 로봇과 공존하는 시점이 훨씬 더 빨리 다가왔음을 알려주고 있다. 인간과 공존하게 될 로봇에 관한 윤리와 법제의 대응도 그만큼 시급하다는 것이다.