유럽연합(EU)의 로봇법(RoboLaw) 프로젝트
최근 인공지능과 로봇이 새로운 시장 창출과 국가경쟁력 향상의 원동력으로 간주되면서 이를 둘러싼 각국의 경쟁이 한층 더 치열해지고 있다. 미국 정부는 2013년 ‘첨단제조 파트너십’ 발표 이래 산업로봇(Co-Robot) 중심의 제조업 혁신전략을 실행해오고 있고, 일본 정부도 총리실 산하에 ‘로봇혁명실현회의’를 출범시키는 등 경제성장전략의 핵심으로 이른바 ‘로봇혁명’을 추진하고 있으며, 유럽연합(EU)은 제조, 농업, 헬스, 교통, 사회안전 등 타산업과의 융합을 통해 세계 로봇시장의 선점, 강화를 위해 세계 최대 규모의 민간주도 로봇연구 프로그램(SPARC)을 운영해오고 있다.
특히 유럽의 경우 로봇의 산업진흥적 가치에만 주목하기 보다는 로봇 신기술의 사회적 영향을 고려한 합리적 규제 틀을 마련하기 위한 제도화 노력도 병행하고 있다는 점에서 주목할 필요가 있다. EU 집행위원회는 정보화 연구개발 프로그램 즉 FP7(7th Framework Programme)의 재정지원 계획에 따라 로봇규제 문제에 대한 새로운 접근방식으로 이른바 ‘로봇법 프로젝트(RoboLaw Project)’를 추진했는데, 로봇 관련 법규 및 규제대응을 위한 일련의 정책연구(2012. 3~2014.3)를 통해 ‘로봇규제 가이드라인(Guidelines on Regulating Robotics)’을 도출한 것으로 유명해졌다.
실제로 유럽연합의 로봇법 프로젝트는 로봇기술의 윤리적, 법률적 이슈 검토를 통해 새로운 규범 체계를 정립하고자 하는 연구 목표 하에 이탈리아, 네덜란드, 영국, 독일 등 4개국 4개 연구소가 참여했고 특히 자율주행자동차, 수술로봇, 로봇인공기관, 돌봄로봇 등 4가지 로봇기술의 윤리적, 법률적 분석을 통해 로봇 규제정책의 근거를 마련하고자 했다. 유럽연합의 로봇법 및 로봇규제 가이드라인에 나타난 주요한 내용 및 특징을 요약하면 다음과 같다.
첫째, 규제 일반론을 제시한다기 보다는 구체적인 사례 중심의 기능주의적 접근법에 입각한다는 점이다. 왜냐하면 로봇법 프로젝트의 주요한 연구대상은 자율주행자동차, 수술로봇(computer-integrated surgical system), 로봇 인공기관(Prosthesis), 돌봄로봇(care robot) 등 4가지로 선정했는데, 그 이유는 그 사회적 확산성과 중요성이 크기 때문인 것도 있지만 로봇기술의 응용형태가 너무 다양하기 때문에 포괄적 정의(all-encompassing definition)가 사실상 어렵기 때문이다. 따라서 EU의 로봇법은 로봇의 일반적 정의에 입각해서 로봇윤리 또는 로봇법칙을 구상하기 위해 아시모프의 로봇 3법칙을 대체하거나 그 한계점을 극복하기 위한 시도가 아니다. 새로운 입법 및 규제패러다임을 제시하는 식의 거시적 접근이라기보다는 로봇의 기술적, 윤리적, 사회적, 법적 함의를 잘 드러내는 몇 가지의 구체적이고 특징적인 기술이나 서비스를 중심으로 case-by-case의 개별 사례 분석을 통해 로봇 규제 이슈에 기능적으로 개입하려는 시도라고 볼 수 있다는 것이다.
둘째, 로봇기술의 산업적 진흥도 중요하지만 투명한 규제 환경이 오히려 로봇 시장의 발전을 위해 필수적이라는 정책철학이다. 지나치고 섣부른 규제가 기술 혁신을 저해할 수도 있지만 법적으로 명확하지 않은 상태에서는 이해당사자들의 혼란을 초래하는 등 혁신에 부정적일 수 있다는 것이다. 이러한 방향에서 관련 법률들을 검토하여 현행 법률로서 로봇 규제가 가능한지, 아니면 별도의 새로운 법제가 필요한지를 검토하고자 한다. 특히 현행 법률상의 규제 공백이 있는지를 검토하면서 고려하는 로봇의 규범적 이슈들로는 1) 건강‧안전‧소비자‧환경, 2) 법적 책임(liability), 3) 지적재산권, 4) 프라이버시와 데이터 보호, 5) 계약주체로서의 법적 거래 능력(즉 로봇의 법적 인격 부여 문제) 등이 있다.
셋째, ‘책임 있는 연구와 혁신(Responsible Research and Innovation)’을 지향하면서, 윤리적 이해뿐만 아니라 법률적 판단과 개입까지 다양한 이해관계자의 참여를 견인하는 학제적 접근에 입각하고 있다는 점이다. 예컨대 수술로봇과 관련된 정책 수립 과정에는 의료인, 법조인, 윤리학자, 엔지니어, 환자단체 등 다양한 관점의 개입이 필요하며, 윤리위원회 등과 같은 거버넌스를 통해 윤리적, 법적, 기술적인 이슈들을 함께 논의해야 한다는 것이다. 특히 수술로봇의 경우 고가의 장비이기 때문에 일부 특정계층만이 접근 가능한 배제적 측면이 있으므로, 누구나 로봇수술 서비스를 받을 수 있도록 기회의 평등, 윤리적 정의, 삶의 질 향상 등의 가치관이 적극 개입되어야 한다고 본다.
넷째, 로봇규제 또한 법제도적 규제뿐만 아니라 기술적 규제를 모색해야 한다는 것이다. 단순히 기술을 규제의 대상으로만 보지 않고 규제의 주체로 상정한다는 것이다. 즉 기술규제(techno-regulation), 법으로서의 코드(code as law), 규범적 기술(normative technology) 등의 개념들과 같이 로봇의 합리적 규제 원칙을 기술적 프레임워크 또는 아키텍처 차원의 규제로 전환할 수 있다고 본다. 로봇의 개발과 생산에 대한 법적 규제도 중요하게 고려하지만, EU 데이터 보호정책의 핵심 원칙인 “privacy by design”에 입각해서 로봇에 대한 기술적 규제를 지향하는 것이다. 물론 규제가 기술발전의 속도를 쫓아가지 못하고 기술규제의 복잡성을 고려할 때 기술혁신의 가치가 내재된 연성법(soft law)이 적절한 대안으로 제시되지만, 기존의 경성법 체계 및 규제 거버넌스와 상충하는 문제를 겪을 수밖에 없기 때문에 초기 단계에서는 혁신과정(innovation process)에 사회적, 윤리적 가치를 내장하는 기술규제, 즉 가치중심 디자인(value-sensitive design)이 더 유용할 수 있다고 본다.
다섯째, 인권, 행복추구권 등과 같은 기본권을 보호하고 지향하는 로봇법 및 로봇규제의 대원칙을 제시한다는 점이다. 로봇기술이 인권 등 기본권을 침해하지 않도록 평등, 연대, 정의 등의 핵심 가치를 명료하게 천명하고, 더 나아가 유전학, 인지과학 등 다양한 인간 향상(Human Enhancement) 기술과 접목하여 로봇이 인간의 역량 강화에 기여하는 역량접근법(Capability Approach)을 표방하는 것이다. 즉 로봇이 인간 고유의 역량을 상실, 약화시키지 않도록 고려해야 하고, 신체기능 회복을 넘어 평균 이상의 역량을 발휘할 수 있도록 해야 한다는 것이다. 특히 인간 향상 기술과 관련된 규제는 공적으로 충분히 논의되어야 하고 초국적으로 적용되어야 한다고 강조한다.
끝으로, 유럽연합의 로봇규제 가이드라인은 로봇의 잠재적 위험에 대한 법적 책임 원칙도 적극 논의할 것을 강조하고 있다. 로봇 기술의 복잡성 및 자율성 증가로 인해 인간의 통제력 감소뿐만 아니라 책임 소재도 불분명해지고 있기 때문에, 개발자(설계자), 제조사(생산자), 소유자, 사용자 등 주체 간 법적 책임 배분을 어렵게 만들고 있다는 것이다. 예컨대 설계자가 예측하지 못한 로봇의 창발적 행위 특성(emergent behaviour)으로 인해 전통적인 법적 책임 원칙이 더 이상 유효하지 못하다는 것이다. 더구나 로봇의 자율성과 주체성을 고려해서 로봇의 법적 인격성까지 부여할 경우 법적 권한과 책임 설정은 더욱 어려워진다. 실제로 현행 법 체계 하에서 로봇은 타인에게 행한 손해에 대해서 책임을 묻지 않고 있다. 현 단계에서 로봇 제조사는 로봇 생산 능력에 비해 법적 책임을 다룰 능력이 부족한 상황이므로, 지나치게 엄격한 법적 책임 규정은 로봇 기술의 발전을 저해할 수 있음에 유의해야 한다. 로봇 기술이 충분히 발전되어 로봇 제조사가 모든 법적 책임을 부담할 수 있을 때까지는 법적 책임을 제한하여 혁신을 장려하고 기술혁신 과정에 윤리적 규제 프레임워크를 적용하는 노력부터 전개할 필요가 있다. 즉 로봇에 대한 법적 책임(liability) 관련 규정은 위험 규제와 혁신 진흥이라는 상충된 두 가지 목표를 균형 있게 추구해야 한다는 것이다.
앞에서도 논의했듯이 유럽연합의 로봇법 프로젝트는 급부상하는 로봇기술의 영향력에 대한 유럽 차원의 공식적 법제도 대응이라는 점에서 중요한 의미를 지닌다. 그러나 EU의 로봇법 및 로봇규제 가이드라인은 경성법, 연성법 등 전형적인 법규 형태의 체계를 갖추었다기 보다는 로봇의 윤리적, 법적 고려사항들을 정리한 것이라고 보아야 할 것이다. 따라서 로봇윤리론과 로봇규제론이 혼재되어 있으며, 이는 로봇의 자율성과 주체성에 인간과 동등한 법적 지위를 부여할 것인지의 법철학적 논쟁이 반영된 것으로 보인다.
마찬가지로 최근 우리나라도 알파고의 충격 이후 로봇과 인공지능의 윤리적 이슈와 법제도적 이슈가 혼재된 복잡한 논의구조를 보이고 있다. 특히 로봇윤리론의 경우 로봇의 윤리적 프로그래밍, 즉 로봇이 수행해야 할 도덕적 규약을 마련하거나 더 나아가 로봇을 도덕적 행위자로 간주하고 로봇 스스로 학습을 통해 윤리적 추론 및 책임있는 선택을 할 수 있도록 만드는 것까지 다양하고 논의되었다. 물론 이같은 로봇윤리론의 장점은 인공지능과 로봇의 법적 책임이나 권리 등 그것의 규범적 가치를 성찰할 수 있는 계기를 제공해준다는 점에 있다. 로봇윤리는 인간행위자 중심의 현행 법체계가 지닌 한계점을 드러내고 로봇, 기계 등과 같은 비인간 행위자를 고려한 새로운 규범 패러다임을 성찰적으로 모색하게 만든다는 것이다.
그러나 로봇윤리 담론은 로봇이 스스로 지능을 갖고 행동하는 존재로 전제하고 로봇이 지켜야 할 윤리적 규칙을 제안하는 견해, 로봇을 만들거나 사용하는 사람들이 지켜야 할 윤리적 책임의식을 강조하는 견해 등이 혼재되어 다층적인 논의구조를 보여주고 있다. 로봇윤리는 인공지능이나 로봇 신기술의 사회적 수용과정에서 규범적 논의 단계에서 반드시 필요한 담론이지만, 실제로 로봇 개발자나 사용자들의 사회적 합의를 형성하는데 많은 시간이 요구되고 로봇에 인간과 동등한 윤리의식을 이식하는 자체도 상당히 어려운 과정이다. 또한 윤리적 실험이라는 대응만으로는 로봇과 인공지능의 파급효과를 통제하기 어렵기 때문에 어떠한 형태로든 법제도적 규제 프레임워크를 모색하는 논의를 시작할 수밖에 없다.
그래서 미국 워싱턴대 법학교수 라이언 칼로(Ryan Calo)도 로봇기술의 발전이 기존 법률과 규범체계의 혼란을 초래하므로 인공지능이나 로봇을 규제할 새로운 입법정책이 요구되며 더 나아가 이 문제를 다룰 소위 ‘연방로봇위원회(FRC: Federal Robotics Commission)’와 같은 거버넌스 구성을 주장한 바 있다. 유럽연합의 로봇법 프로젝트가 로봇을 규율할 거버넌스 구성까지 고려한 것은 아니지만, 로봇을 비롯한 지능정보기술에 대한 입법 및 규제정책의 근거가 될 만한 요소들을 제안했다는 점에서 의미가 있다. 특히 로봇의 개발자과 생산자, 로봇 사용자에 대한 행위 규제뿐만 아니라 로봇 알고리즘 자체의 기술적 규제까지 망라해서 논의하고 있다는 점에 주목할 필요가 있다. 다만 다양한 이해 당사자들 간의 이익상충이나 갈등을 뛰어넘고 로봇의 합리적 규제를 포함한 새로운 법규범을 기술적 프레임워크로 전환하는 것이 가능할 것인지 여부는 각국의 규범 역량에 달려 있다고 하겠다. 로봇 등 지능정보 기술 및 서비스를 기존 법, 규제 틀을 적용할 사항에는 어떠한 것들이 있는지, 지속적 기술개발이나 새로운 산업화 진흥(규제완화)을 포함한 새로운 법제도 및 규제 틀을 마련할 필요가 있는지 등의 본격적인 고민이 시작된 것이다.