12.17
뉴스홈 > 칼럼
[강좌] 기술과 법의 역할인공지능과의 공존을 위한 시론(試論)

[컴퓨터월드] 인공지능, 무인차, 로봇 등 과거 상상 속에서 존재했던 일들이 현실화되면서 SW중심사회 및 지능사회에 대비하는 법제도 정비가 시급하다는 목소리가 높아지고 있다. 소프트웨어정책연구소의 기고를 통해 이러한 문제에 대한 해결책을 제시해본다.

   
▲ 김윤명 소프트웨어정책연구소 선임연구원

변화의 중심 – 기술중심에서 사람중심으로

기술의 혁신은 산업의 혁신을 이끌어왔다. 증기기관, 대량생산, 통신, 인터넷을 포함한 SW에 따른 4차례의 산업혁명이 이를 보여준다. 그 과정에서 정책은 기술 중심의 결과를 지향하는 경향성이 있다. 그러나 모든 중심에는 사람이 있었다. 2016년 다보스포럼에서는 제4차 산업혁명의 이해(Mastering the 4th Industrial Revolution)라는 주제아래 인공지능이 사람을 대신하기도 하지만, 주류는 사람을 위한 기술이어야함을 강조한다.

과학기술은 사람들에게 편리한 경제적인 산물을 제공하기도 하였지만, 사회문제, 환경문제를 포함한 다양한 문제를 만들어냈다. 이러한 문제를 해결하고, 다양한 이해관계를 조정하기 위해 계약과 다양한 관리 방법이 만들어졌다. 2003년 Nelson 교수가 언급한 사회적 기술(social technology)은 경제학에서 사용되지만 과학기술과 대비되는 개념이다. 사회적 기술이란 법, 제도, 화폐, 도덕규범 등 사회를 지탱하고 유지하는 체계로 정의할 수 있다. 즉, 사회적 기술은 과학기술이 만들어놓은 결과를 이용하여 다양한 가치를 만들어내는 체계이다.

더 나아가 사회적 기술은 과학기술이 미처 깨닫지 못한 방향과 방법을 찾고, 그에 따른 해석을 통해 사회문화(social culture)를 형성하게 될 것이다. 사회적 기술은 다양성을 가지고 과학기술의 성장 및 활용을 지원한다. 그렇지만 일방적으로 설계된 제도는 이해관계를 조정하지 못하고 새로운 논란을 일으키고 급기야는 분쟁으로 확대되곤 한다. 이러한 과정에서 법률은 다양한 이해관계를 조정하는 도구로써 역할을 한다. 그렇지만 상대적으로 유연성이 떨어지는 법률은 정책을 통해 그 한계를 극복하기도 한다. 반면, 정책이 갖는 일관성을 확보하기 어렵다는 한계를 극복하기 위해 법률을 만들어내곤 한다. 법과 정책의 공진화(coevolution) 현상은 사회적 기술이 유연성을 가져야하는 이유를 보여준다.

합리적으로 운용(運用)되는 사회적 기술은 과학기술 투자와 기술자 우대를 통해 다양한 분야의 혁신을 이끌어갈 것입니다. 다만, 그동안의 기술결정론(technological determinism)에 따른 ‘기술중심’ 정책보다는 ‘사람중심’의 가치가 고려되어야 한다.

사람을 대하는 기술로써 법

SW를 포함한 과학기술에서 법, 제도 또는 정책이 필요한 것은 기술에 매몰되는 현상을 지양하기 위함이다. 즉, 기술중심의 사고는 모든 결정과정에서 기술에 대한 의존성을 높이게 되고, 그로 인하여 중요한 순간 사람이 무의식적으로 배제되는 결과가 나오게 된다. 물론 특정 사안에 대해 기술의 의사결정 지원을 받는 것은 중요하다. 인간의 비과학적이고 주관적인 의사결정 과정에서 객관성을 확보해줄 수 있기 때문이다.

최근 인공지능(artificial intelligence)을 화두로 다양한 법적 논의가 활발해지고 있다. 물론 전통적인 이슈에 있어서도 법적인 논의는 계속되어왔다. 신화시대에는 모든 결정은 신탁(oracle)에 의해 이루어졌다. 이후 다음과 같은 사건으로 그 결정은 사람에 의해 이루어지게 된다. 트로이아전쟁의 총사령관 아가멤논의 아들인 오레스테스는 억울하게 죽은 부친의 복수를 위해 아이기스토스와 모친까지도 살해한다. 이 때문에 복수의 여신인 에리니에스 자매들이 오레스테스의 뒤를 쫓는다. 결국, 아테나 여신은 12명의 배심원을 선정하였으나, 6:6의 결론에 따라 아테나 여신은 무죄 판단한다. 이 판결은 사람간의 복수를 매듭짖는 최초 사례이자 배심원제의 기원이다.

신화시대의 배심원제에 따른 법적 판단은 지금도 크게 다르지 않다. 법률의 해석도 마찬가지이다. 클라우드컴퓨팅, 공공SW사업, SW진흥, 정보보호, 인공지능, 로봇 등 다양한 SW산업 영역에서 법과 기술은 그 영역이 분명하게 나뉘지는 않는다. 모호함이 항상 있어 이를 구분하는 작업도 쉽지 않다. 법이 갖는 속성은 명확성을 수범자에게 제공해주는 것이어야 하지만, 실상은 그렇지 못한다. 특정 기술에서도 다양한 기술이 혼재되어있기 때문이다. 기술을 나누는 것은 법을 명확히 하는 것처럼 쉽지 않다. 더욱이 융합환경에서는 더욱 그러하다.

기술과 법의 역할 – 규제와 진흥의 딜레마

기술이 갖는 특성은 다양하다. 새로운 산업을 만들거나 새로운 기기를 만들어서 사회의 혁신을 이끌어내기도 한다. 때로는 예측하지 못한 결과물을 만들어내기도 한다. 법이 제시하는 것은 사회적 안정성을 높이는 것이다. 예측가능성을 제시함으로써 특정 기술이 시장에서 사장되는 것을 막기도 한다.

법이 기술이나 사회현상을 따르지 못한다는 비판은 어느 정도 타당성을 갖는다. 다만, 법이 선도적으로 기술을 시뮬레이션하여 대응하는 것은 법적 안정성이라는 측면에서 문제가 될 수 있다. 확정되지 않은 현상과 기술에 대해 법적 재단을 할 경우, 기술이나 현상에 대한 유연성이 떨어질 수 있기 때문이다. 이러한 접근법은 기술의 발전에 저해되며 자칫 규제로 작용할 수 있다는 한계를 지닌다. 기술현상에 대해서는 정책적 접근을 통해 유연하게 대응하는 것이 타당하다.

SW를 둘러싼 법률 문제를 보자. SW를 개발하는 과정에서의 문제, 개발된 SW 관련 권리귀속 문제, SW를 이용하는 과정에서의 문제, 이용에 따른 결과물의 문제 등 다양하다. 더 구체적으로 인공지능이 실제 특정 행위를 하거나, 행위에 따른 결과에 대한 법적 책임문제를 보자. 현재는 저작권의 생성은 인간만이 가능하다. 물론 침팬지나 코끼리가 그림을 그리거나 사진을 찍기도 한다. 그렇지만, 저작권법은 저작물의 정의를 ‘인간의 사상과 감정이 담긴 창작적 표현’으로 한정하기 때문에 인간이 아닌 경우에는 저작자가 되기 어렵다.

인공지능이 전혀 새로운 창작성이 있는 그림을 제작한다고 하더라도, 이는 사람의 것이 아니기 때문에 보호받는 저작물로 인정받기 어렵다. 이처럼 법은 새로운 환경에 대응하기 쉽지 않다. 사회적 논란이 커진 후에 법이 나서서 기준을 제시하기 때문이다. 물론, 이러한 논란이 부정적인 것만이 아니다. 새로운 현상을 어떻게 적용하고 해석할 것인지는 사회적 합의가 필요하기 때문이다. 사회적 합의 없이 이루어진 결정에 대해서는 또다른 논란이 될 수 있다. 따라서 사회적 합의를 도출해가는 과정에서의 논란은 그 만큼 정치(精緻)한 기준을 제시할 수 있게 된다.

앞서 언급한 바와 같이, 새로운 기술이 도입되거나 개발된 경우에는 해당 기술에 대해서는 법적인 재단보다는 정책적인 측면에서 이용가능성을 검토하는 것이 타당하다. 누군가는 해당 기술의 개발을 위해 적지 않은 투자를 했을 것이기 때문이다. 기술에 대한 투자는 미래 세대에 대한 투자와 다르지 않다. 그러한 투자를 장려함으로써 새로운 세대가 안정적으로 성장할 수 있는 기반을 마련할 수 있도록 해주어야 한다. 그것이 바로 정책의 역할이기 때문이다.

새로운 기술의 도입은 노동의 변화를 가져왔다. 농업인력에서 산업인력으로, 그리고 정보인력으로 변화된 것이다. 그렇지만, 인공지능 등의 발전에 따라 기존 인력이 로봇으로 대체된다는 주장이다. 결과적으로 평균적인 질은 높아지지만 사라지는 직업군은 구제하기가 쉽지 않아 양극화를 대비해야 한다. 제1차 산업혁명에서의 러다이트(Luddite) 운동처럼 제4차 산업혁명에서도 네오 러다이트(Neo Luddite)에 대비할 수 있는 노동정책이 필요한 이유이다. 평생교육 시스템의 체계화가 중요한 대안이 될 수 있을 것이다.

기술을 대하는 사람의 윤리

자율주행차는 인공지능이 사람을 대신하여 운전을 하는 차를 말한다. 2016년 개정된 「자동차관리법」은 자율주행자동차를 “운전자 또는 승객의 조작 없이 자동차 스스로 운행이 가능한 자동차”로 정의하고 있다. 자동차관련 법률에서는 사고로부터의 안전을 위해 사람이 반드시 탑승토록 하고 있다. 아직은 기술 수준이나 다른 환경이 마련되지 않아 사람이 탑승해야 하지만, 특이점(singularity)을 넘는 순간부터 사람은 대체될 것이다. 이때는 사람의 판단이 아닌 인공지능이 판단을 내리게 될 것이다. 물론, 인공지능의 판단은 기술적이거나 기능적인 수준을 넘어서게 될 것이며, 또한 넘어서야 한다. 자율주행이나 인공지능은 사람의 통제 영역에 벗어나 있기 때문에 고도의 윤리가 프로그래밍될 필요성이 커지고 있다.

그렇다면, 윤리는 프로그래밍화할 수 있는가? 윤리는 상대적인 개념이기 때문에 이를 객관화할 수 있는 것은 아니다. 인공지능이 기계학습을 통해 윤리의식을 높일 수 있는 지는 의문이다. 따라서 사람이 모든 경우의 수를 시뮬레이션하여 윤리적 판단에 대한 설계를 해야하는 것이라면, 이는 불가능한 영역으로 판단된다. 규제당국은 이러한 전제하에 자율주행차만의 운행을 허용할 수 있을지 의문이다. 다만, 자율주행차량간의 커뮤니케이션에 따라 주행 중의 사고는 줄일 수 있을 것으로 보이나, 사람과 자율주행차량간의 사고에 대해서는 윤리적 판단이 요구된다.

   
▲ 트롤리 딜레마

정의론에서 사례로 드는 트롤리 딜레마(Trolley Dilemma)는 여전히 가치판단의 영역이라는 점에서 인공지능에게 수행토록 하는 것이 타당한지에 대한 규범적 판단을 넘어 사회적 합의가 필요하다. 결국 인공지능의 윤리는 사람의 윤리로 귀결되기 때문이다.


기술을 둘러싼 법률 문제

쉽지 않은 법적 이슈에 대해 기술에 대한 원론적인 내용과 특정 이슈를 중심으로 시작하였다. 법은 현상이나 기술을 담아내는 콘테이너에 불과하다. 다양한 현상과 쟁점을 통해 합의된 결과물을 법률의 문장속에 담아낸 것이다. 즉, 콘텐츠라는 다양한 내용을 법문이라는 콘테이너에 담아낸 것에 불과하다. 이를 적용하고 해석하는 것은 실제 현장에 있는 사람의 몫이다. 법은 어렵지 않다.

기술을 해석하고 적용하는 데에 법률가는 한계가 있다. 기술을 모르고 법을 해석하는 것은 현실을 외면하거나 또는 입법자의 의도와 다른 결과를 제시할 수도 있다. 따라서 법률가와 기술자는 서로의 영역에 대해 관심을 가질 필요가 있다.

사회적 기술과 과학기술간의 공유와 협력을 통해 시장의 신뢰를 얻고, 정책적 배려를 통해 혁신을 일으킬 성장동력을 얻게 될 것이다. 그런 의미에서 우리가 추구하는 혁신의 가치는 과학기술만의 혁신이 아닌 사회적 기술을 통한 지속가능성(sustainability)을 확보하고, 사람중심의 가치를 실현하게 될 때 그 의미가 있음을 인식할 필요가 있다.

이러한 법적인 이해에 따라 구체적인 사례를 중심으로 살펴보고자 한다. 다음호에는‘자율주행차의 법률 문제’를 다루고자 한다.

인기기사 순위
153-023) 서울시 금천구 가산동 327-32 대륭테크노타운 12차 13층 1314호 (주)ITMG
TEL:02-2029-7200  FAX:02-2029-7220  사업자등록번호:106-86-40304
개인정보/청소년보호책임자:김선오  등록번호:서울 아 00418  등록일자:2007.08  발행인:김용석  편집인:김용석