알파고 사태는 인공지능이 지식의 세계에서 인간을 능가하거나 적어도 비슷해질 수 있다는 것을 암시한다. 인공지능은 윤리적 도덕적 판단도 할 수 있을까? 단순히 보자면 수많은 도덕적 사례를 학습시키면 인공지능 역시 주어진 환경을 평가하고 선택하는 도덕적 행위자의 역할을 할 수 있다. 그러나 윤리와 도덕은 단순히 기계적으로 최적화할 수 있는 문제가 아닌 것 같다. 최근에 있었던 구글의 무인자동차 사고는 인공지능에 대한 도덕적 문제와 법적 이슈가 눈앞의 과제임을 시사한다.
이와 관련 프랑스 툴루즈 경제대 연구원인 J.F. 보네퐁의 논문이 2015년 10월 MIT 한 저널에 소개됐다. 다음 그림은 인공지능 자율자동차가 누군가를 죽여야 하는 급박한 상황을 나타낸다. 인공지능은 어떤 판단을 해야 하는가?
A: 직진하면 여러명 사망, 방향 바꾸면 1명 사망 / B: 직진하면 1명 사망, 방향 바꾸면 운전자 사망 / C: 직진하면 여러명 사망, 방향 바꾸면 운전자 사망 (출처=프랑스 툴루즈 경제대 연구원 J.F 보네퐁 논문) |
이 문제는 ‘트롤리 딜레마’라고 하는 유명한 윤리 논쟁에 뿌리를 두고 있다. 브레이크가 고장 난 전차(트롤리)가 달리고 있다. 선로 위에 있는 5명이 곧 전차에 치여 사망하게 된다고 가정하고 다음의 경우를 생각해 보자.
재미있는 것은 감정처리와 관련된 뇌 부위에 이상이 있는 환자는 정상인과 달리 어떤 경우에서든 공리적인 판단을 쉽게 내린다는 점이다. 한편 예일대의 아론 듀크 박사는 트롤리 딜레마와 술의 관계에 대한 연구를 했는데 술에 취하면 공리적인 판단으로 나아가기 쉽다고 한다. 도덕적 판단은 심사숙고에서 나오거나 고도의 이성적 작용의 결과물이라고 단정하기 어렵다. 실제 상황에서는 즉각적이고 본능적인 요소가 중요하다. 정상적인 사람의 도덕적 판단은 사회적 상호작용을 바탕으로 하는 이성과 감성의 종합물이다. 이 부분을 간과하면 인공지능의 도덕적 판단과 인간의 심적 상태가 불일치돼 딜레마에 빠진다. 법적인 관점에서는 ‘책임과 비난 가능성’의 문제로 연결되면서 국면은 더욱 복잡해진다.
인간의 도덕 판단은 산술적으로 계산하는 과정과는 다르며 훨씬 고차원적인 사고 과정인 동시에 타고난 인간의 본성에 뿌리를 둔다. 알파고를 능가하는 극한의 인공지능이 등장하더라도 도덕적 인공지능 문제에 대해서는 사회적 논의와 합의가 항상 선행돼야 한다. 이제 우리 모두 인공지능과 관련된 도덕과 법적 책임의 딜레마를 해결하기 위해 지혜를 모을 때다.