상상 속의 무인자동차가 이제 현실로 다가오면서 인공지능(AI)의 ‘도덕적 판단’ 여부에도 관심이 모아지고 있다. 사고 발생 상황에서 자동차가 자신을 희생할 수 있을 것인지가 관심사다.
24일(현지시간) 블룸버그통신에 따르면 스탠포드대 자동차연구센터는 이런 궁금증들을 연구하는 곳이다. 이곳에서는 자동차가 도덕적 결정을 내릴 수 있도록 프로그래밍하는 작업을 진행중이다.
[사진=게티이미지] |
연구소를 운영하는 크리스 게데스는 최근 제너럴 모터스와 포드 경영진을 만나 이같은 주제에 대해 논의했다면서 “그들도 이런 이슈와 문제에 대해 매우 잘 인지하고 있고 프로그래머들 역시 이런 결정을 내릴 수 있도록 능동적으로 만드는 것에 대해 노력하고 있기 때문”이라고 말했다.
포드와 저너럴모터스(GM), 아우디, 르노, 도요타 등 자동차 제조사들과 구글은 무인자동차 개발에 수십억달러를 투입하고 있다.
물론 기술의 발달로 제대로 된 무인자동차 시스템이 도입된다면 사고 확률이 크게 줄어들 것이란 분석이다. 무인자동차 시스템으로 미국에서는 연간 3만3000명의 인명손실을 줄일 수도 있다는 연구가 나오기도 했다.
그러나 사고위험은 언제나 도사리고 있다. 이럴 경우 어떻게 자동차가 스스로 판단할지가 앞으로 남은 과제이다. 운전자는 순간적으로 자신을 희생하고 다른 사람을 살리겠다는 마음이 생기기도 하지만 로봇은 이를 스스로 판단할 능력이 없다.
ygmoon@heraldcorp.com