올 3월 머스크·유발 하라리 등 공개서한 서명…“AI 개발 속도 줄이자”
오픈AI서 새롭게 선보이는 AI모델에 안정성 우려도
美·EU선 AI 규제 속도…“위험성 평가 받아야”
AI와 챗GPT 로고. [AFP] |
[헤럴드경제=김영철 기자]지난 2월초 콜롬비아의 후안 마누엘 파디야 판사는 사건 판결문을 작성하는 과정에 오픈AI의 생성형 인공지능(AI)인 ‘챗GPT’를 활용했다고 현지 방송에서 털어놨다. 자폐 아동의 치료 및 이송 비용 전액을 건강보험금으로 지급해야 하는지에 관한 사건이었는데, AI는 전액을 보험금으로 부담해야 한다고 판결했다. 챗GPT는 물론이고 일반적인 챗봇이 판결을 내리는 데 사용된 것은 처음이었다. 법정 문제 등 예민한 사건에 AI를 사용해도 되는지에 대한 논쟁이 시작됐다.
오픈AI가 ‘챗GPT’를 출시한 지 딱 1년이 된 지금 인류는 지금까지 경험하지 못한 혁신을 마주하는 동시에 강력한 위협을 느끼고 있다. 공상과학 영화에서처럼 인간은 ‘인간과의 경쟁’이 아닌 ‘AI와의 경쟁’에 시달려야 할 것이라는 우려도 나온다.
정교해진 AI는 인류 생활의 효율성을 한없이 높여주고 있지만, 마찬가지의 이유로 범죄에도 빠르게 침투하고 있다. 딥페이크·가짜뉴스·지식재산권 침해 등 각종 문제점이 속출하면서 각국은 규제를 향한 발걸음에 속도를 내고 있다.
▶“진짜야 가짜야”...정교해진 AI에 악용 확산=지난달 시작된 이스라엘과 팔레스타인 무장정파 하마스의 전쟁을 계기로 인터넷 공간에서는 AI를 이용한 가짜뉴스가 범람했다. 이스라엘 총리가 병원에 긴급 이송됐다는 뉴스가 진짜처럼 온라인상을 떠돌았고, 비디오게임 연출 장면이 실제 헬리콥터 격추처럼 둔갑하기도 했다.
미국에서는 내년 대선을 앞두고 가짜뉴스의 확산과 AI를 이용한 특정 인물의 이미지 합성인 ‘딥페이크’에 대한 우려가 커지고 있다. 지난 4월 한 SNS에서는 힐러리 클린턴(민주당) 전 미 국무장관이 공화당 대선 주자 론 디샌티스 플로리다주지사를 지지하는 발언을 하는 딥페이크 영상이 떠돌아 다니기도 했다. 3월에는 한 SNS에 “트럼프가 맨해튼에서 체포됐다”는 설명과 함께 관련 사진이 확산하기도 했다.
진짜와 가짜의 구분이 어려워지면서 미국 유명 사전 출판사 메리엄웹스터의 ‘올해의 단어’에는 ‘진짜의’라는 의미의 ‘어센틱(authentic)’이 꼽히기도 했다.
그런가하면 얼마전 영국에서는 청소년들이 생성형 AI 이미지 생성기를 이용해 친구들의 음란한 가짜 이미지를 만들고 있는 사례가 다수 발생했다. 규제되지 않은 생성형AI가 아이들의 안전까지 위협하자 영국 안전한 인터넷센터(UKSIC)는 긴급 대응과 함께 학교에 모니터링 시스템을 강화할 것을 경고했다.
AI 반도체 개발업체인 엔비디아의 젠슨 황 최고경영자(CEO)는 최근 미국 뉴욕 링컨센터에서 뉴욕타임스(NYT) 주최로 열린 ‘딜북서밋’에서 “5년 안에 AI가 인간과 상당한 경쟁을 벌일 것”이라고 밝혔다. AI 기술의 고도화로 5년 뒤에는 범용인공지능(AGI) 수준에 올라설 것으로 내다본 것이다.
▶“AI 기술이 인류 위협”...‘두머’들 목소리 고조=AI 기술 발전이 예상을 뛰어넘을 만큼 가속화하면서, AI를 인류 위협의 위기로 보는 ‘두머(doomer·파멸론자)’의 경고도 커지고 있다.
일론 머스크 테슬라 최고경영자(CEO)가 대표적인 ‘두머’다. 그는 2015년 샘 올트먼과 함께 공동으로 비영리단체 오픈AI를 세웠지만 2018년 2월 오픈AI 이사회를 떠나며 완전히 결별했다. 이후 머스크는 “내가 1억달러를 기부한 비영리 단체가 어떻게 해서 300억달러짜리가 되었는지 아직도 혼란스럽다”는 트윗을 올리는가 하면 ‘GPT-4보다 강력한 AI 개발을 최소 6개월 중단하자’는 미국 비영리 단체 ‘미래의 삶 연구소’의 공개서한에 동의 서명했다. 오픈AI 이사회가 지나친 상업화에 대한 우려로 올트먼 CEO를 해고했다가 복귀시킨 최근에 사건에 대해서도 머스크는 “오픈AI가 인류에게 잠재적으로 위험한 일을 하고 있다면 전 세계가 알아야 한다”며 오픈AI 뒤의 숨은 권력에 의혹을 제기하는 트윗도 띄웠다.
오픈AI 내부에서조차 최근 새롭게 개발 중인 AI 모델 ‘큐스타(Q*)’를 두고 우려의 목소리가 제기된다. 지난달 22일 로이터통신에 따르면 일부 오픈AI 연구원들이 이사회에 AI가 인류를 위협할 수 있다는 경고의 메시지를 전달했다.
큐스타는 기존 모델보다 높은 수준의 수학 문제를 해결하는 특징을 지니고 있다. 이런 특징을 두고 연구자들은 향후 AI 기술이 더욱 빠른 속도로 발전을 이룰 것으로 내다보는 동시에 새로운 모델에 대한 위협감을 경고한 것이다.
IT 기업 경영자와 과학자로 구성된 비영리단체 ‘AI 안전센터(CAIS)’는 지난 5월 AI의 위험성을 핵무기와 신종 전염병에 비견하며 AI 기술 통제 필요성을 주장하는 성명을 발표하기도 했다
▶세계 각국 AI 발전과 규제의 딜레마=각국 정부는 AI를 놓고 딜레마에 빠져 있다. 경쟁력 강화 차원에서 AI 도입을 적극적으로 추진해야 하지만, 이로 인한 오용을 막기 위한 규제 제정도 미룰 수 없어서다.
지난 6월 유럽연합(EU) 입법기구인 유럽의회는 세계 최초로 AI 규제법안을 가결했다. 해당 법안에는 오픈AI와 구글 등 생성형 AI를 운영하는 기업들이 위험성을 판단하는 평가를 받아야 하며 AI 챗봇이 불법적인 콘텐츠를 생성하지 않도록 관리하는 내용을 담고 있다. 또 AI가 만든 콘텐츠는 이 사실을 알려야 하며, AI가 학습한 데이터의 저작권을 공개해야 한다.
CNBC 등에 따르면 지난달 30일 조 바이든 미국 대통령은 ‘안심할 수 있고, 안전하며, 신뢰할 수 있는 인공지능 개발과 사용에 관한 행정명령’에 서명했다. 이 행정명령에는 미국 당국이 AI 기술 공개 전 국가 혹은 경제적 안보에 위험이 되는지 심사하도록 했다. 기업들은 AI 시스템을 출시하기 전 상무부 산하 국립표준기술연구소(NIST)의 안전성 평가를 의무적으로 거쳐야 한다. 아울러 가짜 정보 확산을 막기 위해 AI가 생성한 콘텐츠에 대해선 워터마크를 표시하는 인프라를 구축하도록 했다.
AI를 어디까지 이용할 지, 어느 수준으로 규제할 것인가 등에 대한 논의는 이제 시작 단계다. 아직까지 나라마다 다르게 대응하고 있지만, 세계 표준을 만드는 나라가 AI 세상에서 주도권을 잡는 나라가 될 것이라는 전망도 나온다.
yckim6452@heraldcorp.com