MS 소속 과학자들, 실험·논문 발표

“인간 개입없이 성장하는 단계 돌입”

챗GPT 창시자, 美의회 청문회 출석

“국제표준 제정·감독기구 설립 필요”

인공지능(AI)이 인간처럼 추론을 하기 시작했다는 마이크로소프트(MS) 소속 과학자들의 주장이 제기됐다. 미 의회에선 AI 규제 관련 논의가 본격적으로 시작됐다.

16일(현지시간) 뉴욕타임스(NYT)에 따르면 MS 소속 과학자들은 지난 3월 발표한 논문에서 AI가 새로운 경지에 도달했다고 밝혔다.

이들은 계란 9개와 노트북, 책, 유리병, 못을 안정적으로 쌓는 방법을 AI에 물었다. 이는 물리세계에 대한 직관적인 이해력이 필요한 문제를 AI가 어떻게 푸는지 확인하기 위한 실험이었다.

그 결과 AI는 일단 책을 바닥에 눕히고 그 위에 계란 9개를 가로세로 3줄씩 세운 뒤 노트북을 올리라고 답했다. 유리병과 못은 평평한 노트북 위에 올리면 된다고 덧붙였다.

MS과학자들은 이를 통해 AI가 인간의 개입없이 스스로 추론해 성장하는 AGI(범용인공지능·Artificial General Intelligence)라는 새로운 단계에 돌입했다고 주장했다.

연구팀을 이끈 피터 리 박사는 “AI가 직관력을 보인데 대해 화가 나고 겁이 나기도 했다”며 “이런 능력이 도대체 어디서 나왔을지 의문”이라고 밝혔다.

IT업계 내부에서 AI가 AGI에 돌입했단 주장이 나온 것은 이번 MS 과학자들이 처음이다. 반대로 구글은 개발 중인 AI 언어 프로그램 ‘람다(LaMDA)’에 지각 능력이 있다고 주장한 엔지니어를 해고하면서 그런 주장은 신빙성이 있다고 보기 어렵다고 밝혔다.

AI에 대한 경계심은 AI열풍을 몰고 온 챗GPT의 창시자 샘 올트먼 오픈AI 최고경영자(CEO)로부터도 나왔다.

그는 이날 미국 의회가 개최한 AI청문회에 나와 “오픈AI는 AI가 우리 삶의 거의 모든 측면을 개선할 것이란 믿음에서 세워졌지만 동시에 심각한 위험도 존재한다”고 말했다. 허위 정보와 불분명한 책임소재 등이 그가 언급한 위험이다.

올트먼 CEO는 정부가 위험을 완화하기 위해 규제를 해야 한다며 “미국이 다른 국가와 협력해 AI 국제 표준을 설정하는 것은 비현실적으로 들리지만 실제 가능하고 전 세계에 큰 도움이 될 것”이라고 강조했다.

이날 청문회를 연 민주당 소속 리처드 블루먼솔 소위 위원장은 “AI는 희망적인 동시에 정보의 무기화, 불평등 조장, 목소리 복제 사기 등 잠재적 해악도 품고 있다”고 강조했다. 공화당 조시 홀리 의원은 중국을 비롯한 적대국의 AI위협을 언급하며 “미국의 자유와 국민을 위해 어떻게 이 기술을 통제할 수 있는지 고민해야 한다”고 밝혔다.

그런가하면 세계보건기구(WHO)는 챗GPT를 비롯한 생성형AI의 의료분야 활용시 엄격한 검증이 필요하다고 지적했다.

WHO는 생성형AI의 기반이 되는 거대언어모델(LLM)을 전문가의 검증 없이 사용하면 오류를 낳고 환자의 피해로 이어질 것이라고 우려했다. 이로 인해 AI 전반에 대한 신뢰는 떨어지고 결과적으로 이 기술의 잠재적 이점이 훼손될 수 있다고 지적했다.

때문에 WHO는 의료인과 정책 당국이 LLM을 광범위하게 사용하기 전에 사전 검증과 엄격한 감독 등을 통해 이 같은 우려를 먼저 해결해야 한다고 강조했다.

WHO는 보건 분야에 활용될 AI에 의료 윤리 원칙이 지켜지는지도 살펴야 한다고 설명했다. WHO는 인간의 복지·안전·공익, 투명한 설명 가능성과 명료성, 자율성의 보호, 책임성, 포용성과 형평성, 응답성이 뛰어나고 지속 가능한 AI 등을 의료 분야 인공지능 기술 적용 시 지켜야 할 원칙이라고 제시했다. 김우영 기자