실시간 뉴스
  • ‘AI, 3년내 인간 따라잡는다’ 미래서 온 경고장
알파고 개발·AI 기술혁명 이끈 저자
‘AI 진화, 정부가 일괄 관리해야” 역설
“통제 위해 개발속도 늦출 필요” 주장
2016년 이세돌 9단의 ‘알파고와의 대전’패배는 당시 큰 충격이었다. 특히 알파고는 2국에서 37번째 수를 통해 저돌적이면서도 직관적인 능력도 있음을 입증했다. [헤럴드DB]
더 커밍 웨이브/무스타파 술레이만 지음/ 마이클 바스카 정리/이정미 옮김/한스미디어

“완패였다. 한순간도 앞섰다고 느낀 적이 없었다.”

구글 딥마인드가 개발한 인공지능(AI) 프로그램 알파고가 세계 바둑계 최고봉인 이세돌 9단을 꺾고 파죽의 2연승을 거둔 2016년 3월, 이 9단은 이렇게 고백했다. 당시 ‘4차 산업혁명’의 핵심인 AI의 현주소, 알파고는 정말 기대 이상이었다. 알파고는 직관을 발휘해 인간이라면 절대 두지 않았을 ‘묘수’까지 두며 인간 바둑기사를 압도했다. AI가 가진 위력이 예상보다 더 뛰어났다는 분석이 뒤늦게 쏟아졌다.

8년이 지난 지금, 이제 AI는 실생활 곳곳에서 인류 역사의 궤적을 완전히 바꿔가고 있다. AI는 얼굴과 사물을 거의 완벽하게 인식하고, 즉각적인 음성-텍스트 변환을 가능케 했다. 통제 가능한 일부 환경에서는 자율 주행도 현실화시켰다. 독창적인 예술 작품을 완성하고, 일관성 있는 소설을 쓰며, 수준 높은 음악을 작곡한다. 장기적인 계획, 상상, 복잡한 아이디어의 시뮬레이션과 같이 인간만 가능하다고 여겨진 까다로운 영역에서도 빠르게 발전하고 있다. 끝이 아니다. AI는 윤리적 딜레마로 가득 찬 강력한 차세대 유전자 기술에도 힘을 실어주고 있다.

“AI는 앞으로 3년 내 매우 광범위한 작업에서 인간 수준의 성능에 도달할 것으로 보인다.”

파격적으로 들리는 이 주장은, 알파고를 개발한 구글 딥마인드 공동설립자 무스타파 술레이만이 신작 ‘더 커밍 웨이브’에서 언급한 말이다. 가까운 미래에 AI가 사실상 거의 모든 영역에서 인간의 지능을 따라잡는다는 의미다. 그는 “우리가 딥마인드를 설립했을 때만 해도 터무니없어 보이던 것이 이제는 제법 그럴듯해 보일 뿐 아니라 당연한 것처럼 됐다”고 부연했다.

AI 산업의 미래를 전망하는 수많은 책들 가운데, 특히 그의 저서가 눈에 띄는 이유는 하나다. 10여년 이상 딥마인드의 개발을 이끈 그가 되려 AI로 인한 장밋빛 미래를 장담하지 않는다는 점이다. 저자는 AI라는 복합적인 축복 앞에서 ‘통제력’을 강조한다.

저자는 “AI로 인한 기술의 물결은 중앙집중화와 탈중앙화를 동시에 이끄는 일련의 지각변동을 일으킬 것”이라며 “이는 거대한 기업들을 새로 만들어 내고 권위주의를 강화하는 한편, 국민 국가의 정교한 협상은 엄청난 압박을 받게 될 것”이라고 분석했다.

술레이만이 정부와 사회가 반드시 AI를 ‘억제’할 수 있도록 일관적으로 관리해야 한다고 주장하는 이유다. 단순히 관련 기술을 일일이 규제하자는 말이 아니다. 잠재적 피해를 완화하는 구체적인 방어 기술을 확보하고, 정부가 이를 시행하도록 지원해야 한다는 것이다. 법률적으로 조정이 가능한 국제 협력 시스템을 구축하고, AI로 경험한 학습과 실패를 신속하게 공유하는 연구 문화도 자리매김해야 한다.

이를 구현하기 위해 저자는 AI 개발 속도를 늦출 필요성도 있다고 주장한다. 기술이 인간을 통제하기 전에 우리가 기술을 관리할 수 있는 시간을 벌어야 하기 때문이다. 저자는 “현실을 인정해야 한다”며 “모든 실험과 발전에 완전히 개방적인 태도를 취하는 것은 재앙으로 가는 지름길이 될 수 있다”고 경고한다.

저자는 인류가 책임감을 갖고 잘 관리한 기술의 대표적인 예로 원자력 산업을 꼽았다. 저자는 “체르노빌이나 후쿠시마 같은 악명 높은 사례에도 원자력은 매우 안전하다”며 “수년에 걸친 노력 끝에 얼마나 많은 기술이 안전해졌는지, 그리고 이를 바탕으로 얼마나 큰 발전을 이뤘는지 기억할 필요가 있다”고 말했다.

실제 국제원자력기구(IAEA)는 방사성 폐기물 분류부터 비상시 대책에 이르기까지 구체적인 기술 표준을 다루는 100개 이상의 안전 보고서를 발간했다. 전기전자공학자협회(IEEE)는 자율 로봇 개발부터 머신 러닝에 이르는 다양한 기술에 대한 2000개 이상의 기술 안전 표준을 관리하고 있다. 그런데 저자에 따르면, 2022년 기준 AI 안전 연구원의 수는 300~400명에 불과하다. 현재 약 3만~4만명의 AI 연구원이 있다는 점을 감안하면 놀라울 정도로 적은 수치다.

“내가 만들 수 없다면 이해할 수도 없다.” 저자는 물리학자 리처드 파인만의 말을 인용하며, 정부가 좀더 AI 분야에 적극적으로 개입해야 한다고 당부했다. 정부가 실질적인 기술을 개발하고, 기준을 세우고, 자체 역량을 키워야 훨씬 더 큰 통제력을 발휘할 수 있다는 것이다. 특히 그는 정부가 오픈마켓에서 인재와 하드웨어를 놓고 민간과 경쟁할 수 있어야 할 정도로 연구개발(R&D) 예산을 확보해야 한다고 말했다.

“유일하게 할 수 있는 일은 처음부터 제대로 하는 것이다. 산업혁명 때처럼 사람들이 기술에 적응하도록 강요해서는 안 된다. 애초에 기술이 사람들이나 사람들의 삶과 희망에 부합하도록 조정해야 한다. 조정된 기술이란 곧 억제된 기술이다.”

이정아 기자

dsun@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크