기후위기시계
실시간 뉴스
  • “딥페이크 이미지 딱 걸렸어”…오픈AI, 학계에 자체 탐지기 공개
DALL·E 에서 만든 이미지 식별 98.8% 가능
다른 생성기에서 만든 이미지는 식별 어려울 수도
오픈AI. [로이터]

[헤럴드경제=김영철 기자] 챗GPT의 개발사 오픈AI가 자사의 이미지 생성기인 달리(DALL·E)를 이용해 제작한 딥페이크를 탐지할 수 있는 도구를 출시했다고 발표했다.

7일(현지시간) 미 뉴욕타임스 보도에 따르면 오픈AI는 허위 정보를 연구하는 연구그룹에 새로운 딥페이크 탐지기를 공유한다고 밝혔다. 이를 통해 실제 상황에서 도구를 테스트하고 개선할 수 있는 방법을 정확하게 파악할 수 있도록 도울 예정이다.

오픈AI 정책 연구원 산디니 아가왈은 “이것은 새로운 연구를 시작하기 위한 것이며 정말로 필요하다”고 말했다.

오픈AI에 따르면 자사의 이미지 생성기의 최신 버전인 달리(DALL·E3)에서 생성된 이미지의 98.8%를 정확하게 식별할 수 있다. 다만 해당 도구가 미드저니와 스태빌리티와 같은 다른 생성기에서 생성된 이미지를 감지하도록 설계되지 않았다고 덧붙였다.

NYT는 “이런 종류의 딥페이크 탐지기는 확률에 의해 작동되기 때문에, 결코 완벽할 수 없다”면서도 “그래서 많은 회사들과 비영리 단체, 그리고 학술 연구소들처럼 오픈AI는 다른 방식들로 그 문제를 싸우기 위해 노력하고 있다”고 전했다.

거대 기술 기업인 구글과 메타와 마찬가지로, 오픈AI는 디지털 콘텐츠에 대한 자격 증명을 개발하기 위해 ‘글로벌 기술 표준(C2PA)’ 운영 위원회에 참여하고 있다.

C2PA란 콘텐츠 출처 및 진위 여부를 확인하기 위한 연합체이자 기술을 말한다. 해당 프로토콜을 채택하면 사진에 출처 데이터가 표시된다.

오픈AI는 AI가 생성한 딥페이크 음성들에 대해 워터마크를 도입하는 방안도 개발하고 있다고 밝혔다.

NYT는 “AI 산업의 문을 연 오픈AI, 구글, 메타와 등 기업들은 AI가 생성한 콘텐츠를 구별할 수 있도록 설명해야 한다는 압력을 받고 있다”며 “전문가들은 AI 기술이 사용자들에게 오해를 불러일으키거나 악의적으로 이용되는 것을 막기 위해 콘텐츠의 기원과 유통을 추적하는 방법을 요구하고 있다”고 설명했다.

실제로 올해 가장 많은 선거가 열리는 가운데 AI를 이용한 딥페이크 이미지와 음성을 감시할 필요성은 점차 중요해지고 있는 실정이다. 실제로 최근 몇 달 동안 슬로바키아, 대만 및 인도 등 국가에서 치러진 선거에서 이 같은 딥페이크 콘텐츠들이 정치 캠페인과 투표에 영향을 미쳤다고 NYT는 전했다.

yckim6452@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크