아동학대 연출 이미지. 기사와는 무관. [게티이미지뱅크] |
[헤럴드경제=채상우 기자] 스페인에서 인공지능(AI)를 이용해 옷을 입지 않은 나체의 모습으로 변형시킨 어린 소녀 수십 명의 가짜 사진이 유포돼 경찰이 수사에 착수했다.
CNN은 21일(현지시간) 스페인 서부 에스트레마두라 지역 알멘드라레호의 어머니들이 “딸들이 벌거벗은 것처럼 보이는 자신들의 사진을 받았다”며 신고했다고 보도했다.
어머니들은 이 가짜 사진들이 포르노 사이트에 업로드될 수 있다고 강한 우려를 표시했다.
현지 보도에 따르면 가짜 사진들은 AI 기술을 이용해
벌거벗은 이미지를 만들어내는 앱을 사용해 만들어진 것으로 알려졌다.
알멘드랄레호의 호세 마리아 라미레스 시장은 “이 사건은 또 다른 젠더 기반 폭력”이라고 말했다. 에스트레마두라 지방정부의 책임자 마리아 과르디올라 역시 “역겨운 사건”이라며 “여성에 대한 디지털 폭력 증가는 재앙”이라고 말했다.
스페인 경찰은 가짜 사진을 제조한 것으로 의심되는 몇몇 젊은이들의 신원을 확인한 상태다.
123@heraldcorp.com