‘이루다 2.0’ 베타 테스트 진행

“사고치고 사라지더니” 1년 만에 돌아온 ‘AI 여대생’ 괜찮을까
AI 챗봇 이루다 [이루다 페이스북 계정]

[헤럴드경제=김민지 기자] “각종 논란에 퇴출됐던 AI 여대생 ‘이루다’…이번엔 괜찮을까?”

지난해 개인정보 유출, AI 윤리 문제 등으로 잠정 중단됐던 AI 챗봇 서비스 ‘이루다’가 1년 만에 돌아온다. 내달 중 비공개 베타 테스트를 거쳐 내년 정식 서비스를 목표로 한다.

그러나 아직 난관은 있다. AI 윤리 문제가 얼마나 개선됐는지 입증해야 한다. 실제 이용자들의 혐오 표현, 선정적 문장 학습에 어떻게 대응할 수 있는지도 관건이다.

인공지능(AI) 스타트업 스캐터랩은 21일 AI 챗봇 ‘이루다’ 클로즈 베타 테스트를 내달 11일부터 진행한다고 밝혔다. ‘이루다 2.0’ 공식 출시에 앞서 AI 윤리 점검 및 서비스 고도화를 하기 위함이다.

이루다는 2020년 12월 23일 출시됐다. 20세 여성으로 설정된 AI로, 사용자들과 대화를 하면서 학습하는 딥러닝 기술을 기반으로 개발됐다. 국내서 나온 챗봇 중 가장 자연스러운 대화를 건넨다는 평가를 받았다.

그러나 불과 10여 일만에 각종 논란에 휩싸였다. 개인정보 유출 문제가 대표적이다. ‘이루다’를 학습시키는 데 사용됐던 약 100억 건의 카카오톡 대화 데이터가 제대로 익명화되지 않은 것이다. 이루다가 특정 주소나 이름을 언급하면서 개인정보보호법 위반 논란이 일었다. 여기에 잘못된 이용으로 혐오 표현을 사용하거나, 일부 이용자들의 성희롱 도구로 전락했다는 비판도 일었다.

“사고치고 사라지더니” 1년 만에 돌아온 ‘AI 여대생’ 괜찮을까
AI 챗봇 이루다 [이루다 페이스북 계정]

결국 ‘이루다’는 서비스 출시 약 20일만에 잠정 중단됐다. 개발사 스캐터랩은 개인정보보호위원회(이하 개인정보위)로부터 총 1억 330만원의 과징금과 과태료 등을 부과받았다.

스캐터랩은 서비스 중단 후 ▷사람을 위한 AI 개발 ▷다양한 삶의 가치 존중 ▷함께 실현하는 AI 챗봇 윤리 ▷합리적 설명을 통한 신뢰 관계 유지 ▷프라이버시 보호와 정보 보안 발전에 기여 등 총 5가지의 AI 챗봇 윤리 준칙을 제정했다는 방침이다.

이를 바탕으로 서비스 고도화도 이뤄졌다. ‘이루다2.0’은 엄격하게 가명처리한 데이터베이스로 학습 과정을 거쳤다. 인공지능 딥러닝 알고리즘이 새롭게 생성한 문장으로 답변하도록 해, 개인정보 보호를 강화했다는 설명이다.

또한, 대화 시 특정 단어뿐 아니라 문맥을 탐지해 선정적이거나 공격적, 또는 편향적 문장에 대응할 수 있도록 ‘어뷰징 탐지 모델'을 접목했다. 앞서 불거진 혐오 표현 및 선정적 표현 사용에 대응하기 위함이다.

그러나 아직 정식 서비스까지는 갈 길이 멀다. AI 윤리 및 서비스 고도화가 어떻게 구현되는지 테스트가 필요하다. 이번 베타 테스트가 비공개로 진행되는 것도 이 때문이다.

클로즈 베타 테스트는 1월 4일까지 이루다 페이스북 페이지를 통해 약 3000명의 일반인 사용자를 선정해 진행된다. 선정된 이용자들은 1월 11일부터 약 3주간 ‘이루다 2.0’과 자유롭게 대화하면서 전반적인 서비스를 검토한 후 스캐터랩에 대화 경험에 대한 의견을 제출한다. 또한, ‘이루다 2.0’과의 대화 경험을 외부에 공개하지 않는 것을 원칙으로 한다.

한편, 스캐터랩은 이번 베타 테스트 결과에 따라 ‘이루다 2.0’의 공식 출시 일정을 결정할 예정이다.