기후위기시계
실시간 뉴스
  • [헤럴드시사] 합리적이고 실천 가능한 AI 규제

인공지능(AI) 챗봇 ‘이루다’ 사태는 인공지능 통제 및 규제의 필요성에 대한 활발한 논의를 촉발했다. 네이버를 비롯한 여러 사업자가 AI 윤리준칙을 발표했거나 준비 중이고 인공지능 서비스에 관한 개인정보 규제 강화, 서비스 의사결정 및 알고리즘에 대한 설명 의무 및 투명성 강화에 대한 논의도 활발하 게 이뤄지고 있다. 과학기술정보통신부는 2020년 12월에 ‘국가 인공지능 윤리 기준’을 발표했다. 이어 관계부처 합동으로 2020년 11월에 발표된 인공지능 법·제도 정비 로드맵은 인공지능 서비스와 관련된 불공정성 해소 및 소비자 보호를 위한 대대적인 법 제정 및 개정을 예고한 바 있다.

인공지능이 어떻게 통제돼야 하는지는 인공지능을 어떻게 개발하고 발전시킬 수 있는지만큼이나 많은 고민과 논의가 필요하다. 무엇보다도 인공지능 통제를 위한 규제 조치가 인공지능의 기술적·산업적 특성을 세심하게 고려하지 않고 일률적으로 시행된다면 이는 실효적이지도 않을뿐더러 인공지능 기반 산업의 발전 및 서비스의 등장 자체를 위축시킬 수 있다. 현재 활발하게 논의되고 있는 몇 가지 주제를 중심으로 이러한 우려를 공유하고자 한다.

우선 ‘이루다’ 사태에서도 문제가 된 학습데이터 오류 및 편향성 문제가 있다. 현재 인공지능 서비스들은 대부분 기계학습 기반으로 구현되고, 기계학습 인공지능은 입력된 수많은 데이터를 학습해 그 성능을 개선한다. 학습한 데이터 자체에 왜곡이나 오류가 있다면 이를 학습한 인공지능 서비스는 직접적인 영향을 받을 수밖에 없다. 예컨대 데이터 자체가 어느 특정한 인종·집단 등에 편향돼 있다면 그 서비스 자체도 이러한 편향성을 갖게 될 가능성이 크다. 이러한 인공지능 학습데이터의 오류 및 편향성을 기술적·관리적으로 검증하고 극복하기 위한 노력에도 기계학습 알고리즘의 태생적인 특성 때문에 단시간에 쉽게 극복되기는 어려워 보인다. 그렇다면 서비스 하자에 대해 일률적으로 사업자를 제재하기보다는 그 관리감독 범위 및 책임 기준을 명확히 마련하고 사업자가 통제할 수 없는 범위에 대한 결과 책임이 아닌, 통제 범위 내에서의 관리감독 책임을 묻는 것이 더 합리적일 수 있다.

인공지능 알고리즘 투명성 규제도 좀 더 세심한 접근이 필요하다. 투명성 규제는 인공지능의 편향성·불투명성 및 소비자 오인성 등을 방지하기 위해 알고리즘을 통한 의사결정 및 주요 지표를 소비자에게 설명 및 고지하도록 하는 내용이다. 인공지능 법·제도 정비 로드맵에 따르면 정부는 알고리즘 공개 및 설명 가이드라인을 2021년 하반기까지 제정하고, 전자상거래법을 개정해 알고리즘 공정성 검증 기준·절차를 법제화할 예정이다.

그러나 막대한 시간과 비용을 들여 개발한 핵심적인 영업비밀 및 노하우인 알고리즘 및 구성요소들이 강제로 외부로 공개된다면 이는 산업발전에 왜곡과 저해를 가져올 수 있다.

또한 과연 이러한 정보를 고지 및 설명하는 것만으로 소비자 보호 및 편향성 해소에 어떠한 효과가 있을지도 깊이 있는 논의가 필요하다. 일률적인 정보 제공 및 고지 의무 강화는 오히려 서비스 편의성 및 기능을 저해하고 소비자의 이익이 반하는 결과를 야기할 가능성도 있다.

인공지능 기술이 발전하고 그 서비스의 범위와 규모가 확대되면서 ‘제2, 제3의 이루다’ 사태가 발생할 수 있고, 이를 방지하기 위한 적정한 인공지능 서비스 통제의 필요성은 부정하기 어렵다. 하지만 이러한 규제가 이제 막 성장하기 시작한 인공지능 서비스 및 산업을 위축시키는 방향으로 나아가서는 곤란하다.

인공지능 기술의 한계와 산업적 성격을 인식하고 합리적이고 실행 가능한 규제를 마련하기 위한 노력이 절실한 시점이다.

노태영 김앤장 법률사무소 변호사

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크