기후위기시계
실시간 뉴스
  • 네이버, AI 안전성 실천 체계 공개…“소버린 AI로 안전한 생태계 구축”
17일 채널테크 통해 네이버 ASF 발표
AI가 초래할 위험으로‘ 통제력 상실·악용’ 정의
소버린 AI로 문화적 다양성 반영해 안정성 발전
최수연 네이버 대표가 지난 5일 대전시 유성구 KAIST 류근철 스포츠 콤플렉스에서 ‘신인류가 온다’의 주제로 열린 ‘이노베이트 코리아 2024’에서 강연을 하고 있다. 대전=이상섭 기자

[헤럴드경제=권제인 기자] 네이버가 한층 구체화된 AI 안정성 실천 체계를 공개했다. 자체 기술 채널인 ‘채널 테크’를 통해 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식·평가·관리하는 ‘네이버 ASF(AI Safety Framework)’를 17일 발표했다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고, 이에 대응하기 위한 방법을 설계한 것이 특징이다.

먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 통제력 상실 위험을 완화하기 위해 ‘AI 위험 평가 스케일’을 통해 위험을 주기적으로 평가하고 관리한다. 현존 최고 성능의 AI 시스템을 ‘프런티어(frontier) AI’로 정의하고 3개월마다 위험 평가를 수행한다. 또한 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가한다.

최수연 네이버 대표. [네이버 제공]

악용 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 위험 평가 매트릭스는 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다. 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공하고, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 안전 조치를 통해 위험이 완화될 때까지 배포하지 않는다.

네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜 나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발해 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.

경기도 성남시 네이버 분당사옥 전경. [연합]

네이버는 한국어를 기준으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌로 확장해 나가고 있다. 지난해 세계 최고 권위 자연어처리 학회 중 하나인 ‘ACL 2023’에서, 네이버는 종교, 도덕 등 사회적으로 첨예한 이슈에 대해 AI가 편향적으로 발화하는 문제를 완화하기 위한 새로운 대량의 한국어 데이터셋을 제안한 연구를 발표했다.

최수연 네이버 대표이사는 “네이버는 한국에서 ‘하이퍼클로바X’라는 소버린 AI를 개발해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다“며 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해 나갈 계획”이라고 말했다

eyre@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크