1면에서 계속 생성형 AI는 대형언어모델에 기반 특정 문화권·집단 가치관 반영 커
사람 손 많이 타야 하는 현재 기술 초거대 AI 아직 범용 기술로는 부족
서로 다른 문화·데이터 담기 위해 각 분야마다 활용 방식 고민할 때 헤럴드경제는 KAIST 오혜연 전산학부 교수, 김주호 전산학부 교수, 홍화정 산업디자인과 교수, 안소연 디지털인문사회과학부 교수 등 4명의 석학들이 준비해 온 AI 시대의 미래에 대한 견해를 들어봤다.
- AI의 등장으로 인한 사회·경제·문화적 변화에 대해 어떻게 체감하는지
▶오혜연 전산학부 교수=사실 AI는 꽤 오래 된 기술이다. AI라고 하면 오픈AI의 챗GPT를 떠올리지만 그 이전에도 굉장히 많은 AI 시스템이 있었다. 대화형 자동응답시스템(ARS)이나 쇼핑몰의 추천 시스템도 결국은 AI의 한 형태다. 결정적으로 이미 여러 곳에서 유용하게 사용되는 고전적인 AI 시스템과 달리 챗GPT와 같은 대형언어모델 기반의 AI는 아직 생산성이 있다고 말하기에는 무리가 있다. 흥미롭긴 한데 어떤 곳에 쓰면 좋을지 아직은 확신하기 어려운, 그런 위치가 아닌가 한다.
▶김주호 전산학부 교수=챗GPT가 유독 이목을 끈 데는 ‘대화형 인터페이스’가 중요한 역할을 했다고 본다. 누구나 이야기하듯이 명령하고 개인화할 수 있다는 점에서 사람들이 AI가 어디까지 왔는지 피부로 느낀 것이다. 지금은 AI의 ‘파이’가 커지면서 가치를 입증해야 하는 단계에 이르렀다는 생각이다. 어찌 보면 진정한 범용 기술로 이행하는 기로에 서 있는 것으로 본다.
▶홍화정 산업디자인과 교수=챗GPT가 등장하면서 AI에 대한 사람의 ‘리터러시(문해력)’가 높아졌다. 디자인 쪽에서도 언어모델 기반 AI가 확산되면서 디자인 분야 사람이 과거에는 상상하지 못했던 방식으로 창의성을 보완하고 있다. 이런 모습을 보면 확실히 새로운 패러다임이 생겨나고 있다는 생각이다.
- 챗GPT의 등장으로 교육계에서도 갑론을박이 일고 있다. AI 시대 교육의 변화는 어떻게 진행돼야 할까.
▶김주호 교수=KAIST 내에서도 고민이 많다. 저를 포함한 몇몇 교수들이 생성형 AI와 교육을 함께 고민하는 연구팀을 만들었다. 그런데 연구팀 내에서 기술에 대한 접근성이 좋아질수록 사람이 골고루 혜택을 받기보다 오히려 격차가 더 커질 가능성이 높다는 우려가 있다. 이미 온라인 교육 플랫폼에서 그러한 격차를 경험하고 있다. 온라인 교육이 활성화하면 누구나 평등하게 교육의 기회를 얻을 수 있으리라 생각했지만, 실제로는 실리콘밸리의 엔지니어가 가장 혜택을 많이 받았다. 이들에게 기회가 더 많아서가 아니라, 디지털 기술에 대한 접근성이 높은 사람일수록 기회를 더 많이 활용했다는 뜻이다. 한편으로는 AI 도구 도입으로 인해 업무용 도구를 잘 활용하는 숙련자는 일이 편해졌지만, 일을 갓 배운 사람은 단순한 기본 업무를 익힐 기회가 오히려 줄어들어서 커리어 측면에서 불리해지기도 한다. 그래서 단순히 기술이 제공되는 것 만으로는 아무것도 해결할 수 없다. 사람 사이의 격차를 어떻게 줄여야 할지 고민할 때라고 생각한다.
▶안소연 디지털인문사회과학부 교수=덧붙이자면 한국에서는 언어나 언어 학습이 주로 도구적인 성격이 강한 학문으로 인식되는 경향이 여전해 보인다. 이 때문에 언어 교육을 기능적인 면에서만 접근하기 쉽다. 챗GPT나 AI 번역 서비스의 등장 이후, 일각에서 언어교육의 필요성에 대한 의문도 이 때문으로 이해된다. 그러나 언어는 그 해당 언어권의 역사, 가치관, 생활상, 문화 등을 모두 녹여내고 있다. 단순한 번역과 언어교정 도구만으로는 언어 교육의 본질을 대체할 수 있다고 보기 어렵다. 따라서 AI 도구의 확산으로 쉽게 언어 교육의 필요성을 언급하는 것은 단순화하는 경향이 있다.
▶오혜연 교수=너무 부정적으로만 볼 것은 없다고 본다. 최근 교육계에서는 생성형 AI로 작성한 과제나 논문이 문제되고 있어 AI 활용을 엄격하게 제한하는 경우가 많은데, 반대로 적절히 활용하면 오히려 교육 수준을 한 단계 향상 시킬 수 있다고 본다. AI 연구 모임에서도 어떻게 해야 대학 수업에서 생성형 AI를 더 효율적으로 활용할 수 있을지 탐색 중이다.
▶김주호 교수=얼마 전 영국 옥스퍼드대에서 교수가 찾아온 적이 있었는데, AI를 활용한 수업을 보고 많이 놀랐다. 옥스퍼드대를 비롯한 많은 학교가 학생이 생성형 AI를 사용하지 못하게 막고 있는데 KAIST는 ‘혁신보좌역’이라는 직책을 따로 만들 정도로 생성형 AI를 적극적으로 접목하고 있다는 점에서 한발 앞서 있는 셈이다. 지금도 챗GPT를 영어 수업에 활용하거나 코딩 관련 과목에서 AI를 활용한 코딩을 시도하고 있다.
▶안소연 교수=생성형 AI를 단순히 막는 것이 아니라 학생이 이를 공부와 연구에 유용한 도구로 활용할 수 있도록 연결 고리를 제공하는 것이 중요하다고 생각했다. 지난 봄 학기부터 이를 시도, 아직 완벽하지는 않지만 시행착오를 통해 점점 더 효과적인 사용 방법을 찾아가는 과정이다. 무엇보다도 생성형 AI는 사회적 상호작용이 일어날 수 있다는 점이 큰 강점이라고 생각한다.
- 대화상대로서의 AI, 부작용없이 활용하기 위한 방안은
▶오혜연 교수=상호작용이란 서로 영향을 주고받는 과정이라는 점을 간과해서는 안 된다고 생각한다. 문제는 생성형 AI가 대형언어모델 기반이고, 언어를 기반에 두다 보니 특정한 문화권이나 집단의 가치관이 강하게 반영될 수 있다는 것이다. 거칠게 표현한다면 지적, 문화적 종속이다. 이건 데이터를 누가 소유했느냐와는 또 다른 문제다. 우리나라를 포함한 각국이 각자 고유한 대형언어모델을 개발하려는 이유도 여기에 있다.
▶홍화정 교수=그런 측면에서 보면 ‘데이터 주권’을 고민할 때가 아닌가 한다. 미디어를 통해 보고 듣는 것이 우리의 인식이나 가치관에 큰 영향을 주듯, AI가 내놓는 결과물도 우리가 생활하고 생각하는 방식에 영향을 미치고 있다. 실제로 이미지 생성 쪽에서는 그런 문제가 있는데 조선 사람인 이순신 장군의 이미지를 생성하라고 하니까 일본 무사 같은 결과물이 나오는 식으로. 학습에 사용한 데이터가 일본에서 나온 것이 훨씬 많기 때문에 나타난 편향이다. 이런 결과물이 다시 사람에게 고정관념을 심어주고 강화하는 일이 일어나지 않을까 우려된다.
▶안소연 교수=연세가 있으신 분과 AI에 대해 인터뷰를 진행했는데, 이분이 챗GPT에 대해 말하시며 챗GPT가 말한 모든 대화 내용이 매우 신뢰할 만한 것으로 평가했다. 대부분의 일반인이 뉴스나 웹을 통해 생성형 AI의 긍정적인 측면을 주로 접하다 보니, AI가 제시하는 정보를 비판적으로 검토하지 않고 쉽게 사실로 받아들일 가능성이 있다는 것을 그때 실감했다. 이와 유사하게 우려한 부분은 영어 실력이 상대적으로 부족한 학생이 챗GPT와 무분별하게 상호작용할까하는 문제다. KAIST에서는 챗GPT를 영어 수업에 도입하며 학생이 수업에서 배운 내용을 바탕으로 챗GPT와 대화하면서 이를 비판적으로 사용할 수 있는 방식을 택하고 있다. 실제로 학생이 작문한 내용을 챗GPT와 함께 대화형으로 다듬어가는 과정을 살펴보고 있는데, 굉장히 다양한 상호작용이 일어나고 있다는 것을 확인하고 있다.
▶오혜연 교수=이 수업을 위해서 플랫폼을 따로 만들었다. 학생이 AI와 대화한 내용을 모두 기록하고 설문 내용을 반영해서 데이터화하고 있다. 수업 데이터를 바탕으로 다시 교수법을 연구해서 적용하고 있는데 흥미롭게도 아직 1년이 채 되지 않았는데 학생이 AI를 대하는 태도나 활용방식이 정말 다양하게 나타났다. 적어도 학생이 AI가 내놓는 결과물을 100% 신뢰하지는 않았다.
▶김주호 교수=교육에 적용해 본 결과 AI도 사람이 활용하기 나름이라는 것, 그리고 사람에 따라 활용 방식이 제각각 다르다는 사실을 재확인했다. 지금의 생성형 AI가 대단해 보이지만 사람의 손을 많이 타야 한다. 지금의 소위 ‘초거대 AI’가 아직은 범용 기술이라고 하기에는 많이 부족한 이유다. 범용 기술에 이르려면 변용에 필요한 종합적 사고를 AI가 수행할 수 있어야 한다고 본다.
- 서로 다른 문화와 데이터를 담아내기 위한 AI의 과제는 무엇인가
▶김주호 교수=실제 우리나라를 포함한 비영어권 나라에서는 학습 데이터의 절대 다수가 영어다 보니 그로부터 발생하는 오류나 문제점도 많다. 그런데 지금은 기술 자체에 큰 이목이 쏠리는 단계라 그런지 그런 문제점이 가려진 면이 있다. 생성형 AI가 언어 기반이다 보니 흔히 암묵지라고 부르는, 언어로 표현되지 않는 지식과 정보가 제대로 반영되기 어렵다는 것도 문제다. 그래서 AI를 어떻게 활용할까 고민하는 것도 좋지만 AI를 왜 써야 하는지, 쓸 때 문제는 없는지 조심스럽게 타진해보는 단계가 필요해 보인다.
▶오혜연 교수=AI의 활용을 비판적으로 검토하려면 AI를 비판적으로 사용한 경험이 있어야 한다. 여기에 더해 연구 측면에서도 다양한 분야에 AI 서비스가 도입되고 있는데, 각 분야마다 어떤 방식으로 활용하는 것이 좋을지 고민해볼 때다.
결국 지금 ‘초거대 AI’가 화두인데 데이터가 반드시 초거대일 필요는 없다고 본다. 지금까지 논의했듯 AI 기술의 가장 중요한 관건은 일반적인 모델도 중요하지만 결국 사용되는 것은 ‘사용자의 필요에 맞는 AI’다. 그러자면 무작정 많이 모으는 것보다 좋은 품질의 데이터를 모으고 다듬을 필요가 있다.
▶김주호 교수= ‘초거대’라는 특성상 AI 경쟁이 마치 데이터의 군비 경쟁처럼 흐르는 조짐도 보이는데, 이처럼 거대해질수록 국가적 역량이 투입되다 보니 AI 분야가 전반적으로 국수주의적으로 움직일 우려도 있다. 그러나 작은 규모의 특화한 AI가 다양한 생태계를 이룬다면 오히려 군비 경쟁의 필요성도 줄어들고 국가 간 협력도 활발해지지 않을까 하는 생각도 든다.
구본혁 기자