-구글 ‘제미나이’ 탑재한 검색 엔진 진화
-복잡한 문구 이해, 사진·실시간 영상 검색도
-치열해지는 빅테크 AI 자존심 싸움…오픈AI, 인간처럼 보고 듣는 AI 진화
[헤럴드경제=박세정 기자] “상상 가능한 인공지능(AI)의 모든 것을 담았다” (순다르 피차이 구글 최고경영자)
구글의 검색 엔진이 인공지능(AI)을 입고 완전히 달라졌다. 구글의 자체 생성형 AI ‘제미나이’를 본격적으로 탑재, 25년 만에 ‘검색 혁명’에 나선다.
이른바 ‘제미나이 시대’를 선언한 구글은 기업 DNA 자체를 AI로 바꿔 ‘AI 기업’으로 재탄생 한다. 그동안 오픈AI, 마이크로소프트(MS)에게 AI의 주도권을 뺏겼다는 평가를 받았던 구글은 제미나이 생태계를 확장해 본격적으로 반격의 고삐를 죈다.
▶“걸어서 30분, 평점 4.1 이상 스튜디오 찾아줘”…복잡한 질문도 척척= 구글이 지난 14일(현지 시간) 미국 캘리포니아 마운틴뷰에서 열린 ‘구글 I/O 2024’에서 공개한 새 검색 엔진은 복잡한 질문에도 최적을 답변을 찾는 것이 대표적인 특징이다.
구글은 이날 “보스턴 비컨힐에서 걸어서 30분 거리에 있고, 평점 4.1점 이상인 요가·필라테스 스튜디오를 찾아줘”를 검색하는 시연 장면을 선보였다. 긴 문구를 검색창에 입력하자 최상단에 뜬 ‘AI오버뷰’에는 이 같은 조건에 모두 맞는 요가 스튜디오들이 노출됐다.
구글 포토 속에 사진의 모습을 분석해 검색하는 기능도 큰 주목을 끌었다. 피차이 CEO가 “우리 딸 수영 실력이 어떻게 늘었는지 보여줘”라고 검색하자, 여자 아이가 수영을 배우는 사진이 시간 순으로 검색되기도 했다.
더 나아가 실시간 영상을 찍으면서 질문할 수 있는 기능도 도입됐다. 구글은 이날 고장난 턴테이블 영상을 찍으면서 음성으로 “이걸 어떻게 고쳐야 하지?”라는 질문을 던졌다. AI는 제품명과 제품을 고치는 방법을 텍스트로 제공했다.
이외에도 구글은 제미나이와 구글의 음성 모델을 기반으로 하는 새로운 ‘프로젝트 아스트라(Project Astra)’도 선보였다.
이는 미래 AI 어시스턴트를 위한 구글의 비전으로, AI가 사람처럼 보고 들을 수 있고 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능이다. 구글 지메일과 구글 문서, 캘린더 등 구글 앱에서 개인 정보를 가져와 이용자의 스케줄을 알려주고 계획을 짜준다. 구글은 이 비전을 위한 전 단계로 ‘제미나이 라이브’를 선보였다. 이 기능은 사람처럼 대화하고 이미지는 업로드를 통해 인식한다.
피차이 CEO는 이같은 진화에 대해 “제미나이 생태계에 상상 가능한 AI의 모든 것을 담았다”고 표현했다. 나아가 자체 AI 모델 제미나이를 접목해 거대한 ‘제미나이 생태계’를 구축하겠다는 포부를 드러냈다. 그는 “구글은 완전한 제미나이 시대에 들어섰다”며 “AI를 모든 곳에 적용할 것”이라고 강조했다.
▶기술 공개 ‘선수’ 치고 자존심 싸움…치열해지는 빅테크 AI 경쟁= 구글의 AI가 본격적으로 실생활을 파고들면서, 빅테크 기업들의 ‘손에 잡히는’ AI 기술 주도권 싸움은 더욱 치열해지게 됐다.
오픈AI는 구글 행사 전날 최신 거대언어모델(LLM)인 ‘GPT-4o’을 기습적으로 공개했다. 지난해에는 구글의 ‘생성형 AI챗봇’ 일정이 공개되자, MS가 자체 행사를 열고 검색엔진과 생성형AI 결합을 발표하는 등 선수를 쳤다. 그만큼 빅테크들의 AI 기술 경쟁이 공개 시점까지 다투는 자존심 싸움으로 까지 민감해지고 있다는 의미다.
‘챗GPT’로 AI 시장에서 독보적인 행보를 보이고 있는 오픈AI의 경우 ‘GPT-4o’로 텍스트는 물론 청각, 시각 등을 활용해 추론 및 대화할 수 있는 기능을 고도화 시켰다. 인간처럼 보고, 듣고, 말하는 것이 가능해진 수준이다.
오픈AI가 선보인 시연에선 휴대전화로 ‘내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까’라고 묻자, ‘숨을 깊이 들이마시라’는 음성 답이 돌아왔다. ‘잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라’고 하자, AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려주기도 했다. 오픈AI는 ‘GPT-4o’을 50개 언어로 출시할 예정이다.
미라 무라티 오픈AI 최고기술책임자(CTO)는 “GPT-4o는 GPT-4 레벨의 지능을 더 빨리 제공하는데 초점을 맞췄다”며 “텍스트, 시각, 청각 데이터를 넘나드는 능력이 더욱 좋아졌다”고 강조했다.