1. 내용
행사는 두 파트로 나뉘어서 진행되었으며, 각 파트별로 6개, 8개의 짤막한 세션 영상이 연속으로 재생되는 형태로 진행되었습니다. 모든 세션은 네이버가 선보일 Big AI의 시작, 'HyperCLOVA'를 기반으로 구성되었습니다.
첫 번째 파트는 'HyperCLOVA, 커다란 가능성을 열다'라는 주제로 HyperCLOVA에 대한 전반적인 설명, 의미 등을 담고 있었으며, 아래와 같은 세션으로 진행되었습니다.
두 번째 파트는 'HyperCLOVA 테크놀로지'라는 주제로 첫 번째 파트보다 더 자세하고 구체적인 기술적 관점에서 HyperCLOVA를 설명했습니다. 실제로 HyperCLOVA를 활용한 애플리케이션을 예시로 보여주고, NAVER가 이 HyperCLOVA를 구현하면서 부딪힌 문제, 해결방안, 결과와 효과 등을 조금은 알 수 있었던 세션이었습니다. 이 세션은 아래 그림과 같이 진행되었습니다.
2. 느낀 점
행사의 주요 컨텐츠는 네이버의 Big AI를 적용한 'HyperCLOVA'에 대한 설명이었습니다. 작년에 발표된 오픈AI의 'GPT-3' 모델은 당시 AI 분야의 모든 이들에게 적지 않은 충격을 주었다고 하며, 저 또한 최근에 이 모델의 기술, 의미 등을 이 스크랩 작업을 통해 알게 되면서 대단하다고 느꼈습니다. 그리고 'NAVER AI NOW' 행사는 이 엄청난 모델을 뛰어넘는 한국어 버전의 AI 언어 모델을 NAVER에서 선보일 HyperCLOVA를 통해 머지않아 느낄 수 있다는 기대감이 드는 행사였습니다.
NAVER의 CLOVA 자체는 아직 우리 모두의 일상에 완전히 스며들지는 못했지만, 이미 가장 많은 국민이 사용하는 검색 플랫폼 NAVER의 기술력과 데이터를 기반으로 Big AI 구현 직전의 단계까지 성장했습니다. 이 행사에서 선보인 HyperCLOVA의 기능과 활용 애플리케이션은 아직 조금은 어색함이 느껴졌던 기존의 챗봇 같은 국내 AI 모델을 뛰어넘는 모습을 보여줬습니다. 특히 대화의 문맥과 디테일을 이해함으로써 매우 자연스러운 대화가 가능하다는 점, 그리고 이에 덧붙여 대화하는 모델에 캐릭터의 특성을 입혀서 특정 성격과 말투 등을 가진 AI 언어 모델의 대화 예시는 가장 기억에 남았습니다. 이외에도 글쓰기와 같은 창작을 도와주는 기능, 다른 AI 연구와 기술 개발의 가속화를 도와줄 수 있다는 점에서 조금 과장하면 영화 '아이언맨'의 인공지능 비서 '자비스'가 생각나기도 했습니다.
국내에서, 한국어에 특화된 Big AI 언어 모델이 가능했던 이유는 5600억 토큰의 한국어 데이터를 활용한 비지도 학습으로 가능했습니다. 이는 GPT-3 모델이 갖고 있는 한국어 데이터보다 6500배 많은 데이터 크기입니다. 그리고 기존의 문제별 AI 모델이 아닌 하나의 거대한 AI 모델을 통해 다양한 분야의 문제를 해결하는 구조를 갖는다는 점에서 Big AI라고 할 수 있습니다. 그리고 현재는 그저 글로 된 데이터만을 학습한 수준인데, 과연 추후에 영상, 그림, 음악 등 다양한 형태의 데이터까지 모두 학습할 수 있게 된다면 어떤 모습을 보여줄지도 궁금했습니다.
이번 행사를 통해 NAVER의 CLOVA, HyperCLOVA에 대한 큰 관심과 기대감을 가질 수 있었습니다. 특히, 지금까지 우리나라 대표적 검색 포털사이트로써 입지를 다지고, 방대한 데이터를 쌓은 NAVER는 인공지능과 빅데이터, 머신러닝을 공부하고, 관심을 갖고 있는 사람 입장에서는 정말 매력적인 기업이라고 느꼈습니다. 이 HyperCLOVA가 출시되고, 우리 일상에 스며든다면 과연 우리 일상이 어떻게 바뀔지도 기대되며, 인공지능과 4차 혁명 기술에도 관심을 더 흥미를 갖게 만드는 행사였습니다.