"단 한장의 일러스트로 버츄얼 유튜버가 될 수 있다면?"

유튜브 영상을 시청하다 보면, 실제 사람이 아닌 가상의 캐릭터가 게임, 문화 등 다양한 주제로 인터넷 방송을 진행하는 '버츄얼 유튜버'의 모습을 쉽게 찾아볼 수 있다. 자신의 모습을 드러내지 않은 채로 다른 시청자들과 소통할 수 있기 때문에 사생활 노출을 걱정하는 이들이라도 쉽게 인터넷 방송에 도전할 수 있는 것이 버츄얼 유튜버의 장점이다.

하지만, 살아서 움직이는 것 같은 가상의 캐릭터를 내세워 버츄얼 유튜버로 활동하려면 라이브 모션 캡처를 시작으로 다양한 렌더링 툴, 언리얼이나 유니티 엔진 등 3D 캐릭터 모델링에 대한 전문적인 지식이 요구된다. 비교적 간단한 라이브 2D 기술을 활용하려고 해도 결코 저렴하지 않은 연간 라이센스 비용을 내야 하며, 해당 툴을 활용하기 위한 텍스쳐 기술도 숙지해야만 한다. 아직은 누구나 쉽게 시작하기에는 여러모로 제약이 많이 있는 편이라고 할 수 있다. 그래서인지, 국내에서는 홍보 목적으로 만들어진 몇몇 기업용 버츄얼 유튜버들만 찾아볼 수 있는 상황이다.

이때, 구글 재팬에 재직 중인 태국인 개발자 프라묵 쿤눈(Pramook Khungurn)이 한 장의 일러스트를 통해 라이브 2D에 비견되는 애니메이션 데이터를 자동으로 추출해내는 AI 기술을 공개했다. 해당 기술을 활용하면 단 한장의 그림으로 눈과 입은 물론, 고개까지 자연스럽게 움직이는 애니메이션 모델링을 만들 수 있다.

실제로 2년 이상 버츄얼 유튜버 방송에 폭 빠져있었다는 그는 "딥 러닝 기술을 사용하여 누구나 쉽게 버츄얼 유튜버에 도전할 수 있도록 하고 싶었다"며 해당 기술의 개발 이유를 설명했다. '한 장의 이미지로 만들어진 말하는 애니메이션' 기술 개발 과정과 자세한 내용은 그의 GitHub 페이지 에서 확인할 수 있다.

현재는 캐릭터 일러스트의 양쪽 눈과 입, 머리와 목에만 제한적으로 적용되어 움직임이 다소 어색하게 보이기도 하지만, 해당 기술은 복잡한 장비나 여러 장의 일러스트 없이도 내가 좋아하는 캐릭터가 되어 움직일 수 있도록 한다는 점에서 의미가 있다. 해당 기술이 발전되어 보다 자연스러운 움직임이 구현된다면, 국내에서도 버츄얼 유튜버의 모습으로 활동하는 크리에이터들의 움직임이 지금보다 더 활성화될 수 있을 것으로 기대된다.