컴퓨텍스 2024에서 Inworld AI와 NVIDIA는 클라우드가 아닌 로컬 디바이스에서 부분적으로 실행되는 업데이트된 버전의 코버트 프로토콜 데모(이전 GDC 2024에서 선보인 바 있음)를 선보였습니다. 이는 최근 제품 매니저인 Nathan Yu와의 인터뷰에서 이미 Inworld AI와 논의한 바 있는 필수적인 개발 사항입니다. 모든 것을 클라우드를 통해 작동하게 하면 대부분의 경우 비용이 너무 높아져 실행이 불가능합니다. Wccftech의 독점 Q&A에서 유 매니저는 이렇게 말했습니다:
물론이죠. 네. 반드시 그렇게 될 것입니다. GTC에서도 오늘날의 렌더링이 아닌 미래의 AI 전용 하드웨어에 대한 흥미로운 발표가 많이 있었습니다.
온 디바이스로 전환하면 그래픽 렌더링에 영향을 미칠까요? 등 많은 질문이 있습니다. 많은 스튜디오에서 이 질문은 쉽게 대답할 수 없는 질문입니다. 하지만 인월드에서는 하이브리드를 지원합니다. 일부 서비스는 로컬에서 실행하고 일부 서비스는 클라우드 추론으로 실행할 수 있으며, 이를 통해 단기적으로 비용과 지연 시간을 최적화할 수 있습니다. 하지만 앞으로는 그렇게 될 것이라는 데 모두 동의할 수 있을 것입니다. 콘솔과 같은 디바이스에서 로컬로, 오프라인으로 실행될 것입니다. 시간 문제일 뿐입니다. 저도 기대가 됩니다.
이 중요한 진전은 생각보다 훨씬 빨리 이루어졌습니다. 오늘 인월드의 네이선 유가 공식 블로그에 글을 올렸습니다:
유니티는 게임에서 정교한 AI를 구현하는 데 기술적인 문제뿐만 아니라 경제적인 문제도 있다는 점을 잘 알고 있습니다. 일반적으로 AI 처리를 원격 서버로 오프로드하면 비용이 많이 들고 플레이어 경험을 방해하는 지연 시간이 발생할 수 있습니다. 유니티는 인월드 엔진이 실시간성과 비용 효율성에 최적화되어 있지만, 개발자가 게임의 성능과 사용자 경험을 제어하고 유연하게 조정할 수 있도록 하는 것 또한 중요하다는 점을 잘 알고 있습니다.
코버트 프로토콜은 개발자가 하이브리드 배포를 활용하여 고급 AI 기능을 게임에 통합하는 방법을 보여주는 한 가지 예일 뿐입니다. 더욱 강력한 멀티모달 및 언어 모델이 더 작고 효율적이 되면서 개발자를 위한 온디바이스 AI의 미래는 유망할 뿐만 아니라 필연적인 것으로 느껴집니다.
대화와 NPC를 넘어 절차적 콘텐츠를 구성하고 복잡한 물리 시뮬레이션을 관리하며 게임플레이를 적응적으로 조정하는 AI 에이전트가 등장하는 세상에서는 온디바이스 배포가 더욱 중요해집니다.
특히 인월드는 엔비디아와 협력하여 Audio2Face 페이셜 애니메이션 시스템과 Riva ASR(자동 음성 인식)을 로컬 디바이스로 전환했습니다. 인월드의 기술을 활용하면 NPC의 이모션 파라미터를 클라이언트 측 애니메이션에 동기화할 수 있습니다. 그러나 음성은 여전히 런타임에 Inworld 클라우드를 통해 합성됩니다.
Inworld의 NPC AI 엔진에는 음성이 필수가 아니라는 점을 기억하세요. 앞서 언급한 인터뷰에서도 언급했듯이 게임 개발자가 디자인 및 몰입도 목표에 따라 활성화하거나 비활성화할 수 있는 선택적 기능일 뿐입니다.
출처: wccftech
※ 퀘이사존 공식 기사가 아닌 해외 뉴스/기사를 번역한 것으로, 퀘이사존 견해와 주관은 포함되어 있지 않습니다. |