Компания Nvidia расширяет сферы применения технологий искусственного интеллекта в игровой разработке.
Компания анонсировала сервис ACE (Avatar Cloud Engine) для оживления неигровых персонажей (NPC) с помощью генеративных языковых моделей ИИ.
Инструменты ACE позволяют добавить возможности общения с персонажами, не требуя заранее прописанного диалога.
В представленном демо Kairos показано общение с персонажем, который осмысленно отвечает на вопросы, опираясь на прописанную предысторию.
Все его ответы сгенерированы ИИ.
@video=//www
Технология разработана совместно со стартапом Convai.
Очевидно, что Nvidia ACE имеет большие перспективы в играх с большими мирами и большим количеством персонажей.
Nvidia ACE использует платформу Nvidia Omniverse с применением дополнительных модулей.
Nvidia Ne.
Mo используется для создания, настройки и развертывания языковых моделей.
Большие языковые модели можно настроить с помощью базы знаний и предысторий персонажей, а также защитить от небезопасных разговоров с помощью Ne.
Mo Guardrails.
Для автоматического распознавания речи и преобразования текста в речь используется Nvidia Riva.
Технология Nvidia Omniverse Audio2Face используется для мгновенного создания выразительной анимации лица игрового персонажа, соответствующей речевой дорожке.
Audio2Face можно интегрировать напрямую в Meta.
Human (Unreal Engine 5) для создания лицевой анимации.
Технология Audio2Face уже используется игровыми разработчиками.
Заявлено, что GSC Game World берет технологию на вооружение для разработки S.
2: Heart of Chernobyl.
Студия Fallen Leaf использует Audio2Face для анимации лиц персонажей в Fort Solis, научно-фантастическом триллере от третьего лица.