Nueva Demo de NVIDIA: Conversa en tiempo real con personajes de videojuegos gracias a la IA

Nueva Demo de NVIDIA: Conversa en tiempo real con personajes de videojuegos gracias a la IA
Un propietario de una tienda de ramen cyberpunk representado digitalmente con voz AI en respuesta a la entrada humana.
Imagen: Nvidia

En Computex 2023 en Taipei, el CEO de Nvidia, Jensen Huang, nos dio un vistazo de cómo se pueden combinar los juegos y la inteligencia artificial, con una recreación gráficamente impresionante de una tienda de ramen cyberpunk en la que realmente puedes hablar con el propietario.

En serio, en lugar de hacer clic en las opciones de diálogo, imagina que simplemente puedes decir algo con tu propia voz, y obtener una respuesta de un personaje de videojuego. Nvidia lo llama una "mirada al futuro de los videojuegos".

Desafortunadamente, el diálogo real deja mucho que desear; quizás la próxima vez Nvidia debería probar con GPT-4 o Sudowrite.

Aquí tienes la conversación completa que transcribí rápidamente:

Jugador: Hola Jin, ¿cómo estás?
Jin: Desafortunadamente, no muy bien.
¿Cómo es eso?
Estoy preocupado por la delincuencia por aquí. Últimamente se ha puesto muy mal. Mi tienda de ramen quedó atrapada en el fuego cruzado.
¿Puedo ayudar?
Si quieres hacer algo al respecto, he oído rumores de que el poderoso señor del crimen Kumon Aoki está causando todo tipo de caos en la ciudad. Él puede ser la raíz de esta violencia.
Hablaré con él, ¿dónde puedo encontrarlo?
He oído que frecuenta los clubes de lucha clandestina en el lado este de la ciudad. Inténtalo allí.
De acuerdo, iré.
Ten cuidado, Kai.

Viendo un solo video donde se muestra una sola conversación, es difícil ver cómo esto es mejor que elegir de un árbol de diálogo de NPC, pero lo impresionante es que la IA generativa está reaccionando al habla natural. Con suerte, Nvidia lanzará la demostración para que podamos probarla nosotros mismos y obtener resultados radicalmente diferentes.

La demostración fue desarrollada por Nvidia para ayudar a promover las herramientas que se utilizaron para crearla, específicamente una suite de middleware llamada Nvidia ACE (Avatar Cloud Engine) for Games, que puede ejecutarse tanto de forma local como en la nube.

Toda la suite ACE incluye las herramientas NeMo de la compañía para implementar grandes modelos de lenguaje (LLM). También es una demostración increíblemente buena, por supuesto, construida en Unreal Engine 5 con carga de ray-tracing… hasta el punto que la parte del chatbot me parece menos emocionante en comparación.

Haz clic para ver la captura de pantalla más grande.

En una sesión informativa previa a Computex, Jason Paul, VP de la plataforma GeForce de Nvidia, afirmó que la tecnología puede escalar a más de un personaje a la vez e incluso podría permitir que los NPC hablen entre sí, aunque admitió que todavía no se ha probado.

No está claro si algún desarrollador aprovechará la herramienta completa de ACE de la manera en que lo intenta la demo, pero S.T.A.L.K.E.R. 2 Heart of Chernobyl y Fort Solis utilizarán la parte que Nvidia llama "Omniverse Audio2Face", que intenta igualar la animación facial de un personaje 3D con el habla del actor de voz.

Recursos AI

Descubre las mejores herramientas y últimas tendencias en inteligencia artificial.

Recursos AI

¡Genial! Te has inscrito con éxito.

Bienvenido de nuevo! Has iniciado sesión correctamente.

Te has suscrito correctamente a Recursos AI.

¡Éxito! Comprueba en tu correo electrónico el enlace mágico para iniciar sesión.

Éxito! Su información de facturación ha sido actualizada.

Su facturación no se actualizó.