En un movimiento que podría transformar la creación de personajes digitales, Nvidia liberó como código abierto su herramienta de animación facial por voz basada en inteligencia artificial (IA): Audio2Face.
Esta tecnología permite generar expresiones faciales realistas en avatares 3D a partir de una simple entrada de audio, y ahora está disponible para que cualquier desarrollador, investigador o creador la utilice, modifique y adapte a sus propios proyectos.
Con esta apertura, Nvidia ha puesto a disposición los modelos de Audio2Face, el SDK (kit de desarrollo de software) y el marco de entrenamiento para personalizar modelos.
Esto significa que los usuarios pueden ajustar la herramienta para distintos idiomas, estilos de animación o tipos de personajes. Además, Audio2Face es compatible con motores populares como Unreal Engine 5, lo que facilita su integración en flujos de trabajo existentes.
TE PUEDE INTERESAR: Snapdragon X2 Elite: potencia extrema y eficiencia para las nuevas PC con Windows
Qué es Audio2Face y cómo funciona
- Audio2Face analiza las características acústicas de una voz —como los fonemas, la entonación y el ritmo— para generar datos de animación que se traducen en movimientos precisos de labios, expresiones faciales y emociones en tiempo real.
- Esta herramienta puede aplicarse tanto en contenido pregrabado como en transmisiones en vivo, lo que la convierte en una solución versátil para videojuegos, cine, educación virtual y asistentes digitales.
- La tecnología también incluye Audio2Emotion, un módulo que interpreta el tono de voz para generar expresiones emocionales más auténticas.
- Esto permite que los personajes virtuales no solo hablen, sino que ‘sientan’ lo que dicen, mejorando la inmersión en experiencias interactivas.
Foto: Nvidia.