Descubre MoCha: la IA de Meta que da vida a tus personajes de película

Imagina poder crear personajes de película que no solo se ven bien, sino que también pueden hablar y reaccionar a lo que dices. Con MoCha, la nueva inteligencia artificial de Meta, esto es posible. Esta IA transforma texto y voz en personajes animados, ofreciendo una experiencia interactiva única.

Este proyecto, cuyo nombre completo es Movie Character Animator, tiene el potencial de cambiar cómo se producen contenidos audiovisuales, desde vídeos para redes sociales hasta proyectos educativos o incluso películas independientes.

Una de las características destacadas de MoCha es su capacidad para controlar emociones y acciones en los personajes generados. Esto significa que puedes no solo crear diálogos, sino también darles matices emocionales que hacen que cada escena sea más realista y envolvente. 

TE PUEDE INTERESAR: Firebase Studio: Google te permite crear prototipos de apps en minutos

Cómo funciona MoCha 

  • MoCha está basado en un conjunto de técnicas avanzadas de aprendizaje automático, especialmente redes neuronales profundas.
  • Para entrenar el modelo, los investigadores utilizaron más de 500.000 clips de video con audio sincronizado, lo que equivale a unas 300 horas de contenido en alta calidad.
  • Gracias a este entrenamiento, la IA ha aprendido a identificar patrones entre el sonido y los movimientos faciales que lo acompañan. 
  • Cuando recibe un nuevo audio y una descripción del escenario, puede generar un vídeo donde el personaje mueve la boca, los ojos y el rostro de forma realista, como si de verdad estuviera interpretando ese diálogo.

¿Cómo se compara con otras herramientas?

  • Runway Gen-4: este modelo permite crear clips de vídeo completos a partir de texto e imágenes. Mantiene la coherencia visual entre escenas y personajes, y se destaca por su calidad cinematográfica.
  • Microsoft VASA-1: esta herramienta puede tomar una foto estática de una persona y convertirla en un vídeo donde habla cualquier audio que se le asocie. Microsoft decidió no lanzarla al público debido al riesgo de uso malintencionado.
  • ByteDance (TikTok): desarrolló una IA similar a VASA-1, capaz de animar una imagen con movimiento de labios y expresiones realistas.
  • OmniHuman-1: también de ByteDance, esta IA no solo genera movimientos faciales, sino que también anima el cuerpo completo, creando vídeos más inmersivos.

Foto: John Conde en Pixabay.

Deja una respuesta