Firefly: el primer modelo de IA para generar videos llega a Adobe Premiere

Adobe lanza Firefly Video, su primer modelo de Inteligencia Artificial (IA) para generar audiovisuales. La nueva herramienta se está integrando a Premiere Pro y promete superar a sistemas similares como Sora de OpenAI y Veo de Google.

De acuerdo con Adobe, el modelo de video Firefly permitirá a los creativos ampliar el metraje y generar video a partir de imágenes fijas y mensajes de texto. Entre esas herramientas está ‘Generative Extend’.

Otras dos herramientas de generación de video se están lanzando en la web. Las herramientas Text-to-Video e Image-to-Video de Adobe, anunciadas por primera vez en septiembre, ahora se están implementando como una versión beta pública limitada en la aplicación web Firefly.

Durante la conferencia MAX de Adobe, la compañía también está presentando una serie de otras funciones impulsadas por IA en sus aplicaciones creativas.

TE PUEDE INTERESAR: WhatsApp estrena temas para personalizar tus chats: así puedes hacerlo

Nuevas herramientas de IA en Adobe Firefly

Generative Extend

  • La primera herramienta, Generative Extend, se lanza en versión beta para Premiere Pro. 
  • Se puede utilizar para ampliar el final o el principio de un metraje que es un poco demasiado corto, o hacer ajustes a mitad de la toma, como para corregir cambios en las líneas de los ojos o movimientos inesperados.
  • Los clips solo se pueden extender dos segundos, por lo que la extensión generativa solo es realmente adecuada para pequeños ajustes, pero eso podría reemplazar la necesidad de volver a tomar el metraje para corregir pequeños problemas. 
  • Los clips extendidos se pueden generar a 720p o 1080p a 24 FPS. 
  • Se puede usar en audio para ayudar a suavizar las ediciones, aunque con limitaciones. Extenderá los efectos de sonido y el ‘tono de la habitación’ ambiental hasta diez segundos, por ejemplo, pero no los diálogos hablados o la música.

Text-to-Video de Adobe

  • Ffunciona de manera similar a otros generadores de video como Runway y Sora de OpenAI: los usuarios solo necesitan ingresar una descripción de texto para lo que desean generar. 
  • Puede emular una variedad de estilos como película ‘real’ normal, animación 3D y stop motion.
  • Los clips generados se pueden refinar aún más utilizando una selección de ‘controles de cámara’ que simulan cosas como los ángulos de la cámara, el movimiento y la distancia de disparo.

Image-to-Video

  • Permite a los usuarios agregar una imagen de referencia junto con un mensaje de texto para proporcionar más control sobre los resultados. 
  • Adobe sugiere que esto podría usarse para hacer b-roll a partir de imágenes y fotografías, o ayudar a visualizar retomas cargando una imagen fija de un video existente. 
  • La duración máxima de los clips de texto a vídeo e imagen a vídeo es actualmente de cinco segundos, y la calidad alcanza un máximo de 720p y 24 fotogramas por segundo. 
  • Text-to-Video, Image-to-Video y Generative Extend tardan unos 90 segundos en generarse, pero Adobe dice que está trabajando en un ‘modo turbo’ para reducirlo. 

Foto: Adobe. 

Deja una respuesta