Una nueva actualización de su más popular herramienta anunció este lunes Runway con el modelo de generación de video Gen-4, cuya principal innovación es la capacidad de mantener la consistencia en personajes, objetos y escenarios a lo largo de múltiples escenas en un video, como un cortometraje o una película.
La startup de entretenimiento y arte que utiliza inteligencia artificial (IA) generativa fundada en 2018 por los chilenos Cristóbal Valenzuela y Alejandro Matamala, junto con Anastasis Germandinis, forma parte del puñado de empresas emergentes que dominan la industria, cuyas herramientas tienen casos de uso en cine, postproducción, publicidad, entre otros.
Está valorizada en US$ 1.500 millones y tiene inversionistas como Salesforce, Google, and Nvidia.
En su blog, Runway afirmó que con Gen-4 los usuarios solo tienen que definir el aspecto que buscan generar y el modelo “mantendrá entornos mundiales coherentes, al tiempo que conserva el estilo distintivo, el ambiente y los elementos cinematográficos de cada fotograma”, para luego regenerar esos elementos desde múltiples perspectivas y posiciones dentro de las escenas.
“Este es nuestro modelo de IA más potente”, dijo el CEO de Runway, Cristóbal Valenzuela, en un video de presentación de Gen-4 en X. “Establece un estándar completamente nuevo para la generación de imágenes y video”, agregó.
Hicieron hincapié en que Gen-4 tiene la capacidad para simular entornos mundiales coherentes, es decir, que se perciban reales, un aspecto que Matamala, en entrevista con DF, dijo que sería el foco de Runway para sus próximos modelos.
Además, el nuevo modelo de generación de videos puede usar referencias visuales, combinadas con instrucciones, para generar nuevas imágenes y videos con estilos, temas, ubicaciones más consistentes para brindar “una libertad sin precedentes para contar tu historia”.
En su blog, Runway publicó algunos videos con ejemplos que muestran las capacidades de su nuevo modelo de IA generativa, los que van desde un grupo de animales caminando por las calles de una ciudad, hasta un cortometraje de animación que sigue a un grupo de exploradores en busca de una flor misteriosa.
Este nuevo lanzamiento se suma al que la startup hizo en noviembre de 2024, cuando presentó Frames, su nuevo modelo base para la creación de imágenes.