La startup de IA Runway lanza una aplicación para ofrecer a los usuarios IA generativa video por video


Runway, una startup de IA que ayudó a desarrollar el generador de imágenes de IA Stable Diffusion, lanzó ayer su primera aplicación móvil para brindar a los usuarios acceso a Gen-1, su modelo de IA generativa de video a video que hace posible. Actualmente, la aplicación solo está disponible en dispositivos iOS.

La nueva aplicación permite a los usuarios capturar un video desde su teléfono y crear un video AI en minutos. También pueden convertir cualquier video existente en su biblioteca usando indicaciones de texto, imágenes o ajustes preestablecidos de estilo.

Los usuarios pueden elegir de la lista de pasarelas de ajustes preestablecidos como cloudscape o convertir su video para que parezca plastilina, dibujo al carboncillo, arte de acuarela, origami de papel y más. También puede cargar una imagen o ingresar una idea en el cuadro de texto.

Luego, la aplicación genera cuatro vistas previas para que elijas. Una vez que haya elegido cuál le gusta más, se tarda unos minutos en crear el producto final. Probamos la aplicación nosotros mismos y descubrimos que tarda alrededor de 60 segundos o más. A veces la generación tarda dos minutos.

Por supuesto, como con cualquier generador de IA, los resultados no son perfectos y, a menudo, se ven distorsionados o extraños. En general, el concepto de generadores de video de IA puede parecer tonto e incluso engañoso. Pero es fácil ver lo genial que podría ser a medida que la tecnología avanza con el tiempo.

Meta y Google lanzaron generadores de texto a video llamados Make-A-Video e Imagen, respectivamente.

De todos modos, encontramos que la aplicación móvil de Runway es fácil de usar y, en general, divertida para jugar.

A continuación se muestra un ejemplo que se nos ocurrió usando un clip de Michael Scott de The Office. Un mensaje de texto que ingresamos decía "muñeca realista".

(Advertencia: el resultado es impactante).

También probamos la "animación 3D" que resultó ser buena.

Por supuesto, hay algunas otras advertencias además de fallas y caras distorsionadas.

Si los usuarios quieren la versión gratuita, hay un límite de 525 créditos y solo pueden subir videos de cinco segundos de duración. Cada segundo de un video consume 14 créditos.

En el futuro, Runway planea agregar soporte para videos más largos, dijo a TechCrunch el cofundador y CEO Cristóbal Valenzuela. La aplicación continuará mejorando e introduciendo nuevas funciones, agregó.

“Nos enfocamos en mejorar la eficiencia, la calidad y el control. En las próximas semanas y meses verán todo tipo de actualizaciones, desde ediciones más largas hasta videos de mayor calidad”, dijo Valenzuela.

También tenga en cuenta que la aplicación no genera desnudos ni trabajos con derechos de autor, por lo que no puede crear videos que imiten el estilo del contenido de propiedad intelectual popular.

La nueva aplicación móvil de Runway tiene dos planes premium: Estándar ($143.99/año) y Pro ($344.99/año). El plan estándar le brinda 625 créditos por mes y otras funciones premium como video de 1080p, proyectos ilimitados y más. El plan Pro ofrece 2250 créditos/mes y todas las más de 30 herramientas de IA de Runway.

Un mes después de que Runway lanzara Gen-1, que se lanzó en febrero, Runway presentó su modelo Gen-2. Posiblemente una evolución de los modelos Stable Diffusion y DALL-E de texto a imagen, Gen-2 es un generador de texto a video que permite a los usuarios crear videos desde cero.

Runway ha comenzado lentamente a implementar el acceso a su versión beta cerrada para Gen-2, nos dijo Valenzuela.

La aplicación actualmente es compatible con el modelo Gen 1, pero Gen 2 estará disponible pronto junto con otras herramientas de inteligencia artificial de Runway, como el generador de imagen a imagen.

Runway ha desarrollado varios software de edición de video impulsados ​​por IA desde su lanzamiento en 2018. La compañía tiene una variedad de herramientas diferentes en su editor de video basado en la web, como eliminar audio y seguimiento de movimiento, entre otros.

Las herramientas han ayudado a los creadores de contenido e incluso a los estudios de cine y televisión a reducir el tiempo que lleva editar y crear videos.

Por ejemplo, el equipo de efectos visuales detrás de Everything Everywhere All at Once usó la tecnología de Runway para ayudar a crear la escena en la película donde Evelyn (Michelle Yeoh) y Joy (Stephanie Hsu) están en un multiverso en el que se pusieron en movimiento rocas.

Además, el equipo de gráficos detrás de The Late Show con Stephen Colbert de CBS usó Runway para reducir las horas de edición a solo cinco minutos, según el director de arte Andro Buneta.

Runway también opera Runway Studios, su división de entretenimiento y producción.

Si quieres conocer otros artículos parecidos a La startup de IA Runway lanza una aplicación para ofrecer a los usuarios IA generativa video por video puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir