La revolución de la inteligencia artificial que estamos viviendo en los últimos años ha dado un paso más con el lanzamiento de Sora, la nueva IA generativa de OpenAI -responsable de Chat GPT y Dall-E- capaz de generar secuencias de vídeo a partir de prompts o instrucciones de texto.
Hasta ahora ya era posible aplicar ciertos movimientos y animaciones a las imágenes generadas con inteligencia artificial, pero Sora va más allá. Esta nueva tecnología puede generar vídeo de hasta un minuto de duración capaces de emular de forma realista el mundo en movimiento.
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Así mediante instrucciones precisas podemos obtener movimiento de cámara cinematográficos, efectos de luz dinámicos y personajes que se mueven por un espacio tridimensional con total naturalidad. Los primeros resultados que se han publicado en redes son realmente espectaculares.
Eso sí, los responsables de OpenAI han admitido que el primer modelo de Sora tiene ciertas limitaciones, concretamente señalan que puede tener dificultades para simular interacciones físicas complejas. «Una persona puede darle un mordisco a una galleta, pero después, es posible que la galleta no tenga la marca del mordisco», señalan como ejemplo.
Prompt: “Several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance… pic.twitter.com/Um5CWI18nS
— OpenAI (@OpenAI) February 15, 2024
También señalan que el algoritmo tiende a confundir mensajes relacionados con los detalles sobre el espacio o con descripciones precisas sobre eventos a lo largo del tiempo, como por ejemplo movimientos de cámara concretos.
Como suele ser habitual cuando hay avances en el segmento de la IA generativas enseguida saltan las alarmas sobre el mal uso que se puede dar de esta tecnología. Desde OpenAI insisten en que Sora está siendo evaluada por expertos en desinformación y contenido dañino (conocidos como red teamers) antes de su lanzamiento al público.
Así mismo la empresa sigue desarrollando herramientas que permitan identificar los vídeos generados por Sora, señalando su procedencia a base de metadatos.
Por el momento Sora solo está disponible para un número limitado de artistas, diseñadores y cineastas seleccionados por OpenAI, y aun no hay una fecha definitiva para que llegue al público.
Prompt: “A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. she wears a black leather jacket, a long red dress, and black boots, and carries a black purse. she wears sunglasses and red lipstick. she walks confidently and casually.… pic.twitter.com/cjIdgYFaWq
— OpenAI (@OpenAI) February 15, 2024
Las primeras pruebas que se han mostrado son asombrosas, y aunque en muchas de ellas se pueden ver movimientos algo extraños y pérdidas de detalle en zonas complejas, pueden pasar sin problemas por vídeos reales, al menos vistos en pantallas pequeñas.
Al margen de las obligadas consideraciones éticas, lo cierto es que esto vídeos generados por IA pueden ser de gran ayuda en la industria cinematográfica. Ya no tanto para generar secuencias finales, si no para planificar planos con efectos especiales complejos o generar storyboards en movimiento.










