¿Qué es Sora?
Sora es el modelo de generación de video de OpenAI, basado en una arquitectura de transformadores que opera sobre patches espacio-temporales del video (en lugar de generar frame por frame). Esta arquitectura permite que el modelo mantenga consistencia de objetos, iluminación y física a lo largo de clips extensos.
OpenAI mostró los primeros ejemplos en febrero de 2024, causando impacto inmediato en la industria creativa. El lanzamiento público llegó en diciembre de 2024, disponible para usuarios de ChatGPT Plus y Pro con distintos límites de generación.
Sora puede generar escenas con múltiples personajes interactuando, con movimiento consistente de cámara, cambios de iluminación realistas y hasta simulación básica de física (agua, telas, humo). La duración máxima es de 60 segundos a 1080p para usuarios Pro.
Capacidades técnicas
de video generado
disponible
también vertical 9:16
Además de texto a video, Sora puede: extender videos existentes hacia adelante o atrás en el tiempo, rellenar frames faltantes entre dos clips (interpolación), modificar videos con texto descriptivo (inpainting temporal), y combinar múltiples prompts en un video con transiciones coherentes.
El ecosistema de video IA en 2024-2025
Sora no llegó a un mercado vacío. Runway Gen-3 Alpha, Kling de Kuaishou, Pika Labs y Google Veo 2 ya competían en calidad de video. Lo que distingue a Sora es la coherencia temporal en clips largos y la simulación física — puntos débiles históricos del resto. Runway lidera en herramientas de edición integradas; Kling en expresividad de personajes; Sora en coherencia de escenas complejas.
Impacto en la industria creativa
Las reacciones de la industria del cine y publicidad fueron mixtas. Por un lado, productoras independientes ven en Sora una herramienta para prototipar escenas costosas antes de filmarlas. Por otro, gremios de actores (SAG-AFTRA) y directores advirtieron sobre el riesgo de reemplazo de trabajo creativo a mediano plazo.
En publicidad, el caso de uso inmediato más claro es la generación de variantes de un mismo spot para pruebas A/B, lo que antes requería múltiples días de producción y ahora puede hacerse en horas.
Limitaciones y riesgos
Sora todavía falla en: física muy específica (objetos que deben moverse de cierta manera exacta), texto legible en pantalla, manos y dedos (el clásico problema de los modelos de imagen), y consistencia de personajes a través de múltiples escenas. OpenAI implementó watermarking invisible y meta-datos C2PA para identificar los videos generados.
Conclusión
Sora marca el inicio de la era del video generativo de alta calidad accesible al público. No es una herramienta de producción final todavía, pero como herramienta de prototipado, ideación y producción de contenido de redes sociales, ya tiene casos de uso claros y viables.