IA | Innovador

OpenAI presenta Sora, el revolucionario generador de vídeos realistas

OpenAI presenta su nuevo modelo de generación de vídeos, Sora, capaz de crear simulaciones digitales realistas

La compañía de inteligencia artificial OpenAI ha presentado su nuevo modelo de generación de vídeos llamado Sora, que ha demostrado ser capaz de realizar impresionantes hazañas cinematográficas. Sin embargo, según un artículo técnico publicado recientemente, Sora es aún más capaz de lo que inicialmente se creía.

En el artículo titulado "Modelos de generación de vídeo como simuladores de mundo", coescrito por varios investigadores de OpenAI, se revelan aspectos clave de la arquitectura de Sora. Por ejemplo, se destaca que Sora puede generar vídeos de cualquier resolución y relación de aspecto, llegando hasta 1080p. Según el artículo, Sora es capaz de realizar una variedad de tareas de edición de imágenes y vídeos, como crear vídeos en bucle, extender vídeos hacia adelante o hacia atrás en el tiempo y cambiar el fondo de un vídeo existente.

Sin embargo, lo más intrigante de Sora es su capacidad para "simular mundos digitales", tal como lo describen los coautores de OpenAI. En un experimento, OpenAI dejó a Sora suelto en Minecraft y le permitió renderizar el mundo, incluyendo su dinámica y física, al mismo tiempo que controlaba al jugador.

¿Cómo logra Sora esto? Según el investigador senior de Nvidia, Jim Fan, Sora es más bien un "motor de física basado en datos" que una herramienta creativa. No solo genera una sola foto o vídeo, sino que determina la física de cada objeto en un entorno y renderiza una foto o vídeo (o un mundo 3D interactivo, según sea el caso) basado en estos cálculos.

"Estas capacidades sugieren que la escalabilidad continua de los modelos de vídeo es un camino prometedor hacia el desarrollo de simuladores altamente capaces del mundo físico y digital, y de los objetos, animales y personas que viven en ellos", escriben los coautores.

Sin embargo, Sora tiene limitaciones en el ámbito de los videojuegos. El modelo no puede aproximar con precisión la física de interacciones básicas, como la fragmentación de un vidrio. E incluso en las interacciones que puede modelar, Sora a menudo es inconsistente, como por ejemplo, al representar a una persona comiendo una hamburguesa pero sin mostrar las marcas de mordidas.

A pesar de estas limitaciones, parece que Sora podría allanar el camino para juegos generados proceduralmente más realistas, e incluso fotorealistas. Esto resulta emocionante y a la vez aterrador (teniendo en cuenta las implicaciones de los deepfakes), lo cual probablemente explique por qué OpenAI ha decidido limitar el acceso a Sora a un programa muy restringido por el momento.

Esperemos que pronto podamos conocer más sobre este innovador modelo y sus posibles aplicaciones en el futuro.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Mejoras limitadas

OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos

OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...

Interacción problemática

Reacciones mixtas ante la personalización de ChatGPT en usuarios

La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...

Inversión segura

Geoff Ralston lanza fondo para startups de inteligencia artificial segura

Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...

Falta transparencia

Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro

El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...

IA y privacidad

IA en imágenes: avances y riesgos para la privacidad

El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....

Vigilancia ética

OpenAI implementa vigilancia para prevenir amenazas en IA

OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...

Seguridad ética

Desafíos éticos y de seguridad en la inteligencia artificial

La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....

Programación eficiente

Codex CLI de OpenAI mejora la programación con IA localmente

Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...