IA | Innovador

OpenAI presenta Sora, el revolucionario generador de vídeos realistas

OpenAI presenta su nuevo modelo de generación de vídeos, Sora, capaz de crear simulaciones digitales realistas

La compañía de inteligencia artificial OpenAI ha presentado su nuevo modelo de generación de vídeos llamado Sora, que ha demostrado ser capaz de realizar impresionantes hazañas cinematográficas. Sin embargo, según un artículo técnico publicado recientemente, Sora es aún más capaz de lo que inicialmente se creía.

En el artículo titulado "Modelos de generación de vídeo como simuladores de mundo", coescrito por varios investigadores de OpenAI, se revelan aspectos clave de la arquitectura de Sora. Por ejemplo, se destaca que Sora puede generar vídeos de cualquier resolución y relación de aspecto, llegando hasta 1080p. Según el artículo, Sora es capaz de realizar una variedad de tareas de edición de imágenes y vídeos, como crear vídeos en bucle, extender vídeos hacia adelante o hacia atrás en el tiempo y cambiar el fondo de un vídeo existente.

Sin embargo, lo más intrigante de Sora es su capacidad para "simular mundos digitales", tal como lo describen los coautores de OpenAI. En un experimento, OpenAI dejó a Sora suelto en Minecraft y le permitió renderizar el mundo, incluyendo su dinámica y física, al mismo tiempo que controlaba al jugador.

¿Cómo logra Sora esto? Según el investigador senior de Nvidia, Jim Fan, Sora es más bien un "motor de física basado en datos" que una herramienta creativa. No solo genera una sola foto o vídeo, sino que determina la física de cada objeto en un entorno y renderiza una foto o vídeo (o un mundo 3D interactivo, según sea el caso) basado en estos cálculos.

"Estas capacidades sugieren que la escalabilidad continua de los modelos de vídeo es un camino prometedor hacia el desarrollo de simuladores altamente capaces del mundo físico y digital, y de los objetos, animales y personas que viven en ellos", escriben los coautores.

Sin embargo, Sora tiene limitaciones en el ámbito de los videojuegos. El modelo no puede aproximar con precisión la física de interacciones básicas, como la fragmentación de un vidrio. E incluso en las interacciones que puede modelar, Sora a menudo es inconsistente, como por ejemplo, al representar a una persona comiendo una hamburguesa pero sin mostrar las marcas de mordidas.

A pesar de estas limitaciones, parece que Sora podría allanar el camino para juegos generados proceduralmente más realistas, e incluso fotorealistas. Esto resulta emocionante y a la vez aterrador (teniendo en cuenta las implicaciones de los deepfakes), lo cual probablemente explique por qué OpenAI ha decidido limitar el acceso a Sora a un programa muy restringido por el momento.

Esperemos que pronto podamos conocer más sobre este innovador modelo y sus posibles aplicaciones en el futuro.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Adquisición estratégica

OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

OpenAI ha adquirido Promptfoo, una startup de seguridad de IA, para integrar su tecnología en OpenAI Frontier. Esta adquisición busca mejorar la seguridad de los...

Demanda ética

Anthropic demanda al DOD por restricciones en colaboración gubernamental

Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...