IA | Innovación

DeepMind crea tecnología V2A para bandas sonoras automáticas en videos

DeepMind, el laboratorio de investigación en IA de Google, está desarrollando tecnología de IA para generar bandas sonoras para videos

DeepMind, el laboratorio de investigación en IA de Google, está dando un paso adelante en el desarrollo de tecnología de IA para generar bandas sonoras para videos. Según una publicación en su blog oficial, DeepMind afirma que esta tecnología, conocida como V2A (abreviatura de "video-to-audio"), es una pieza esencial del rompecabezas de medios generados por IA. Aunque muchas organizaciones, incluida DeepMind, han desarrollado modelos de IA para generar videos, estos modelos no pueden crear efectos de sonido para sincronizar con los videos que generan.

“Los modelos de generación de video están avanzando a un ritmo increíble, pero muchos sistemas actuales solo pueden generar resultados en silencio”, escribe DeepMind. “La tecnología V2A podría convertirse en un enfoque prometedor para dar vida a las películas generadas”

La tecnología V2A de DeepMind toma una descripción de una banda sonora (por ejemplo, "medusas pulsando bajo el agua, vida marina, océano") emparejada con un video para crear música, efectos de sonido e incluso diálogos que se ajustan a los personajes y al tono del video, marcados con la tecnología SynthID de DeepMind para combatir deepfakes. El modelo de IA que impulsa V2A, un modelo de difusión, fue entrenado en una combinación de sonidos, transcripciones de diálogos y clips de video, según DeepMind.

"Al entrenar con video, audio y las anotaciones adicionales, nuestra tecnología aprende a asociar eventos de audio específicos con diversas escenas visuales, respondiendo a la información proporcionada en las anotaciones o transcripciones", escribe DeepMind.

Sin embargo, DeepMind no ha revelado si alguno de los datos de entrenamiento estaba protegido por derechos de autor, ni si los creadores de los datos fueron informados del trabajo de DeepMind. Hemos contactado a DeepMind para obtener aclaraciones y actualizaremos esta publicación si recibimos respuesta.

Las herramientas de generación de sonido alimentadas por IA no son novedosas. La startup Stability AI lanzó una la semana pasada, y ElevenLabs lanzó una en mayo. Tampoco lo son los modelos para crear efectos de sonido en video. Un proyecto de Microsoft puede generar videos de habla y canto a partir de una imagen fija, y plataformas como Pika y GenreX han entrenado modelos para tomar un video y hacer una suposición sobre qué música o efectos son apropiados en una escena determinada.

A pesar de las limitaciones de V2A, DeepMind afirma que su tecnología es única en el sentido de que puede entender los píxeles crudos de un video y sincronizar automáticamente los sonidos generados con el video, opcionalmente sin descripción. Sin embargo, el audio generado no es especialmente convincente y no es de alta calidad para videos con artefactos o distorsiones, según DeepMind.

"Para garantizar que nuestra tecnología V2A pueda tener un impacto positivo en la comunidad creativa, estamos recopilando diversas perspectivas e ideas de creadores y cineastas líderes, y utilizando estos valiosos comentarios para informar nuestra investigación y desarrollo continuos", escribe DeepMind. "Antes de considerar abrir el acceso al público en general, nuestra tecnología V2A se someterá a rigurosas evaluaciones de seguridad y pruebas".

DeepMind presenta su tecnología V2A como una herramienta especialmente útil para archiveros y personas que trabajan con metraje histórico. Sin embargo, como se menciona en un artículo de esta mañana, la IA generativa de este tipo también amenaza con trastornar la industria cinematográfica y televisiva. Será necesario contar con protecciones laborales sólidas para garantizar que las herramientas de medios generativos no eliminen empleos, o incluso profesiones enteras.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Vídeos creativos

Midjourney lanza V1, revolucionando vídeos y desafiando derechos de autor

Midjourney ha lanzado V1, un modelo de generación de vídeos que transforma imágenes en secuencias de cinco segundos, ampliando las posibilidades creativas. Sin embargo, enfrenta...

Colaboración finalizada

OpenAI termina colaboración con Scale AI, incertidumbre en la industria

OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...

Desalineación ética

OpenAI revela hallazgos sobre comportamientos desalineados en IA

Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...

Controversia ambiental

xAI en el ojo del huracán por turbinas sin permisos

La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...

Interacción fluida

Google presenta "Search Live" para búsquedas interactivas y fluidas

Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...

Comunidades auténticas

Digg renace con IA y recompensas para comunidades auténticas

La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...

Ética tecnológica

Desafíos éticos en la búsqueda de inteligencia artificial general

La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...

Competencia intensa

Meta ofrece hasta 100 millones por talento en IA

Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...