La nueva era de la desinformación: el uso de la IA generativa en campañas de influencia
En un mundo donde la información fluye a la velocidad de la luz, la desinformación se ha convertido en un fenómeno que puede alterar la percepción pública y manipular la opinión colectiva. La inteligencia artificial (IA) generativa ha añadido una nueva dimensión a este problema, facilitando la creación de contenido falso que puede parecer asombrosamente real. Recientemente, un informe de una empresa de inteligencia de amenazas ha revelado que estas tecnologías están siendo utilizadas en operaciones de influencia estatales, lo que plantea serias preocupaciones sobre su impacto en la política global.
Las herramientas de IA generativa han demostrado ser eficaces en la creación de contenido audiovisual que puede engañar incluso a los observadores más atentos. En este contexto, el informe de Recorded Future ha revelado cómo una campaña, vinculada a Rusia, ha utilizado estas herramientas para socavar el apoyo europeo a Ucrania. Esta campaña, denominada "Operación Undercut", ha empleado voces generadas por IA en vídeos falsos o engañosos que se presentan como noticias.
La Operación Undercut: un ataque encubierto
La Operación Undercut tiene como objetivo socavar la confianza de Europa en Ucrania mediante la difusión de información errónea. Según el informe, estos vídeos atacaban a políticos ucranianos, presentándolos como corruptos y cuestionando la efectividad de la ayuda militar a Ucrania. Por ejemplo, uno de los vídeos afirmaba que "incluso los jammers no pueden salvar a los tanques Abrams estadounidenses", lo que refuerza la idea de que enviar armamento avanzado a Ucrania es inútil.
La utilización de voces generadas por IA ha permitido a los creadores de estos vídeos aparentar una mayor legitimidad en su contenido, lo que complica la tarea de los consumidores de información a la hora de discernir la verdad.
Los investigadores de Recorded Future comprobaron la autenticidad de estos vídeos al someterlos al clasificador de voz de ElevenLabs, una empresa emergente conocida por su tecnología de generación de voz. Los resultados confirmaron que las voces en los clips habían sido generadas por esta IA. Sin embargo, ElevenLabs no ha respondido a las solicitudes de comentarios sobre este asunto.
La ventaja del multilingüismo
Una de las ventajas que la IA generativa ha proporcionado a esta campaña de desinformación es la capacidad de lanzar rápidamente contenido en múltiples idiomas. La producción de estos vídeos en inglés, francés, alemán, polaco y turco ha permitido alcanzar a un público europeo más amplio. Esto muestra cómo la tecnología puede ser utilizada para diseminar desinformación a gran escala y con un impacto inmediato.
Los vídeos, en contraste con los que contenían voces humanas, no presentaban acentos extranjeros, lo que los hacía parecer más creíbles para las audiencias europeas. Los creadores de la campaña, al parecer, no se dieron cuenta de que su uso de voces humanas reales con acento ruso podría delatar su origen. Esto demuestra la falta de sofisticación en la ejecución de una operación que, de otro modo, podría haber sido más efectiva.
Las raíces de la campaña de desinformación
Recorded Future ha atribuido esta actividad a la Social Design Agency, una organización con sede en Rusia que ha sido sancionada por el gobierno de Estados Unidos por operar una red de más de 60 sitios web que se hacían pasar por organizaciones de noticias genuinas en Europa. Estos sitios utilizaban cuentas falsas en redes sociales para amplificar el contenido engañoso, todo ello “en nombre del Gobierno de la Federación Rusa”, según el Departamento de Estado de EE. UU.
La revelación de esta campaña pone de manifiesto cómo los actores estatales pueden aprovechar las herramientas de la IA generativa para llevar a cabo operaciones de influencia sofisticadas y difíciles de rastrear. A pesar de su complejidad, el impacto general de la Operación Undercut en la opinión pública europea ha sido calificado como mínimo, lo que sugiere que, a pesar de la tecnología utilizada, la desinformación no siempre logra su objetivo.
El papel de ElevenLabs en la controversia
ElevenLabs, la empresa detrás de la tecnología de generación de voz utilizada en la campaña, ha estado en el centro de la controversia. Anteriormente, sus productos fueron utilizados en un robo de voz que imitaba al presidente Joe Biden, instando a los votantes a no participar en las elecciones primarias de enero de 2024. Esto llevó a la empresa a implementar nuevas funciones de seguridad, como el bloqueo automático de las voces de los políticos.
La empresa ha declarado que prohíbe la "suplantación no autorizada, dañina o engañosa" y asegura que utiliza diversas herramientas, tanto automatizadas como moderación humana, para hacer cumplir estas políticas.
Sin embargo, la creciente popularidad de ElevenLabs, que ha experimentado un crecimiento explosivo desde su fundación en 2022, ha suscitado dudas sobre su capacidad para controlar el uso de su tecnología. Recientemente, la empresa ha visto aumentar su ARR a 80 millones de dólares, un notable incremento desde los 25 millones de dólares de hace menos de un año. Con una valoración que podría alcanzar los 3.000 millones de dólares, ElevenLabs atrae la atención de inversores de alto perfil, incluidos Andreessen Horowitz y el ex-CEO de GitHub, Nat Friedman.
Desafíos de la regulación de la IA
El uso de la IA generativa en campañas de desinformación plantea un conjunto de desafíos regulatorios y éticos. A medida que las tecnologías avanzan, también lo hacen las tácticas de los actores malintencionados. Esto plantea preguntas cruciales sobre la responsabilidad de las empresas tecnológicas en la supervisión del uso de sus productos.
La capacidad de crear contenido que engañe a las personas sobre la veracidad de la información es un problema que necesita ser abordado de manera urgente. Las plataformas deben encontrar un equilibrio entre la innovación y la protección de los ciudadanos de la manipulación y la desinformación.
La falta de un marco regulador claro también permite que las organizaciones con intenciones maliciosas se aprovechen de estas herramientas sin miedo a repercusiones. La rapidez con la que la IA generativa puede producir contenido hace que sea casi imposible rastrear su origen, lo que complica aún más la labor de los reguladores y de las plataformas en la lucha contra la desinformación.
La responsabilidad de los consumidores de información
A medida que la desinformación se convierte en un fenómeno más prevalente, también se hace cada vez más importante que los consumidores de información sean críticos y analíticos. En un entorno donde la IA puede crear contenidos que parecen reales, la responsabilidad de discernir la verdad recae en última instancia en los individuos.
La alfabetización mediática se vuelve esencial en este contexto, y los consumidores deben estar equipados con las herramientas necesarias para evaluar la credibilidad de la información que consumen. La educación sobre el uso de la IA y su capacidad para manipular la percepción pública debe ser parte integral de cualquier estrategia para combatir la desinformación.
En resumen, la intersección entre la inteligencia artificial y la desinformación está creando un nuevo paisaje de desafíos que requiere atención urgente. La Operación Undercut es solo un ejemplo de cómo las herramientas de IA generativa pueden ser utilizadas para socavar la confianza en las instituciones democráticas. Con un panorama tecnológico en constante evolución, la lucha contra la desinformación es una batalla que todos deben enfrentar.
Otras noticias • IA
Lemon Slice transforma imágenes en avatares digitales interactivos
Lemon Slice, fundada en 2024, crea avatares digitales interactivos a partir de una sola imagen, utilizando su modelo Lemon Slice-2. Con 10,5 millones de dólares...
Amazon potenciará Alexa+ en 2026 con nuevos servicios integrados
Amazon ampliará las capacidades de Alexa+ en 2026, integrando servicios de Angi, Expedia, Square y Yelp. Esto permitirá a los usuarios gestionar tareas cotidianas mediante...
Alphabet compra Intersect Power por 4.750 millones de dólares
Alphabet ha adquirido Intersect Power por 4.750 millones de dólares, reforzando su posición en energías limpias y centros de datos. Este movimiento busca asegurar un...
OpenAI presenta 'Tu Año con ChatGPT' para usuarios
OpenAI ha lanzado "Tu Año con ChatGPT", una funcionalidad que ofrece a los usuarios un resumen anual personalizado de sus interacciones con el chatbot. Incluye...
Splat transforma fotos en páginas para colorear y crear
Splat es una innovadora aplicación que transforma fotos en páginas para colorear, fomentando la creatividad infantil. Sin publicidad y con un proceso de uso sencillo,...
Apagón en San Francisco pone a prueba vehículos autónomos de Waymo
Un apagón masivo en San Francisco dejó varados a vehículos autónomos de Waymo, provocando caos y cuestionando su fiabilidad en emergencias. La empresa suspendió temporalmente...
Nueva York establece regulaciones para la inteligencia artificial con RAISE Act
El RAISE Act, firmado por la gobernadora de Nueva York, Kathy Hochul, establece un marco regulatorio para la inteligencia artificial, exigiendo transparencia y responsabilidad a...
Resolve AI transforma la ingeniería de fiabilidad con automatización innovadora
Resolve AI, una startup valorada en 1.000 millones de dólares, está revolucionando la ingeniería de fiabilidad de sistemas mediante la automatización. Su herramienta autónoma promete...
Lo más reciente
- 1
FCC prohíbe drones extranjeros por seguridad nacional y competencia
- 2
Ciberataques amenazan a la industria aseguradora y sus clientes
- 3
Zoox enfrenta desafíos de seguridad en conducción autónoma
- 4
Robos de criptomonedas alcanzan récord de 2.700 millones en 2025
- 5
Marissa Mayer presenta Dazzle, su nuevo asistente de IA
- 6
Ciberataques amenazan la seguridad de la industria aseguradora en EE.UU
- 7
Ciberataque interrumpe operaciones de La Poste en Francia

