La nueva era de la desinformación: el uso de la IA generativa en campañas de influencia
En un mundo donde la información fluye a la velocidad de la luz, la desinformación se ha convertido en un fenómeno que puede alterar la percepción pública y manipular la opinión colectiva. La inteligencia artificial (IA) generativa ha añadido una nueva dimensión a este problema, facilitando la creación de contenido falso que puede parecer asombrosamente real. Recientemente, un informe de una empresa de inteligencia de amenazas ha revelado que estas tecnologías están siendo utilizadas en operaciones de influencia estatales, lo que plantea serias preocupaciones sobre su impacto en la política global.
Las herramientas de IA generativa han demostrado ser eficaces en la creación de contenido audiovisual que puede engañar incluso a los observadores más atentos. En este contexto, el informe de Recorded Future ha revelado cómo una campaña, vinculada a Rusia, ha utilizado estas herramientas para socavar el apoyo europeo a Ucrania. Esta campaña, denominada "Operación Undercut", ha empleado voces generadas por IA en vídeos falsos o engañosos que se presentan como noticias.
La Operación Undercut: un ataque encubierto
La Operación Undercut tiene como objetivo socavar la confianza de Europa en Ucrania mediante la difusión de información errónea. Según el informe, estos vídeos atacaban a políticos ucranianos, presentándolos como corruptos y cuestionando la efectividad de la ayuda militar a Ucrania. Por ejemplo, uno de los vídeos afirmaba que "incluso los jammers no pueden salvar a los tanques Abrams estadounidenses", lo que refuerza la idea de que enviar armamento avanzado a Ucrania es inútil.
La utilización de voces generadas por IA ha permitido a los creadores de estos vídeos aparentar una mayor legitimidad en su contenido, lo que complica la tarea de los consumidores de información a la hora de discernir la verdad.
Los investigadores de Recorded Future comprobaron la autenticidad de estos vídeos al someterlos al clasificador de voz de ElevenLabs, una empresa emergente conocida por su tecnología de generación de voz. Los resultados confirmaron que las voces en los clips habían sido generadas por esta IA. Sin embargo, ElevenLabs no ha respondido a las solicitudes de comentarios sobre este asunto.
La ventaja del multilingüismo
Una de las ventajas que la IA generativa ha proporcionado a esta campaña de desinformación es la capacidad de lanzar rápidamente contenido en múltiples idiomas. La producción de estos vídeos en inglés, francés, alemán, polaco y turco ha permitido alcanzar a un público europeo más amplio. Esto muestra cómo la tecnología puede ser utilizada para diseminar desinformación a gran escala y con un impacto inmediato.
Los vídeos, en contraste con los que contenían voces humanas, no presentaban acentos extranjeros, lo que los hacía parecer más creíbles para las audiencias europeas. Los creadores de la campaña, al parecer, no se dieron cuenta de que su uso de voces humanas reales con acento ruso podría delatar su origen. Esto demuestra la falta de sofisticación en la ejecución de una operación que, de otro modo, podría haber sido más efectiva.
Las raíces de la campaña de desinformación
Recorded Future ha atribuido esta actividad a la Social Design Agency, una organización con sede en Rusia que ha sido sancionada por el gobierno de Estados Unidos por operar una red de más de 60 sitios web que se hacían pasar por organizaciones de noticias genuinas en Europa. Estos sitios utilizaban cuentas falsas en redes sociales para amplificar el contenido engañoso, todo ello “en nombre del Gobierno de la Federación Rusa”, según el Departamento de Estado de EE. UU.
La revelación de esta campaña pone de manifiesto cómo los actores estatales pueden aprovechar las herramientas de la IA generativa para llevar a cabo operaciones de influencia sofisticadas y difíciles de rastrear. A pesar de su complejidad, el impacto general de la Operación Undercut en la opinión pública europea ha sido calificado como mínimo, lo que sugiere que, a pesar de la tecnología utilizada, la desinformación no siempre logra su objetivo.
El papel de ElevenLabs en la controversia
ElevenLabs, la empresa detrás de la tecnología de generación de voz utilizada en la campaña, ha estado en el centro de la controversia. Anteriormente, sus productos fueron utilizados en un robo de voz que imitaba al presidente Joe Biden, instando a los votantes a no participar en las elecciones primarias de enero de 2024. Esto llevó a la empresa a implementar nuevas funciones de seguridad, como el bloqueo automático de las voces de los políticos.
La empresa ha declarado que prohíbe la "suplantación no autorizada, dañina o engañosa" y asegura que utiliza diversas herramientas, tanto automatizadas como moderación humana, para hacer cumplir estas políticas.
Sin embargo, la creciente popularidad de ElevenLabs, que ha experimentado un crecimiento explosivo desde su fundación en 2022, ha suscitado dudas sobre su capacidad para controlar el uso de su tecnología. Recientemente, la empresa ha visto aumentar su ARR a 80 millones de dólares, un notable incremento desde los 25 millones de dólares de hace menos de un año. Con una valoración que podría alcanzar los 3.000 millones de dólares, ElevenLabs atrae la atención de inversores de alto perfil, incluidos Andreessen Horowitz y el ex-CEO de GitHub, Nat Friedman.
Desafíos de la regulación de la IA
El uso de la IA generativa en campañas de desinformación plantea un conjunto de desafíos regulatorios y éticos. A medida que las tecnologías avanzan, también lo hacen las tácticas de los actores malintencionados. Esto plantea preguntas cruciales sobre la responsabilidad de las empresas tecnológicas en la supervisión del uso de sus productos.
La capacidad de crear contenido que engañe a las personas sobre la veracidad de la información es un problema que necesita ser abordado de manera urgente. Las plataformas deben encontrar un equilibrio entre la innovación y la protección de los ciudadanos de la manipulación y la desinformación.
La falta de un marco regulador claro también permite que las organizaciones con intenciones maliciosas se aprovechen de estas herramientas sin miedo a repercusiones. La rapidez con la que la IA generativa puede producir contenido hace que sea casi imposible rastrear su origen, lo que complica aún más la labor de los reguladores y de las plataformas en la lucha contra la desinformación.
La responsabilidad de los consumidores de información
A medida que la desinformación se convierte en un fenómeno más prevalente, también se hace cada vez más importante que los consumidores de información sean críticos y analíticos. En un entorno donde la IA puede crear contenidos que parecen reales, la responsabilidad de discernir la verdad recae en última instancia en los individuos.
La alfabetización mediática se vuelve esencial en este contexto, y los consumidores deben estar equipados con las herramientas necesarias para evaluar la credibilidad de la información que consumen. La educación sobre el uso de la IA y su capacidad para manipular la percepción pública debe ser parte integral de cualquier estrategia para combatir la desinformación.
En resumen, la intersección entre la inteligencia artificial y la desinformación está creando un nuevo paisaje de desafíos que requiere atención urgente. La Operación Undercut es solo un ejemplo de cómo las herramientas de IA generativa pueden ser utilizadas para socavar la confianza en las instituciones democráticas. Con un panorama tecnológico en constante evolución, la lucha contra la desinformación es una batalla que todos deben enfrentar.
Otras noticias • IA
Anthropic busca 10.000 millones para alcanzar valoración de 350.000 millones
Anthropic, impulsada por su modelo de lenguaje Claude, busca recaudar 10.000 millones de dólares, elevando su valoración a 350.000 millones. La creciente inversión en inteligencia...
Podcasts en educación: Google transforma el aula y motiva estudiantes
La introducción de podcasts en la educación, facilitada por Google, transforma el aula al captar el interés de los estudiantes y fomentar el aprendizaje autónomo....
Skylight Calendar 2 transforma la organización familiar con IA
El Skylight Calendar 2 es un innovador calendario digital que integra múltiples calendarios familiares, listas de tareas y planificación de comidas. Su diseño atractivo y...
Meta compra Manus por 2.000 millones y despierta dudas regulatorias
La adquisición de Manus por Meta por 2.000 millones de dólares genera incertidumbre regulatoria, especialmente en China, donde se investiga si la transacción viola controles...
La IA revoluciona inversiones y empleo, plantea retos éticos
La inteligencia artificial está transformando las inversiones y el mercado laboral, creando oportunidades y desafíos. Las empresas deben adaptarse rápidamente, priorizando habilidades humanas como la...
CES 2026: Innovaciones tecnológicas impulsadas por inteligencia artificial
El CES 2026 ha destacado por la integración de la inteligencia artificial en diversas innovaciones tecnológicas. Empresas como Nvidia, AMD y Amazon han presentado avances...
Desinformación digital crece en redes sociales y necesita solución urgente
La desinformación digital, amplificada por redes sociales e inteligencia artificial, plantea serios riesgos. Un caso reciente en Reddit muestra cómo relatos falsos pueden volverse virales,...
Intel lanza plataforma Panther Lake para revolucionar el gaming portátil
Intel ha anunciado su nueva plataforma de hardware y software para gaming portátil, basada en los procesadores Panther Lake. Este movimiento busca competir con AMD...
Lo más reciente
- 1
Waymo lanza Ojai, su innovador robotaxi para Estados Unidos
- 2
Niko Bonatsos funda nueva firma de capital riesgo para startups
- 3
Ford lanzará asistente de IA y nuevo BlueCruise en 2027
- 4
Artisan AI optimista tras baneo de LinkedIn por violaciones
- 5
Lux Capital cierra fondo de 1.500 millones en tecnología innovadora
- 6
OpenAI lanza ChatGPT Health para mejorar el acceso a salud
- 7
The Audacity satiriza Silicon Valley con humor oscuro y crítica

