La nueva era de la desinformación: el uso de la IA generativa en campañas de influencia
En un mundo donde la información fluye a la velocidad de la luz, la desinformación se ha convertido en un fenómeno que puede alterar la percepción pública y manipular la opinión colectiva. La inteligencia artificial (IA) generativa ha añadido una nueva dimensión a este problema, facilitando la creación de contenido falso que puede parecer asombrosamente real. Recientemente, un informe de una empresa de inteligencia de amenazas ha revelado que estas tecnologías están siendo utilizadas en operaciones de influencia estatales, lo que plantea serias preocupaciones sobre su impacto en la política global.
Las herramientas de IA generativa han demostrado ser eficaces en la creación de contenido audiovisual que puede engañar incluso a los observadores más atentos. En este contexto, el informe de Recorded Future ha revelado cómo una campaña, vinculada a Rusia, ha utilizado estas herramientas para socavar el apoyo europeo a Ucrania. Esta campaña, denominada "Operación Undercut", ha empleado voces generadas por IA en vídeos falsos o engañosos que se presentan como noticias.
La Operación Undercut: un ataque encubierto
La Operación Undercut tiene como objetivo socavar la confianza de Europa en Ucrania mediante la difusión de información errónea. Según el informe, estos vídeos atacaban a políticos ucranianos, presentándolos como corruptos y cuestionando la efectividad de la ayuda militar a Ucrania. Por ejemplo, uno de los vídeos afirmaba que "incluso los jammers no pueden salvar a los tanques Abrams estadounidenses", lo que refuerza la idea de que enviar armamento avanzado a Ucrania es inútil.
La utilización de voces generadas por IA ha permitido a los creadores de estos vídeos aparentar una mayor legitimidad en su contenido, lo que complica la tarea de los consumidores de información a la hora de discernir la verdad.
Los investigadores de Recorded Future comprobaron la autenticidad de estos vídeos al someterlos al clasificador de voz de ElevenLabs, una empresa emergente conocida por su tecnología de generación de voz. Los resultados confirmaron que las voces en los clips habían sido generadas por esta IA. Sin embargo, ElevenLabs no ha respondido a las solicitudes de comentarios sobre este asunto.
La ventaja del multilingüismo
Una de las ventajas que la IA generativa ha proporcionado a esta campaña de desinformación es la capacidad de lanzar rápidamente contenido en múltiples idiomas. La producción de estos vídeos en inglés, francés, alemán, polaco y turco ha permitido alcanzar a un público europeo más amplio. Esto muestra cómo la tecnología puede ser utilizada para diseminar desinformación a gran escala y con un impacto inmediato.
Los vídeos, en contraste con los que contenían voces humanas, no presentaban acentos extranjeros, lo que los hacía parecer más creíbles para las audiencias europeas. Los creadores de la campaña, al parecer, no se dieron cuenta de que su uso de voces humanas reales con acento ruso podría delatar su origen. Esto demuestra la falta de sofisticación en la ejecución de una operación que, de otro modo, podría haber sido más efectiva.
Las raíces de la campaña de desinformación
Recorded Future ha atribuido esta actividad a la Social Design Agency, una organización con sede en Rusia que ha sido sancionada por el gobierno de Estados Unidos por operar una red de más de 60 sitios web que se hacían pasar por organizaciones de noticias genuinas en Europa. Estos sitios utilizaban cuentas falsas en redes sociales para amplificar el contenido engañoso, todo ello “en nombre del Gobierno de la Federación Rusa”, según el Departamento de Estado de EE. UU.
La revelación de esta campaña pone de manifiesto cómo los actores estatales pueden aprovechar las herramientas de la IA generativa para llevar a cabo operaciones de influencia sofisticadas y difíciles de rastrear. A pesar de su complejidad, el impacto general de la Operación Undercut en la opinión pública europea ha sido calificado como mínimo, lo que sugiere que, a pesar de la tecnología utilizada, la desinformación no siempre logra su objetivo.
El papel de ElevenLabs en la controversia
ElevenLabs, la empresa detrás de la tecnología de generación de voz utilizada en la campaña, ha estado en el centro de la controversia. Anteriormente, sus productos fueron utilizados en un robo de voz que imitaba al presidente Joe Biden, instando a los votantes a no participar en las elecciones primarias de enero de 2024. Esto llevó a la empresa a implementar nuevas funciones de seguridad, como el bloqueo automático de las voces de los políticos.
La empresa ha declarado que prohíbe la "suplantación no autorizada, dañina o engañosa" y asegura que utiliza diversas herramientas, tanto automatizadas como moderación humana, para hacer cumplir estas políticas.
Sin embargo, la creciente popularidad de ElevenLabs, que ha experimentado un crecimiento explosivo desde su fundación en 2022, ha suscitado dudas sobre su capacidad para controlar el uso de su tecnología. Recientemente, la empresa ha visto aumentar su ARR a 80 millones de dólares, un notable incremento desde los 25 millones de dólares de hace menos de un año. Con una valoración que podría alcanzar los 3.000 millones de dólares, ElevenLabs atrae la atención de inversores de alto perfil, incluidos Andreessen Horowitz y el ex-CEO de GitHub, Nat Friedman.
Desafíos de la regulación de la IA
El uso de la IA generativa en campañas de desinformación plantea un conjunto de desafíos regulatorios y éticos. A medida que las tecnologías avanzan, también lo hacen las tácticas de los actores malintencionados. Esto plantea preguntas cruciales sobre la responsabilidad de las empresas tecnológicas en la supervisión del uso de sus productos.
La capacidad de crear contenido que engañe a las personas sobre la veracidad de la información es un problema que necesita ser abordado de manera urgente. Las plataformas deben encontrar un equilibrio entre la innovación y la protección de los ciudadanos de la manipulación y la desinformación.
La falta de un marco regulador claro también permite que las organizaciones con intenciones maliciosas se aprovechen de estas herramientas sin miedo a repercusiones. La rapidez con la que la IA generativa puede producir contenido hace que sea casi imposible rastrear su origen, lo que complica aún más la labor de los reguladores y de las plataformas en la lucha contra la desinformación.
La responsabilidad de los consumidores de información
A medida que la desinformación se convierte en un fenómeno más prevalente, también se hace cada vez más importante que los consumidores de información sean críticos y analíticos. En un entorno donde la IA puede crear contenidos que parecen reales, la responsabilidad de discernir la verdad recae en última instancia en los individuos.
La alfabetización mediática se vuelve esencial en este contexto, y los consumidores deben estar equipados con las herramientas necesarias para evaluar la credibilidad de la información que consumen. La educación sobre el uso de la IA y su capacidad para manipular la percepción pública debe ser parte integral de cualquier estrategia para combatir la desinformación.
En resumen, la intersección entre la inteligencia artificial y la desinformación está creando un nuevo paisaje de desafíos que requiere atención urgente. La Operación Undercut es solo un ejemplo de cómo las herramientas de IA generativa pueden ser utilizadas para socavar la confianza en las instituciones democráticas. Con un panorama tecnológico en constante evolución, la lucha contra la desinformación es una batalla que todos deben enfrentar.
Otras noticias • IA
Nvidia anticipa órdenes de chips de IA por $1 billón
Nvidia proyecta órdenes de chips de IA por $1 billón para 2027, destacando su liderazgo en el sector. La demanda de soluciones de IA crece...
Memories.ai revoluciona la IA con memoria visual innovadora
Memories.ai, fundada por Shawn Shen, busca integrar la memoria visual en la inteligencia artificial para mejorar su interacción con el entorno físico. Colaborando con Nvidia,...
Senadora Warren exige regulación tras colaboración del Pentágono con xAI
La colaboración del Pentágono con xAI ha generado preocupaciones sobre la seguridad y ética del uso de la inteligencia artificial Grok, tras denuncias de contenido...
Nvidia lanza DLSS 5, revolucionando gráficos y desarrollo de videojuegos
La presentación del DLSS 5 por Nvidia promete revolucionar los videojuegos mediante la inteligencia artificial, mejorando gráficos y reduciendo la carga computacional. Esta tecnología no...
Demanda a xAI revela explotación de menores por IA abusiva
La demanda contra xAI en California destaca la explotación de menores mediante IA que genera imágenes sexuales abusivas. Las demandantes exigen responsabilidad a la empresa...
Britannica demanda a OpenAI por uso indebido de artículos
La demanda de Britannica contra OpenAI por uso no autorizado de sus artículos para entrenar modelos de IA plantea serias cuestiones sobre derechos de autor...
Fuse revoluciona préstamos automotrices con inteligencia artificial y $25M
Fuse, fundada por Andres Klaric y Marc Escapa, moderniza el sistema de originación de préstamos automotrices utilizando inteligencia artificial. Con una financiación de 25 millones...
Nvidia GTC 2024: Innovaciones en inteligencia artificial y colaboración
La GTC de Nvidia, del 16 al 19 de marzo en San José, destaca la inteligencia artificial como protagonista, con innovaciones como la plataforma NemoClaw...
Lo más reciente
- 1
Gamma Imagine revoluciona el diseño visual con IA personalizable
- 2
Startups innovan en moda sostenible con enzimas para residuos
- 3
Niv-AI optimiza energía en centros de datos con financiación millonaria
- 4
Amazon amplía entrega rápida en EE.UU. con más de 90,000 productos
- 5
Armada de EE.UU. moderniza mantenimiento naval con robots y sensores
- 6
Picsart lanza mercado de IA para optimizar la creatividad
- 7
Nvidia lanza NemoClaw, revolucionando la inteligencia artificial empresarial

