IA | Desinformación tecnológica

La IA generativa impulsa campañas de desinformación contra Ucrania

La nueva era de la desinformación: el uso de la IA generativa en campañas de influencia

En un mundo donde la información fluye a la velocidad de la luz, la desinformación se ha convertido en un fenómeno que puede alterar la percepción pública y manipular la opinión colectiva. La inteligencia artificial (IA) generativa ha añadido una nueva dimensión a este problema, facilitando la creación de contenido falso que puede parecer asombrosamente real. Recientemente, un informe de una empresa de inteligencia de amenazas ha revelado que estas tecnologías están siendo utilizadas en operaciones de influencia estatales, lo que plantea serias preocupaciones sobre su impacto en la política global.

Las herramientas de IA generativa han demostrado ser eficaces en la creación de contenido audiovisual que puede engañar incluso a los observadores más atentos. En este contexto, el informe de Recorded Future ha revelado cómo una campaña, vinculada a Rusia, ha utilizado estas herramientas para socavar el apoyo europeo a Ucrania. Esta campaña, denominada "Operación Undercut", ha empleado voces generadas por IA en vídeos falsos o engañosos que se presentan como noticias.

La Operación Undercut: un ataque encubierto

La Operación Undercut tiene como objetivo socavar la confianza de Europa en Ucrania mediante la difusión de información errónea. Según el informe, estos vídeos atacaban a políticos ucranianos, presentándolos como corruptos y cuestionando la efectividad de la ayuda militar a Ucrania. Por ejemplo, uno de los vídeos afirmaba que "incluso los jammers no pueden salvar a los tanques Abrams estadounidenses", lo que refuerza la idea de que enviar armamento avanzado a Ucrania es inútil.

La utilización de voces generadas por IA ha permitido a los creadores de estos vídeos aparentar una mayor legitimidad en su contenido, lo que complica la tarea de los consumidores de información a la hora de discernir la verdad.

Los investigadores de Recorded Future comprobaron la autenticidad de estos vídeos al someterlos al clasificador de voz de ElevenLabs, una empresa emergente conocida por su tecnología de generación de voz. Los resultados confirmaron que las voces en los clips habían sido generadas por esta IA. Sin embargo, ElevenLabs no ha respondido a las solicitudes de comentarios sobre este asunto.

La ventaja del multilingüismo

Una de las ventajas que la IA generativa ha proporcionado a esta campaña de desinformación es la capacidad de lanzar rápidamente contenido en múltiples idiomas. La producción de estos vídeos en inglés, francés, alemán, polaco y turco ha permitido alcanzar a un público europeo más amplio. Esto muestra cómo la tecnología puede ser utilizada para diseminar desinformación a gran escala y con un impacto inmediato.

Los vídeos, en contraste con los que contenían voces humanas, no presentaban acentos extranjeros, lo que los hacía parecer más creíbles para las audiencias europeas. Los creadores de la campaña, al parecer, no se dieron cuenta de que su uso de voces humanas reales con acento ruso podría delatar su origen. Esto demuestra la falta de sofisticación en la ejecución de una operación que, de otro modo, podría haber sido más efectiva.

Las raíces de la campaña de desinformación

Recorded Future ha atribuido esta actividad a la Social Design Agency, una organización con sede en Rusia que ha sido sancionada por el gobierno de Estados Unidos por operar una red de más de 60 sitios web que se hacían pasar por organizaciones de noticias genuinas en Europa. Estos sitios utilizaban cuentas falsas en redes sociales para amplificar el contenido engañoso, todo ello “en nombre del Gobierno de la Federación Rusa”, según el Departamento de Estado de EE. UU.

La revelación de esta campaña pone de manifiesto cómo los actores estatales pueden aprovechar las herramientas de la IA generativa para llevar a cabo operaciones de influencia sofisticadas y difíciles de rastrear. A pesar de su complejidad, el impacto general de la Operación Undercut en la opinión pública europea ha sido calificado como mínimo, lo que sugiere que, a pesar de la tecnología utilizada, la desinformación no siempre logra su objetivo.

El papel de ElevenLabs en la controversia

ElevenLabs, la empresa detrás de la tecnología de generación de voz utilizada en la campaña, ha estado en el centro de la controversia. Anteriormente, sus productos fueron utilizados en un robo de voz que imitaba al presidente Joe Biden, instando a los votantes a no participar en las elecciones primarias de enero de 2024. Esto llevó a la empresa a implementar nuevas funciones de seguridad, como el bloqueo automático de las voces de los políticos.

La empresa ha declarado que prohíbe la "suplantación no autorizada, dañina o engañosa" y asegura que utiliza diversas herramientas, tanto automatizadas como moderación humana, para hacer cumplir estas políticas.

Sin embargo, la creciente popularidad de ElevenLabs, que ha experimentado un crecimiento explosivo desde su fundación en 2022, ha suscitado dudas sobre su capacidad para controlar el uso de su tecnología. Recientemente, la empresa ha visto aumentar su ARR a 80 millones de dólares, un notable incremento desde los 25 millones de dólares de hace menos de un año. Con una valoración que podría alcanzar los 3.000 millones de dólares, ElevenLabs atrae la atención de inversores de alto perfil, incluidos Andreessen Horowitz y el ex-CEO de GitHub, Nat Friedman.

Desafíos de la regulación de la IA

El uso de la IA generativa en campañas de desinformación plantea un conjunto de desafíos regulatorios y éticos. A medida que las tecnologías avanzan, también lo hacen las tácticas de los actores malintencionados. Esto plantea preguntas cruciales sobre la responsabilidad de las empresas tecnológicas en la supervisión del uso de sus productos.

La capacidad de crear contenido que engañe a las personas sobre la veracidad de la información es un problema que necesita ser abordado de manera urgente. Las plataformas deben encontrar un equilibrio entre la innovación y la protección de los ciudadanos de la manipulación y la desinformación.

La falta de un marco regulador claro también permite que las organizaciones con intenciones maliciosas se aprovechen de estas herramientas sin miedo a repercusiones. La rapidez con la que la IA generativa puede producir contenido hace que sea casi imposible rastrear su origen, lo que complica aún más la labor de los reguladores y de las plataformas en la lucha contra la desinformación.

La responsabilidad de los consumidores de información

A medida que la desinformación se convierte en un fenómeno más prevalente, también se hace cada vez más importante que los consumidores de información sean críticos y analíticos. En un entorno donde la IA puede crear contenidos que parecen reales, la responsabilidad de discernir la verdad recae en última instancia en los individuos.

La alfabetización mediática se vuelve esencial en este contexto, y los consumidores deben estar equipados con las herramientas necesarias para evaluar la credibilidad de la información que consumen. La educación sobre el uso de la IA y su capacidad para manipular la percepción pública debe ser parte integral de cualquier estrategia para combatir la desinformación.

En resumen, la intersección entre la inteligencia artificial y la desinformación está creando un nuevo paisaje de desafíos que requiere atención urgente. La Operación Undercut es solo un ejemplo de cómo las herramientas de IA generativa pueden ser utilizadas para socavar la confianza en las instituciones democráticas. Con un panorama tecnológico en constante evolución, la lucha contra la desinformación es una batalla que todos deben enfrentar.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Automatización productiva

OpenAI lanza Operator, IA que automatiza tareas en navegadores

OpenAI está a punto de lanzar Operator, una herramienta de inteligencia artificial que automatiza tareas en navegadores web, disponible para suscriptores del plan Pro de...

Dominio redirigido

Ananay Arora redirige OGOpenAI.com hacia DeepSeek por transparencia

Ananay Arora ha redirigido el dominio "OGOpenAI.com" hacia DeepSeek, un laboratorio chino de IA de código abierto, en respuesta a la falta de transparencia de...

Ruptura tecnológica

Ruptura Microsoft-OpenAI redefine el futuro de la inteligencia artificial

La ruptura entre Microsoft y OpenAI marca un cambio significativo en el panorama tecnológico. OpenAI busca establecerse como un jugador independiente, colaborando con SoftBank y...

Inversión tecnológica

OpenAI y SoftBank invierten 500 mil millones en IA estadounidense

La alianza entre OpenAI y SoftBank en el Proyecto Stargate busca transformar la infraestructura de IA en EE.UU., con una inversión de hasta 500 mil...

Innovación tecnológica

Samsung lanza Galaxy S25 con IA y mejoras fotográficas

Samsung presentó la serie Galaxy S25, que incluye los modelos S25, S25+ y S25 Ultra, destacando la integración de inteligencia artificial y mejoras en fotografía....

Galaxy S25

Samsung lanza Galaxy S25 con IA y mejoras en cámaras

Samsung ha presentado su línea Galaxy S25, compuesta por tres modelos: S25, S25+ y S25 Ultra. Destacan por su integración de inteligencia artificial, mejoras en...

Hogar inteligente

Samsung revoluciona SmartThings con inteligencia artificial y sensores avanzados

Samsung ha presentado innovaciones en su plataforma SmartThings, integrando inteligencia artificial y sensores avanzados para crear hogares más adaptativos y personalizados. Estas tecnologías permitirán interacciones...

Conflicto IA

Musk y Altman chocan por financiamiento de inteligencia artificial

El enfrentamiento entre Elon Musk y Sam Altman se centra en el proyecto Stargate, que busca financiar la infraestructura de inteligencia artificial en EE.UU. Musk...