La nueva era de la desinformación: el uso de la IA generativa en campañas de influencia
En un mundo donde la información fluye a la velocidad de la luz, la desinformación se ha convertido en un fenómeno que puede alterar la percepción pública y manipular la opinión colectiva. La inteligencia artificial (IA) generativa ha añadido una nueva dimensión a este problema, facilitando la creación de contenido falso que puede parecer asombrosamente real. Recientemente, un informe de una empresa de inteligencia de amenazas ha revelado que estas tecnologías están siendo utilizadas en operaciones de influencia estatales, lo que plantea serias preocupaciones sobre su impacto en la política global.
Las herramientas de IA generativa han demostrado ser eficaces en la creación de contenido audiovisual que puede engañar incluso a los observadores más atentos. En este contexto, el informe de Recorded Future ha revelado cómo una campaña, vinculada a Rusia, ha utilizado estas herramientas para socavar el apoyo europeo a Ucrania. Esta campaña, denominada "Operación Undercut", ha empleado voces generadas por IA en vídeos falsos o engañosos que se presentan como noticias.
La Operación Undercut: un ataque encubierto
La Operación Undercut tiene como objetivo socavar la confianza de Europa en Ucrania mediante la difusión de información errónea. Según el informe, estos vídeos atacaban a políticos ucranianos, presentándolos como corruptos y cuestionando la efectividad de la ayuda militar a Ucrania. Por ejemplo, uno de los vídeos afirmaba que "incluso los jammers no pueden salvar a los tanques Abrams estadounidenses", lo que refuerza la idea de que enviar armamento avanzado a Ucrania es inútil.
La utilización de voces generadas por IA ha permitido a los creadores de estos vídeos aparentar una mayor legitimidad en su contenido, lo que complica la tarea de los consumidores de información a la hora de discernir la verdad.
Los investigadores de Recorded Future comprobaron la autenticidad de estos vídeos al someterlos al clasificador de voz de ElevenLabs, una empresa emergente conocida por su tecnología de generación de voz. Los resultados confirmaron que las voces en los clips habían sido generadas por esta IA. Sin embargo, ElevenLabs no ha respondido a las solicitudes de comentarios sobre este asunto.
La ventaja del multilingüismo
Una de las ventajas que la IA generativa ha proporcionado a esta campaña de desinformación es la capacidad de lanzar rápidamente contenido en múltiples idiomas. La producción de estos vídeos en inglés, francés, alemán, polaco y turco ha permitido alcanzar a un público europeo más amplio. Esto muestra cómo la tecnología puede ser utilizada para diseminar desinformación a gran escala y con un impacto inmediato.
Los vídeos, en contraste con los que contenían voces humanas, no presentaban acentos extranjeros, lo que los hacía parecer más creíbles para las audiencias europeas. Los creadores de la campaña, al parecer, no se dieron cuenta de que su uso de voces humanas reales con acento ruso podría delatar su origen. Esto demuestra la falta de sofisticación en la ejecución de una operación que, de otro modo, podría haber sido más efectiva.
Las raíces de la campaña de desinformación
Recorded Future ha atribuido esta actividad a la Social Design Agency, una organización con sede en Rusia que ha sido sancionada por el gobierno de Estados Unidos por operar una red de más de 60 sitios web que se hacían pasar por organizaciones de noticias genuinas en Europa. Estos sitios utilizaban cuentas falsas en redes sociales para amplificar el contenido engañoso, todo ello “en nombre del Gobierno de la Federación Rusa”, según el Departamento de Estado de EE. UU.
La revelación de esta campaña pone de manifiesto cómo los actores estatales pueden aprovechar las herramientas de la IA generativa para llevar a cabo operaciones de influencia sofisticadas y difíciles de rastrear. A pesar de su complejidad, el impacto general de la Operación Undercut en la opinión pública europea ha sido calificado como mínimo, lo que sugiere que, a pesar de la tecnología utilizada, la desinformación no siempre logra su objetivo.
El papel de ElevenLabs en la controversia
ElevenLabs, la empresa detrás de la tecnología de generación de voz utilizada en la campaña, ha estado en el centro de la controversia. Anteriormente, sus productos fueron utilizados en un robo de voz que imitaba al presidente Joe Biden, instando a los votantes a no participar en las elecciones primarias de enero de 2024. Esto llevó a la empresa a implementar nuevas funciones de seguridad, como el bloqueo automático de las voces de los políticos.
La empresa ha declarado que prohíbe la "suplantación no autorizada, dañina o engañosa" y asegura que utiliza diversas herramientas, tanto automatizadas como moderación humana, para hacer cumplir estas políticas.
Sin embargo, la creciente popularidad de ElevenLabs, que ha experimentado un crecimiento explosivo desde su fundación en 2022, ha suscitado dudas sobre su capacidad para controlar el uso de su tecnología. Recientemente, la empresa ha visto aumentar su ARR a 80 millones de dólares, un notable incremento desde los 25 millones de dólares de hace menos de un año. Con una valoración que podría alcanzar los 3.000 millones de dólares, ElevenLabs atrae la atención de inversores de alto perfil, incluidos Andreessen Horowitz y el ex-CEO de GitHub, Nat Friedman.
Desafíos de la regulación de la IA
El uso de la IA generativa en campañas de desinformación plantea un conjunto de desafíos regulatorios y éticos. A medida que las tecnologías avanzan, también lo hacen las tácticas de los actores malintencionados. Esto plantea preguntas cruciales sobre la responsabilidad de las empresas tecnológicas en la supervisión del uso de sus productos.
La capacidad de crear contenido que engañe a las personas sobre la veracidad de la información es un problema que necesita ser abordado de manera urgente. Las plataformas deben encontrar un equilibrio entre la innovación y la protección de los ciudadanos de la manipulación y la desinformación.
La falta de un marco regulador claro también permite que las organizaciones con intenciones maliciosas se aprovechen de estas herramientas sin miedo a repercusiones. La rapidez con la que la IA generativa puede producir contenido hace que sea casi imposible rastrear su origen, lo que complica aún más la labor de los reguladores y de las plataformas en la lucha contra la desinformación.
La responsabilidad de los consumidores de información
A medida que la desinformación se convierte en un fenómeno más prevalente, también se hace cada vez más importante que los consumidores de información sean críticos y analíticos. En un entorno donde la IA puede crear contenidos que parecen reales, la responsabilidad de discernir la verdad recae en última instancia en los individuos.
La alfabetización mediática se vuelve esencial en este contexto, y los consumidores deben estar equipados con las herramientas necesarias para evaluar la credibilidad de la información que consumen. La educación sobre el uso de la IA y su capacidad para manipular la percepción pública debe ser parte integral de cualquier estrategia para combatir la desinformación.
En resumen, la intersección entre la inteligencia artificial y la desinformación está creando un nuevo paisaje de desafíos que requiere atención urgente. La Operación Undercut es solo un ejemplo de cómo las herramientas de IA generativa pueden ser utilizadas para socavar la confianza en las instituciones democráticas. Con un panorama tecnológico en constante evolución, la lucha contra la desinformación es una batalla que todos deben enfrentar.
Otras noticias • IA
Karandeep Anand asume como CEO de Character.AI para innovar
Karandeep Anand ha sido nombrado CEO de Character.AI, buscando mejorar la seguridad y la experiencia del usuario en la plataforma. Su experiencia en Meta y...
Deezer etiquetará música de inteligencia artificial para proteger derechos
La música generada por inteligencia artificial está en auge, representando el 18% de las nuevas canciones. Deezer comenzará a etiquetar estos álbumes para proteger a...
Lanzan gafas inteligentes Oakley Meta HSTN para deportistas avanzados
Meta y Oakley han lanzado las gafas inteligentes Oakley Meta HSTN, que combinan diseño ergonómico y tecnología avanzada. Con capacidad de grabación en 3K y...
Wix adquiere Base44 por 80 millones, éxito en apps sin código
Maor Shlomo fundó Base44, una startup de creación de aplicaciones sin código, que fue adquirida por Wix por 80 millones de dólares. Con 250,000 usuarios...
Paternidad y AI: desafíos y oportunidades en la crianza moderna
La paternidad en la era de la inteligencia artificial plantea desafíos y oportunidades. Sam Altman, CEO de OpenAI, destaca el uso de ChatGPT para obtener...
Multiplier revoluciona servicios profesionales con adquisición y AI
Multiplier, una startup fundada por Noah Pepper, ha revolucionado el sector de servicios profesionales al adquirir Citrine International Tax y aplicar inteligencia artificial. Esta integración...
Base44, la startup israelí que brilla en el ecosistema tecnológico
La historia de Base44, una startup israelí de codificación "vibe" adquirida por Wix, ilustra el auge de los "unicornios solares". Su enfoque innovador y rápido...
Midjourney lanza V1, revolucionando vídeos y desafiando derechos de autor
Midjourney ha lanzado V1, un modelo de generación de vídeos que transforma imágenes en secuencias de cinco segundos, ampliando las posibilidades creativas. Sin embargo, enfrenta...
Lo más reciente
- 1
Espionaje corporativo en tecnología: el caso de Keith O’Brien
- 2
Cluely recauda 15 millones para innovar en "trampa" ética
- 3
Capital riesgo enfrenta presión por liquidez y resultados inmediatos
- 4
Modelos de IA utilizan chantaje, alertan sobre regulación urgente
- 5
Startups tecnológicas en auge con adquisiciones y crecimiento notable
- 6
Snap compra Saturn para revolucionar la planificación estudiantil
- 7
TerraPower recauda 650 millones para innovadora planta nuclear en Wyoming