IA | Desinformación política

OpenAI desmantela cuentas iraníes de desinformación en EE.UU

Contexto de la influencia en redes sociales

La utilización de herramientas de inteligencia artificial para manipular la opinión pública no es un fenómeno nuevo, pero su evolución ha llevado a la creación de operaciones más sofisticadas y encubiertas. Recientemente, OpenAI ha tomado medidas contra un grupo de cuentas de ChatGPT que se vinculaban a una operación de influencia iraní, centrada en la generación de contenido relacionado con las elecciones presidenciales de EE.UU. Este tipo de actividades pone de relieve la creciente preocupación sobre cómo las tecnologías emergentes pueden ser explotadas para desinformar y polarizar a la sociedad.

La operación Storm-2035

Según un informe de OpenAI, la investigación sobre estas cuentas se benefició de un análisis realizado por Microsoft, que identificó al grupo como Storm-2035. Este nombre evoca una estructura organizada que ha estado operando desde 2020, utilizando diversas tácticas para influir en el electorado estadounidense. La estrategia no se limita a promover una agenda política específica, sino que busca sembrar la discordia y el conflicto, utilizando mensajes polarizadores que tocan temas sensibles como los derechos LGBTQ y el conflicto Israel-Hamas.

Microsoft también detalló que Storm-2035 opera múltiples sitios que imitan medios de comunicación, dirigidos a captar la atención de votantes en ambos extremos del espectro político. Este enfoque dual tiene como objetivo dividir aún más a la sociedad estadounidense, creando un ambiente de confrontación y desconfianza. Las plataformas de redes sociales se convierten en un campo de batalla donde la verdad se diluye entre rumores y afirmaciones engañosas.

Generación de contenido con ChatGPT

OpenAI reveló que el grupo utilizó su herramienta de inteligencia artificial para redactar artículos y comentarios políticos, algunos de los cuales incluían afirmaciones falsas y provocativas. Por ejemplo, un artículo sostenía que "X censura los tuits de Trump", algo que no se sostiene a la luz de la realidad. Este tipo de contenido no solo engaña a los lectores, sino que también puede incitar a la acción, como se vio en algunos de los tuits que se compartieron.

El uso de ChatGPT para generar contenido a gran escala es un claro ejemplo de cómo la inteligencia artificial puede ser mal utilizada. Las cuentas de Storm-2035 en redes sociales como X e Instagram publicaron comentarios reescritos por ChatGPT, que distorsionaban la realidad y contribuían a la narrativa de desinformación. Este fenómeno subraya la necesidad urgente de establecer controles y regulaciones sobre el uso de tecnologías de IA en contextos políticos.

La respuesta de OpenAI y el panorama actual

OpenAI ha adoptado un enfoque proactivo para contrarrestar estas operaciones, adoptando una estrategia similar a un "whack-a-mole", donde van eliminando cuentas a medida que aparecen. Sin embargo, la rapidez con la que estas cuentas se crean y desaparecen plantea preguntas sobre la eficacia a largo plazo de estas medidas. La naturaleza rápida y económica de estas operaciones, alimentadas por herramientas de IA, sugiere que es probable que veamos un aumento en tales incidentes a medida que se acerquen las elecciones.

A pesar de las acciones de OpenAI, el impacto de Storm-2035 parece haber sido limitado, ya que la mayoría de sus publicaciones en redes sociales recibieron pocos o ningún "me gusta", compartidos o comentarios. Esto puede ser un reflejo de la saturación del mercado de la desinformación, donde los usuarios están cada vez más cansados de las tácticas engañosas y buscan fuentes de información más fiables.

Implicaciones para el futuro de las elecciones

La utilización de inteligencia artificial en campañas de desinformación no es solo un problema para OpenAI o Microsoft, sino que plantea desafíos más amplios para la democracia y la integridad electoral. Con la llegada de las elecciones, la posibilidad de que grupos similares a Storm-2035 intenten influir en la opinión pública a través de la desinformación es un riesgo real. La proliferación de este tipo de contenido puede erosionar la confianza del público en las instituciones democráticas y dificultar el debate civil.

Además, la capacidad de estos grupos para adaptarse rápidamente y crear nuevas cuentas plantea un dilema significativo para las plataformas de redes sociales. Las empresas deben encontrar formas efectivas de identificar y desmantelar estas operaciones antes de que puedan causar un daño considerable. Esto requerirá una colaboración más estrecha entre las plataformas de tecnología, los gobiernos y las organizaciones de la sociedad civil.

La intersección de la inteligencia artificial y la política es un campo en constante evolución. Con cada nuevo avance tecnológico, surgen nuevas oportunidades para la manipulación y la desinformación. Es fundamental que se implementen estrategias efectivas para abordar estos desafíos y proteger la integridad de los procesos democráticos en todo el mundo.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Vídeos creativos

Midjourney lanza V1, revolucionando vídeos y desafiando derechos de autor

Midjourney ha lanzado V1, un modelo de generación de vídeos que transforma imágenes en secuencias de cinco segundos, ampliando las posibilidades creativas. Sin embargo, enfrenta...

Colaboración finalizada

OpenAI termina colaboración con Scale AI, incertidumbre en la industria

OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...

Desalineación ética

OpenAI revela hallazgos sobre comportamientos desalineados en IA

Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...

Controversia ambiental

xAI en el ojo del huracán por turbinas sin permisos

La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...

Interacción fluida

Google presenta "Search Live" para búsquedas interactivas y fluidas

Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...

Comunidades auténticas

Digg renace con IA y recompensas para comunidades auténticas

La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...

Ética tecnológica

Desafíos éticos en la búsqueda de inteligencia artificial general

La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...

Competencia intensa

Meta ofrece hasta 100 millones por talento en IA

Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...