IA | Desinformación política

OpenAI desmantela cuentas iraníes de desinformación en EE.UU

Contexto de la influencia en redes sociales

La utilización de herramientas de inteligencia artificial para manipular la opinión pública no es un fenómeno nuevo, pero su evolución ha llevado a la creación de operaciones más sofisticadas y encubiertas. Recientemente, OpenAI ha tomado medidas contra un grupo de cuentas de ChatGPT que se vinculaban a una operación de influencia iraní, centrada en la generación de contenido relacionado con las elecciones presidenciales de EE.UU. Este tipo de actividades pone de relieve la creciente preocupación sobre cómo las tecnologías emergentes pueden ser explotadas para desinformar y polarizar a la sociedad.

La operación Storm-2035

Según un informe de OpenAI, la investigación sobre estas cuentas se benefició de un análisis realizado por Microsoft, que identificó al grupo como Storm-2035. Este nombre evoca una estructura organizada que ha estado operando desde 2020, utilizando diversas tácticas para influir en el electorado estadounidense. La estrategia no se limita a promover una agenda política específica, sino que busca sembrar la discordia y el conflicto, utilizando mensajes polarizadores que tocan temas sensibles como los derechos LGBTQ y el conflicto Israel-Hamas.

Microsoft también detalló que Storm-2035 opera múltiples sitios que imitan medios de comunicación, dirigidos a captar la atención de votantes en ambos extremos del espectro político. Este enfoque dual tiene como objetivo dividir aún más a la sociedad estadounidense, creando un ambiente de confrontación y desconfianza. Las plataformas de redes sociales se convierten en un campo de batalla donde la verdad se diluye entre rumores y afirmaciones engañosas.

Generación de contenido con ChatGPT

OpenAI reveló que el grupo utilizó su herramienta de inteligencia artificial para redactar artículos y comentarios políticos, algunos de los cuales incluían afirmaciones falsas y provocativas. Por ejemplo, un artículo sostenía que "X censura los tuits de Trump", algo que no se sostiene a la luz de la realidad. Este tipo de contenido no solo engaña a los lectores, sino que también puede incitar a la acción, como se vio en algunos de los tuits que se compartieron.

El uso de ChatGPT para generar contenido a gran escala es un claro ejemplo de cómo la inteligencia artificial puede ser mal utilizada. Las cuentas de Storm-2035 en redes sociales como X e Instagram publicaron comentarios reescritos por ChatGPT, que distorsionaban la realidad y contribuían a la narrativa de desinformación. Este fenómeno subraya la necesidad urgente de establecer controles y regulaciones sobre el uso de tecnologías de IA en contextos políticos.

La respuesta de OpenAI y el panorama actual

OpenAI ha adoptado un enfoque proactivo para contrarrestar estas operaciones, adoptando una estrategia similar a un "whack-a-mole", donde van eliminando cuentas a medida que aparecen. Sin embargo, la rapidez con la que estas cuentas se crean y desaparecen plantea preguntas sobre la eficacia a largo plazo de estas medidas. La naturaleza rápida y económica de estas operaciones, alimentadas por herramientas de IA, sugiere que es probable que veamos un aumento en tales incidentes a medida que se acerquen las elecciones.

A pesar de las acciones de OpenAI, el impacto de Storm-2035 parece haber sido limitado, ya que la mayoría de sus publicaciones en redes sociales recibieron pocos o ningún "me gusta", compartidos o comentarios. Esto puede ser un reflejo de la saturación del mercado de la desinformación, donde los usuarios están cada vez más cansados de las tácticas engañosas y buscan fuentes de información más fiables.

Implicaciones para el futuro de las elecciones

La utilización de inteligencia artificial en campañas de desinformación no es solo un problema para OpenAI o Microsoft, sino que plantea desafíos más amplios para la democracia y la integridad electoral. Con la llegada de las elecciones, la posibilidad de que grupos similares a Storm-2035 intenten influir en la opinión pública a través de la desinformación es un riesgo real. La proliferación de este tipo de contenido puede erosionar la confianza del público en las instituciones democráticas y dificultar el debate civil.

Además, la capacidad de estos grupos para adaptarse rápidamente y crear nuevas cuentas plantea un dilema significativo para las plataformas de redes sociales. Las empresas deben encontrar formas efectivas de identificar y desmantelar estas operaciones antes de que puedan causar un daño considerable. Esto requerirá una colaboración más estrecha entre las plataformas de tecnología, los gobiernos y las organizaciones de la sociedad civil.

La intersección de la inteligencia artificial y la política es un campo en constante evolución. Con cada nuevo avance tecnológico, surgen nuevas oportunidades para la manipulación y la desinformación. Es fundamental que se implementen estrategias efectivas para abordar estos desafíos y proteger la integridad de los procesos democráticos en todo el mundo.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Regulaciones AI

California aprueba leyes estrictas para regular inteligencia artificial y deepfakes

California ha aprobado leyes estrictas sobre la inteligencia artificial, incluyendo regulaciones sobre deepfakes en elecciones y el uso de réplicas digitales de actores. Estas medidas...

Reestructuración estratégica

Intel reestructura fundición en busca de agilidad y reducción de costes

Intel está reestructurando su división de fundición, convirtiéndola en una subsidiaria independiente para mejorar su agilidad. La compañía ha pausado proyectos en Europa y busca...

Adquisiciones estratégicas

Typeface adquiere Treat y Narrato para potenciar su innovación

Typeface, startup de inteligencia artificial generativa, ha adquirido Treat y Narrato para fortalecer su oferta de productos y mejorar la personalización en la creación de...

Transparencia confusa

Meta oculta etiqueta de contenido editado por IA en menú

Meta ha cambiado la etiqueta de contenido editado por IA, ocultándola en el menú del post, mientras que el contenido generado completamente por IA seguirá...

Resumen auditivo

Google presenta "Audio Overview" para resumir documentos con IA

Google ha lanzado "Audio Overview" en NotebookLM, una función que permite escuchar resúmenes de documentos mediante anfitriones virtuales de inteligencia artificial. Aunque está en fase...

Modelo multimodal

Mistral lanza Pixtral 12B, innovador modelo multimodal de IA

Mistral ha lanzado Pixtral 12B, su primer modelo multimodal con 12 mil millones de parámetros, capaz de procesar texto e imágenes. Disponible para pruebas en...

Desilusión tecnológica

Apple decepciona con IA que no innova en iPhone 16

La inteligencia artificial de Apple ha decepcionado al no ofrecer funciones realmente innovadoras. Aunque mejora la privacidad y accesibilidad, sus capacidades son similares a herramientas...

Expectación moderada

Apple despierta expectativas con inteligencia artificial para iPhone 16

Apple ha generado expectación con su inteligencia artificial, prevista para el iPhone 16. Aunque promete innovaciones, su implementación gradual y limitaciones regionales podrían afectar las...