Contexto de la influencia en redes sociales
La utilización de herramientas de inteligencia artificial para manipular la opinión pública no es un fenómeno nuevo, pero su evolución ha llevado a la creación de operaciones más sofisticadas y encubiertas. Recientemente, OpenAI ha tomado medidas contra un grupo de cuentas de ChatGPT que se vinculaban a una operación de influencia iraní, centrada en la generación de contenido relacionado con las elecciones presidenciales de EE.UU. Este tipo de actividades pone de relieve la creciente preocupación sobre cómo las tecnologías emergentes pueden ser explotadas para desinformar y polarizar a la sociedad.
La operación Storm-2035
Según un informe de OpenAI, la investigación sobre estas cuentas se benefició de un análisis realizado por Microsoft, que identificó al grupo como Storm-2035. Este nombre evoca una estructura organizada que ha estado operando desde 2020, utilizando diversas tácticas para influir en el electorado estadounidense. La estrategia no se limita a promover una agenda política específica, sino que busca sembrar la discordia y el conflicto, utilizando mensajes polarizadores que tocan temas sensibles como los derechos LGBTQ y el conflicto Israel-Hamas.
Microsoft también detalló que Storm-2035 opera múltiples sitios que imitan medios de comunicación, dirigidos a captar la atención de votantes en ambos extremos del espectro político. Este enfoque dual tiene como objetivo dividir aún más a la sociedad estadounidense, creando un ambiente de confrontación y desconfianza. Las plataformas de redes sociales se convierten en un campo de batalla donde la verdad se diluye entre rumores y afirmaciones engañosas.
Generación de contenido con ChatGPT
OpenAI reveló que el grupo utilizó su herramienta de inteligencia artificial para redactar artículos y comentarios políticos, algunos de los cuales incluían afirmaciones falsas y provocativas. Por ejemplo, un artículo sostenía que "X censura los tuits de Trump", algo que no se sostiene a la luz de la realidad. Este tipo de contenido no solo engaña a los lectores, sino que también puede incitar a la acción, como se vio en algunos de los tuits que se compartieron.
El uso de ChatGPT para generar contenido a gran escala es un claro ejemplo de cómo la inteligencia artificial puede ser mal utilizada. Las cuentas de Storm-2035 en redes sociales como X e Instagram publicaron comentarios reescritos por ChatGPT, que distorsionaban la realidad y contribuían a la narrativa de desinformación. Este fenómeno subraya la necesidad urgente de establecer controles y regulaciones sobre el uso de tecnologías de IA en contextos políticos.
La respuesta de OpenAI y el panorama actual
OpenAI ha adoptado un enfoque proactivo para contrarrestar estas operaciones, adoptando una estrategia similar a un "whack-a-mole", donde van eliminando cuentas a medida que aparecen. Sin embargo, la rapidez con la que estas cuentas se crean y desaparecen plantea preguntas sobre la eficacia a largo plazo de estas medidas. La naturaleza rápida y económica de estas operaciones, alimentadas por herramientas de IA, sugiere que es probable que veamos un aumento en tales incidentes a medida que se acerquen las elecciones.
A pesar de las acciones de OpenAI, el impacto de Storm-2035 parece haber sido limitado, ya que la mayoría de sus publicaciones en redes sociales recibieron pocos o ningún "me gusta", compartidos o comentarios. Esto puede ser un reflejo de la saturación del mercado de la desinformación, donde los usuarios están cada vez más cansados de las tácticas engañosas y buscan fuentes de información más fiables.
Implicaciones para el futuro de las elecciones
La utilización de inteligencia artificial en campañas de desinformación no es solo un problema para OpenAI o Microsoft, sino que plantea desafíos más amplios para la democracia y la integridad electoral. Con la llegada de las elecciones, la posibilidad de que grupos similares a Storm-2035 intenten influir en la opinión pública a través de la desinformación es un riesgo real. La proliferación de este tipo de contenido puede erosionar la confianza del público en las instituciones democráticas y dificultar el debate civil.
Además, la capacidad de estos grupos para adaptarse rápidamente y crear nuevas cuentas plantea un dilema significativo para las plataformas de redes sociales. Las empresas deben encontrar formas efectivas de identificar y desmantelar estas operaciones antes de que puedan causar un daño considerable. Esto requerirá una colaboración más estrecha entre las plataformas de tecnología, los gobiernos y las organizaciones de la sociedad civil.
La intersección de la inteligencia artificial y la política es un campo en constante evolución. Con cada nuevo avance tecnológico, surgen nuevas oportunidades para la manipulación y la desinformación. Es fundamental que se implementen estrategias efectivas para abordar estos desafíos y proteger la integridad de los procesos democráticos en todo el mundo.
Otras noticias • IA
California aprueba leyes estrictas para regular inteligencia artificial y deepfakes
California ha aprobado leyes estrictas sobre la inteligencia artificial, incluyendo regulaciones sobre deepfakes en elecciones y el uso de réplicas digitales de actores. Estas medidas...
Intel reestructura fundición en busca de agilidad y reducción de costes
Intel está reestructurando su división de fundición, convirtiéndola en una subsidiaria independiente para mejorar su agilidad. La compañía ha pausado proyectos en Europa y busca...
Typeface adquiere Treat y Narrato para potenciar su innovación
Typeface, startup de inteligencia artificial generativa, ha adquirido Treat y Narrato para fortalecer su oferta de productos y mejorar la personalización en la creación de...
Meta oculta etiqueta de contenido editado por IA en menú
Meta ha cambiado la etiqueta de contenido editado por IA, ocultándola en el menú del post, mientras que el contenido generado completamente por IA seguirá...
Google presenta "Audio Overview" para resumir documentos con IA
Google ha lanzado "Audio Overview" en NotebookLM, una función que permite escuchar resúmenes de documentos mediante anfitriones virtuales de inteligencia artificial. Aunque está en fase...
Mistral lanza Pixtral 12B, innovador modelo multimodal de IA
Mistral ha lanzado Pixtral 12B, su primer modelo multimodal con 12 mil millones de parámetros, capaz de procesar texto e imágenes. Disponible para pruebas en...
Apple decepciona con IA que no innova en iPhone 16
La inteligencia artificial de Apple ha decepcionado al no ofrecer funciones realmente innovadoras. Aunque mejora la privacidad y accesibilidad, sus capacidades son similares a herramientas...
Apple despierta expectativas con inteligencia artificial para iPhone 16
Apple ha generado expectación con su inteligencia artificial, prevista para el iPhone 16. Aunque promete innovaciones, su implementación gradual y limitaciones regionales podrían afectar las...
Lo más reciente
- 1
Amazon nombra a Samir Kumar director de consumo en India
- 2
Snapchat lanza herramientas para creadores y potencia la interacción
- 3
Snap presenta Spectacles: gafas de realidad aumentada para desarrolladores
- 4
Ursa Major recibe contrato de 12,5 millones para motores cohete
- 5
Discord mejora la privacidad con cifrado en llamadas de audio y vídeo
- 6
Patreon impulsa conversiones con Autopilot y nuevas opciones de monetización
- 7
NASA planea presencia humana permanente en la Luna con satélites