IA | Desinformación electoral

Desinformación por IA amenaza elecciones 2024, educación es clave

La amenaza latente de la desinformación generada por IA

A medida que nos adentramos en un nuevo ciclo electoral en 2024, las preocupaciones sobre la desinformación generada por inteligencia artificial (IA) han alcanzado un punto álgido. Si bien muchos temían que estas técnicas pudieran influir decisivamente en el resultado de las elecciones, lo que se ha observado hasta ahora es un fenómeno mucho menos omnipresente de lo que se anticipaba. Sin embargo, la amenaza de la desinformación sigue siendo muy real; simplemente, no está enfocada en el público general de la manera que se podría pensar.

Oren Etzioni, un destacado investigador en el campo de la IA y fundador de la organización sin ánimo de lucro TrueMedia, afirma que la desinformación generada por IA se presenta en una diversidad sorprendente. En una reciente entrevista, Etzioni destacó que, por cada caso de desinformación que se hace viral, hay una multitud de otros que permanecen en la sombra, dirigidos a grupos específicos y menos visibles para el público en general.

La complejidad de las campañas de desinformación

Las campañas de desinformación no son un fenómeno nuevo, pero la proliferación de herramientas de IA ha facilitado su creación y difusión. En su análisis, Etzioni subraya que la mayoría de las personas tienden a pensar que sus experiencias son universales. En el caso de la desinformación, esta suposición es particularmente errónea. La población estadounidense, por ejemplo, se considera bien informada, pero esto no la convierte en un blanco fácil.

Las tácticas de desinformación han evolucionado, y los deepfakes —videos manipulados que pueden hacer que alguien parezca decir o hacer algo que nunca ocurrió— no son solo un juego de entretenimiento. A menudo se asocian con figuras públicas como celebridades o políticos, pero los verdaderos peligros radican en los deepfakes que representan situaciones o personas que no pueden ser fácilmente identificadas. “El problema es que las personas no entienden la variedad de estas herramientas”, explica Etzioni. Un ejemplo inquietante que menciona es la difusión de un video que mostraba aviones iraníes sobre Israel, un evento que nunca ocurrió, pero que podría ser difícil de desmentir para quienes no se encuentran en el lugar.

La invisibilidad de estas campañas hace que sean aún más peligrosas, ya que muchas personas no tienen acceso a la información que les permita contrastar lo que ven.

La misión de TrueMedia

TrueMedia se ha propuesto una misión clara: detectar la desinformación generada por IA y proporcionar herramientas para identificar lo que es real y lo que no. A través de su plataforma, ofrecen un servicio gratuito para clasificar imágenes, videos y otros elementos como falsos o auténticos. Sin embargo, este proceso no es sencillo ni puede ser completamente automatizado. Según Etzioni, están construyendo un "fundamento de material de verdad" que les permite mejorar continuamente su capacidad de detección.

La misión de TrueMedia se centra en cuantificar el problema de la desinformación en tres aspectos clave. El primero es entender cuánto contenido falso existe en la red. Etzioni admite que no hay una herramienta que permita medir esto con precisión. Aunque hay indicios de que la desinformación es omnipresente, calcular su alcance exacto es un reto monumental.

El segundo aspecto es cuantificar cuántas personas ven este contenido. “Esto es más fácil de medir”, dice Etzioni. Cuando una figura influyente como Elon Musk comparte un contenido, es común ver cifras que indican que millones de personas lo han visto. Sin embargo, esta cifra es solo una parte de la historia. Hay contenido que circula en grupos cerrados y canales menos visibles que puede tener un impacto significativo, aunque no aparezca en las métricas tradicionales.

Finalmente, el tercer aspecto y el más crucial es evaluar el impacto real que tiene esta desinformación en el comportamiento de los votantes. Por ejemplo, Etzioni menciona un caso en Eslovaquia donde una campaña de desinformación se lanzó en el último minuto, lo que pudo haber influido en la decisión de los votantes. Sin embargo, no hay un marco establecido para medir cuánto impacto tuvo en la participación electoral.

Predicciones sobre la desinformación

Etzioni hace una predicción audaz: en los próximos cuatro años, seremos mucho más competentes en la medición de la desinformación. Esto es vital, ya que la situación actual es de pura supervivencia. A medida que las elecciones se acercan, la necesidad de comprender y mitigar la desinformación se vuelve más urgente.

Aunque existen iniciativas en la industria para hacer que los medios generados sean más obvios, como el uso de marcas de agua en imágenes y textos, Etzioni es escéptico sobre su efectividad. “No se puede llevar una marca de agua a una pelea con armas”, afirma. Si bien estos estándares pueden ser útiles en entornos colaborativos, no ofrecen una protección real contra actores malintencionados que buscan evadir la detección.

La falta de medidas efectivas para abordar la desinformación genera un ambiente en el que las noticias falsas pueden proliferar sin control.

El panorama actual de las elecciones

A pesar de los desafíos que presenta la desinformación generada por IA, las elecciones más recientes han tenido lugar sin un impacto notable de estas técnicas. Esto no significa que la desinformación generada no sea común, sino que quienes la producen no han sentido la necesidad de intervenir de manera significativa en el proceso electoral. La falta de intervención podría ser más inquietante que la presencia de la desinformación misma, dejando en el aire preguntas sobre qué está por venir en el ámbito electoral.

A medida que nos acercamos a las elecciones de 2024, la vigilancia se vuelve esencial. Los votantes deben ser conscientes de que la desinformación puede estar al acecho, y que lo que ven en sus pantallas no siempre es lo que parece. La educación y la información se convierten en herramientas poderosas en esta lucha.

La colaboración entre plataformas tecnológicas, investigadores y la sociedad civil será crucial para abordar este problema. La creación de una infraestructura sólida que permita la verificación de datos y la educación sobre la desinformación puede ser la clave para combatir este fenómeno.

Las organizaciones como TrueMedia están en la primera línea de esta batalla, pero la responsabilidad no recae únicamente en ellos. Cada individuo tiene un papel que desempeñar en la promoción de la verdad y la integridad informativa. En un mundo donde la información es poder, el conocimiento y la discernimiento son nuestras mejores armas.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Inteligencia vocal

OpenAI presenta innovadoras funciones de inteligencia vocal y traducción

OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...

Productividad mejorada

Perplexity lanza PC para Mac con inteligencia artificial integrada

Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....

Contacto confiable

OpenAI presenta Trusted Contact para mejorar la seguridad emocional

OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...

Cambio estratégico

Bumble elimina deslizamiento y apuesta por inteligencia artificial

Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...

Tensión regulatoria

Musk y OpenAI: Tensión entre seguridad y lucro en IA

El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...

Seguridad informática

Inteligencia artificial transforma la seguridad del software y ciberseguridad

La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...

Crecimiento rápido

Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5

Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...

Cambio tecnológico

xAI y Anthropic transforman la industria tecnológica con nueva alianza

La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...