IA | Desinformación electoral

Desinformación por IA amenaza elecciones 2024, educación es clave

La amenaza latente de la desinformación generada por IA

A medida que nos adentramos en un nuevo ciclo electoral en 2024, las preocupaciones sobre la desinformación generada por inteligencia artificial (IA) han alcanzado un punto álgido. Si bien muchos temían que estas técnicas pudieran influir decisivamente en el resultado de las elecciones, lo que se ha observado hasta ahora es un fenómeno mucho menos omnipresente de lo que se anticipaba. Sin embargo, la amenaza de la desinformación sigue siendo muy real; simplemente, no está enfocada en el público general de la manera que se podría pensar.

Oren Etzioni, un destacado investigador en el campo de la IA y fundador de la organización sin ánimo de lucro TrueMedia, afirma que la desinformación generada por IA se presenta en una diversidad sorprendente. En una reciente entrevista, Etzioni destacó que, por cada caso de desinformación que se hace viral, hay una multitud de otros que permanecen en la sombra, dirigidos a grupos específicos y menos visibles para el público en general.

La complejidad de las campañas de desinformación

Las campañas de desinformación no son un fenómeno nuevo, pero la proliferación de herramientas de IA ha facilitado su creación y difusión. En su análisis, Etzioni subraya que la mayoría de las personas tienden a pensar que sus experiencias son universales. En el caso de la desinformación, esta suposición es particularmente errónea. La población estadounidense, por ejemplo, se considera bien informada, pero esto no la convierte en un blanco fácil.

Las tácticas de desinformación han evolucionado, y los deepfakes —videos manipulados que pueden hacer que alguien parezca decir o hacer algo que nunca ocurrió— no son solo un juego de entretenimiento. A menudo se asocian con figuras públicas como celebridades o políticos, pero los verdaderos peligros radican en los deepfakes que representan situaciones o personas que no pueden ser fácilmente identificadas. “El problema es que las personas no entienden la variedad de estas herramientas”, explica Etzioni. Un ejemplo inquietante que menciona es la difusión de un video que mostraba aviones iraníes sobre Israel, un evento que nunca ocurrió, pero que podría ser difícil de desmentir para quienes no se encuentran en el lugar.

La invisibilidad de estas campañas hace que sean aún más peligrosas, ya que muchas personas no tienen acceso a la información que les permita contrastar lo que ven.

La misión de TrueMedia

TrueMedia se ha propuesto una misión clara: detectar la desinformación generada por IA y proporcionar herramientas para identificar lo que es real y lo que no. A través de su plataforma, ofrecen un servicio gratuito para clasificar imágenes, videos y otros elementos como falsos o auténticos. Sin embargo, este proceso no es sencillo ni puede ser completamente automatizado. Según Etzioni, están construyendo un "fundamento de material de verdad" que les permite mejorar continuamente su capacidad de detección.

La misión de TrueMedia se centra en cuantificar el problema de la desinformación en tres aspectos clave. El primero es entender cuánto contenido falso existe en la red. Etzioni admite que no hay una herramienta que permita medir esto con precisión. Aunque hay indicios de que la desinformación es omnipresente, calcular su alcance exacto es un reto monumental.

El segundo aspecto es cuantificar cuántas personas ven este contenido. “Esto es más fácil de medir”, dice Etzioni. Cuando una figura influyente como Elon Musk comparte un contenido, es común ver cifras que indican que millones de personas lo han visto. Sin embargo, esta cifra es solo una parte de la historia. Hay contenido que circula en grupos cerrados y canales menos visibles que puede tener un impacto significativo, aunque no aparezca en las métricas tradicionales.

Finalmente, el tercer aspecto y el más crucial es evaluar el impacto real que tiene esta desinformación en el comportamiento de los votantes. Por ejemplo, Etzioni menciona un caso en Eslovaquia donde una campaña de desinformación se lanzó en el último minuto, lo que pudo haber influido en la decisión de los votantes. Sin embargo, no hay un marco establecido para medir cuánto impacto tuvo en la participación electoral.

Predicciones sobre la desinformación

Etzioni hace una predicción audaz: en los próximos cuatro años, seremos mucho más competentes en la medición de la desinformación. Esto es vital, ya que la situación actual es de pura supervivencia. A medida que las elecciones se acercan, la necesidad de comprender y mitigar la desinformación se vuelve más urgente.

Aunque existen iniciativas en la industria para hacer que los medios generados sean más obvios, como el uso de marcas de agua en imágenes y textos, Etzioni es escéptico sobre su efectividad. “No se puede llevar una marca de agua a una pelea con armas”, afirma. Si bien estos estándares pueden ser útiles en entornos colaborativos, no ofrecen una protección real contra actores malintencionados que buscan evadir la detección.

La falta de medidas efectivas para abordar la desinformación genera un ambiente en el que las noticias falsas pueden proliferar sin control.

El panorama actual de las elecciones

A pesar de los desafíos que presenta la desinformación generada por IA, las elecciones más recientes han tenido lugar sin un impacto notable de estas técnicas. Esto no significa que la desinformación generada no sea común, sino que quienes la producen no han sentido la necesidad de intervenir de manera significativa en el proceso electoral. La falta de intervención podría ser más inquietante que la presencia de la desinformación misma, dejando en el aire preguntas sobre qué está por venir en el ámbito electoral.

A medida que nos acercamos a las elecciones de 2024, la vigilancia se vuelve esencial. Los votantes deben ser conscientes de que la desinformación puede estar al acecho, y que lo que ven en sus pantallas no siempre es lo que parece. La educación y la información se convierten en herramientas poderosas en esta lucha.

La colaboración entre plataformas tecnológicas, investigadores y la sociedad civil será crucial para abordar este problema. La creación de una infraestructura sólida que permita la verificación de datos y la educación sobre la desinformación puede ser la clave para combatir este fenómeno.

Las organizaciones como TrueMedia están en la primera línea de esta batalla, pero la responsabilidad no recae únicamente en ellos. Cada individuo tiene un papel que desempeñar en la promoción de la verdad y la integridad informativa. En un mundo donde la información es poder, el conocimiento y la discernimiento son nuestras mejores armas.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Adquisición estratégica

Coralogix adquiere Aporia y potencia su inteligencia artificial

Coralogix ha adquirido Aporia, fortaleciendo su oferta en inteligencia artificial y supervisión de sistemas. Esta integración permite a las empresas gestionar eficazmente sus cargas de...

Crecimiento notable

Startups de IA en Europa duplican valor y generan empleo

Las startups de inteligencia artificial en Europa están en auge, representando el 25% de la financiación de capital de riesgo. A pesar de la percepción...

Inteligencia artificial

Sriram Krishnan se une a la Casa Blanca en IA

Sriram Krishnan ha sido nombrado asesor senior de políticas de inteligencia artificial en la Casa Blanca, destacando la importancia de la IA para la economía...

Acceso democratizado

Google Gemini se expande a 40 idiomas para investigadores globales

Google ha ampliado su herramienta Gemini a 40 nuevos idiomas, permitiendo un asistente de investigación más accesible. Este avance enfrenta desafíos de precisión y verificación...

Dudas éticas

Dudas sobre Sam Altman y la ética en OpenAI

La comparecencia de Sam Altman ante el Congreso ha generado dudas sobre su relación con OpenAI, especialmente tras revelaciones sobre su participación a través de...

Logística inteligente

Boon revoluciona la logística con inteligencia artificial y financiación

Boon, una startup fundada por Deepti Yenireddy, busca transformar la logística mediante inteligencia artificial, optimizando procesos y aumentando la eficiencia. Con 20,5 millones de dólares...

Ética tecnológica

Stem AI busca alinear inteligencia artificial con ética humana

Stem AI, cofundada por Emmett Shear, busca alinear la inteligencia artificial con el comportamiento humano y la ética. Con el respaldo de Andreessen Horowitz, la...

Cambio enfoque

TuSimple se convierte en CreateAI y se enfoca en videojuegos

TuSimple se transforma en CreateAI, abandonando el desarrollo de camiones autónomos para centrarse en la animación y videojuegos. A pesar de controversias sobre prácticas de...