La amenaza latente de la desinformación generada por IA
A medida que nos adentramos en un nuevo ciclo electoral en 2024, las preocupaciones sobre la desinformación generada por inteligencia artificial (IA) han alcanzado un punto álgido. Si bien muchos temían que estas técnicas pudieran influir decisivamente en el resultado de las elecciones, lo que se ha observado hasta ahora es un fenómeno mucho menos omnipresente de lo que se anticipaba. Sin embargo, la amenaza de la desinformación sigue siendo muy real; simplemente, no está enfocada en el público general de la manera que se podría pensar.
Oren Etzioni, un destacado investigador en el campo de la IA y fundador de la organización sin ánimo de lucro TrueMedia, afirma que la desinformación generada por IA se presenta en una diversidad sorprendente. En una reciente entrevista, Etzioni destacó que, por cada caso de desinformación que se hace viral, hay una multitud de otros que permanecen en la sombra, dirigidos a grupos específicos y menos visibles para el público en general.
La complejidad de las campañas de desinformación
Las campañas de desinformación no son un fenómeno nuevo, pero la proliferación de herramientas de IA ha facilitado su creación y difusión. En su análisis, Etzioni subraya que la mayoría de las personas tienden a pensar que sus experiencias son universales. En el caso de la desinformación, esta suposición es particularmente errónea. La población estadounidense, por ejemplo, se considera bien informada, pero esto no la convierte en un blanco fácil.
Las tácticas de desinformación han evolucionado, y los deepfakes —videos manipulados que pueden hacer que alguien parezca decir o hacer algo que nunca ocurrió— no son solo un juego de entretenimiento. A menudo se asocian con figuras públicas como celebridades o políticos, pero los verdaderos peligros radican en los deepfakes que representan situaciones o personas que no pueden ser fácilmente identificadas. “El problema es que las personas no entienden la variedad de estas herramientas”, explica Etzioni. Un ejemplo inquietante que menciona es la difusión de un video que mostraba aviones iraníes sobre Israel, un evento que nunca ocurrió, pero que podría ser difícil de desmentir para quienes no se encuentran en el lugar.
La invisibilidad de estas campañas hace que sean aún más peligrosas, ya que muchas personas no tienen acceso a la información que les permita contrastar lo que ven.
La misión de TrueMedia
TrueMedia se ha propuesto una misión clara: detectar la desinformación generada por IA y proporcionar herramientas para identificar lo que es real y lo que no. A través de su plataforma, ofrecen un servicio gratuito para clasificar imágenes, videos y otros elementos como falsos o auténticos. Sin embargo, este proceso no es sencillo ni puede ser completamente automatizado. Según Etzioni, están construyendo un "fundamento de material de verdad" que les permite mejorar continuamente su capacidad de detección.
La misión de TrueMedia se centra en cuantificar el problema de la desinformación en tres aspectos clave. El primero es entender cuánto contenido falso existe en la red. Etzioni admite que no hay una herramienta que permita medir esto con precisión. Aunque hay indicios de que la desinformación es omnipresente, calcular su alcance exacto es un reto monumental.
El segundo aspecto es cuantificar cuántas personas ven este contenido. “Esto es más fácil de medir”, dice Etzioni. Cuando una figura influyente como Elon Musk comparte un contenido, es común ver cifras que indican que millones de personas lo han visto. Sin embargo, esta cifra es solo una parte de la historia. Hay contenido que circula en grupos cerrados y canales menos visibles que puede tener un impacto significativo, aunque no aparezca en las métricas tradicionales.
Finalmente, el tercer aspecto y el más crucial es evaluar el impacto real que tiene esta desinformación en el comportamiento de los votantes. Por ejemplo, Etzioni menciona un caso en Eslovaquia donde una campaña de desinformación se lanzó en el último minuto, lo que pudo haber influido en la decisión de los votantes. Sin embargo, no hay un marco establecido para medir cuánto impacto tuvo en la participación electoral.
Predicciones sobre la desinformación
Etzioni hace una predicción audaz: en los próximos cuatro años, seremos mucho más competentes en la medición de la desinformación. Esto es vital, ya que la situación actual es de pura supervivencia. A medida que las elecciones se acercan, la necesidad de comprender y mitigar la desinformación se vuelve más urgente.
Aunque existen iniciativas en la industria para hacer que los medios generados sean más obvios, como el uso de marcas de agua en imágenes y textos, Etzioni es escéptico sobre su efectividad. “No se puede llevar una marca de agua a una pelea con armas”, afirma. Si bien estos estándares pueden ser útiles en entornos colaborativos, no ofrecen una protección real contra actores malintencionados que buscan evadir la detección.
La falta de medidas efectivas para abordar la desinformación genera un ambiente en el que las noticias falsas pueden proliferar sin control.
El panorama actual de las elecciones
A pesar de los desafíos que presenta la desinformación generada por IA, las elecciones más recientes han tenido lugar sin un impacto notable de estas técnicas. Esto no significa que la desinformación generada no sea común, sino que quienes la producen no han sentido la necesidad de intervenir de manera significativa en el proceso electoral. La falta de intervención podría ser más inquietante que la presencia de la desinformación misma, dejando en el aire preguntas sobre qué está por venir en el ámbito electoral.
A medida que nos acercamos a las elecciones de 2024, la vigilancia se vuelve esencial. Los votantes deben ser conscientes de que la desinformación puede estar al acecho, y que lo que ven en sus pantallas no siempre es lo que parece. La educación y la información se convierten en herramientas poderosas en esta lucha.
La colaboración entre plataformas tecnológicas, investigadores y la sociedad civil será crucial para abordar este problema. La creación de una infraestructura sólida que permita la verificación de datos y la educación sobre la desinformación puede ser la clave para combatir este fenómeno.
Las organizaciones como TrueMedia están en la primera línea de esta batalla, pero la responsabilidad no recae únicamente en ellos. Cada individuo tiene un papel que desempeñar en la promoción de la verdad y la integridad informativa. En un mundo donde la información es poder, el conocimiento y la discernimiento son nuestras mejores armas.
Otras noticias • IA
Genesis AI lanza GENE-26.5, mano robótica innovadora y ética
Genesis AI presenta su modelo GENE-26.5, una innovadora mano robótica diseñada para replicar la anatomía humana, facilitando la recolección de datos. Con una financiación de...
Google mejora búsqueda con IA, pero surgen dudas de veracidad
Google está evolucionando su motor de búsqueda mediante inteligencia artificial, incorporando opiniones de foros y personalizando resultados. Aunque esto enriquece la experiencia, plantea preocupaciones sobre...
Apple pagará 250 millones por exagerar capacidades de inteligencia artificial
Apple ha acordado pagar 250 millones de dólares para resolver una demanda colectiva por exagerar las capacidades de su inteligencia artificial, afectando la confianza de...
Aplicaciones de citas se reinventan para atraer a jóvenes
Las aplicaciones de citas, como Match Group, enfrentan un cambio generacional, con una disminución en el uso entre los jóvenes que buscan conexiones más auténticas....
Samsung alcanza un billón de dólares gracias a chips AI
Samsung ha alcanzado una valoración de un billón de dólares, impulsada por la demanda de chips para inteligencia artificial. A pesar de sus éxitos financieros,...
QuTwo recauda 25 millones y busca liderar IA en Europa
QuTwo, un laboratorio finlandés de IA fundado por Peter Sarlin, ha recaudado 25 millones de euros y se valora en 325 millones. Su producto principal,...
Altara revoluciona la gestión de datos con inteligencia artificial
Altara, fundada en 2025, utiliza inteligencia artificial para optimizar la gestión de datos en la industria tecnológica, facilitando el diagnóstico de fallos en productos físicos....
Pensilvania demanda a Character.AI por engaños en salud digital
La demanda de Pensilvania contra Character.AI destaca la necesidad de regular la inteligencia artificial en salud, tras acusaciones de engañar a usuarios haciéndose pasar por...
Lo más reciente
- 1
Lachy Groom invierte en Pronto, impulsando servicios a domicilio en India
- 2
xAI y Anthropic transforman la industria tecnológica con nueva alianza
- 3
Snap cancela acuerdo con Perplexity ante desafíos de innovación
- 4
Barry Diller apoya a Sam Altman y la ética en IA
- 5
Microsoft lucha entre IA y sostenibilidad energética para 2030
- 6
Robinhood democratiza inversión en empresas privadas para minoristas
- 7
Braintrust revela vulnerabilidad en seguridad de claves API en AWS

