Seguridad | Informes fraudulentos

Fraude en informes de IA amenaza la ciberseguridad global

La proliferación de informes fraudulentos en ciberseguridad

La llegada de la inteligencia artificial (IA) ha transformado diversos sectores, y la ciberseguridad no ha sido una excepción. Sin embargo, este avance también ha traído consigo nuevos desafíos, como la aparición de lo que se ha denominado “AI slop”, un término que hace referencia a la generación de imágenes, vídeos y textos de baja calidad por parte de modelos de lenguaje de gran tamaño (LLM). En los últimos años, esta tendencia ha contaminado no solo las redes sociales y los sitios web, sino también el ámbito de la ciberseguridad, generando un efecto adverso en la calidad de los informes de vulnerabilidades.

Los informes de errores falsos, generados por IA, están inundando el sector de la ciberseguridad. Con el aumento de la accesibilidad a herramientas de IA, muchos investigadores de seguridad han comenzado a utilizar estos modelos para elaborar informes que, en muchos casos, carecen de fundamento. Este fenómeno ha llevado a que los responsables de plataformas de recompensas por errores se enfrenten a un tsunami de reportes que parecen verídicos a simple vista, pero que en realidad son pura ficción.

Un reto para las plataformas de recompensas

Las plataformas de recompensas por errores, que actúan como intermediarios entre los hackers de ciberseguridad y las empresas, están experimentando un aumento notable en la cantidad de informes generados por IA. Vlad Ionescu, cofundador y CTO de RunSybil, una startup dedicada al desarrollo de cazadores de errores potenciados por IA, destaca que los informes son, a menudo, engañosos. “Los informes suenan razonables, parecen técnicamente correctos. Pero al profundizar en ellos, te das cuenta de que, en realidad, es solo una alucinación”, explica Ionescu.

Esta situación ha llevado a que muchos investigadores se sientan frustrados al intentar discernir entre informes auténticos y aquellos que son simplemente ruido generado por algoritmos. “Estamos recibiendo mucha información que parece oro, pero en realidad es solo basura”, lamenta Ionescu. Este fenómeno no es aislado; se han documentado múltiples casos en los que organizaciones han recibido informes de errores falsos, lo que ha llevado a algunas a retirar completamente sus programas de recompensas.

La situación se ha vuelto insostenible, ya que los informes generados por IA están inundando las bandejas de entrada de los investigadores.

Consecuencias en el ámbito real

Un ejemplo reciente que ilustra la gravedad de esta situación se produjo cuando Harry Sintonen, un investigador de seguridad, reveló que el proyecto de seguridad de código abierto Curl había recibido un informe falso. Sintonen indicó que el “atacante se había equivocado gravemente”, resaltando la capacidad del proyecto para detectar la “basura generada por IA”. Esta situación ha sido corroborada por otros actores del sector, como Benjamin Piouffle, de Open Collective, quien afirmó que su plataforma también se encuentra “inundada de basura generada por IA”.

Los efectos de esta problemática se extienden más allá de la frustración individual. Michiel Prins, cofundador y director de gestión de productos de HackerOne, señaló que han observado un aumento en los falsos positivos: “Las vulnerabilidades que parecen reales pero son generadas por LLM carecen de impacto en el mundo real”. Estos informes de baja calidad no solo crean ruido, sino que también pueden socavar la eficiencia de los programas de seguridad, desviando recursos y atención de los problemas que realmente requieren atención.

La respuesta de las grandes empresas

En este contexto, algunas de las grandes empresas tecnológicas han comenzado a analizar el impacto de la IA en sus programas de recompensas por errores. En una consulta realizada, Damiano DeMonte, portavoz de Mozilla, mencionó que la compañía no ha observado un aumento significativo en informes inválidos o de baja calidad que pudieran parecer generados por IA. Sin embargo, otras compañías, como Microsoft y Meta, que han apostado fuertemente por la inteligencia artificial, han declinado hacer comentarios al respecto.

A medida que la IA se convierte en una herramienta común entre los investigadores de seguridad, las plataformas deben adaptarse rápidamente para filtrar los informes de calidad inferior. El reto radica en cómo equilibrar la innovación que ofrece la IA con la necesidad de mantener estándares de calidad en los informes.

Innovaciones en la gestión de informes

Para abordar este desafío, algunas plataformas están invirtiendo en sistemas de IA que pueden realizar revisiones preliminares y filtrar las presentaciones por su precisión. Por ejemplo, HackerOne ha lanzado recientemente un nuevo sistema de triaje llamado Hai Triage, que combina el análisis humano con la asistencia de IA. Según el portavoz de HackerOne, Randy Walker, este nuevo sistema utiliza “agentes de seguridad de IA para filtrar el ruido, marcar duplicados y priorizar las amenazas reales”.

Este enfoque híbrido podría ser una solución efectiva para gestionar el aumento de informes de baja calidad. La combinación de la inteligencia artificial con la revisión humana podría ayudar a garantizar que los informes válidos sean identificados y tratados de manera adecuada, al tiempo que se minimiza la carga de trabajo causada por informes engañosos.

Las empresas que implementen soluciones basadas en IA para la gestión de informes podrían estar mejor posicionadas para enfrentar la creciente ola de informes generados por modelos de lenguaje.

El futuro de la ciberseguridad ante la IA

A medida que los hackers continúan utilizando LLMs y las empresas dependen de la IA para triage de informes, queda por ver cuál de estas inteligencias artificiales prevalecerá en la batalla contra el “AI slop”. La necesidad de herramientas que puedan discernir entre la calidad y la mediocridad es más urgente que nunca. Mientras tanto, los investigadores de seguridad deberán ser cada vez más astutos y críticos en su evaluación de los informes que reciben, y las plataformas de recompensas por errores tendrán que adaptarse a un entorno en constante evolución.

La lucha contra la “basura generada por IA” no solo es un desafío técnico, sino también un reto cultural en la comunidad de ciberseguridad. A medida que la IA sigue avanzando, es esencial que los profesionales del sector se mantengan al día con las últimas herramientas y técnicas para proteger la integridad de sus sistemas y garantizar que la calidad de los informes de vulnerabilidades se mantenga en un nivel óptimo. La intersección de la inteligencia artificial y la ciberseguridad plantea tanto oportunidades como retos, y la manera en que se aborden estos desafíos definirá el futuro del sector.


Crear Canciones Personalizadas
Publicidad


Otras noticias • Seguridad

Vulnerabilidad crítica

Vulnerabilidad crítica en cPanel expone servidores web a hackers

Se ha detectado una vulnerabilidad crítica en cPanel y WHM (CVE-2026-41940) que permite a hackers acceder a servidores web. La industria de alojamiento web está...

Fallo seguridad

Fallo de seguridad expone datos de salud de pacientes

Un fallo de seguridad en el software de Practice by Numbers expuso datos de salud de pacientes, revelando la vulnerabilidad en la gestión de información...

Crisis económica

Ciberataque agrava crisis económica en Sri Lanka y genera fraude

Sri Lanka enfrenta una crisis económica agravada por un ciberataque que comprometió pagos internacionales, incluyendo 625.000 dólares al Servicio Postal de EE.UU. La falta de...

Espionaje digital

Italia en crisis por espionaje y acusaciones a Paragon Solutions

Italia enfrenta un escándalo de espionaje relacionado con Paragon Solutions, acusada de proporcionar spyware a gobiernos. Periodistas y activistas, como Francesco Cancellato y Ciro Pellegrino,...

Ciberseguridad tensa

Extradición de Xu Zewei revela tensiones cibernéticas Italia-EE.UU

La extradición de Xu Zewei desde Italia a Estados Unidos destaca las tensiones en ciberseguridad entre ambos países. Acusado de ciberataques respaldados por China, su...

Vulnerabilidad energética

Ciberataque a Itron revela vulnerabilidad del sector energético

El ataque cibernético a Itron destaca la vulnerabilidad del sector energético ante amenazas digitales. La ciberseguridad es crucial para proteger infraestructuras críticas y mantener la...

Spyware peligroso

Morpheus spyware italiano amenaza privacidad y derechos digitales

Morpheus es un spyware italiano que engaña a las víctimas para que lo instalen, utilizando tácticas como la suplantación de aplicaciones. Desarrollado por IPS, plantea...

Tensiones políticas

Candidatura de Plankey a CISA revela tensiones políticas en ciberseguridad

La retirada de Sean Plankey como candidato a dirigir CISA refleja tensiones políticas que afectan la ciberseguridad en EE. UU. Sin un liderazgo claro, la...