IA | Antibots

Cloudflare lanza herramienta gratuita para combatir bots de IA

Cloudflare lanza herramienta para combatir bots de IA que escanean sitios web

Cloudflare, el proveedor de servicios en la nube cotizado en bolsa, ha lanzado una nueva herramienta gratuita para evitar que los bots escaneen sitios web alojados en su plataforma en busca de datos para entrenar modelos de IA.

Algunos proveedores de IA, como Google, OpenAI y Apple, permiten a los propietarios de sitios web bloquear los bots que utilizan para el escaneo de datos y el entrenamiento de modelos modificando el archivo robots.txt de su sitio, el archivo de texto que indica a los bots qué páginas pueden acceder en un sitio web. Pero, como señala Cloudflare en una publicación anunciando su herramienta de combate a los bots, no todos los raspadores de IA respetan esto.

"Los clientes no quieren que los bots de IA visiten sus sitios web, y especialmente aquellos que lo hacen de manera deshonesta", escribe la empresa en su blog oficial. "Temos miedo de que algunas empresas de IA que intentan eludir las reglas para acceder al contenido persistirán en adaptarse para evadir la detección de bots".

Por lo tanto, en un intento por abordar el problema, Cloudflare analizó el tráfico de bots de IA y rastreadores para ajustar los modelos automáticos de detección de bots. Los modelos consideran, entre otros factores, si un bot de IA podría estar intentando evadir la detección imitando la apariencia y el comportamiento de alguien que utiliza un navegador web.

"Cuando los actores malintencionados intentan rastrear sitios web a gran escala, generalmente utilizan herramientas y marcos que podemos identificar", escribe Cloudflare. "Basándonos en estas señales, nuestros modelos pueden marcar adecuadamente el tráfico de los bots de IA evasivos como bots".

Cloudflare ha establecido un formulario para que los anfitriones informen sobre bots de IA y rastreadores sospechosos y dice que continuará incluyendo en una lista negra manualmente a los bots de IA con el tiempo.

El problema de los bots de IA ha cobrado gran relevancia a medida que el auge de la IA generativa alimenta la demanda de datos para el entrenamiento de modelos.

Muchos sitios, desconfiados de los proveedores de IA que entrenan modelos con su contenido sin alertarles o compensarles, han optado por bloquear los raspadores y rastreadores de IA. Alrededor del 26% de los 1.000 principales sitios web han bloqueado el bot de OpenAI, según un estudio; otro encontró que más de 600 editores de noticias habían bloqueado el bot.

Bloquear no es una protección infalible, sin embargo. Como se mencionó anteriormente, algunos proveedores parecen estar ignorando las reglas estándar de exclusión de bots para obtener una ventaja competitiva en la carrera de la IA. El motor de búsqueda de IA Perplexity fue acusado recientemente de suplantar visitantes legítimos para escanear contenido de sitios web, y se dice que OpenAI y Anthropic han ignorado en ocasiones las reglas de robots.txt.

En una carta a los editores el mes pasado, la startup de licencias de contenido TollBit dijo que, de hecho, ve "muchos agentes de IA" ignorando el estándar robots.txt.

Herramientas como la de Cloudflare podrían ayudar, pero solo si demuestran ser precisas en la detección de bots de IA clandestinos. Y no resolverán el problema más intratable de los editores que arriesgan sacrificar el tráfico de referencia de herramientas de IA como las Visiones Generales de IA de Google, que excluyen sitios de la inclusión si bloquean rastreadores de IA específicos.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Adquisición estratégica

OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

OpenAI ha adquirido Promptfoo, una startup de seguridad de IA, para integrar su tecnología en OpenAI Frontier. Esta adquisición busca mejorar la seguridad de los...

Demanda ética

Anthropic demanda al DOD por restricciones en colaboración gubernamental

Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...