Cloudflare lanza herramienta para combatir bots de IA que escanean sitios web
Cloudflare, el proveedor de servicios en la nube cotizado en bolsa, ha lanzado una nueva herramienta gratuita para evitar que los bots escaneen sitios web alojados en su plataforma en busca de datos para entrenar modelos de IA.
Algunos proveedores de IA, como Google, OpenAI y Apple, permiten a los propietarios de sitios web bloquear los bots que utilizan para el escaneo de datos y el entrenamiento de modelos modificando el archivo robots.txt de su sitio, el archivo de texto que indica a los bots qué páginas pueden acceder en un sitio web. Pero, como señala Cloudflare en una publicación anunciando su herramienta de combate a los bots, no todos los raspadores de IA respetan esto.
"Los clientes no quieren que los bots de IA visiten sus sitios web, y especialmente aquellos que lo hacen de manera deshonesta", escribe la empresa en su blog oficial. "Temos miedo de que algunas empresas de IA que intentan eludir las reglas para acceder al contenido persistirán en adaptarse para evadir la detección de bots".
Por lo tanto, en un intento por abordar el problema, Cloudflare analizó el tráfico de bots de IA y rastreadores para ajustar los modelos automáticos de detección de bots. Los modelos consideran, entre otros factores, si un bot de IA podría estar intentando evadir la detección imitando la apariencia y el comportamiento de alguien que utiliza un navegador web.
"Cuando los actores malintencionados intentan rastrear sitios web a gran escala, generalmente utilizan herramientas y marcos que podemos identificar", escribe Cloudflare. "Basándonos en estas señales, nuestros modelos pueden marcar adecuadamente el tráfico de los bots de IA evasivos como bots".
Cloudflare ha establecido un formulario para que los anfitriones informen sobre bots de IA y rastreadores sospechosos y dice que continuará incluyendo en una lista negra manualmente a los bots de IA con el tiempo.
El problema de los bots de IA ha cobrado gran relevancia a medida que el auge de la IA generativa alimenta la demanda de datos para el entrenamiento de modelos.
Muchos sitios, desconfiados de los proveedores de IA que entrenan modelos con su contenido sin alertarles o compensarles, han optado por bloquear los raspadores y rastreadores de IA. Alrededor del 26% de los 1.000 principales sitios web han bloqueado el bot de OpenAI, según un estudio; otro encontró que más de 600 editores de noticias habían bloqueado el bot.
Bloquear no es una protección infalible, sin embargo. Como se mencionó anteriormente, algunos proveedores parecen estar ignorando las reglas estándar de exclusión de bots para obtener una ventaja competitiva en la carrera de la IA. El motor de búsqueda de IA Perplexity fue acusado recientemente de suplantar visitantes legítimos para escanear contenido de sitios web, y se dice que OpenAI y Anthropic han ignorado en ocasiones las reglas de robots.txt.
En una carta a los editores el mes pasado, la startup de licencias de contenido TollBit dijo que, de hecho, ve "muchos agentes de IA" ignorando el estándar robots.txt.
Herramientas como la de Cloudflare podrían ayudar, pero solo si demuestran ser precisas en la detección de bots de IA clandestinos. Y no resolverán el problema más intratable de los editores que arriesgan sacrificar el tráfico de referencia de herramientas de IA como las Visiones Generales de IA de Google, que excluyen sitios de la inclusión si bloquean rastreadores de IA específicos.
Otras noticias • IA
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA
OpenAI ha adquirido Promptfoo, una startup de seguridad de IA, para integrar su tecnología en OpenAI Frontier. Esta adquisición busca mejorar la seguridad de los...
Anthropic demanda al DOD por restricciones en colaboración gubernamental
Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica
La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Lo más reciente
- 1
Archer y Joby intensifican conflicto legal sobre taxis aéreos eléctricos
- 2
Founders Fund cierra cuarto fondo de 6.000 millones de dólares
- 3
FAA aprueba pruebas de aeronaves eléctricas eVTOL para empresas
- 4
Empleados de OpenAI y Google DeepMind respaldan demanda de Anthropic
- 5
Bluesky cambia de CEO ante desafíos de moderación y regulación
- 6
Inteligencia artificial transforma desarrollo de software y mejora calidad
- 7
Ticketmaster bajo fuego por precios altos y prácticas monopolísticas

