Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Claude de Anthropic se dispara en descargas tras Super Bowl
La campaña publicitaria de Anthropic durante el Super Bowl ha impulsado significativamente las descargas de su chatbot, Claude, gracias a su enfoque creativo y humorístico....
IBM triplicará contratación de jóvenes con habilidades humanas para 2026
IBM planea triplicar la contratación de puestos de entrada en EE. UU. para 2026, enfocándose en habilidades humanas como la creatividad y la empatía. Este...
Pinterest lucha por monetizar a pesar del crecimiento de usuarios
Pinterest enfrenta desafíos para monetizar su plataforma a pesar de un aumento en usuarios activos. La competencia de la inteligencia artificial y cambios en la...
Didero revoluciona la cadena de suministro con inteligencia artificial
La pandemia reveló la complejidad del aprovisionamiento global. Tim Spencer fundó Didero para automatizar procesos, integrando comunicación y reduciendo tareas manuales. Con inteligencia artificial, Didero...
Spotify impulsa la música con inteligencia artificial innovadora
Spotify está revolucionando su desarrollo y experiencia musical mediante la inteligencia artificial, utilizando un sistema interno que agiliza la codificación y personaliza la música. La...
OpenAI y Cerebras lanzan Codex-Spark para revolucionar la programación
OpenAI ha lanzado Codex-Spark, una versión optimizada de su herramienta de codificación, en colaboración con Cerebras. Este avance, respaldado por un acuerdo de 10 mil...
Modal Labs busca financiación para alcanzar valoración de 2.500 millones
Modal Labs, una startup centrada en la optimización de la infraestructura de inferencia de inteligencia artificial, busca financiación para elevar su valoración a 2.500 millones...
xAI reestructura equipos y despide empleados en nueva dirección
xAI, cofundada por Elon Musk, reveló en una reunión interna su reestructuración y despidos, centrándose en cuatro equipos de desarrollo. Musk destacó la importancia de...
Lo más reciente
- 1
Nothing inaugura su primera tienda en Bengaluru y revoluciona compras
- 2
DavaIndia Pharmacy expone datos sensibles tras brecha de seguridad
- 3
Airbnb integra IA para personalizar experiencias y optimizar propiedades
- 4
Airbnb transforma atención al cliente con inteligencia artificial innovadora
- 5
Brecha de seguridad en Figure Technology expone datos sensibles
- 6
Filtración de datos en Tenga expone vulnerabilidad en juguetes eróticos
- 7
Gobierno indio y Alibaba.com impulsan PYMES hacia mercados globales

