Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Lotus Health AI revoluciona atención médica con inteligencia artificial gratuita
Lotus Health AI, lanzada en mayo de 2024, ofrece atención médica digital accesible y gratuita, combinando inteligencia artificial y médicos humanos. Fundada por KJ Dhaliwal,...
Luffu revoluciona el cuidado familiar con inteligencia artificial saludable
Luffu, la nueva startup de los fundadores de Fitbit, utiliza inteligencia artificial para ayudar a las familias a monitorear su salud de manera proactiva. Ofrece...
Peak XV Partners renueva su enfoque con inteligencia artificial y expansión
Peak XV Partners está experimentando una transformación con salidas de socios senior y un enfoque renovado en inteligencia artificial. La firma planea abrir una oficina...
SpaceX y xAI fusionan esfuerzos por datos espaciales sostenibles
La fusión de SpaceX y xAI busca crear centros de datos espaciales para mejorar la sostenibilidad de la inteligencia artificial. Sin embargo, enfrentan desafíos financieros...
Firefox 148 permite desactivar inteligencia artificial para mayor privacidad
Mozilla, con el lanzamiento de Firefox 148, permitirá a los usuarios desactivar completamente las características de inteligencia artificial en su navegador. Esta decisión prioriza la...
Snowflake y OpenAI impulsan la adopción de inteligencia artificial empresarial
La colaboración entre Snowflake y OpenAI destaca la creciente adopción de la inteligencia artificial en las empresas. Esta estrategia de múltiples socios permite a las...
Inteligencia artificial transforma el desarrollo de software y colaboración
La inteligencia artificial está revolucionando el desarrollo de software, facilitando la colaboración entre humanos y máquinas. Herramientas como Codex de OpenAI permiten a los programadores...
Resurge la grabación física de notas en reuniones laborales
La evolución de la toma de notas en reuniones ha llevado al resurgimiento de dispositivos físicos de grabación, como el Plaud Note Pro y el...
Lo más reciente
- 1
Renuncia de Attia sacude el mundo de la nutrición
- 2
Apple lanza Xcode 26.3 con herramientas de IA para desarrolladores
- 3
Intel lanza GPUs para desafiar a Nvidia en inteligencia artificial
- 4
Policía francesa investiga a Elon Musk por uso indebido de datos
- 5
Gradient revoluciona la modernización de edificios con bombas de calor
- 6
Xcode 26.3 revoluciona desarrollo con programación agentic y IA
- 7
Skyryse recauda 300 millones y alcanza valoración de 1.15 mil millones

