Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Gemini transforma la inteligencia personal en India con Google
La llegada de Gemini a India revoluciona la inteligencia personal al integrar servicios de Google, permitiendo a los usuarios obtener respuestas personalizadas de sus datos....
Apple refuerza control en App Store y enfrenta críticas
Apple ha intensificado su control sobre la App Store al eliminar aplicaciones de creación de código, como Anything y Replit, generando críticas de desarrolladores y...
OpenAI adquiere Hiro Finance para potenciar su inteligencia financiera
OpenAI ha adquirido Hiro Finance, una startup de planificación financiera automatizada, que cerrará operaciones el 20 de abril. Esta compra, centrada en el talento, busca...
Generación Z ve la IA como amenaza, revela informe de Stanford
El informe de Stanford revela una desconexión entre expertos en IA y la opinión pública, especialmente entre la Generación Z, que ve la IA más...
Vercel crece con inteligencia artificial y planes de salida a bolsa
Vercel, bajo el liderazgo de Guillermo Rauch, se beneficia del auge de la inteligencia artificial y la democratización del desarrollo de aplicaciones. Con un crecimiento...
Claude de Anthropic supera a ChatGPT en la conferencia HumanX AI
La conferencia HumanX AI destacó cómo la IA agentiva transforma los negocios, con Claude de Anthropic superando a ChatGPT de OpenAI en popularidad. A pesar...
Sam Altman reflexiona tras ataque violento en su hogar
Sam Altman, CEO de OpenAI, sufrió un ataque violento en su hogar tras la publicación de un perfil crítico sobre su liderazgo. Reflexionó sobre el...
Controversia entre OpenClaw y Anthropic desata debate sobre ética en IA
La controversia entre Peter Steinberger de OpenClaw y Anthropic, tras la suspensión temporal de su cuenta, resalta tensiones en la IA. Anthropic cambió su política...
Lo más reciente
- 1
Ataque a WordPress compromete plug-ins y pone en riesgo seguridad
- 2
Waymo inicia pruebas de robotaxis autónomos en Londres 2026
- 3
Controversia por modelo Mythos de Anthropic y su impacto laboral
- 4
Google lanza "Skills" en Chrome para optimizar navegación web
- 5
YouTube suspende anuncios en vivo y aumenta precios de Premium
- 6
San Francisco será sede del evento StrictlyVC en 2024
- 7
Pillar recauda 20 millones para democratizar gestión de riesgos

