Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Revolución sin código: Sapiom simplifica desarrollo y micropagos
La creación de aplicaciones sin código avanza con innovaciones como "vibe coding" y la startup Sapiom, que simplifica la conexión de herramientas externas y gestiona...
Grandes tecnológicas luchan entre inversiones en IA y escepticismo
Las grandes empresas tecnológicas están invirtiendo enormes sumas en inteligencia artificial, pero enfrentan escepticismo de los inversores sobre la rentabilidad inmediata. La competencia por dominar...
AWS crece un 24% en ingresos, alcanzando 35.6 mil millones
Amazon Web Services (AWS) experimentó un crecimiento del 24% en ingresos en el cuarto trimestre de 2025, alcanzando 35.6 mil millones de dólares. Su éxito...
Reddit integrará inteligencia artificial para mejorar su búsqueda y monetización
Reddit planea integrar inteligencia artificial en su motor de búsqueda para mejorar la experiencia del usuario y monetizar la plataforma. Con un crecimiento significativo en...
SpaceX y xAI revolucionan computación espacial con energía solar
La fusión de SpaceX y xAI busca establecer centros de datos en la órbita terrestre, aprovechando la eficiencia de la energía solar. Aunque enfrenta desafíos...
Anthropic presenta Opus 4.6 con colaboración avanzada y más tokens
Anthropic ha lanzado Opus 4.6, que incluye "equipos de agentes" para colaboración eficiente y una ventana de contexto ampliada de 1 millón de tokens. La...
OpenAI Frontier revoluciona la gestión de inteligencia artificial empresarial
OpenAI ha lanzado OpenAI Frontier, una plataforma que permite a las empresas gestionar y personalizar agentes de inteligencia artificial. Con un enfoque en la adopción...
Meta lanza Vibes, nueva app de vídeos cortos con IA
Meta ha lanzado Vibes, una aplicación independiente para crear y compartir vídeos cortos generados por IA. Con funciones creativas y opciones de monetización freemium, busca...
Lo más reciente
- 1
Cerebras Systems alcanza 1.000 millones y se posiciona líder
- 2
Marcha por los Millonarios desafía impuesto a la riqueza en California
- 3
Reddit planea fusiones para potenciar su plataforma publicitaria
- 4
Aumenta el escepticismo sobre la CIA tras alerta de Wyden
- 5
Roblox implementa verificación de edad para proteger a menores
- 6
Comisión Europea investiga a TikTok por adicción digital juvenil
- 7
Spotify lanza "Sobre la Canción" para enriquecer tu experiencia

