Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Weiyao Wang se une a TML en la guerra por talento
La guerra por el talento en inteligencia artificial se intensifica, destacando la mudanza de Weiyao Wang a Thinking Machines Lab (TML). Con una valoración de...
ComfyUI revoluciona la creación de contenido con financiación millonaria
ComfyUI, una innovadora startup, ha revolucionado la creación de contenido mediante modelos de difusión, ofreciendo un control total a los creadores a través de su...
Google invierte 40.000 millones en Anthropic para potenciar IA
La inversión de Google en Anthropic, que podría alcanzar los 40.000 millones de dólares, destaca la competencia en IA. Anthropic, con su modelo Mythos y...
Precios de Mac minis se disparan por demanda de inteligencia artificial
La escasez de Mac minis ha disparado los precios en el mercado secundario, alcanzando hasta 795 dólares. La creciente demanda por hardware para aplicaciones de...
DeepSeek V4 transforma la inteligencia artificial con modelos innovadores
DeepSeek V4, con sus versiones Flash y Pro, revoluciona la inteligencia artificial al ofrecer modelos eficientes y asequibles, destacando en rendimiento frente a competidores. Sin...
Essential Voice de Nothing transforma la comunicación con IA
La llegada de Essential Voice, una herramienta de dictado de Nothing, revoluciona la comunicación al integrar la conversión de voz a texto y eliminar palabras...
Noscroll: resúmenes de noticias personalizadas con inteligencia artificial
Noscroll es una startup que utiliza un bot de inteligencia artificial para ofrecer resúmenes de noticias personalizadas, evitando la sobrecarga emocional de las redes sociales....
OpenAI lanza GPT-5.5 para revolucionar la inteligencia artificial
OpenAI ha lanzado GPT-5.5, un modelo avanzado que mejora la experiencia del usuario y optimiza tareas complejas. Este desarrollo busca crear una “superapp” que integre...
Lo más reciente
- 1
SpeakOn de Notta: diseño atractivo pero con limitaciones críticas
- 2
Startups climáticas destacan en mercados, pero enfrentan retos financieros
- 3
Tiroteo en Tumbler Ridge reaviva debate sobre ética tecnológica
- 4
Cohere y Aleph Alpha se unen para impulsar IA europea
- 5
Snabbit transforma servicios domésticos en India con nueva financiación
- 6
John Ternus asume liderazgo en Apple con enfoque innovador
- 7
SusHi Tech Tokyo 2026: Innovación y sostenibilidad en tecnología global

