Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Google lanza Doppl con IA para compras personalizadas y visuales
Google ha lanzado un nuevo feed de descubrimiento en su app Doppl, que utiliza IA para ofrecer experiencias de compra personalizadas. Este enfoque visual permite...
Claude Code en Slack transforma la programación colaborativa y eficiente
La integración de Claude Code en Slack revoluciona la programación colaborativa, permitiendo a los desarrolladores codificar directamente en hilos de chat. Esta automatización mejora la...
OpenAI e Instacart transforman compras con ChatGPT integrado
La colaboración entre OpenAI e Instacart permite a los usuarios gestionar compras de comestibles a través de ChatGPT, mejorando la experiencia de compra. Esta integración,...
Navegadores evolucionan con agentes automáticos para mayor seguridad
Los navegadores están evolucionando hacia características agentic, permitiendo acciones automáticas en nombre del usuario, como reservas y compras. Google prioriza la seguridad y privacidad mediante...
Hinge lanza "Convo Starters" para mejorar citas online con IA
Hinge ha lanzado "Convo Starters", una función que utiliza inteligencia artificial para facilitar conversaciones en citas en línea, abordando la frustración de los usuarios por...
ChatGPT: Innovación y críticas en busca de satisfacción del usuario
La controversia en torno a ChatGPT refleja tensiones entre innovación y experiencia del usuario. OpenAI enfrenta críticas por la percepción de publicidad en su plataforma,...
Meta adquiere Limitless para impulsar su estrategia de IA
Meta ha adquirido Limitless, una startup de IA, que cesará la venta de sus dispositivos para enfocarse en la visión de la empresa. Esta fusión...
Gemini crece y desafía el liderazgo de ChatGPT en IA
La competencia entre ChatGPT de OpenAI y Gemini de Google se intensifica, con Gemini mostrando un crecimiento notable en usuarios y participación de mercado. OpenAI...
Lo más reciente
- 1
Mistral lanza Devstral 2 y revoluciona la programación AI
- 2
Spotify introduce vídeos musicales en Premium para competir con YouTube
- 3
Anthropic y Accenture transforman la IA empresarial con formación
- 4
Empromptu facilita la creación de aplicaciones de IA para todos
- 5
FTC prohíbe a fundador de stalkerware por violaciones de seguridad
- 6
Tensiones en comercio de semiconductores entre EE. UU. y China
- 7
Lucid Motors en crisis por demanda de exjefe de ingeniería

