Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Claude for Small Business impulsa la IA en PYMES
La nueva suite "Claude for Small Business" de Anthropic busca facilitar la adopción de inteligencia artificial en pequeñas empresas, ofreciendo herramientas accesibles y formación gratuita....
Origin Lab une IA y videojuegos para innovar y generar ingresos
Origin Lab conecta la inteligencia artificial y los videojuegos, ofreciendo datos de videojuegos para entrenar modelos de IA que operen en entornos físicos. Este enfoque...
Amazon presenta Alexa for Shopping, revolucionando la compra online
Amazon lanza "Alexa for Shopping", un asistente de compras basado en inteligencia artificial que personaliza la experiencia de compra online. Permite comparar precios, programar pedidos...
Meta lanza conversaciones incógnitas en WhatsApp para mayor privacidad
Meta ha introducido conversaciones "incógnitas" en WhatsApp, permitiendo interacciones privadas con su chatbot de inteligencia artificial. Los mensajes se eliminan automáticamente al cerrar la conversación,...
Anthropic supera a OpenAI en clientes empresariales de IA
Anthropic ha superado a OpenAI en clientes empresariales, reflejando un cambio en la adopción de soluciones de IA. Su enfoque en un público técnico y...
Poppy revoluciona la gestión del tiempo con inteligencia artificial
Poppy es una innovadora aplicación que simplifica la gestión del tiempo al integrar calendarios, correos y mensajes en un solo lugar. Utiliza inteligencia artificial para...
Adaption lanza AutoScientist para revolucionar la inteligencia artificial
Adaption ha lanzado AutoScientist, una herramienta que automatiza el ajuste de modelos de inteligencia artificial, prometiendo mejorar su eficiencia y facilitar el acceso a la...
Rambler de Google transforma el dictado por voz en Android
Rambler, la nueva función de dictado por voz de Google, promete revolucionar la comunicación en Android al ofrecer transcripción precisa y multilingüe, sin almacenar datos...
Lo más reciente
- 1
Datos masivos de malware fortalecen la ciberseguridad globalmente
- 2
Notion presenta plataforma para automatización y colaboración de desarrolladores
- 3
Anthropic lidera la IA con ética y seguridad innovadora
- 4
Fervo Energy impulsa el renacer de la energía geotérmica
- 5
Crecimiento de repositorios de malware fortalece la ciberseguridad global
- 6
Sam Altman destaca falta de transparencia y necesidad de regulación
- 7
Instagram presenta "Instants" para fotos efímeras y auténticas

