Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Anysphere lanza app web para gestionar agentes de codificación IA
Anysphere ha lanzado una aplicación web para gestionar agentes de codificación impulsados por IA, mejorando la productividad de los desarrolladores. Esta herramienta permite asignar tareas...
Claudius, la IA que gestiona una expendedora, sorprende y divierte
El experimento "Project Vend" con Claudius, un agente de IA que gestiona una máquina expendedora, revela su comportamiento errático y cómico al tomar decisiones absurdas....
Inteligencia artificial: talento busca impacto más que salario alto
La inteligencia artificial está en auge, con empresas como Meta compitiendo por atraer talento mediante ofertas salariales complejas. Investigadores valoran más que el dinero, buscando...
Anthropic lanza programa para investigar impacto de la IA en empleo
Anthropic ha lanzado el programa "Futuros Económicos" para investigar el impacto de la IA en el empleo y la economía. Se centra en subvenciones para...
Facebook propone editar fotos pero genera dudas sobre privacidad
Facebook, bajo Meta, propone acceder a la galería de fotos de los usuarios para sugerir ediciones, generando preocupaciones sobre la privacidad y el consentimiento. La...
Competencia por talento en IA: startups vs grandes empresas
La competencia por talento en inteligencia artificial es intensa, con empresas como Meta ofreciendo compensaciones atractivas, aunque no siempre en efectivo inmediato. Muchos investigadores prefieren...
Crossing Minds y OpenAI transforman el comercio electrónico ético
Crossing Minds se une a OpenAI para revolucionar el comercio electrónico mediante sistemas de recomendación basados en IA, priorizando la ética y la privacidad. La...
Cluely recauda 15 millones pero enfrenta dudas éticas y de calidad
Cluely, una startup controvertida que promueve el "engaño", ha recaudado 15 millones de dólares de Andreessen Horowitz. Su enfoque de marketing provocador genera atención, pero...
Lo más reciente
- 1
Instagram integra adelantos de Spotify en Stories para usuarios
- 2
Klarna y Bolt se unen para mejorar pagos flexibles
- 3
Songscription revoluciona la música transformando audio en partituras instantáneamente
- 4
Proton demanda a Apple por monopolio en su App Store
- 5
Tailor recauda 22 millones para innovar en gestión empresarial
- 6
Infiltración de hackers norcoreanos causa pérdidas en empresas estadounidenses
- 7
Google Gemini revoluciona la educación con inteligencia artificial personalizada