Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Wonderful recauda 100 millones para revolucionar atención al cliente
La startup israelí Wonderful ha recaudado 100 millones de dólares en financiación para desarrollar agentes de IA que mejoran la atención al cliente. Su enfoque...
Yann LeCun deja Meta para fundar startup de IA
Yann LeCun, destacado científico de IA en Meta, planea dejar la empresa para fundar su propia startup centrada en modelos del mundo. Su salida, en...
Robyn, el asistente virtual que mejora la salud mental
Jenny Shao creó Robyn, un asistente virtual que ofrece apoyo emocional sin reemplazar a terapeutas. Diseñado para personalizar interacciones y garantizar la seguridad del usuario,...
Optimismo y riesgos en inversiones de infraestructura para IA
La revolución de la inteligencia artificial genera optimismo y preocupación por las inversiones en infraestructura. La discrepancia entre el rápido desarrollo de IA y la...
Wikipedia impulsa IA con modelo sostenible y directrices claras
Wikipedia se adapta a la inteligencia artificial mediante un modelo de negocio sostenible, Wikimedia Enterprise, que promueve el uso responsable de su contenido. La Fundación...
Elon Musk genera críticas tras celebrar con video de IA
Elon Musk celebró la aprobación de un paquete de compensación de un billón de dólares compartiendo un video generado por inteligencia artificial, lo que generó...
OpenAI pide al gobierno ampliar créditos para infraestructura de IA
OpenAI ha solicitado al gobierno de EE.UU. ampliar el Crédito Fiscal de Inversión en Fabricación Avanzada para facilitar la construcción de infraestructura de IA. Destacan...
Urgente regulación ética para la inteligencia artificial y salud mental
La creciente preocupación por la inteligencia artificial, especialmente tras demandas contra OpenAI por su modelo GPT-4o, resalta la necesidad de regulaciones éticas. Casos trágicos de...
Lo más reciente
- 1
Groww recauda ₹66.3 mil millones en histórica salida a bolsa
- 2
Australia alerta sobre ciberataques chinos a infraestructuras críticas
- 3
Veir revoluciona la energía con cables superconductores sostenibles
- 4
Einride se fusiona para salir a bolsa y revolucionar transporte
- 5
Teradar revoluciona la percepción vehicular con sensor terahertz
- 6
Europa lidera en financiación de inteligencia artificial y startups innovadoras
- 7
Masayoshi Son vende Nvidia para enfocarse en inteligencia artificial

