Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
EE. UU. transforma su defensa con inteligencia artificial y tecnología
El Departamento de Defensa de EE. UU. está transformando sus capacidades militares mediante la adopción de inteligencia artificial, firmando acuerdos con empresas tecnológicas. Esta estrategia...
ChatGPT Images 2.0 revoluciona la creatividad artística en India
La llegada de ChatGPT Images 2.0 ha revolucionado la generación de imágenes en India, donde ha alcanzado la mayor base de usuarios. La herramienta fomenta...
Anthropic busca 50.000 millones para potenciar su crecimiento en IA
Anthropic, en auge en el sector de la inteligencia artificial, busca 50.000 millones de dólares en una nueva ronda de financiación. Con una valoración estimada...
Apple crece un 6% en ventas de Mac por IA
Apple ha sorprendido con un crecimiento del 6% en las ventas de Mac, impulsado por la demanda de inteligencia artificial. Dispositivos como el MacBook Neo...
Inteligencia artificial revoluciona el sector legal con Legora
La inteligencia artificial está transformando el sector legal, destacando la inversión de NVentures en Legora, una startup que optimiza el trabajo de abogados. La competencia...
Google presenta Gemini, la IA que transformará la conducción
Google lanzará su sistema de IA, Gemini, en vehículos con Google integrado, mejorando la interacción entre conductores y coches. Con funciones como conversaciones en tiempo...
BioticsAI transforma diagnóstico prenatal con IA y FDA aprobada
BioticsAI, cofundada por Robhy Bustami, está revolucionando el diagnóstico prenatal mediante un copiloto de IA para ultrasonidos. Con la aprobación de la FDA, la empresa...
Elon Musk revela desafíos éticos en distilación de IA
La distilación en inteligencia artificial, revelada por Elon Musk en un juicio contra OpenAI, plantea desafíos éticos y de competencia. Gigantes tecnológicos como OpenAI y...
Lo más reciente
- 1
Artistas luchan por proteger sus obras en la era digital
- 2
Inteligencia artificial transforma diagnósticos médicos pero necesita ética
- 3
Narnia: The Magician’s Nephew se estrena el 12 de febrero 2027
- 4
Uber convierte vehículos en plataformas de recolección de datos
- 5
Meta compra Assured Robot Intelligence para avanzar en robótica
- 6
Musely revoluciona telemedicina y recauda 360 millones de dólares
- 7
Meta refuerza liderazgo en robótica humanoide con Assured Robot Intelligence

