Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Nuevo banco de pruebas evalúa inteligencia artificial con acertijos
Investigadores han creado un banco de pruebas de acertijos para evaluar la inteligencia artificial (IA) de manera accesible y humana. Este enfoque revela las limitaciones...
Inteligencia artificial transforma la ingeniería de productos y colaboración
La inteligencia artificial está revolucionando la ingeniería de productos, facilitando la colaboración y la simulación digital. Startups como Trace.Space están modernizando procesos, permitiendo a las...
Modelo S1 de IA democratiza acceso y plantea dilemas éticos
La investigación sobre el modelo s1 de IA, desarrollado con menos de 50 dólares, democratiza el acceso a la inteligencia artificial. Utilizando destilación de modelos,...
Boston Dynamics y RAI Institute optimizan robot Atlas con IA
La colaboración entre Boston Dynamics y el RAI Institute se centra en mejorar el aprendizaje por refuerzo del robot humanoide Atlas. Utilizando simulaciones y modelos...
Expertos proponen nuevas métricas para evaluar la inteligencia artificial
La inteligencia artificial ha avanzado significativamente, pero comparar su progreso con el coeficiente intelectual humano es problemático. Expertos abogan por nuevas métricas que reflejen mejor...
Google lanza Gemini 2.0 Pro y desafía a DeepSeek
Google ha lanzado el modelo Gemini 2.0 Pro Experimental, intensificando la competencia con la startup china DeepSeek. Este nuevo modelo, con capacidad para procesar 2...
Musk y Tesla demandados por Alcon por derechos de autor
Elon Musk y Tesla enfrentan una demanda de Alcon Entertainment por supuesta violación de derechos de autor al utilizar imágenes generadas por IA inspiradas en...
La IA transforma el aprendizaje de habilidades blandas personalizadas
La inteligencia artificial está revolucionando el aprendizaje de habilidades blandas, permitiendo a los empleados acceder a formación personalizada y asequible. Plataformas como CodeSignal ofrecen cursos...
Lo más reciente
- 1
Mistral mejora Le Chat con app móvil y nivel Pro
- 2
Spotify y Warner Music Group amplían catálogo y suscripciones
- 3
Pendulum revoluciona la planificación de la cadena de suministro
- 4
Lyft y Anthropic crean IA para revolucionar atención al cliente
- 5
Fizz se reinventa para atraer a la Generación Z
- 6
TrueFoundry revoluciona la IA a gran escala para empresas
- 7
OpenAI lanza residencia de datos en Europa para cumplir normativas