Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Disney demanda a Google por uso indebido de imágenes AI
Disney ha enviado una carta de cese a Google, acusándolo de infringir sus derechos de autor mediante el uso de IA para distribuir imágenes de...
Google lanza Disco, IA para crear aplicaciones web personalizadas
Google ha lanzado "Disco", un experimento de IA que permite a los usuarios crear "GenTabs", aplicaciones web personalizadas según su navegación. Integrado en Chrome, busca...
Google lanza herramienta de prueba virtual de ropa con IA
Google ha lanzado una herramienta de prueba virtual de ropa que permite a los usuarios probarse prendas con una selfie, utilizando inteligencia artificial. Esta innovación...
Runway presenta GWM-1, revolución en simulación inteligente y robótica
Runway ha lanzado GWM-1, un modelo de simulación inteligente que comprende y simula el mundo real, con aplicaciones en robótica, educación y creación de avatares....
TIME Magazine honra a líderes en la revolución de la IA
TIME Magazine ha reconocido a los "Arquitectos de la IA", CEOs influyentes en la carrera por la inteligencia artificial. Este reconocimiento destaca tanto el potencial...
Disney y OpenAI invierten mil millones en creación de contenido
Disney y OpenAI han formado una alianza de tres años, invirtiendo mil millones de dólares para transformar la creación de contenido. A través de plataformas...
Neon de Opera: Navegador con IA para experiencia personalizada
Neon, el nuevo navegador de Opera, integra inteligencia artificial para ofrecer una experiencia de navegación personalizada y eficiente. Con funciones avanzadas como un chatbot y...
Amin Vahdat liderará infraestructura de IA en Google con 93 mil millones
Google ha nombrado a Amin Vahdat como tecnólogo jefe de infraestructura de IA, destacando su importancia estratégica. Con una inversión prevista de 93 mil millones...
Lo más reciente
- 1
Vulnerabilidad en Hama Film expone datos sensibles de clientes
- 2
Robotaxis y vehículos autónomos transforman la movilidad urbana
- 3
Reddit demanda a Australia por ley que limita acceso juvenil
- 4
World lanza innovaciones en verificación biométrica y pagos digitales
- 5
Estudiante de Stanford destapa escándalo y publica libro revelador
- 6
Google lanza Gemini Deep Research para revolucionar la investigación IA
- 7
1X y EQT distribuirán 10,000 robots Neo en empresas

