Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Meta lanza soporte centralizado pero usuarios siguen frustrados
Meta ha lanzado un nuevo centro de soporte centralizado para mejorar la atención al cliente en Facebook e Instagram, utilizando inteligencia artificial para ayudar en...
Meta evalúa recortes del 30% en inversión del Metaverso
Meta está reconsiderando su inversión en el Metaverso, con posibles recortes de hasta un 30% en su presupuesto. La falta de interés y resultados decepcionantes...
App Store Awards 2025: Innovaciones que transforman el ecosistema digital
Los App Store Awards 2025 destacan innovaciones como Tiimo, un planificador visual con IA, y Pokémon TCG Pocket, un juego de cartas que fomenta la...
Meta AI en WhatsApp provoca investigación antimonopolio de la CE
Meta ha limitado el acceso a su chatbot Meta AI a usuarios de WhatsApp, lo que ha llevado a la Comisión Europea a iniciar una...
Anthropic y Snowflake integran Claude con acuerdo de 200 millones
Anthropic y Snowflake han firmado un acuerdo de 200 millones de dólares para integrar el modelo de lenguaje Claude en la plataforma de Snowflake. Esta...
Alan Dye se une a Meta para impulsar inteligencia artificial
Alan Dye, exlíder de interfaz de usuario de Apple, se une a Meta en un momento crucial para fortalecer su enfoque en inteligencia artificial y...
Amazon lanza Trainium3 para competir con Nvidia en IA
Amazon está desafiando el dominio de Nvidia en el mercado de chips de inteligencia artificial con su nuevo chip Trainium3, que ofrece mayor velocidad y...
Telex revoluciona WordPress con bloques Gutenberg y AI accesible
Telex es una herramienta innovadora para WordPress que facilita la creación de bloques Gutenberg, permitiendo a los desarrolladores generar componentes web complejos de forma rápida...
Lo más reciente
- 1
Chicago Tribune demanda a Perplexity por infracción de derechos de autor
- 2
Micro1 alcanza 100 millones en ingresos por demanda de datos
- 3
Controversia por robotaxis de Waymo pone en riesgo a escolares
- 4
Apple reestructura su cúpula directiva ante nuevos desafíos estratégicos
- 5
Musk defiende uso de teléfonos en Tesla con FSD activo
- 6
Inteligencia artificial enfrenta retos económicos y estratégicos, advierte Amodei
- 7
Amazon evalúa su propia red de entrega, afecta a USPS

