IA | Fraude

Descubren técnica para engañar IA al cambiar preguntas iniciales

Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial

Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.

Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.

Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.

El peligro de aprender "en contexto"

En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.

¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.

Advertencia a la comunidad de inteligencia artificial

El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.

Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Crisis reputacional

Delve en crisis por falsificación de datos y ciberataques

La startup Delve enfrenta una crisis de reputación tras acusaciones de falsificación de datos y la implicación en ataques cibernéticos a sus clientes, como LiteLLM...

Crecimiento notable

Crecimiento récord de aplicaciones móviles en India en 2023

El mercado de aplicaciones móviles en India ha crecido significativamente, alcanzando ingresos récord en 2023. Las aplicaciones no relacionadas con juegos lideran el crecimiento, especialmente...

Inversión tecnológica

Tesla invertirá 25 mil millones en IA y robótica hasta 2026

Tesla, bajo la dirección de Elon Musk, planea invertir 25 mil millones de dólares en inteligencia artificial y robótica para 2026, triplicando su gasto anterior....

Innovaciones AI

Google Workspace se renueva con inteligencia artificial y mejoras

Google ha presentado actualizaciones en Google Workspace centradas en la inteligencia artificial, incluyendo Workspace Intelligence y mejoras en Google Sheets y Docs. Estas innovaciones buscan...

Adquisición estratégica

SpaceX busca diversificar con adquisición de Cursor por 60 mil millones

SpaceX planea adquirir Cursor, una empresa de software de IA, por 60 mil millones de dólares, buscando diversificar sus operaciones más allá del lanzamiento de...

TPUs optimizadas

Google Cloud lanza TPUs de octava generación para IA

Google Cloud ha presentado su octava generación de TPUs, optimizando el rendimiento y la eficiencia energética en inteligencia artificial. Con dos modelos, TPU 8t y...

Respuestas rápidas

Google lanza AI Overviews en Gmail para respuestas rápidas

Google ha presentado AI Overviews en Gmail, permitiendo a los usuarios obtener respuestas rápidas en lenguaje natural sin leer múltiples correos. Esta función, que también...

Plataforma empresarial

Google lanza Gemini, la nueva era de la automatización empresarial

Google ha presentado la Gemini Enterprise Agent Platform, una herramienta de inteligencia artificial destinada a optimizar la gestión empresarial. Con un enfoque en la seguridad...