Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Google lanza Gemini Intelligence para mejorar la experiencia Android
Google ha presentado Gemini Intelligence, que mejora la interacción del usuario con dispositivos Android. Sus nuevas capacidades incluyen gestión de tareas, navegación automática, relleno de...
Google presenta "Crear Mi Widget" para personalizar pantallas fácilmente
Google lanza "Crear Mi Widget", una función que permite a los usuarios personalizar sus pantallas de inicio mediante lenguaje natural. Integrada con aplicaciones de Google...
Inteligencia artificial transforma el sector legal enfrentando retos éticos
La inteligencia artificial está revolucionando el sector legal, con herramientas como Claude de Anthropic que optimizan tareas clericales. Sin embargo, surgen retos éticos y la...
Dessn revoluciona la colaboración entre diseñadores y desarrolladores en la nube
Dessn, una innovadora startup de diseño, permite a los equipos trabajar directamente sobre bases de código en la nube, optimizando la colaboración entre diseñadores y...
La IA transforma la atención al cliente y genera oportunidades
La inteligencia artificial está revolucionando la atención al cliente, como demuestra la colaboración entre Amazon Ring y Vapi. Esta última, con su tecnología de voz,...
Robinhood lanza fondo de riesgo accesible para todos los inversores
Robinhood lanza RVII, un fondo de capital de riesgo centrado en startups en fases iniciales, buscando democratizar la inversión. A diferencia de fondos tradicionales, ofrece...
Digg renace con inteligencia artificial y contenido relevante
Digg ha renacido con un enfoque renovado en la inteligencia artificial, buscando ofrecer contenido relevante y de calidad. La plataforma se centra en las tendencias...
Narrativas positivas de IA fomentan interacciones éticas y beneficiosas
La representación de la inteligencia artificial en la cultura popular influye en su desarrollo y comportamiento. Anthropic destaca que narrativas positivas mejoran la alineación de...
Lo más reciente
- 1
Ciberataque en Community Bank expone datos personales de clientes
- 2
Rambler de Google transforma el dictado por voz en Android
- 3
Samsara lanza herramienta IA para combatir baches en ciudades
- 4
Urgente regulación en inteligencia artificial para proteger inversores
- 5
Altman y Musk enfrentan tensiones sobre el futuro de OpenAI
- 6
Drew Baglino lanza Sadi Thermal Machines para energías sostenibles
- 7
Meta integra IA en Threads para enriquecer interacciones sociales

