Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Dispositivos de notas físicos revolucionan la grabación de reuniones
La revolución de los dispositivos de toma de notas físicos está transformando la forma en que grabamos y transcribimos reuniones. Con opciones portátiles y funciones...
Bots y IA transformarán la interacción en línea para 2027
La revolución digital impulsada por bots y inteligencia artificial transformará la interacción en línea, superando el tráfico humano para 2027. Este cambio plantea retos en...
Meta mejora moderación de contenidos con inteligencia artificial avanzada
Meta está implementando sistemas avanzados de inteligencia artificial para la moderación de contenidos en Facebook e Instagram, reduciendo la dependencia de proveedores externos. Estos sistemas...
DoorDash lanza "Tasks" y redefine el trabajo de repartidores
DoorDash lanza la aplicación "Tasks", que permite a sus repartidores realizar tareas adicionales, generando ingresos y datos para mejorar la inteligencia artificial. Este modelo flexible...
Amazon lanza Alexa+ en Reino Unido con acceso anticipado
Amazon ha lanzado Alexa+ en el Reino Unido, ofreciendo un programa de acceso anticipado para usuarios que compren dispositivos Echo. Este asistente virtual destaca por...
Startups impulsan IA local mejorando privacidad y eficiencia
La IA local, impulsada por startups como Multiverse Computing, ofrece modelos comprimidos que operan sin necesidad de la nube, mejorando la privacidad y eficiencia. Este...
Inteligencia artificial transforma empleo y despierta humor entre desarrolladores
La inteligencia artificial está transformando el mercado laboral, generando despidos masivos en la industria tecnológica. Los desarrolladores, preocupados por ser reemplazados, reaccionan con humor y...
Carl Pei imagina smartphones inteligentes sin aplicaciones tradicionales
Carl Pei, CEO de Nothing, propone un futuro sin aplicaciones, donde la inteligencia artificial actúa proactivamente en los smartphones, anticipando necesidades y simplificando tareas. Esta...
Lo más reciente
- 1
Elon Musk engañó a inversores de Twitter según veredicto judicial
- 2
Microsoft simplifica inteligencia artificial en Windows 11 por usuarios
- 3
Pinterest propone prohibir redes sociales para menores de 16 años
- 4
Kalshi en crisis legal por acusaciones de juego ilegal
- 5
WordPress.com integra IA para simplificar creación de sitios web
- 6
Auge en inversiones de IA genera incertidumbre y desafíos éticos
- 7
EE.UU. acusa a Irán de apoyar ataque cibernético a Stryker

