Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
OpenAI lanza herramientas financieras en ChatGPT Pro con Plaid
OpenAI ha lanzado herramientas de finanzas personales en ChatGPT Pro, colaborando con Plaid para conectar cuentas de más de 12,000 instituciones. Estas funcionalidades permiten un...
Osaurus revoluciona la IA local y en la nube para Apple
Osaurus es un servidor de modelos de lenguaje exclusivo para Apple que permite ejecutar IA de forma local o en la nube, ofreciendo flexibilidad y...
SpaceXAI pierde más de 50 empleados por presión laboral
SpaceXAI enfrenta una significativa fuga de talento, con más de 50 empleados abandonando la empresa desde su adquisición por SpaceX. La presión laboral, cambios en...
Campbell Brown lanza Forum AI para combatir desinformación digital
Campbell Brown, exjefa de noticias de Facebook, fundó Forum AI para abordar los desafíos de la inteligencia artificial en la información. Colaborando con expertos, busca...
Clawdmeter: Innovador dispositivo que fusiona diversión y productividad
El Clawdmeter es un dispositivo de código abierto que monitoriza el uso de Claude Code, combinando diversión y productividad con animaciones nostálgicas. Creado por Hermann...
Alianzas tecnológicas: expectativas desiguales y conflictos en colaboración
Las alianzas tecnológicas, como la de OpenAI y Apple, pueden generar expectativas desiguales y conflictos. La frustración de OpenAI por la integración insatisfactoria de ChatGPT...
Cerebras Systems recauda 5.500 millones y dispara acciones un 108%
Cerebras Systems ha recaudado 5.500 millones de dólares en su OPI, con acciones que inicialmente subieron un 108%. La empresa, especializada en chips para IA,...
Ian Crosby lanza Synthetic para revolucionar la contabilidad automatizada
Ian Crosby, tras el fracaso de Bench Accounting, lanza Synthetic, una startup que busca automatizar completamente la contabilidad mediante inteligencia artificial. Con 10 millones de...
Lo más reciente
- 1
Amazon deja de soportar Kindles antiguos, usuarios buscan alternativas
- 2
Controversia entre General Catalyst y a16z resalta ética en inversión
- 3
Filtración de datos en Tabiq afecta a más de un millón
- 4
Crisis energética en Lake Tahoe por demanda de centros de datos
- 5
Accidentes de Robotaxis en Austin revelan desafíos de conducción autónoma
- 6
Trump en China: Seguridad extrema y tensiones persistentes
- 7
Aumento de precios eléctricos por demanda de centros de datos

