Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Macroscope revoluciona la gestión de código con inteligencia artificial
Macroscope es una startup que optimiza la gestión del código para desarrolladores mediante inteligencia artificial. Fundada por Kayvon Beykpour y otros, ofrece análisis eficientes y...
Keplar revoluciona investigación de mercado con inteligencia artificial de voz
Keplar, una startup de investigación de mercado, utiliza inteligencia artificial de voz para realizar entrevistas con clientes, reduciendo costes y tiempos de obtención de datos....
Amazon presenta Seller Assistant para optimizar ventas y publicidad
Amazon ha lanzado el Seller Assistant, un asistente de IA que optimiza la gestión de ventas y publicidad para los vendedores. Este innovador sistema analiza...
Meta Connect 2025: Innovaciones en gafas y inteligencia artificial
Meta Connect 2025 promete innovaciones en gafas inteligentes, como las Hypernova, y avances en inteligencia artificial con los Meta Superintelligence Labs. La compañía busca integrar...
Gemini alcanza 12.6 millones de descargas con Nano Banana
Gemini ha experimentado un crecimiento explosivo desde el lanzamiento de su editor de imágenes Nano Banana, alcanzando 12.6 millones de descargas en septiembre. Su facilidad...
Inteligencia artificial revoluciona la revisión de código en software
La inteligencia artificial está transformando la revisión de código en el desarrollo de software. Harjot Gill fundó CodeRabbit para abordar los desafíos de calidad del...
Gemini Nano Banana revoluciona edición de imágenes con éxito impresionante
Gemini, con su modelo Nano Banana, ha revolucionado la edición de imágenes, alcanzando 12.6 millones de descargas en septiembre y generando 6.3 millones de dólares...
Salesforce lanza Missionforce para integrar IA en la defensa
Salesforce ha creado Missionforce, una unidad centrada en integrar inteligencia artificial en la defensa, mejorando personal, logística y toma de decisiones. Liderada por Kendall Collins,...
Lo más reciente
- 1
Meta revoluciona el metaverso con Hyperscape y nuevos juegos
- 2
StubHub se adapta y sale a bolsa tras adversidades
- 3
Groq recauda 750 millones y compite con Nvidia en IA
- 4
Meta presenta Oakley Vanguard, las gafas inteligentes para atletas
- 5
Meta lanza Ray-Ban inteligentes que fusionan moda y tecnología
- 6
Inteligencia artificial y ciberseguridad: nuevos retos y soluciones emergentes
- 7
China prohíbe chips de Nvidia afectando a grandes empresas locales