Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Zesty de DoorDash revoluciona la búsqueda de restaurantes sociales
Zesty, la nueva app de DoorDash, transforma la búsqueda de restaurantes mediante inteligencia artificial y un enfoque social. Permite recomendaciones personalizadas y la interacción entre...
OpenAI lanza GPT-Image-1.5 con mejoras en generación visual
OpenAI ha lanzado GPT-Image-1.5, mejorando la generación de imágenes con controles más precisos y una experiencia de usuario optimizada. Esta actualización busca mantener la competitividad...
Startups eligen mantenerse privadas para impulsar la innovación tecnológica
Cada vez más startups, como Databricks, optan por mantenerse privadas y financiarse a través de rondas de inversión, evitando las OPI. Este enfoque les permite...
Firefly de Adobe revoluciona la creación de contenido multimedia
La evolución de Firefly de Adobe transforma la creación de contenido multimedia, permitiendo ediciones de vídeo intuitivas mediante comandos textuales. Con nuevas herramientas, colaboración en...
Chai Discovery recauda 130 millones y alcanza valoración de 1.3 mil millones
Chai Discovery, respaldada por OpenAI, ha recaudado 130 millones de dólares en su serie B, alcanzando una valoración de 1.3 mil millones. La startup utiliza...
La inteligencia artificial generativa avanza rápido en empresas
La inteligencia artificial generativa está en evolución, con una adopción empresarial más rápida que la de consumidores. Se requiere un periodo de estabilización y nuevos...
Nvidia fortalece su liderazgo en IA con adquisiciones y nuevos modelos
Nvidia expande su influencia en la inteligencia artificial de código abierto mediante la adquisición de SchedMD y el lanzamiento de los modelos Nemotron 3. Su...
Capital riesgo se transforma, startups enfrentan nuevos desafíos
La industria del capital riesgo está en transformación, con inversores centrados en firmas consolidadas y en sectores como la inteligencia artificial. Este cambio plantea retos...
Lo más reciente
- 1
MoEngage recauda $180 millones y potencia su crecimiento tecnológico
- 2
Juez californiano cuestiona publicidad de Tesla sobre Autopilot y FSD
- 3
WikiFlix: acceso gratuito a más de 4000 películas clásicas
- 4
Instacart enfrenta críticas por precios dinámicos y falta de transparencia
- 5
X y Operation Bluebird se enfrentan por la marca Twitter
- 6
Slate Auto acumula 150,000 reservas para camioneta eléctrica 2026
- 7
Meta mejora gafas inteligentes con audio y Spotify integrado

