Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Grandes tecnológicas luchan por monetizar la inteligencia artificial
La monetización de la inteligencia artificial sigue siendo un reto para las grandes tecnológicas, como Apple y OpenAI, que enfrentan presión de inversores. A pesar...
Elon Musk evalúa fusiones que revolucionarán tecnología y aeroespacio
Elon Musk está considerando fusiones entre SpaceX, xAI y Tesla, lo que podría revolucionar los sectores tecnológico y aeroespacial. Las sinergias potenciales incluyen la integración...
Microsoft reporta ingresos sólidos pero acciones caen por dudas
Microsoft reportó ingresos de 81.300 millones de dólares, pero sus acciones cayeron por preocupaciones sobre sus inversiones en inteligencia artificial y nube. A pesar del...
Apple compra Q.ai por casi 2.000 millones para innovar audio
Apple ha adquirido Q.ai, una startup israelí especializada en inteligencia artificial y procesamiento de audio, por casi 2.000 millones de dólares. Esta compra busca mejorar...
Edidores musicales demandan a Anthropic por descarga ilegal de canciones
La demanda de editores musicales contra Anthropic por la descarga ilegal de 20,000 canciones protegidas plantea serias preocupaciones sobre los derechos de autor en la...
Sora enfrenta caída en descargas y futuro incierto
Sora, la app de generación de vídeos de OpenAI, comenzó con gran éxito pero ha visto una caída significativa en descargas y gasto de usuarios...
Google Maps incorpora Gemini para navegación manos libres segura
Google Maps integra Gemini para ofrecer una navegación manos libres, permitiendo a los usuarios realizar consultas mientras caminan o montan en bicicleta. Esta actualización mejora...
Flapping Airplanes lanza laboratorio de IA con 180 millones de dólares
Flapping Airplanes, un nuevo laboratorio de IA financiado con 180 millones de dólares, busca desafiar el enfoque actual de escalabilidad. Promueve la investigación a largo...
Lo más reciente
- 1
Kofi Ampadu deja a16z y pausa programa de inclusión emprendedora
- 2
OnlyFans evalúa venta mayoritaria por 5.5 mil millones de dólares
- 3
Blue Origin pausa vuelos turísticos para explorar la Luna
- 4
Instagram permitirá eliminarse de "Mejores amigos" y lanzará suscripciones
- 5
Inteligencia artificial revoluciona la automatización y creatividad empresarial
- 6
Ciberataque ruso a Polonia revela vulnerabilidades en infraestructura energética
- 7
Silicon Valley ante dilema moral por violencia y políticas gubernamentales

