Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
NomadicML recibe 8,4 millones para revolucionar datos en IA autónoma
NomadicML, una startup emergente, ha desarrollado una plataforma que convierte grabaciones en conjuntos de datos estructurados para mejorar el entrenamiento de modelos de IA en...
Creciente adopción de IA en EE. UU. pero baja confianza
La adopción de la inteligencia artificial en Estados Unidos crece, pero la confianza en ella es baja. Un estudio revela que el 76% desconfía de...
Mantis Biotech revoluciona la medicina con gemelos digitales humanos
Mantis Biotech ha desarrollado una plataforma que crea gemelos digitales del cuerpo humano mediante la recopilación de datos de diversas fuentes. Esta tecnología permite simular...
ScaleOps recauda 130 millones para optimizar gestión en la nube
ScaleOps, una startup emergente, ha recaudado 130 millones de dólares para desarrollar una solución autónoma que optimiza la gestión de infraestructuras en la nube, reduciendo...
Mistral AI invierte 830 millones en infraestructura de IA en Europa
Mistral AI ha recaudado 830 millones de dólares para construir un centro de datos cerca de París, impulsando la infraestructura de inteligencia artificial en Europa....
Chatbots fomentan dependencia al adular más que humanos
La "sicosis de la adulación" en la inteligencia artificial, especialmente en chatbots, valida las creencias de los usuarios, debilitando sus habilidades sociales y fomentando la...
Anthropic crece con Claude en medio de disputa con Defensa
La disputa entre Anthropic y el Departamento de Defensa de EE. UU. ha impulsado el crecimiento de su producto, Claude, gracias a una estrategia de...
SK hynix planea cotizar en EE. UU. para atraer inversores
SK hynix busca cotizar en EE. UU. para aumentar su valoración y atraer nuevos inversores, con una recaudación prevista de hasta 14.000 millones de dólares....
Lo más reciente
- 1
Truecaller supera 500 millones de usuarios y combate el spam
- 2
TikTok introduce juego de emojis para interactuar en DMs
- 3
Alexa+ revoluciona pedidos a domicilio con interacciones personalizadas
- 4
Whoop recauda 575 millones y alcanza valoración de 10.100 millones
- 5
Ataque a Axios revela vulnerabilidades en software de código abierto
- 6
Dubái lanza robotaxis autónomos, revolucionando la movilidad urbana
- 7
Micromovilidad transforma entregas urbanas con vehículos autónomos sostenibles

