Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
OpenAI busca superar capacidades humanas con IA responsable y social
OpenAI, bajo la dirección de Sam Altman, avanza hacia la creación de sistemas de IA que superen las capacidades humanas en investigación. La transformación en...
Khosla sugiere que EE. UU. compre 10% de empresas públicas
Vinod Khosla propone que el gobierno de EE. UU. adquiera un 10% de las empresas públicas para redistribuir la riqueza generada por la inteligencia artificial....
Elloe AI propone "antivirus" para regular la inteligencia artificial
La inteligencia artificial avanza rápidamente, generando preocupaciones éticas y la necesidad de regulación. Elloe AI propone un sistema que actúa como "antivirus" para modelos de...
OpenAI crea OpenAI Group para avanzar en IA ética y responsable
OpenAI ha completado una recapitalización, creando OpenAI Group, una corporación de beneficio público bajo una fundación sin ánimo de lucro. Este cambio, impulsado por inversiones...
Adobe potencia Creative Cloud con inteligencia artificial innovadora
Adobe integra inteligencia artificial en su suite Creative Cloud, mejorando la eficiencia y redefiniendo la creatividad. Con asistentes en Adobe Express y Photoshop, así como...
Adobe Firefly Image 5 revoluciona la generación de imágenes creativas
Adobe ha lanzado Firefly Image 5, mejorando la generación de imágenes a 4 megapíxeles y la representación de humanos. Incorpora edición por capas, personalización de...
Paypal y OpenAI revolucionan el comercio digital con ChatGPT
La colaboración entre Paypal y OpenAI transformará el comercio digital al integrar pagos en ChatGPT mediante el Protocolo de Comercio Agentic. Esta innovación facilitará compras...
OpenAI lanza ChatGPT Go gratuito en India por un año
OpenAI ha lanzado su plan ChatGPT Go gratuito durante un año en India, buscando expandir su base de usuarios en un mercado con gran demanda...
Lo más reciente
- 1
Mogul transforma la producción cinematográfica con tecnología blockchain
- 2
Fallo de seguridad en Tata Motors expone datos de clientes
- 3
Energía geotérmica alcanza récords y transforma el sector energético
- 4
Super Teacher ofrece tutoría personalizada asequible con IA
- 5
Waabi y Volvo lanzan camión autónomo sin conductor de seguridad
- 6
Brynn Putnam lanza Board, el futuro del juego social
- 7
Aurora transforma el transporte autónomo en Texas con nueva ruta

