Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Reddit refuerza medidas contra bots para proteger autenticidad
Reddit está intensificando su lucha contra los bots en su plataforma, implementando verificaciones de cuentas sospechosas y utilizando herramientas de identificación. Este enfoque busca mantener...
Granola recauda 125 millones y alcanza valoración de 1.500 millones
Granola, una startup que transforma la gestión de reuniones, ha recaudado 125 millones de dólares en una ronda Serie C, elevando su valoración a 1.500...
Meta integra IA en Facebook e Instagram para compras mejoradas
Meta ha anunciado la integración de inteligencia artificial en Facebook e Instagram para mejorar la experiencia de compra. Esto incluye resúmenes de opiniones de productos...
OpenAI cierra Sora tras problemas éticos y baja en descargas
OpenAI cerró Sora, una app social que prometía revolucionar la interacción con contenido generado por IA, tras enfrentar problemas éticos y una caída drástica en...
Databricks recauda 5.000 millones para innovar en ciberseguridad
Databricks ha recaudado 5.000 millones de dólares para expandirse en ciberseguridad con Lakewatch, una solución que combina analítica de datos e inteligencia artificial. La empresa...
Spotify protege a artistas con nueva función de revisión musical
Spotify ha introducido la función “Protección de Perfil de Artista” para permitir a los músicos revisar y aprobar las canciones atribuidas a ellos, en respuesta...
Claude de Anthropic revoluciona la programación con IA autónoma
La programación evoluciona con la IA, destacando el "modo automático" de Claude de Anthropic, que permite decisiones autónomas seguras. Esta innovación promete aumentar la productividad...
Arm Holdings lanza su propio chip AGI para inteligencia artificial
Arm Holdings ha decidido fabricar sus propios chips, comenzando con el Arm AGI CPU, diseñado para inteligencia artificial en centros de datos. Esta estrategia marca...
Lo más reciente
- 1
VITL revoluciona medicina estética con financiación de 7,5 millones
- 2
Meta y Google condenados a pagar 3 millones por salud mental
- 3
Detienen a administrador de foro LeakBase en lucha cibercrimen
- 4
Google lanza Lyria 3 Pro, revolucionando la creación musical
- 5
DeleteMe adquiere Block Party y refuerza la seguridad en redes
- 6
Políticos proponen moratoria a centros de datos por IA
- 7
Apple mejora App Store Connect con más de 100 métricas

