Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial
Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.
Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.
Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.
El peligro de aprender "en contexto"
En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.
¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.
Advertencia a la comunidad de inteligencia artificial
El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.
Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.
Otras noticias • IA
Inteligencia artificial transforma búsqueda online, plantea dilemas éticos
La búsqueda en Internet ha evolucionado con la inteligencia artificial, la personalización y la búsqueda de voz, mejorando la relevancia y la interacción. Sin embargo,...
Inteligencia artificial generativa enfrenta desafíos de censura y ética
La inteligencia artificial generativa ha revolucionado la creación de contenido, pero enfrenta desafíos de censura que limitan la libertad de expresión y el acceso a...
Robots domésticos transforman rutinas y mejoran calidad de vida
La robótica en el hogar avanza gracias a simulaciones y tecnologías accesibles, permitiendo a los robots adaptarse a entornos únicos. Estos dispositivos prometen transformar nuestras...
Avances en inteligencia artificial enfrentan desafíos y prometen futuro ético
La inteligencia artificial ha avanzado significativamente, mejorando su capacidad de aprendizaje y aplicaciones en diversos sectores. Sin embargo, enfrenta desafíos como la "alucinación" y la...
La búsqueda en Internet evoluciona con inteligencia artificial generativa
La búsqueda en Internet está evolucionando hacia modelos generativos impulsados por inteligencia artificial, que ofrecen respuestas rápidas y personalizadas. Sin embargo, surgen desafíos como la...
Las 5 Mejores Herramientas para Crear Artículos para Blogs
La creación de artículos completos y de calidad para blogs es esencial para mantener a tu audiencia comprometida y atraer nuevos lectores. A continuación, presentamos...
Inteligencia artificial generativa: oportunidades y retos en inversión masiva
La inteligencia artificial generativa está revolucionando múltiples sectores, impulsando una inversión masiva en startups. Sin embargo, enfrenta desafíos legales, altos costos de entrenamiento y la...
Inteligencia artificial transforma redes sociales, desafíos y oportunidades surgen
La inteligencia artificial ha transformado las redes sociales mediante algoritmos de recomendación, moderación de contenido y personalización de experiencias. Aunque ofrece ventajas, también presenta desafíos...
Lo más reciente
- 1
Pagos digitales transforman comercio y gestión de impuestos
- 2
Inteligencia artificial transforma tecnología y plantea dudas sobre privacidad
- 3
Inteligencia artificial transforma sectores y plantea desafíos éticos
- 4
TikTok transforma la promoción musical con su nueva función
- 5
Seguridad en criptomonedas: claves para proteger tus inversiones
- 6
Seguridad en lanzamientos espaciales: clave para el futuro exploratorio
- 7
Inteligencia artificial y privacidad: un desafío para las redes sociales