IA | Fraude

Descubren técnica para engañar IA al cambiar preguntas iniciales

Investigadores descubren una nueva técnica para engañar a los modelos de lenguaje de inteligencia artificial

Un grupo de investigadores de Anthropic ha descubierto una nueva técnica para convencer a un modelo de lenguaje de inteligencia artificial de que responda a preguntas inapropiadas. Este enfoque, denominado "jailbreaking de muchas tomas", permite que un modelo de lenguaje grande te diga cómo construir una bomba si lo preparas con unas pocas docenas de preguntas menos dañinas primero.

Esta vulnerabilidad es resultado de la mayor "ventana de contexto" de la última generación de modelos de lenguaje de gran tamaño. Anteriormente, estos modelos solo podían retener unos pocos párrafos en su memoria a corto plazo, pero ahora pueden almacenar miles de palabras e incluso libros enteros.

Los investigadores de Anthropic descubrieron que estos modelos con grandes ventanas de contexto tienden a rendir mejor en muchas tareas si hay muchos ejemplos de esa tarea dentro de la solicitud. Por lo tanto, si la solicitud contiene muchas preguntas triviales (o un documento de preparación, como una gran lista de trivia que el modelo tiene en contexto), las respuestas mejoran con el tiempo.

El peligro de aprender "en contexto"

En una extensión inesperada de este "aprendizaje en contexto", los modelos también mejoran en la respuesta a preguntas inapropiadas. Por lo tanto, si le pides que construya una bomba de inmediato, se negará. Pero si le pides que responda a otras 99 preguntas menos dañinas y luego le pides que construya una bomba... es mucho más probable que cumpla.

¿Por qué funciona esto? Nadie entiende realmente lo que sucede en el enredo de pesos que es un modelo de lenguaje de gran tamaño, pero claramente hay un mecanismo que le permite enfocarse en lo que el usuario desea, como lo demuestra el contenido en la ventana de contexto.

Advertencia a la comunidad de inteligencia artificial

El equipo de investigadores ya ha informado a sus colegas y competidores sobre este ataque, algo que espera fomente una cultura en la que los exploits como este se compartan abiertamente entre proveedores e investigadores de modelos de lenguaje de gran tamaño.

Para mitigar este problema, han descubierto que limitar la ventana de contexto ayuda, pero también tiene un efecto negativo en el rendimiento del modelo. Por lo tanto, están trabajando en clasificar y contextualizar las consultas antes de que lleguen al modelo. Aunque esto simplemente significa que tendrás un modelo diferente para engañar... pero a estas alturas, el movimiento de las porterías en la seguridad de la IA es de esperar.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Recomendaciones personalizadas

Tubi integra ChatGPT para recomendaciones personalizadas de contenido

Tubi ha lanzado una integración con ChatGPT, permitiendo a los usuarios recibir recomendaciones personalizadas de su vasta biblioteca de contenido mediante lenguaje natural. Esta innovación...

Demanda creciente

Mac Mini y Astropad revolucionan productividad en inteligencia artificial

La demanda del Mac Mini ha crecido, impulsada por su uso en inteligencia artificial. Astropad ha lanzado Workbench, una solución de escritorio remoto que permite...

Premio Computación

Matei Zaharia recibe Premio ACM por revolucionar manejo de datos

Matei Zaharia, cofundador y CTO de Databricks, ha sido galardonado con el Premio ACM en Computación 2026. Su trabajo en Spark ha revolucionado el manejo...

Protección infantil

OpenAI lanza plan para proteger a niños de la IA

El "Child Safety Blueprint" de OpenAI busca mitigar la explotación infantil relacionada con la IA, actualizando legislaciones, mejorando mecanismos de reporte y estableciendo salvaguardias en...

Dictado inteligente

Google lanza aplicación de dictado AI para iOS

Google ha lanzado "Google AI Edge Eloquent", una innovadora aplicación de dictado para iOS que ofrece transcripciones precisas y personalizables. Con opciones de procesamiento local...

Revolución ética

Arcee lanza Trinity, un modelo de lenguaje revolucionario y ético

Arcee, una startup estadounidense, lanza Trinity Large Thinking, un modelo de lenguaje de código abierto con 400 mil millones de parámetros. Ofrece flexibilidad y seguridad...

Colaboración tecnológica

Intel SpaceX y Tesla unirán fuerzas en fábrica de semiconductores

Intel, SpaceX y Tesla han anunciado una colaboración para construir una fábrica de semiconductores en Texas, conocida como Terafab, con el objetivo de producir un...

Nube competitiva

Uber y Amazon AWS refuerzan alianza en la nube

Uber amplía su contrato con Amazon AWS, destacando su transición hacia la nube y el uso de chips diseñados por Amazon. Este movimiento refuerza la...