IA | Normativa

La UE publica Acta de IA que regula usos y riesgos

Publicada la versión completa y final del Acta de IA de la UE

El texto completo y final del Acta de IA de la UE, la regulación basada en riesgos de la Unión Europea para aplicaciones de inteligencia artificial, ha sido publicado en el Diario Oficial del bloque.

El acta de IA de la UE entra en vigor

En 20 días, el 1 de agosto, la nueva ley entrará en vigor y en 24 meses, para mediados de 2026, sus disposiciones serán generalmente aplicables a los desarrolladores de IA. Sin embargo, la ley adopta un enfoque escalonado para implementar el manual de reglas de IA de la UE, lo que significa que hay varios plazos de interés entre ahora y entonces, e incluso algunos más tarde aún, ya que diferentes disposiciones legales comenzarán a aplicarse.

Regulación de la IA en la UE

Los legisladores de la UE alcanzaron un acuerdo político sobre el primer manual completo del bloque para la IA en diciembre del año pasado.

El marco establece diferentes obligaciones para los desarrolladores de IA, según los casos de uso y el riesgo percibido. La mayoría de los usos de IA no estarán regulados, ya que se consideran de bajo riesgo, pero un pequeño número de posibles casos de uso de IA están prohibidos por ley.

Casos de uso de alto riesgo

Los casos de uso de "alto riesgo", como el uso biométrico de la IA o la IA utilizada en la aplicación de la ley, el empleo, la educación y la infraestructura crítica, están permitidos por la ley, pero los desarrolladores de dichas aplicaciones enfrentan obligaciones en áreas como la calidad de los datos y la prevención del sesgo.

Un tercer nivel de riesgo también aplica algunos requisitos de transparencia más ligeros para los fabricantes de herramientas como los chatbots de IA.

Implementación escalonada

En primer lugar, la lista de usos prohibidos de la IA se aplicará seis meses después de que la ley entre en vigor, es decir, a principios de 2025.

Los casos de uso de IA prohibidos (o de "riesgo inaceptable") que pronto serán ilegales incluyen el puntaje de crédito social al estilo de China; la recopilación de bases de datos de reconocimiento facial mediante el rastreo no dirigido de Internet o CCTV; el uso de biometría remota en tiempo real por parte de las fuerzas del orden en lugares públicos a menos que se apliquen varias excepciones, como durante la búsqueda de personas desaparecidas o secuestradas.

Códigos de práctica y transparencia

A continuación, nueve meses después de la entrada en vigor, alrededor de abril de 2025, se aplicarán códigos de práctica a los desarrolladores de aplicaciones de IA sujetas a regulación.

La Oficina de IA de la UE, un organismo de construcción de ecosistemas y supervisión establecido por la ley, es responsable de proporcionar estos códigos. Pero quién escribirá realmente las pautas sigue generando preguntas.

Otro plazo clave vence 12 meses después de la entrada en vigor, o el 1 de agosto de 2025, cuando las reglas de la ley sobre los GPAI que deben cumplir con los requisitos de transparencia comenzarán a aplicarse.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Mejoras limitadas

OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos

OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...

Interacción problemática

Reacciones mixtas ante la personalización de ChatGPT en usuarios

La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...

Inversión segura

Geoff Ralston lanza fondo para startups de inteligencia artificial segura

Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...

Falta transparencia

Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro

El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...

IA y privacidad

IA en imágenes: avances y riesgos para la privacidad

El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....

Vigilancia ética

OpenAI implementa vigilancia para prevenir amenazas en IA

OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...

Seguridad ética

Desafíos éticos y de seguridad en la inteligencia artificial

La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....

Programación eficiente

Codex CLI de OpenAI mejora la programación con IA localmente

Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...