Publicada la versión completa y final del Acta de IA de la UE
El texto completo y final del Acta de IA de la UE, la regulación basada en riesgos de la Unión Europea para aplicaciones de inteligencia artificial, ha sido publicado en el Diario Oficial del bloque.
El acta de IA de la UE entra en vigor
En 20 días, el 1 de agosto, la nueva ley entrará en vigor y en 24 meses, para mediados de 2026, sus disposiciones serán generalmente aplicables a los desarrolladores de IA. Sin embargo, la ley adopta un enfoque escalonado para implementar el manual de reglas de IA de la UE, lo que significa que hay varios plazos de interés entre ahora y entonces, e incluso algunos más tarde aún, ya que diferentes disposiciones legales comenzarán a aplicarse.
Regulación de la IA en la UE
Los legisladores de la UE alcanzaron un acuerdo político sobre el primer manual completo del bloque para la IA en diciembre del año pasado.
El marco establece diferentes obligaciones para los desarrolladores de IA, según los casos de uso y el riesgo percibido. La mayoría de los usos de IA no estarán regulados, ya que se consideran de bajo riesgo, pero un pequeño número de posibles casos de uso de IA están prohibidos por ley.
Casos de uso de alto riesgo
Los casos de uso de "alto riesgo", como el uso biométrico de la IA o la IA utilizada en la aplicación de la ley, el empleo, la educación y la infraestructura crítica, están permitidos por la ley, pero los desarrolladores de dichas aplicaciones enfrentan obligaciones en áreas como la calidad de los datos y la prevención del sesgo.
Un tercer nivel de riesgo también aplica algunos requisitos de transparencia más ligeros para los fabricantes de herramientas como los chatbots de IA.
Implementación escalonada
En primer lugar, la lista de usos prohibidos de la IA se aplicará seis meses después de que la ley entre en vigor, es decir, a principios de 2025.
Los casos de uso de IA prohibidos (o de "riesgo inaceptable") que pronto serán ilegales incluyen el puntaje de crédito social al estilo de China; la recopilación de bases de datos de reconocimiento facial mediante el rastreo no dirigido de Internet o CCTV; el uso de biometría remota en tiempo real por parte de las fuerzas del orden en lugares públicos a menos que se apliquen varias excepciones, como durante la búsqueda de personas desaparecidas o secuestradas.
Códigos de práctica y transparencia
A continuación, nueve meses después de la entrada en vigor, alrededor de abril de 2025, se aplicarán códigos de práctica a los desarrolladores de aplicaciones de IA sujetas a regulación.
La Oficina de IA de la UE, un organismo de construcción de ecosistemas y supervisión establecido por la ley, es responsable de proporcionar estos códigos. Pero quién escribirá realmente las pautas sigue generando preguntas.
Otro plazo clave vence 12 meses después de la entrada en vigor, o el 1 de agosto de 2025, cuando las reglas de la ley sobre los GPAI que deben cumplir con los requisitos de transparencia comenzarán a aplicarse.
Otras noticias • IA
OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos
OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...
Reacciones mixtas ante la personalización de ChatGPT en usuarios
La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...
Geoff Ralston lanza fondo para startups de inteligencia artificial segura
Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...
Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro
El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...
IA en imágenes: avances y riesgos para la privacidad
El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....
OpenAI implementa vigilancia para prevenir amenazas en IA
OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...
Desafíos éticos y de seguridad en la inteligencia artificial
La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....
Codex CLI de OpenAI mejora la programación con IA localmente
Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...
Lo más reciente
- 1
Palantir enfrenta críticas éticas por contrato con ICE
- 2
A Minecraft Movie alcanza 720 millones y conquista a fans
- 3
Controversia sobre modelo O3 resalta necesidad de transparencia en IA
- 4
Meta busca revitalizar Facebook ante la competencia de TikTok
- 5
Mechanize genera controversia por su ambiciosa automatización laboral
- 6
Juicio antimonopolio a Meta podría cambiar redes sociales para siempre
- 7
Owen Nowhere revoluciona la animación infantil con blockchain interactivo