La Unión Europea aprueba regulaciones pioneras para la inteligencia artificial
Los legisladores de la Unión Europea han dado la aprobación final para establecer las regulaciones de inteligencia artificial basadas en riesgos del bloque.
En un comunicado de prensa que confirma la aprobación de la Ley de IA de la UE, el Consejo de la Unión Europea dijo que la ley es "innovadora" y que "como la primera de su tipo en el mundo, puede establecer un estándar global para la regulación de la IA".
El Parlamento Europeo ya había aprobado la legislación en marzo.
La aprobación del Consejo significa que la legislación se publicará en el Diario Oficial del bloque en los próximos días, y la ley entraría en vigor en toda la UE 20 días después. Las nuevas reglas se implementarán en fases, aunque algunas disposiciones solo serán aplicables después de dos años, o incluso más tiempo.
Enfoque basado en riesgos y prohibición de ciertos casos de uso
La ley adopta un enfoque basado en riesgos para regular el uso de la IA, y prohíbe algunos casos de uso de "riesgo inaceptable" de forma directa, como la manipulación cognitiva del comportamiento o la puntuación social. También define un conjunto de usos de "alto riesgo", como la biometría y el reconocimiento facial, o la IA utilizada en ámbitos como la educación y el empleo. Los desarrolladores de aplicaciones deberán registrar sus sistemas y cumplir con las obligaciones de gestión de riesgos y calidad para acceder al mercado de la UE.
Otra categoría de aplicaciones de IA, como los chatbots, se consideran de "riesgo limitado" y están sujetas a obligaciones de transparencia más ligeras.
Respuesta a la proliferación de herramientas de IA generativa
La ley responde al aumento de las herramientas de IA generativa con un conjunto de reglas para los llamados "AIs de propósito general" (GPAIs), como el modelo que sustenta el ChatGPT de OpenAI. Sin embargo, la mayoría de los GPAIs solo enfrentarán requisitos de transparencia limitados, y solo los GPAIs que superen un cierto umbral de cálculo y se consideren que plantean un "riesgo sistémico" enfrentarán una regulación más estricta.
Creación de una nueva arquitectura de gobernanza de la IA
Además, la ley establece una nueva arquitectura de gobernanza para la IA, que incluye un órgano de aplicación dentro de la Comisión Europea llamado la Oficina de IA.
También habrá una Junta de IA compuesta por representantes de los Estados miembros de la UE para asesorar y ayudar a la Comisión en la aplicación coherente y efectiva de la Ley de IA, de manera similar a cómo la Junta Europea de Protección de Datos ayuda a dirigir la aplicación del GDPR. La Comisión también establecerá un panel científico para apoyar la supervisión, así como un foro consultivo para proporcionar experiencia técnica.
Fomento de la creación de cajas de arena regulatorias
La ley también fomenta la creación de cajas de arena regulatorias para apoyar el desarrollo y la prueba en el mundo real de nuevas aplicaciones de IA.
Es importante tener en cuenta que si bien la Ley de IA de la UE es la primera regulación integral del bloque para la inteligencia artificial, los desarrolladores de IA pueden estar sujetos a leyes existentes como la legislación de derechos de autor, el GDPR, el régimen de gobernanza en línea del bloque y diversas leyes de competencia.
Otras noticias • IA
Anthropic demanda al DOD por restricciones en colaboración gubernamental
Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica
La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Lo más reciente
- 1
FAA aprueba pruebas de aeronaves eléctricas eVTOL para empresas
- 2
Empleados de OpenAI y Google DeepMind respaldan demanda de Anthropic
- 3
Bluesky cambia de CEO ante desafíos de moderación y regulación
- 4
Inteligencia artificial transforma desarrollo de software y mejora calidad
- 5
Ticketmaster bajo fuego por precios altos y prácticas monopolísticas
- 6
Chevrolet Bolt regresa impulsando la electrificación y sostenibilidad de GM
- 7
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

