El veto de Newsom y la regulación de la IA
El reciente veto del gobernador de California, Gavin Newsom, a la ley SB 1047 ha generado un intenso debate sobre la regulación de la inteligencia artificial (IA) en el estado. Este proyecto de ley, que tenía como objetivo establecer protocolos de seguridad para las empresas que desarrollan modelos de IA, fue propuesto por el senador estatal Scott Wiener. Sin embargo, a pesar de su buena intención, Newsom decidió no avanzar con esta legislación, lo que ha suscitado diversas reacciones en el ámbito tecnológico y político.
Las implicaciones del proyecto de ley
La SB 1047 estipulaba que las empresas que desarrollaran modelos de IA con un coste superior a los 100 millones de dólares y que utilizaran al menos 10^26 FLOPS durante su entrenamiento, serían responsables de implementar medidas de seguridad para prevenir “daños críticos”. Esto implicaba una regulación considerable que muchos en Silicon Valley consideraban excesiva y potencialmente dañina para la innovación. La propuesta fue vista como una forma de frenar el desarrollo de tecnologías emergentes, especialmente en un momento en que la IA está avanzando a pasos agigantados.
Los detractores del proyecto, incluidos gigantes tecnológicos como OpenAI y figuras destacadas como Yann LeCun de Meta, argumentaban que una regulación tan estricta podría ahogar la creatividad y la capacidad de respuesta de las empresas frente a los desafíos que presenta la IA. Esta preocupación fue compartida incluso por algunos políticos demócratas, lo que demuestra la complejidad del panorama político en torno a la regulación tecnológica.
La postura de Newsom
En su declaración sobre el veto, Newsom expresó que, aunque el proyecto de ley estaba bien intencionado, no tomaba en cuenta varios factores cruciales. “La SB 1047 no considera si un sistema de IA se despliega en entornos de alto riesgo, implica la toma de decisiones críticas o utiliza datos sensibles”, argumentó el gobernador. Esta observación destaca la necesidad de un enfoque más matizado en la regulación de la IA, que no solo se base en el tamaño o la capacidad de los sistemas, sino también en su contexto de uso.
Además, Newsom mencionó que en los últimos 30 días había firmado 17 leyes relacionadas con la regulación y despliegue de la tecnología de IA. Esto sugiere que, aunque ha vetado la SB 1047, sigue comprometido con el establecimiento de un marco regulatorio que aborde las preocupaciones sobre la seguridad y el uso responsable de la IA. El gobernador ha buscado la ayuda de expertos en el campo, como Fei-Fei Li y Tino Cuéllar, para desarrollar “guardrails” viables para la implementación de la IA generativa en California.
Reacciones al veto
La reacción al veto de Newsom no se hizo esperar. Scott Wiener calificó la decisión como “un retroceso para todos los que creen en la supervisión de las grandes corporaciones que toman decisiones críticas que afectan la seguridad y el bienestar del público”. Esto resalta la polarización en torno al tema, donde la seguridad pública y la innovación tecnológica a menudo se encuentran en conflicto. Wiener también señaló que el debate generado por la SB 1047 había avanzado significativamente la discusión sobre la seguridad de la IA en el escenario internacional.
Por otro lado, los opositores a la legislación han celebrado el veto como una victoria, argumentando que la regulación excesiva podría haber limitado la capacidad de California para liderar el desarrollo de la IA a nivel mundial. La industria tecnológica ha abogado por un enfoque que permita la innovación, mientras se asegura que existan salvaguardias adecuadas para proteger a los usuarios y la sociedad en general.
El futuro de la regulación de la IA
La decisión de Newsom deja en el aire la cuestión de cómo debería regularse la IA en California y, por extensión, en el resto del mundo. Con el rápido avance de la tecnología, es esencial encontrar un equilibrio entre fomentar la innovación y garantizar la seguridad pública. La necesidad de una regulación adecuada se vuelve cada vez más urgente, especialmente a medida que los sistemas de IA se integran en aspectos críticos de la vida diaria.
La falta de un marco regulatorio claro puede llevar a una situación en la que las empresas actúen sin las debidas consideraciones éticas y de seguridad. Esto podría resultar en decisiones perjudiciales que afecten no solo a los usuarios, sino también a la sociedad en su conjunto. La experiencia acumulada por expertos y legisladores en la materia será crucial para abordar estas cuestiones en el futuro.
Con el veto de la SB 1047, California se enfrenta a un desafío significativo en la búsqueda de un enfoque que equilibre la regulación de la IA con la promoción de la innovación. La conversación está lejos de haber terminado, y los próximos pasos que tome el estado serán observados de cerca por todos los actores involucrados.
Otras noticias • IA
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Anthropic clasificada como riesgo por Defensa de EE. UU
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo para la cadena de suministro, lo que podría afectar su colaboración...
DiligenceSquared transforma la diligencia debida con inteligencia artificial
DiligenceSquared, una startup de Y Combinator, revoluciona la diligencia debida en capital privado utilizando inteligencia artificial para ofrecer análisis de calidad a un coste reducido....
Amazon Connect Health revoluciona la atención médica con IA
Amazon Connect Health, lanzado por AWS, transforma la atención médica mediante la automatización de tareas administrativas con inteligencia artificial. Esta plataforma se integra con sistemas...
Trump propone regulaciones que amenazan a empresas de chips AI
La administración Trump plantea nuevas regulaciones sobre la exportación de chips de inteligencia artificial, lo que podría afectar a empresas estadounidenses como Nvidia y AMD....
Conflicto Anthropic-EE.UU. revela dilemas éticos en IA militar
El conflicto entre Anthropic y el Departamento de Defensa de EE. UU. refleja la tensión entre la ética empresarial y el uso militar de la...
Lo más reciente
- 1
Smartphones asequibles en África para cerrar la brecha digital
- 2
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
- 3
PopSockets transforma accesorios móviles con innovación y sostenibilidad
- 4
Robinhood lanza fondo para democratizar inversiones en startups
- 5
X lanza publicidad recomendada para mejorar experiencia del usuario
- 6
TerraPower obtiene permiso para reactor Natrium en Wyoming
- 7
Investigación de OSHA tras muerte de trabajador en Rivian

