El veto de Newsom y la regulación de la IA
El reciente veto del gobernador de California, Gavin Newsom, a la ley SB 1047 ha generado un intenso debate sobre la regulación de la inteligencia artificial (IA) en el estado. Este proyecto de ley, que tenía como objetivo establecer protocolos de seguridad para las empresas que desarrollan modelos de IA, fue propuesto por el senador estatal Scott Wiener. Sin embargo, a pesar de su buena intención, Newsom decidió no avanzar con esta legislación, lo que ha suscitado diversas reacciones en el ámbito tecnológico y político.
Las implicaciones del proyecto de ley
La SB 1047 estipulaba que las empresas que desarrollaran modelos de IA con un coste superior a los 100 millones de dólares y que utilizaran al menos 10^26 FLOPS durante su entrenamiento, serían responsables de implementar medidas de seguridad para prevenir “daños críticos”. Esto implicaba una regulación considerable que muchos en Silicon Valley consideraban excesiva y potencialmente dañina para la innovación. La propuesta fue vista como una forma de frenar el desarrollo de tecnologías emergentes, especialmente en un momento en que la IA está avanzando a pasos agigantados.
Los detractores del proyecto, incluidos gigantes tecnológicos como OpenAI y figuras destacadas como Yann LeCun de Meta, argumentaban que una regulación tan estricta podría ahogar la creatividad y la capacidad de respuesta de las empresas frente a los desafíos que presenta la IA. Esta preocupación fue compartida incluso por algunos políticos demócratas, lo que demuestra la complejidad del panorama político en torno a la regulación tecnológica.
La postura de Newsom
En su declaración sobre el veto, Newsom expresó que, aunque el proyecto de ley estaba bien intencionado, no tomaba en cuenta varios factores cruciales. “La SB 1047 no considera si un sistema de IA se despliega en entornos de alto riesgo, implica la toma de decisiones críticas o utiliza datos sensibles”, argumentó el gobernador. Esta observación destaca la necesidad de un enfoque más matizado en la regulación de la IA, que no solo se base en el tamaño o la capacidad de los sistemas, sino también en su contexto de uso.
Además, Newsom mencionó que en los últimos 30 días había firmado 17 leyes relacionadas con la regulación y despliegue de la tecnología de IA. Esto sugiere que, aunque ha vetado la SB 1047, sigue comprometido con el establecimiento de un marco regulatorio que aborde las preocupaciones sobre la seguridad y el uso responsable de la IA. El gobernador ha buscado la ayuda de expertos en el campo, como Fei-Fei Li y Tino Cuéllar, para desarrollar “guardrails” viables para la implementación de la IA generativa en California.
Reacciones al veto
La reacción al veto de Newsom no se hizo esperar. Scott Wiener calificó la decisión como “un retroceso para todos los que creen en la supervisión de las grandes corporaciones que toman decisiones críticas que afectan la seguridad y el bienestar del público”. Esto resalta la polarización en torno al tema, donde la seguridad pública y la innovación tecnológica a menudo se encuentran en conflicto. Wiener también señaló que el debate generado por la SB 1047 había avanzado significativamente la discusión sobre la seguridad de la IA en el escenario internacional.
Por otro lado, los opositores a la legislación han celebrado el veto como una victoria, argumentando que la regulación excesiva podría haber limitado la capacidad de California para liderar el desarrollo de la IA a nivel mundial. La industria tecnológica ha abogado por un enfoque que permita la innovación, mientras se asegura que existan salvaguardias adecuadas para proteger a los usuarios y la sociedad en general.
El futuro de la regulación de la IA
La decisión de Newsom deja en el aire la cuestión de cómo debería regularse la IA en California y, por extensión, en el resto del mundo. Con el rápido avance de la tecnología, es esencial encontrar un equilibrio entre fomentar la innovación y garantizar la seguridad pública. La necesidad de una regulación adecuada se vuelve cada vez más urgente, especialmente a medida que los sistemas de IA se integran en aspectos críticos de la vida diaria.
La falta de un marco regulatorio claro puede llevar a una situación en la que las empresas actúen sin las debidas consideraciones éticas y de seguridad. Esto podría resultar en decisiones perjudiciales que afecten no solo a los usuarios, sino también a la sociedad en su conjunto. La experiencia acumulada por expertos y legisladores en la materia será crucial para abordar estas cuestiones en el futuro.
Con el veto de la SB 1047, California se enfrenta a un desafío significativo en la búsqueda de un enfoque que equilibre la regulación de la IA con la promoción de la innovación. La conversación está lejos de haber terminado, y los próximos pasos que tome el estado serán observados de cerca por todos los actores involucrados.
Otras noticias • IA
Google actualiza Android 16 con inteligencia artificial y personalización
Google ha transformado Android con la actualización 16, introduciendo mejoras continuas y funcionalidades centradas en inteligencia artificial, personalización, control parental y accesibilidad. Estas innovaciones buscan...
AWS lanza Nova 2, modelos de IA para todas las empresas
AWS ha lanzado la nueva gama de modelos de IA, Nova 2, que incluye versiones como Nova 2 Lite, Pro, Sonic y Omni, adaptadas a...
ChatGPT impulsa comercio, pero pequeños minoristas siguen rezagados
La influencia de ChatGPT en el comercio electrónico está creciendo, especialmente durante eventos como el Black Friday. Sin embargo, este aumento beneficia principalmente a gigantes...
ChatGPT enfrenta críticas por recomendaciones irrelevantes a usuarios
Un incidente reciente en el que ChatGPT sugirió instalar la app de Peloton ha generado críticas entre sus usuarios, quienes consideran que las recomendaciones irrelevantes...
AWS re:Invent 2025 resalta IA y seguridad en la nube
re:Invent 2025 de AWS destaca la inteligencia artificial y la seguridad en la nube, ofreciendo sesiones diversas y oportunidades de networking. La colaboración con socios...
John Giannandrea deja Apple y es reemplazado por Amar Subramanya
John Giannandrea deja su puesto como jefe de inteligencia artificial en Apple, siendo reemplazado por Amar Subramanya. Este cambio responde a las críticas sobre Apple...
Google Gemini transforma la IA pero genera preocupaciones de privacidad
Google está revolucionando la IA con personalización a través de su modelo Gemini, mejorando la experiencia del usuario. Sin embargo, esto plantea preocupaciones sobre la...
OpenAI invierte en Thrive para impulsar adopción de IA
OpenAI ha adquirido una participación en Thrive Holdings, enviando empleados para impulsar la adopción de inteligencia artificial en su portafolio. Este modelo innovador busca satisfacer...
Lo más reciente
- 1
Amazon lanza "Fábricas de IA" para controlar datos locales
- 2
AWS re:Invent 2025 revoluciona IA con agentes autónomos y Trainium3
- 3
Bending Spoons adquiere Eventbrite por 500 millones de dólares
- 4
Amazon lanza Kiro, agente autónomo para desarrolladores innovador
- 5
Google lanza "Modo IA" y redefine la búsqueda conversacional
- 6
Innovadores se reúnen en Palo Alto para explorar avances tecnológicos
- 7
La energía nuclear renace con microreactores e inversiones innovadoras

