El veto de Newsom y la regulación de la IA
El reciente veto del gobernador de California, Gavin Newsom, a la ley SB 1047 ha generado un intenso debate sobre la regulación de la inteligencia artificial (IA) en el estado. Este proyecto de ley, que tenía como objetivo establecer protocolos de seguridad para las empresas que desarrollan modelos de IA, fue propuesto por el senador estatal Scott Wiener. Sin embargo, a pesar de su buena intención, Newsom decidió no avanzar con esta legislación, lo que ha suscitado diversas reacciones en el ámbito tecnológico y político.
Las implicaciones del proyecto de ley
La SB 1047 estipulaba que las empresas que desarrollaran modelos de IA con un coste superior a los 100 millones de dólares y que utilizaran al menos 10^26 FLOPS durante su entrenamiento, serían responsables de implementar medidas de seguridad para prevenir “daños críticos”. Esto implicaba una regulación considerable que muchos en Silicon Valley consideraban excesiva y potencialmente dañina para la innovación. La propuesta fue vista como una forma de frenar el desarrollo de tecnologías emergentes, especialmente en un momento en que la IA está avanzando a pasos agigantados.
Los detractores del proyecto, incluidos gigantes tecnológicos como OpenAI y figuras destacadas como Yann LeCun de Meta, argumentaban que una regulación tan estricta podría ahogar la creatividad y la capacidad de respuesta de las empresas frente a los desafíos que presenta la IA. Esta preocupación fue compartida incluso por algunos políticos demócratas, lo que demuestra la complejidad del panorama político en torno a la regulación tecnológica.
La postura de Newsom
En su declaración sobre el veto, Newsom expresó que, aunque el proyecto de ley estaba bien intencionado, no tomaba en cuenta varios factores cruciales. “La SB 1047 no considera si un sistema de IA se despliega en entornos de alto riesgo, implica la toma de decisiones críticas o utiliza datos sensibles”, argumentó el gobernador. Esta observación destaca la necesidad de un enfoque más matizado en la regulación de la IA, que no solo se base en el tamaño o la capacidad de los sistemas, sino también en su contexto de uso.
Además, Newsom mencionó que en los últimos 30 días había firmado 17 leyes relacionadas con la regulación y despliegue de la tecnología de IA. Esto sugiere que, aunque ha vetado la SB 1047, sigue comprometido con el establecimiento de un marco regulatorio que aborde las preocupaciones sobre la seguridad y el uso responsable de la IA. El gobernador ha buscado la ayuda de expertos en el campo, como Fei-Fei Li y Tino Cuéllar, para desarrollar “guardrails” viables para la implementación de la IA generativa en California.
Reacciones al veto
La reacción al veto de Newsom no se hizo esperar. Scott Wiener calificó la decisión como “un retroceso para todos los que creen en la supervisión de las grandes corporaciones que toman decisiones críticas que afectan la seguridad y el bienestar del público”. Esto resalta la polarización en torno al tema, donde la seguridad pública y la innovación tecnológica a menudo se encuentran en conflicto. Wiener también señaló que el debate generado por la SB 1047 había avanzado significativamente la discusión sobre la seguridad de la IA en el escenario internacional.
Por otro lado, los opositores a la legislación han celebrado el veto como una victoria, argumentando que la regulación excesiva podría haber limitado la capacidad de California para liderar el desarrollo de la IA a nivel mundial. La industria tecnológica ha abogado por un enfoque que permita la innovación, mientras se asegura que existan salvaguardias adecuadas para proteger a los usuarios y la sociedad en general.
El futuro de la regulación de la IA
La decisión de Newsom deja en el aire la cuestión de cómo debería regularse la IA en California y, por extensión, en el resto del mundo. Con el rápido avance de la tecnología, es esencial encontrar un equilibrio entre fomentar la innovación y garantizar la seguridad pública. La necesidad de una regulación adecuada se vuelve cada vez más urgente, especialmente a medida que los sistemas de IA se integran en aspectos críticos de la vida diaria.
La falta de un marco regulatorio claro puede llevar a una situación en la que las empresas actúen sin las debidas consideraciones éticas y de seguridad. Esto podría resultar en decisiones perjudiciales que afecten no solo a los usuarios, sino también a la sociedad en su conjunto. La experiencia acumulada por expertos y legisladores en la materia será crucial para abordar estas cuestiones en el futuro.
Con el veto de la SB 1047, California se enfrenta a un desafío significativo en la búsqueda de un enfoque que equilibre la regulación de la IA con la promoción de la innovación. La conversación está lejos de haber terminado, y los próximos pasos que tome el estado serán observados de cerca por todos los actores involucrados.
Otras noticias • IA
Anthropic navega dilema ético en conflicto EE.UU.-Irán
Anthropic enfrenta un dilema ético y empresarial en medio del conflicto entre Estados Unidos e Irán. La presión gubernamental y la desconfianza en su tecnología...
Competencia en startups de IA eleva valoraciones y riesgos financieros
La competencia entre startups de IA se intensifica, llevando a estrategias de financiación innovadoras y valoraciones infladas. Aunque estas tácticas pueden atraer inversión y talento,...
Claude Code de Anthropic revoluciona la programación con voz
La introducción del modo de voz en Claude Code de Anthropic transforma el desarrollo de software, permitiendo a los programadores interactuar verbalmente con la IA....
OpenAI lanza GPT-5.3 Instant mejorando la interacción con chatbots
La actualización GPT-5.3 Instant de OpenAI mejora la interacción con chatbots, adoptando un tono más directo y menos condescendiente. Responde a las críticas de los...
X prohíbe monetización de vídeos de IA sobre conflictos armados
La red social X ha implementado medidas contra la desinformación, prohibiendo la monetización de vídeos generados por IA sobre conflictos armados sin divulgación. Aunque busca...
Cursor alcanza 2.000 millones en ingresos anuales con innovación
Cursor, un asistente de codificación fundado en 2022, ha superado los 2.000 millones de dólares en ingresos anuales al centrarse en clientes corporativos. A pesar...
Desinstalaciones de ChatGPT aumentan por asociación con Defensa
La asociación de OpenAI con el Departamento de Defensa ha provocado un aumento del 295% en las desinstalaciones de ChatGPT, mientras Claude de Anthropic ha...
Claude supera a ChatGPT por su ética y responsabilidad
Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...
Lo más reciente
- 1
Nvidia enfrenta incertidumbre en IA por reducción de inversiones
- 2
Tensiones éticas entre Anthropic y OpenAI en inteligencia artificial
- 3
Google amplía Canvas AI para optimizar proyectos y estudios
- 4
Google y Epic Games reducen comisión en Play Store al 20%
- 5
Decagon valora a 4.500 millones y permite venta de acciones
- 6
Google lanza Canvas AI democratizando creatividad y productividad en EE.UU
- 7
X Money revoluciona pagos con subasta benéfica y alto rendimiento

