IA | Innovación regulada

Google propone un marco regulatorio para impulsar la IA en EE.UU

Un giro en la regulación de la inteligencia artificial en Estados Unidos

En un contexto donde la inteligencia artificial (IA) se ha convertido en un pilar fundamental para la innovación tecnológica y el crecimiento económico, la reciente propuesta de política de Google en respuesta al llamado de la Administración Trump para un “Plan de Acción Nacional de IA” ha suscitado un intenso debate. La empresa de tecnología, que se encuentra a la vanguardia en el desarrollo de IA, ha hecho hincapié en la necesidad de un marco regulador que fomente la innovación, en lugar de sofocarla con restricciones excesivas. La propuesta de Google plantea un cambio significativo en la forma en que se deben abordar las regulaciones de IA en Estados Unidos.

La defensa de un uso justo

Uno de los puntos más controvertidos de la propuesta de Google es su postura sobre el uso de material protegido por derechos de propiedad intelectual (IP). La compañía sostiene que las excepciones de "uso justo" y "minería de texto y datos" son fundamentales para el desarrollo de la IA y la innovación científica relacionada. Google argumenta que estas excepciones permiten el uso de material protegido para la formación de IA sin afectar de manera significativa a los titulares de derechos.

Google ha declarado que “estas excepciones permiten el uso de material protegido disponible públicamente para la formación de IA sin impactar significativamente a los titulares de derechos”.

Sin embargo, esta postura ha llevado a Google a enfrentarse a una serie de demandas por parte de propietarios de datos que acusan a la compañía de no notificar ni compensar adecuadamente antes de utilizar su material. En este contexto, la doctrina del uso justo se encuentra bajo un intenso escrutinio, y los tribunales de Estados Unidos aún no han decidido si realmente protege a los desarrolladores de IA de litigios relacionados con la propiedad intelectual.

Exportaciones y competitividad

Además de su postura sobre el uso de datos, Google también ha criticado ciertas restricciones de exportación impuestas por la Administración Biden. La empresa argumenta que estas regulaciones pueden socavar los objetivos de competitividad económica al imponer cargas desproporcionadas sobre los proveedores de servicios en la nube de Estados Unidos. Esto contrasta con la opinión de competidores como Microsoft, que han expresado su confianza en poder cumplir con estas normativas.

Las nuevas reglas de exportación, que buscan limitar la disponibilidad de chips avanzados de IA en países considerados desfavorecidos, incluyen excepciones para empresas de confianza que buscan grandes agrupaciones de chips. Esto sugiere que, a pesar de las restricciones, existe un reconocimiento de la necesidad de permitir que ciertas empresas continúen desarrollando su tecnología sin interrupciones significativas.

Inversión en investigación y desarrollo

En su propuesta, Google también ha hecho un llamado a realizar inversiones sostenidas a largo plazo en investigación y desarrollo (I+D) doméstica. La compañía ha criticado los recientes esfuerzos federales para reducir el gasto y eliminar premios de subvenciones, argumentando que esto podría perjudicar la capacidad de Estados Unidos para liderar en el ámbito de la IA. Google sugiere que el gobierno debería liberar conjuntos de datos que sean útiles para la formación comercial de IA y asignar financiación a la I+D en fases tempranas del mercado.

La empresa ha instado a que “se asegure que la computación y los modelos estén disponibles de manera amplia para científicos e instituciones”.

Este enfoque en la I+D refleja una visión más amplia de la necesidad de un ecosistema robusto que apoye no solo a las grandes corporaciones, sino también a startups e instituciones académicas que son esenciales para la innovación en el campo de la inteligencia artificial.

La necesidad de una legislación federal

Ante el caos regulatorio creado por la variedad de leyes estatales sobre IA en Estados Unidos, Google ha urgido al gobierno a promulgar legislación federal que aborde esta cuestión de manera integral. La compañía ha señalado que, a poco más de dos meses de 2025, el número de proyectos de ley relacionados con la IA pendientes en el país ha crecido a 781, lo que refleja la urgente necesidad de un marco regulatorio claro y cohesionado.

La propuesta de Google sugiere que es fundamental establecer un marco de privacidad y seguridad integral que no solo proteja a los consumidores, sino que también permita a las empresas innovar y crecer sin las ataduras de regulaciones inconsistentes y a menudo contradictorias.

Responsabilidad en el desarrollo de IA

Google también ha manifestado su preocupación por las obligaciones que el gobierno podría imponer en relación con los sistemas de IA, como las responsabilidades de uso. La empresa argumenta que, en muchos casos, el desarrollador de un modelo tiene "poca o ninguna visibilidad o control" sobre cómo se está utilizando dicho modelo, por lo que no debería asumir la responsabilidad por un uso indebido.

Históricamente, Google se ha opuesto a leyes como la fallida SB 1047 de California, que especificaba las precauciones razonables que un desarrollador de IA debería tomar antes de lanzar un modelo. Google sostiene que incluso cuando un desarrollador proporciona un modelo directamente a los implementadores, estos últimos están en la mejor posición para entender los riesgos de los usos posteriores y para implementar una gestión efectiva de riesgos.

La transparencia como arma de doble filo

En lo que respecta a los requisitos de divulgación, Google ha calificado de “excesivamente amplios” los requisitos que se están considerando en la Unión Europea. La empresa advierte que el gobierno de Estados Unidos debería oponerse a las reglas de transparencia que exigen “divulgar secretos comerciales, permitir que los competidores dupliquen productos o comprometer la seguridad nacional al proporcionar un mapa a los adversarios sobre cómo eludir las protecciones o hacer ‘jailbreak’ a los modelos”.

Este tipo de regulaciones, según Google, podría no solo perjudicar la competitividad de las empresas estadounidenses, sino que también podría tener repercusiones negativas en la seguridad nacional al facilitar que actores malintencionados encuentren formas de explotar las vulnerabilidades de los sistemas de IA.

El futuro de la inteligencia artificial en Estados Unidos

La propuesta de Google plantea una serie de interrogantes sobre cómo se debe regular la inteligencia artificial en Estados Unidos. A medida que la tecnología avanza y se integra cada vez más en todos los aspectos de la vida cotidiana, es crucial que las políticas se diseñen de manera que fomenten la innovación y la competitividad, al tiempo que protegen los derechos de los individuos y las empresas.

Las recomendaciones de Google podrían marcar un hito en la forma en que se aborda la regulación de la IA en el país, pero también generan preocupaciones sobre el equilibrio entre el desarrollo tecnológico y la protección de los derechos de propiedad intelectual. En un mundo donde la IA se está convirtiendo en un motor clave de la economía, las decisiones que se tomen en este ámbito tendrán un impacto duradero en el futuro de la tecnología y la economía global.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Búsqueda web

Claude mejora respuestas con búsqueda web y citas directas

Claude, el chatbot de Anthropic, ha introducido la búsqueda en la web, mejorando la precisión y relevancia de sus respuestas. Esta actualización, que incluye citas...

Energía sostenible

Microsoft impulsa energía renovable con 475 megavatios solares

Microsoft ha aumentado su capacidad de energía renovable en 475 megavatios, enfocándose en proyectos solares para satisfacer la creciente demanda de sus centros de datos....

Cobranza ética

ClearGrid revoluciona la cobranza de deudas con inteligencia artificial

ClearGrid, una startup de Dubái, moderniza la cobranza de deudas en mercados emergentes mediante inteligencia artificial. Su enfoque ético y automatizado mejora la experiencia del...

Adquisición estratégica

SoftBank compra Ampere Computing por 6.500 millones de dólares

SoftBank ha adquirido Ampere Computing por 6.500 millones de dólares, fortaleciendo su posición en el mercado de la inteligencia artificial y la computación en la...

Razonamiento colaborativo

Noam Brown resalta la importancia del razonamiento en IA

Noam Brown, de OpenAI, destacó en la conferencia de Nvidia la importancia del razonamiento en IA, sugiriendo que la colaboración entre academia y laboratorios es...

Desinformación tecnológica

La IA desafía la verificación de hechos y la confianza

La verificación de hechos se enfrenta a nuevos retos con el uso de la IA, como Grok en la plataforma X. Aunque ofrece respuestas rápidas,...

Regulación IA

California aboga por regular la inteligencia artificial con transparencia

Un informe en California, co-dirigido por Fei-Fei Li, destaca la necesidad de regular la inteligencia artificial (IA) ante riesgos actuales y futuros. Propone mayor transparencia...

Conducción autónoma

NVIDIA revoluciona conducción autónoma con Drive AGX y Drive Thor

NVIDIA ha presentado innovaciones clave en conducción autónoma, destacando herramientas como Drive AGX y Drive Thor. Colaboraciones con General Motors, Gatik y Plus prometen transformar...