IA | Innovación regulada

Google propone un marco regulatorio para impulsar la IA en EE.UU

Un giro en la regulación de la inteligencia artificial en Estados Unidos

En un contexto donde la inteligencia artificial (IA) se ha convertido en un pilar fundamental para la innovación tecnológica y el crecimiento económico, la reciente propuesta de política de Google en respuesta al llamado de la Administración Trump para un “Plan de Acción Nacional de IA” ha suscitado un intenso debate. La empresa de tecnología, que se encuentra a la vanguardia en el desarrollo de IA, ha hecho hincapié en la necesidad de un marco regulador que fomente la innovación, en lugar de sofocarla con restricciones excesivas. La propuesta de Google plantea un cambio significativo en la forma en que se deben abordar las regulaciones de IA en Estados Unidos.

La defensa de un uso justo

Uno de los puntos más controvertidos de la propuesta de Google es su postura sobre el uso de material protegido por derechos de propiedad intelectual (IP). La compañía sostiene que las excepciones de "uso justo" y "minería de texto y datos" son fundamentales para el desarrollo de la IA y la innovación científica relacionada. Google argumenta que estas excepciones permiten el uso de material protegido para la formación de IA sin afectar de manera significativa a los titulares de derechos.

Google ha declarado que “estas excepciones permiten el uso de material protegido disponible públicamente para la formación de IA sin impactar significativamente a los titulares de derechos”.

Sin embargo, esta postura ha llevado a Google a enfrentarse a una serie de demandas por parte de propietarios de datos que acusan a la compañía de no notificar ni compensar adecuadamente antes de utilizar su material. En este contexto, la doctrina del uso justo se encuentra bajo un intenso escrutinio, y los tribunales de Estados Unidos aún no han decidido si realmente protege a los desarrolladores de IA de litigios relacionados con la propiedad intelectual.

Exportaciones y competitividad

Además de su postura sobre el uso de datos, Google también ha criticado ciertas restricciones de exportación impuestas por la Administración Biden. La empresa argumenta que estas regulaciones pueden socavar los objetivos de competitividad económica al imponer cargas desproporcionadas sobre los proveedores de servicios en la nube de Estados Unidos. Esto contrasta con la opinión de competidores como Microsoft, que han expresado su confianza en poder cumplir con estas normativas.

Las nuevas reglas de exportación, que buscan limitar la disponibilidad de chips avanzados de IA en países considerados desfavorecidos, incluyen excepciones para empresas de confianza que buscan grandes agrupaciones de chips. Esto sugiere que, a pesar de las restricciones, existe un reconocimiento de la necesidad de permitir que ciertas empresas continúen desarrollando su tecnología sin interrupciones significativas.

Inversión en investigación y desarrollo

En su propuesta, Google también ha hecho un llamado a realizar inversiones sostenidas a largo plazo en investigación y desarrollo (I+D) doméstica. La compañía ha criticado los recientes esfuerzos federales para reducir el gasto y eliminar premios de subvenciones, argumentando que esto podría perjudicar la capacidad de Estados Unidos para liderar en el ámbito de la IA. Google sugiere que el gobierno debería liberar conjuntos de datos que sean útiles para la formación comercial de IA y asignar financiación a la I+D en fases tempranas del mercado.

La empresa ha instado a que “se asegure que la computación y los modelos estén disponibles de manera amplia para científicos e instituciones”.

Este enfoque en la I+D refleja una visión más amplia de la necesidad de un ecosistema robusto que apoye no solo a las grandes corporaciones, sino también a startups e instituciones académicas que son esenciales para la innovación en el campo de la inteligencia artificial.

La necesidad de una legislación federal

Ante el caos regulatorio creado por la variedad de leyes estatales sobre IA en Estados Unidos, Google ha urgido al gobierno a promulgar legislación federal que aborde esta cuestión de manera integral. La compañía ha señalado que, a poco más de dos meses de 2025, el número de proyectos de ley relacionados con la IA pendientes en el país ha crecido a 781, lo que refleja la urgente necesidad de un marco regulatorio claro y cohesionado.

La propuesta de Google sugiere que es fundamental establecer un marco de privacidad y seguridad integral que no solo proteja a los consumidores, sino que también permita a las empresas innovar y crecer sin las ataduras de regulaciones inconsistentes y a menudo contradictorias.

Responsabilidad en el desarrollo de IA

Google también ha manifestado su preocupación por las obligaciones que el gobierno podría imponer en relación con los sistemas de IA, como las responsabilidades de uso. La empresa argumenta que, en muchos casos, el desarrollador de un modelo tiene "poca o ninguna visibilidad o control" sobre cómo se está utilizando dicho modelo, por lo que no debería asumir la responsabilidad por un uso indebido.

Históricamente, Google se ha opuesto a leyes como la fallida SB 1047 de California, que especificaba las precauciones razonables que un desarrollador de IA debería tomar antes de lanzar un modelo. Google sostiene que incluso cuando un desarrollador proporciona un modelo directamente a los implementadores, estos últimos están en la mejor posición para entender los riesgos de los usos posteriores y para implementar una gestión efectiva de riesgos.

La transparencia como arma de doble filo

En lo que respecta a los requisitos de divulgación, Google ha calificado de “excesivamente amplios” los requisitos que se están considerando en la Unión Europea. La empresa advierte que el gobierno de Estados Unidos debería oponerse a las reglas de transparencia que exigen “divulgar secretos comerciales, permitir que los competidores dupliquen productos o comprometer la seguridad nacional al proporcionar un mapa a los adversarios sobre cómo eludir las protecciones o hacer ‘jailbreak’ a los modelos”.

Este tipo de regulaciones, según Google, podría no solo perjudicar la competitividad de las empresas estadounidenses, sino que también podría tener repercusiones negativas en la seguridad nacional al facilitar que actores malintencionados encuentren formas de explotar las vulnerabilidades de los sistemas de IA.

El futuro de la inteligencia artificial en Estados Unidos

La propuesta de Google plantea una serie de interrogantes sobre cómo se debe regular la inteligencia artificial en Estados Unidos. A medida que la tecnología avanza y se integra cada vez más en todos los aspectos de la vida cotidiana, es crucial que las políticas se diseñen de manera que fomenten la innovación y la competitividad, al tiempo que protegen los derechos de los individuos y las empresas.

Las recomendaciones de Google podrían marcar un hito en la forma en que se aborda la regulación de la IA en el país, pero también generan preocupaciones sobre el equilibrio entre el desarrollo tecnológico y la protección de los derechos de propiedad intelectual. En un mundo donde la IA se está convirtiendo en un motor clave de la economía, las decisiones que se tomen en este ámbito tendrán un impacto duradero en el futuro de la tecnología y la economía global.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Atención automatizada

Airbnb lanza bot de IA que reduce consultas humanas un 15%

Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...

Interacción comunitaria

Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso

Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...

Asistente mejorado

Amazon presenta Alexa+ con IA generativa para interacciones mejoradas

Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...

Transformación científica

Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente

La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...

IA accesible

Olmo 2 1B democratiza la IA con un billón de parámetros

Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...

Mejoras funcionales

Claude de Anthropic se actualiza con nuevas integraciones avanzadas

Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...

Acceso inmediato

Google elimina lista de espera y lanza AI Mode para todos

Google ha eliminado la lista de espera para su función AI Mode, permitiendo a todos los usuarios mayores de 18 años en EE. UU. acceder...

Alianzas estratégicas

World une alianzas estratégicas para revolucionar la seguridad digital

World, una empresa de identificación biométrica, ha formado alianzas estratégicas con Match Group, Kalshi y Stripe para expandir su alcance y facilitar el acceso a...