El nuevo marco regulatorio de la inteligencia artificial en Nueva York
La reciente firma del RAISE Act por parte de la gobernadora Kathy Hochul ha marcado un hito en la regulación de la inteligencia artificial (IA) en Estados Unidos. Este acto legislativo posiciona a Nueva York como el segundo estado en implementar una ley significativa sobre la seguridad de la IA, un tema que ha cobrado relevancia en el contexto actual de innovación tecnológica. La aprobación de esta ley es vista como una respuesta necesaria ante la rápida evolución de las tecnologías de IA y los retos que estas presentan en términos de seguridad y ética.
El RAISE Act es un paso fundamental hacia la creación de un marco de seguridad que garantice la transparencia y la responsabilidad en el desarrollo de la IA.
Un proceso legislativo complejo
El camino hacia la aprobación del RAISE Act no ha sido sencillo. Aunque los legisladores estatales lograron pasar el proyecto en junio, la presión del sector tecnológico llevó a Hochul a proponer modificaciones que buscaban suavizar el contenido original de la ley. Sin embargo, tras un intenso debate y la insistencia de varios actores políticos y sociales, la gobernadora decidió firmar el texto original. Acordaron que las modificaciones solicitadas por Hochul se abordarían en el próximo ciclo legislativo, lo que refleja la complejidad de equilibrar los intereses de la industria tecnológica con la necesidad de proteger al público.
La legislación establece que los grandes desarrolladores de IA deberán publicar información sobre sus protocolos de seguridad y reportar incidentes de seguridad al estado en un plazo de 72 horas. Este requisito es fundamental para asegurar que los ciudadanos tengan acceso a información relevante sobre el funcionamiento y la seguridad de las tecnologías que cada vez más influyen en sus vidas.
Un marco de referencia para la seguridad de la IA
La creación de una nueva oficina dentro del Departamento de Servicios Financieros para supervisar el desarrollo de la IA es otro aspecto destacado de esta ley. Esta oficina se encargará de monitorizar el cumplimiento de las normativas y de garantizar que las empresas actúen de manera responsable. Si las compañías no presentan informes de seguridad o hacen declaraciones falsas, pueden enfrentarse a multas que ascienden a un millón de dólares, cantidad que se triplica en caso de reincidencia.
Este enfoque proactivo busca establecer un estándar de seguridad que otras jurisdicciones puedan emular, mientras que el gobierno federal se queda atrás en la implementación de regulaciones efectivas.
Comparativa con la legislación de California
La gobernadora Hochul hizo referencia a una legislación similar que fue firmada por el gobernador de California, Gavin Newsom, en septiembre. Este marco regulatorio californiano ha sido un referente para Nueva York y ha sentado las bases para un enfoque unificado entre los principales estados tecnológicos del país. Hochul enfatizó que el RAISE Act complementa las iniciativas de California, creando un referente común que puede inspirar otros estados a seguir el ejemplo.
Senador Andrew Gounardes, uno de los patrocinadores del proyecto, expresó su satisfacción con la aprobación del RAISE Act, destacando que "Big Tech pensó que podría socavar nuestra ley, pero lo logramos y aprobamos la ley de seguridad de IA más fuerte del país". Este tipo de declaraciones subraya la importancia de esta legislación no solo en el ámbito local, sino también en el panorama nacional.
La presión ejercida por las grandes empresas tecnológicas para modificar el contenido de la ley muestra la lucha entre la innovación y la regulación necesaria para garantizar la seguridad pública.
La respuesta de la industria tecnológica
Sin embargo, no todos en el sector tecnológico han acogido con agrado la aprobación del RAISE Act. Algunas de las empresas más influyentes, incluyendo OpenAI y Anthropic, han manifestado su apoyo a la legislación, aunque también han llamado a la creación de una normativa federal que unifique criterios a nivel nacional. Sarah Heck, responsable de asuntos externos de Anthropic, destacó la importancia de que dos de los estados más grandes del país hayan adoptado leyes de transparencia en IA, sugiriendo que esto debería motivar al Congreso a seguir este camino.
Por otro lado, un super PAC respaldado por Andreessen Horowitz y el presidente de OpenAI, Greg Brockman, está intentando desafiar al asambleísta Alex Bores, co-patrocinador del proyecto de ley junto a Gounardes. Bores comentó sobre la apertura del PAC al diálogo, lo que sugiere que el debate sobre la regulación de la IA está lejos de haber terminado.
La intervención federal y sus implicaciones
La situación se complica aún más con la reciente orden ejecutiva firmada por el expresidente Donald Trump, que instruye a las agencias federales a desafiar las leyes estatales sobre IA. Esta orden, respaldada por David Sacks, el zar de la IA de Trump, representa un intento por parte de la administración de Trump de limitar la capacidad de los estados para regular la inteligencia artificial. Este enfoque podría enfrentar desafíos legales, lo que añade una capa de incertidumbre a la ya compleja relación entre la regulación estatal y federal.
Este escenario plantea preguntas sobre el futuro de la regulación de la IA en Estados Unidos y cómo las distintas jurisdicciones abordarán este asunto en los próximos años. Con la rápida evolución de la tecnología, las decisiones que se tomen ahora tendrán repercusiones a largo plazo.
El papel de los ciudadanos y la responsabilidad social
La implementación del RAISE Act también resalta la creciente conciencia pública sobre la necesidad de regular las tecnologías emergentes. A medida que más ciudadanos se convierten en usuarios de la IA en su vida diaria, surge una demanda por mayor transparencia y responsabilidad por parte de las empresas que desarrollan estas tecnologías. Las preocupaciones sobre la privacidad, la seguridad y la ética en el uso de la IA son cada vez más frecuentes en el discurso público.
El hecho de que Nueva York y California hayan tomado la delantera en la regulación de la IA podría inspirar a otros estados a seguir su ejemplo. A medida que la conversación sobre la regulación de la IA continúa, es probable que los ciudadanos jueguen un papel cada vez más importante en la formación de estas políticas, exigiendo un marco que priorice la seguridad y el bienestar público.
La presión social y el activismo podrían convertirse en motores clave para impulsar cambios significativos en la forma en que se regula la inteligencia artificial en todo el país.
Futuro incierto y expectativas
Con el RAISE Act en vigor, el camino hacia una regulación efectiva de la IA en Nueva York está trazado, pero las incertidumbres persisten. La presión de la industria tecnológica, la respuesta de los legisladores y la intervención federal serán factores determinantes en cómo se desarrollará este panorama en el futuro.
A medida que la tecnología continúa avanzando a un ritmo acelerado, es fundamental que las legislaciones evolucionen para abordar los nuevos desafíos que surgen. La vigilancia y el control de las prácticas de IA no solo son esenciales para proteger a los ciudadanos, sino que también pueden sentar las bases para un desarrollo ético y responsable de la tecnología.
El RAISE Act es, en este sentido, un paso audaz hacia un futuro en el que la inteligencia artificial se desarrolle de manera segura y transparente, pero su implementación y efectividad dependerán de la colaboración entre los legisladores, la industria y la sociedad civil.
Otras noticias • IA
Anthropic redefine evaluaciones para destacar habilidades humanas en selección
La inteligencia artificial ha transformado la evaluación de candidatos, planteando desafíos en la distinción entre habilidades humanas y rendimiento de IA. Anthropic ha rediseñado sus...
Google lanza Gemini, IA gratuita para preparar el SAT
Google lanza Gemini, una herramienta de IA que ofrece exámenes de práctica gratuitos para el SAT, facilitando la preparación a estudiantes sin recursos. Aunque promete...
Google lanza búsqueda conversacional con inteligencia personalizada y privacidad
Google ha lanzado la función de búsqueda conversacional AI Mode, que incorpora la "Inteligencia Personal", permitiendo a la IA ofrecer respuestas personalizadas al acceder a...
Google DeepMind adquiere Hume AI para potenciar IA emocional
La adquisición de Hume AI por Google DeepMind destaca la importancia de la inteligencia emocional en la IA de voz. Este movimiento refleja la tendencia...
RadixArk optimiza la inferencia de IA con velocidad y eficiencia
RadixArk, surgida de SGLang, se centra en optimizar la inferencia de modelos de IA, prometiendo velocidad y eficiencia en costos. Fundada por Ying Sheng, la...
Anthropic presenta nueva Constitución de Claude para inteligencia artificial ética
Anthropic ha lanzado una versión revisada de la Constitución de Claude, un marco ético para su chatbot. Este documento enfatiza la seguridad, la ética en...
Todoist Ramble transforma el habla en tareas organizadas eficientemente
Todoist Ramble es una innovadora herramienta de gestión de tareas que utiliza inteligencia artificial para convertir el habla en tareas organizadas. Disponible en múltiples plataformas...
Escándalo en NeurIPS revela 100 citaciones ficticias en investigaciones
La startup GPTZero ha descubierto 100 citaciones ficticias en 51 trabajos de la conferencia NeurIPS, lo que plantea serias dudas sobre la integridad del proceso...
Lo más reciente
- 1
Tesla descontinúa Autopilot y apuesta por suscripción FSD
- 2
Anduril creará 5,500 empleos y campus de I+D en Long Beach
- 3
Blockit transforma calendarios con IA y atrae a Sequoia Capital
- 4
OpenAI reestructura liderazgo para fortalecer su enfoque empresarial
- 5
GM traslada producción a Kansas y finaliza Chevrolet Bolt EV
- 6
Inteligencia artificial avanza lentamente en trabajos del conocimiento
- 7
Debate sobre monetización de inteligencia artificial y experiencia del usuario

