Las empresas de IA se comprometen voluntariamente a garantizar la seguridad y transparencia
El avance de la inteligencia artificial (IA) ha llevado a la preocupación de que esta tecnología pueda salirse de control. Ante esto, la administración de Biden ha logrado obtener compromisos voluntarios de siete de los mayores desarrolladores de IA para perseguir objetivos compartidos de seguridad y transparencia antes de emitir una Orden Ejecutiva planeada.
Empresas como OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon son las compañías que participan en este acuerdo no vinculante, y enviarán representantes a la Casa Blanca para reunirse con el presidente Biden hoy.
Es importante aclarar que no se propone ninguna regla o aplicación obligatoria aquí, los compromisos acordados son puramente voluntarios. Sin embargo, aunque ninguna agencia gubernamental responsabilizará a una empresa si incumple algunos de estos compromisos, es probable que se conviertan en un asunto de registro público.
Compromisos acordados por las empresas
Las siete empresas, junto con otras que pueden unirse más adelante, se han comprometido a lo siguiente:
- Pruebas de seguridad internas y externas de los sistemas de IA antes de su lanzamiento, incluyendo pruebas de "red teaming" adversarias realizadas por expertos externos a la empresa.
- Compartir información sobre los riesgos de la IA y las técnicas de mitigación con el gobierno, la academia y la "sociedad civil", como la prevención de "jailbreaking".
- Invertir en ciberseguridad y salvaguardias contra amenazas internas para proteger los datos privados de los modelos, como los pesos. Esto es importante no solo para proteger la propiedad intelectual, sino también porque un lanzamiento prematuro podría representar una oportunidad para actores malintencionados.
- Facilitar el descubrimiento y reporte de vulnerabilidades por parte de terceros, por ejemplo, mediante programas de recompensas por errores o análisis de expertos en el campo.
- Desarrollar marcas de agua robustas u otra forma de marcar el contenido generado por IA.
- Informar sobre las "capacidades, limitaciones y áreas de uso apropiado e inapropiado" de los sistemas de IA. Sin embargo, obtener una respuesta clara sobre este punto puede resultar complicado.
- Priorizar la investigación sobre riesgos sociales, como el sesgo sistemático o los problemas de privacidad.
- Desarrollar y desplegar la IA "para ayudar a abordar los mayores desafíos de la sociedad", como la prevención del cáncer y el cambio climático. Sin embargo, en una conferencia de prensa se señaló que no se está haciendo un seguimiento de la huella de carbono de los modelos de IA.
Aunque los compromisos anteriores son voluntarios, es fácil imaginar que la amenaza de una Orden Ejecutiva está presente para fomentar el cumplimiento. Por ejemplo, si algunas empresas no permiten pruebas de seguridad externas de sus modelos antes de su lanzamiento, la Orden Ejecutiva podría incluir una directiva que instruya a la Comisión Federal de Comercio a examinar de cerca los productos de IA que afirmen tener una seguridad sólida. (Ya existe una Orden Ejecutiva que exige a las agencias estar atentas al sesgo en el desarrollo y uso de la IA).
La Casa Blanca busca liderar el camino en el desarrollo de la IA
La Casa Blanca está claramente ansiosa por adelantarse a esta próxima gran ola tecnológica, habiendo sido sorprendida en cierta medida por las capacidades disruptivas de las redes sociales. Tanto el presidente como el vicepresidente se han reunido con líderes de la industria y han solicitado asesoramiento sobre una estrategia nacional de IA, además de dedicar una gran cantidad de financiación a nuevos centros y programas de investigación en IA. Por supuesto, el aparato nacional de ciencia e investigación está mucho más avanzado que ellos, como muestra este informe de desafíos y oportunidades de investigación altamente completo (aunque necesariamente ligeramente desactualizado) del Departamento de Energía y los Laboratorios Nacionales.
Otras noticias • IA
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Google elimina lista de espera y lanza AI Mode para todos
Google ha eliminado la lista de espera para su función AI Mode, permitiendo a todos los usuarios mayores de 18 años en EE. UU. acceder...
Lo más reciente
- 1
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 2
Plataformas de segunda mano se adaptan y crecen en crisis
- 3
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 4
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 5
Filtración en Raw expone datos sensibles y genera alarma
- 6
Startups innovan en tecnología legal moda y salud a pesar desafíos
- 7
NotebookLM de Google transforma la toma de notas móviles