IA | Exigencia

Expertos en IA exigen mayor apertura para proteger la seguridad

Más de 70 expertos en IA piden una mayor apertura en el desarrollo de la inteligencia artificial

En un momento en el que el Reino Unido reunió a algunos de los líderes corporativos y políticos más importantes del mundo en Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta en la que pedían un enfoque más abierto en el desarrollo de la IA.

La carta, publicada por Mozilla, señala: "Estamos en un momento crítico en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos abrazar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global".

El debate sobre la apertura frente a la propiedad ha sido un tema importante en la revolución de la IA, al igual que en el ámbito del software en general en las últimas décadas. El científico jefe de IA de Meta, la empresa matriz de Facebook, Yann Lecun, criticó los esfuerzos de algunas empresas, incluyendo OpenAI y DeepMind de Google, por asegurar "el control regulatorio de la industria de la IA" al hacer lobby en contra de la investigación y desarrollo de IA abierta.

Lecun escribió: "Si sus campañas de miedo tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA".

Este tema sigue presente en los esfuerzos de gobernanza que surgen de la Orden Ejecutiva del presidente Biden y de la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los líderes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por actores malintencionados para crear armas químicas con mayor facilidad, por ejemplo. Por otro lado, los argumentos en contra sostienen que este alarmismo solo busca concentrar el control en manos de unas pocas empresas proteccionistas.

Control propietario

La verdad probablemente sea algo más matizada que eso, pero es en ese contexto que decenas de personas han firmado una carta abierta hoy, pidiendo más apertura.

La carta afirma: "Sí, los modelos de IA de acceso abierto conllevan riesgos y vulnerabilidades: los modelos de IA pueden ser utilizados por actores maliciosos o desplegados por desarrolladores mal preparados. Sin embargo, una y otra vez hemos visto que lo mismo ocurre con las tecnologías propietarias, y que aumentar el acceso y la supervisión pública hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y propietario de los modelos de IA fundamentales es el único camino para protegernos de daños a gran escala en la sociedad es, en el mejor de los casos, ingenua y, en el peor, peligrosa".

El reconocido investigador de IA, Lecun, quien se unió a Meta hace 10 años, agregó su nombre a la carta, junto con otros nombres destacados como Andrew Ng, cofundador de Google Brain y Coursera; Julien Chaumond, cofundador y CTO de Hugging Face; y el reconocido tecnólogo Brian Behlendorf de la Fundación Linux.

La carta identifica específicamente tres áreas principales en las que la apertura puede ayudar al desarrollo seguro de la IA, incluyendo permitir una mayor investigación y colaboración independiente, aumentar la supervisión y la rendición de cuentas públicas y reducir las barreras de entrada para nuevos participantes en el campo de la IA.

"La historia nos muestra que apresurarnos hacia el tipo equivocado de regulación puede llevar a concentraciones de poder que perjudican la competencia y la innovación", señala la carta. "Los modelos abiertos pueden informar un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para lograrlos".


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Colaboración finalizada

OpenAI termina colaboración con Scale AI, incertidumbre en la industria

OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...

Desalineación ética

OpenAI revela hallazgos sobre comportamientos desalineados en IA

Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...

Controversia ambiental

xAI en el ojo del huracán por turbinas sin permisos

La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...

Interacción fluida

Google presenta "Search Live" para búsquedas interactivas y fluidas

Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...

Comunidades auténticas

Digg renace con IA y recompensas para comunidades auténticas

La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...

Ética tecnológica

Desafíos éticos en la búsqueda de inteligencia artificial general

La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...

Competencia intensa

Meta ofrece hasta 100 millones por talento en IA

Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...

Fiesta viral

Fiesta de Cluely se vuelve viral y termina cerrada por policía

La fiesta organizada por Cluely tras el AI Startup School se convirtió en un fenómeno viral cuando la multitud superó las expectativas, llevando a su...