IA | Exigencia

Expertos en IA exigen mayor apertura para proteger la seguridad

Más de 70 expertos en IA piden una mayor apertura en el desarrollo de la inteligencia artificial

En un momento en el que el Reino Unido reunió a algunos de los líderes corporativos y políticos más importantes del mundo en Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta en la que pedían un enfoque más abierto en el desarrollo de la IA.

La carta, publicada por Mozilla, señala: "Estamos en un momento crítico en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos abrazar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global".

El debate sobre la apertura frente a la propiedad ha sido un tema importante en la revolución de la IA, al igual que en el ámbito del software en general en las últimas décadas. El científico jefe de IA de Meta, la empresa matriz de Facebook, Yann Lecun, criticó los esfuerzos de algunas empresas, incluyendo OpenAI y DeepMind de Google, por asegurar "el control regulatorio de la industria de la IA" al hacer lobby en contra de la investigación y desarrollo de IA abierta.

Lecun escribió: "Si sus campañas de miedo tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA".

Este tema sigue presente en los esfuerzos de gobernanza que surgen de la Orden Ejecutiva del presidente Biden y de la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los líderes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por actores malintencionados para crear armas químicas con mayor facilidad, por ejemplo. Por otro lado, los argumentos en contra sostienen que este alarmismo solo busca concentrar el control en manos de unas pocas empresas proteccionistas.

Control propietario

La verdad probablemente sea algo más matizada que eso, pero es en ese contexto que decenas de personas han firmado una carta abierta hoy, pidiendo más apertura.

La carta afirma: "Sí, los modelos de IA de acceso abierto conllevan riesgos y vulnerabilidades: los modelos de IA pueden ser utilizados por actores maliciosos o desplegados por desarrolladores mal preparados. Sin embargo, una y otra vez hemos visto que lo mismo ocurre con las tecnologías propietarias, y que aumentar el acceso y la supervisión pública hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y propietario de los modelos de IA fundamentales es el único camino para protegernos de daños a gran escala en la sociedad es, en el mejor de los casos, ingenua y, en el peor, peligrosa".

El reconocido investigador de IA, Lecun, quien se unió a Meta hace 10 años, agregó su nombre a la carta, junto con otros nombres destacados como Andrew Ng, cofundador de Google Brain y Coursera; Julien Chaumond, cofundador y CTO de Hugging Face; y el reconocido tecnólogo Brian Behlendorf de la Fundación Linux.

La carta identifica específicamente tres áreas principales en las que la apertura puede ayudar al desarrollo seguro de la IA, incluyendo permitir una mayor investigación y colaboración independiente, aumentar la supervisión y la rendición de cuentas públicas y reducir las barreras de entrada para nuevos participantes en el campo de la IA.

"La historia nos muestra que apresurarnos hacia el tipo equivocado de regulación puede llevar a concentraciones de poder que perjudican la competencia y la innovación", señala la carta. "Los modelos abiertos pueden informar un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para lograrlos".


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Acceso restringido

Meta restringe acceso de adolescentes a IA por seguridad

Meta ha suspendido el acceso de adolescentes a personajes de IA en sus aplicaciones globalmente, buscando desarrollar una versión más segura. Esta decisión responde a...

Seguridad juvenil

Meta pausa acceso de adolescentes a personajes de IA

Meta ha decidido pausar el acceso de los adolescentes a sus personajes de IA, desarrollando una versión más adecuada para ellos. Esta medida responde a...

Memes personalizados

Google Photos presenta "Me Meme" para crear memes personalizados

Google Photos lanza "Me Meme", una función que permite a los usuarios crear memes personalizados con sus propias imágenes utilizando inteligencia artificial. Inicialmente disponible en...

Interés tecnológico

Sam Altman visitará India para la India AI Impact Summit

Sam Altman, CEO de OpenAI, visitará India en febrero para participar en la India AI Impact Summit 2026. Este viaje subraya el interés de OpenAI...

Calendarios inteligentes

Blockit transforma calendarios con IA y atrae a Sequoia Capital

Kais Khimji ha fundado Blockit, una startup que utiliza inteligencia artificial para revolucionar la programación de calendarios. Su enfoque permite que los agentes de IA...

Reestructuración empresarial

OpenAI reestructura liderazgo para fortalecer su enfoque empresarial

OpenAI está reestructurando su liderazgo, destacando el regreso de Barret Zoph para fortalecer su enfoque en el mercado empresarial. A pesar de haber lanzado ChatGPT...

Progreso limitado

Inteligencia artificial avanza lentamente en trabajos del conocimiento

La inteligencia artificial ha avanzado, pero su impacto en trabajos del conocimiento ha sido limitado. Un estudio de Mercor revela que los modelos actuales apenas...

Monetización equilibrada

Debate sobre monetización de inteligencia artificial y experiencia del usuario

La monetización de la inteligencia artificial está en debate, especialmente tras la decisión de OpenAI de implementar anuncios. Demis Hassabis, de Google DeepMind, aboga por...