IA | Exigencia

Expertos en IA exigen mayor apertura para proteger la seguridad

Más de 70 expertos en IA piden una mayor apertura en el desarrollo de la inteligencia artificial

En un momento en el que el Reino Unido reunió a algunos de los líderes corporativos y políticos más importantes del mundo en Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta en la que pedían un enfoque más abierto en el desarrollo de la IA.

La carta, publicada por Mozilla, señala: "Estamos en un momento crítico en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos abrazar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global".

El debate sobre la apertura frente a la propiedad ha sido un tema importante en la revolución de la IA, al igual que en el ámbito del software en general en las últimas décadas. El científico jefe de IA de Meta, la empresa matriz de Facebook, Yann Lecun, criticó los esfuerzos de algunas empresas, incluyendo OpenAI y DeepMind de Google, por asegurar "el control regulatorio de la industria de la IA" al hacer lobby en contra de la investigación y desarrollo de IA abierta.

Lecun escribió: "Si sus campañas de miedo tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA".

Este tema sigue presente en los esfuerzos de gobernanza que surgen de la Orden Ejecutiva del presidente Biden y de la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los líderes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por actores malintencionados para crear armas químicas con mayor facilidad, por ejemplo. Por otro lado, los argumentos en contra sostienen que este alarmismo solo busca concentrar el control en manos de unas pocas empresas proteccionistas.

Control propietario

La verdad probablemente sea algo más matizada que eso, pero es en ese contexto que decenas de personas han firmado una carta abierta hoy, pidiendo más apertura.

La carta afirma: "Sí, los modelos de IA de acceso abierto conllevan riesgos y vulnerabilidades: los modelos de IA pueden ser utilizados por actores maliciosos o desplegados por desarrolladores mal preparados. Sin embargo, una y otra vez hemos visto que lo mismo ocurre con las tecnologías propietarias, y que aumentar el acceso y la supervisión pública hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y propietario de los modelos de IA fundamentales es el único camino para protegernos de daños a gran escala en la sociedad es, en el mejor de los casos, ingenua y, en el peor, peligrosa".

El reconocido investigador de IA, Lecun, quien se unió a Meta hace 10 años, agregó su nombre a la carta, junto con otros nombres destacados como Andrew Ng, cofundador de Google Brain y Coursera; Julien Chaumond, cofundador y CTO de Hugging Face; y el reconocido tecnólogo Brian Behlendorf de la Fundación Linux.

La carta identifica específicamente tres áreas principales en las que la apertura puede ayudar al desarrollo seguro de la IA, incluyendo permitir una mayor investigación y colaboración independiente, aumentar la supervisión y la rendición de cuentas públicas y reducir las barreras de entrada para nuevos participantes en el campo de la IA.

"La historia nos muestra que apresurarnos hacia el tipo equivocado de regulación puede llevar a concentraciones de poder que perjudican la competencia y la innovación", señala la carta. "Los modelos abiertos pueden informar un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para lograrlos".


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Desafíos éticos

Elon Musk revela desafíos éticos en distilación de IA

La distilación en inteligencia artificial, revelada por Elon Musk en un juicio contra OpenAI, plantea desafíos éticos y de competencia. Gigantes tecnológicos como OpenAI y...

Seguridad avanzada

OpenAI y Yubico lanzan llaves de seguridad para ChatGPT

OpenAI ha lanzado el sistema Advanced Account Security (AAS) en colaboración con Yubico, introduciendo llaves de seguridad para proteger cuentas de ChatGPT contra el phishing....

Cartera digital

Stripe lanza Link, cartera digital con inteligencia artificial integrada

Stripe ha lanzado Link, una cartera digital que integra inteligencia artificial para facilitar pagos y gestionar finanzas. Permite vincular múltiples métodos de pago, rastrear gastos...

Era publicitaria

Elon Musk transforma X con inteligencia artificial para anunciantes

Elon Musk impulsa a X (antes Twitter) hacia una nueva era publicitaria con un sistema basado en inteligencia artificial, buscando recuperar la confianza de los...

IA empresarial

Meta impulsa IA empresarial con herramientas gratuitas y monetización futura

Meta está revolucionando la inteligencia artificial en el ámbito empresarial, con un crecimiento notable en sus herramientas de IA y la adopción por pequeñas y...

Alianza estratégica

Microsoft y OpenAI renuevan alianza para potenciar inteligencia artificial

Microsoft y OpenAI han renovado su alianza, permitiendo a Microsoft acceder a la inteligencia artificial de OpenAI sin regalías hasta 2032. A pesar de la...

Pérdidas significativas

Meta redirige su enfoque hacia IA tras pérdidas millonarias

Meta ha perdido 83.500 millones de dólares en su división de Reality Labs, lo que ha llevado a un cambio de enfoque hacia la inteligencia...

Demanda tecnológica

Elon Musk demanda a OpenAI por desvío de misión benéfica

Elon Musk ha demandado a OpenAI, alegando que sus cofundadores han desviado la misión benéfica de la organización. Durante el juicio, Musk contradijo afirmaciones previas...