IA | Exigencia

Expertos en IA exigen mayor apertura para proteger la seguridad

Más de 70 expertos en IA piden una mayor apertura en el desarrollo de la inteligencia artificial

En un momento en el que el Reino Unido reunió a algunos de los líderes corporativos y políticos más importantes del mundo en Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta en la que pedían un enfoque más abierto en el desarrollo de la IA.

La carta, publicada por Mozilla, señala: "Estamos en un momento crítico en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos abrazar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global".

El debate sobre la apertura frente a la propiedad ha sido un tema importante en la revolución de la IA, al igual que en el ámbito del software en general en las últimas décadas. El científico jefe de IA de Meta, la empresa matriz de Facebook, Yann Lecun, criticó los esfuerzos de algunas empresas, incluyendo OpenAI y DeepMind de Google, por asegurar "el control regulatorio de la industria de la IA" al hacer lobby en contra de la investigación y desarrollo de IA abierta.

Lecun escribió: "Si sus campañas de miedo tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA".

Este tema sigue presente en los esfuerzos de gobernanza que surgen de la Orden Ejecutiva del presidente Biden y de la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los líderes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por actores malintencionados para crear armas químicas con mayor facilidad, por ejemplo. Por otro lado, los argumentos en contra sostienen que este alarmismo solo busca concentrar el control en manos de unas pocas empresas proteccionistas.

Control propietario

La verdad probablemente sea algo más matizada que eso, pero es en ese contexto que decenas de personas han firmado una carta abierta hoy, pidiendo más apertura.

La carta afirma: "Sí, los modelos de IA de acceso abierto conllevan riesgos y vulnerabilidades: los modelos de IA pueden ser utilizados por actores maliciosos o desplegados por desarrolladores mal preparados. Sin embargo, una y otra vez hemos visto que lo mismo ocurre con las tecnologías propietarias, y que aumentar el acceso y la supervisión pública hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y propietario de los modelos de IA fundamentales es el único camino para protegernos de daños a gran escala en la sociedad es, en el mejor de los casos, ingenua y, en el peor, peligrosa".

El reconocido investigador de IA, Lecun, quien se unió a Meta hace 10 años, agregó su nombre a la carta, junto con otros nombres destacados como Andrew Ng, cofundador de Google Brain y Coursera; Julien Chaumond, cofundador y CTO de Hugging Face; y el reconocido tecnólogo Brian Behlendorf de la Fundación Linux.

La carta identifica específicamente tres áreas principales en las que la apertura puede ayudar al desarrollo seguro de la IA, incluyendo permitir una mayor investigación y colaboración independiente, aumentar la supervisión y la rendición de cuentas públicas y reducir las barreras de entrada para nuevos participantes en el campo de la IA.

"La historia nos muestra que apresurarnos hacia el tipo equivocado de regulación puede llevar a concentraciones de poder que perjudican la competencia y la innovación", señala la carta. "Los modelos abiertos pueden informar un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para lograrlos".


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Inteligencia vocal

OpenAI presenta innovadoras funciones de inteligencia vocal y traducción

OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...

Productividad mejorada

Perplexity lanza PC para Mac con inteligencia artificial integrada

Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....

Contacto confiable

OpenAI presenta Trusted Contact para mejorar la seguridad emocional

OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...

Cambio estratégico

Bumble elimina deslizamiento y apuesta por inteligencia artificial

Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...

Tensión regulatoria

Musk y OpenAI: Tensión entre seguridad y lucro en IA

El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...

Seguridad informática

Inteligencia artificial transforma la seguridad del software y ciberseguridad

La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...

Crecimiento rápido

Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5

Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...

Cambio tecnológico

xAI y Anthropic transforman la industria tecnológica con nueva alianza

La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...