IA | Exigencia

Expertos en IA exigen mayor apertura para proteger la seguridad

Más de 70 expertos en IA piden una mayor apertura en el desarrollo de la inteligencia artificial

En un momento en el que el Reino Unido reunió a algunos de los líderes corporativos y políticos más importantes del mundo en Bletchley Park para la Cumbre de Seguridad de la IA, más de 70 firmantes pusieron su nombre en una carta en la que pedían un enfoque más abierto en el desarrollo de la IA.

La carta, publicada por Mozilla, señala: "Estamos en un momento crítico en la gobernanza de la IA. Para mitigar los daños actuales y futuros de los sistemas de IA, debemos abrazar la apertura, la transparencia y el amplio acceso. Esto debe ser una prioridad global".

El debate sobre la apertura frente a la propiedad ha sido un tema importante en la revolución de la IA, al igual que en el ámbito del software en general en las últimas décadas. El científico jefe de IA de Meta, la empresa matriz de Facebook, Yann Lecun, criticó los esfuerzos de algunas empresas, incluyendo OpenAI y DeepMind de Google, por asegurar "el control regulatorio de la industria de la IA" al hacer lobby en contra de la investigación y desarrollo de IA abierta.

Lecun escribió: "Si sus campañas de miedo tienen éxito, inevitablemente resultarán en lo que usted y yo identificaríamos como una catástrofe: un pequeño número de empresas controlarán la IA".

Este tema sigue presente en los esfuerzos de gobernanza que surgen de la Orden Ejecutiva del presidente Biden y de la Cumbre de Seguridad de la IA organizada por el Reino Unido esta semana. Por un lado, los líderes de las grandes empresas de IA advierten sobre las amenazas existenciales que plantea la IA, argumentando que la IA de código abierto puede ser manipulada por actores malintencionados para crear armas químicas con mayor facilidad, por ejemplo. Por otro lado, los argumentos en contra sostienen que este alarmismo solo busca concentrar el control en manos de unas pocas empresas proteccionistas.

Control propietario

La verdad probablemente sea algo más matizada que eso, pero es en ese contexto que decenas de personas han firmado una carta abierta hoy, pidiendo más apertura.

La carta afirma: "Sí, los modelos de IA de acceso abierto conllevan riesgos y vulnerabilidades: los modelos de IA pueden ser utilizados por actores maliciosos o desplegados por desarrolladores mal preparados. Sin embargo, una y otra vez hemos visto que lo mismo ocurre con las tecnologías propietarias, y que aumentar el acceso y la supervisión pública hace que la tecnología sea más segura, no más peligrosa. La idea de que el control estricto y propietario de los modelos de IA fundamentales es el único camino para protegernos de daños a gran escala en la sociedad es, en el mejor de los casos, ingenua y, en el peor, peligrosa".

El reconocido investigador de IA, Lecun, quien se unió a Meta hace 10 años, agregó su nombre a la carta, junto con otros nombres destacados como Andrew Ng, cofundador de Google Brain y Coursera; Julien Chaumond, cofundador y CTO de Hugging Face; y el reconocido tecnólogo Brian Behlendorf de la Fundación Linux.

La carta identifica específicamente tres áreas principales en las que la apertura puede ayudar al desarrollo seguro de la IA, incluyendo permitir una mayor investigación y colaboración independiente, aumentar la supervisión y la rendición de cuentas públicas y reducir las barreras de entrada para nuevos participantes en el campo de la IA.

"La historia nos muestra que apresurarnos hacia el tipo equivocado de regulación puede llevar a concentraciones de poder que perjudican la competencia y la innovación", señala la carta. "Los modelos abiertos pueden informar un debate abierto y mejorar la formulación de políticas. Si nuestros objetivos son la seguridad, la protección y la rendición de cuentas, entonces la apertura y la transparencia son ingredientes esenciales para lograrlos".


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Regulaciones AI

California aprueba leyes estrictas para regular inteligencia artificial y deepfakes

California ha aprobado leyes estrictas sobre la inteligencia artificial, incluyendo regulaciones sobre deepfakes en elecciones y el uso de réplicas digitales de actores. Estas medidas...

Reestructuración estratégica

Intel reestructura fundición en busca de agilidad y reducción de costes

Intel está reestructurando su división de fundición, convirtiéndola en una subsidiaria independiente para mejorar su agilidad. La compañía ha pausado proyectos en Europa y busca...

Adquisiciones estratégicas

Typeface adquiere Treat y Narrato para potenciar su innovación

Typeface, startup de inteligencia artificial generativa, ha adquirido Treat y Narrato para fortalecer su oferta de productos y mejorar la personalización en la creación de...

Transparencia confusa

Meta oculta etiqueta de contenido editado por IA en menú

Meta ha cambiado la etiqueta de contenido editado por IA, ocultándola en el menú del post, mientras que el contenido generado completamente por IA seguirá...

Resumen auditivo

Google presenta "Audio Overview" para resumir documentos con IA

Google ha lanzado "Audio Overview" en NotebookLM, una función que permite escuchar resúmenes de documentos mediante anfitriones virtuales de inteligencia artificial. Aunque está en fase...

Modelo multimodal

Mistral lanza Pixtral 12B, innovador modelo multimodal de IA

Mistral ha lanzado Pixtral 12B, su primer modelo multimodal con 12 mil millones de parámetros, capaz de procesar texto e imágenes. Disponible para pruebas en...

Desilusión tecnológica

Apple decepciona con IA que no innova en iPhone 16

La inteligencia artificial de Apple ha decepcionado al no ofrecer funciones realmente innovadoras. Aunque mejora la privacidad y accesibilidad, sus capacidades son similares a herramientas...

Expectación moderada

Apple despierta expectativas con inteligencia artificial para iPhone 16

Apple ha generado expectación con su inteligencia artificial, prevista para el iPhone 16. Aunque promete innovaciones, su implementación gradual y limitaciones regionales podrían afectar las...