IA | Problema

Renuncias en OpenAI ponen en riesgo desarrollo seguro de IA

Renuncia en masa en OpenAI: el equipo de Superalineación se desintegra

El equipo de Superalineación de OpenAI, encargado de desarrollar formas de gobernar y dirigir sistemas de IA "superinteligentes", fue prometido con el 20% de los recursos informáticos de la empresa, según una persona de ese equipo. Sin embargo, las solicitudes de una fracción de esos recursos a menudo fueron denegadas, lo que bloqueó al equipo para hacer su trabajo.

Este problema, entre otros, llevó a varios miembros del equipo a renunciar esta semana, incluido el co-líder Jan Leike, un ex investigador de DeepMind que, mientras estaba en OpenAI, estuvo involucrado en el desarrollo de ChatGPT, GPT-4 y el predecesor de ChatGPT, InstructGPT.

Leike hizo públicas algunas razones de su renuncia el viernes por la mañana. "He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades principales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura", escribió Leike en una serie de publicaciones en X. "Creo que deberíamos dedicar mucho más de nuestro ancho de banda a prepararnos para las próximas generaciones de modelos, en seguridad, monitoreo, preparación, seguridad, robustez adversarial, (super)alineación, confidencialidad, impacto societal y temas relacionados. Estos problemas son bastante difíciles de resolver, y me preocupa que no estemos en una trayectoria para llegar allí."

OpenAI no respondió de inmediato a una solicitud de comentario sobre los recursos prometidos y asignados a ese equipo.

Renuncias y conflictos internos en OpenAI

OpenAI formó el equipo de Superalineación en julio pasado, y estaba liderado por Leike y el cofundador de OpenAI, Ilya Sutskever, quien también renunció de la empresa esta semana. Tenía el ambicioso objetivo de resolver los desafíos técnicos fundamentales para controlar la IA superinteligente en los próximos cuatro años. Junto con científicos e ingenieros de la división de alineación anterior de OpenAI, así como investigadores de otras organizaciones de la empresa, el equipo contribuiría a la investigación que informa sobre la seguridad de los modelos tanto internos como no pertenecientes a OpenAI, y, a través de iniciativas como un programa de subvenciones de investigación, solicitaría y compartiría trabajos con la industria de IA en general.

El equipo de Superalineación logró publicar una serie de investigaciones sobre seguridad y canalizar millones de dólares en subvenciones a investigadores externos. Sin embargo, a medida que los lanzamientos de productos comenzaron a ocupar una cantidad cada vez mayor de ancho de banda del liderazgo de OpenAI, el equipo de Superalineación se encontró luchando por más inversiones iniciales, inversiones que consideraba críticas para la misión declarada de la empresa de desarrollar IA superinteligente para beneficio de toda la humanidad.

"Construir máquinas más inteligentes que los humanos es un esfuerzo inherentemente peligroso", continuó Leike. "Pero en los últimos años, la cultura y los procesos de seguridad han quedado en un segundo plano frente a los productos llamativos."

Cambios en la estructura de OpenAI

El conflicto de Sutskever con el CEO de OpenAI, Sam Altman, sirvió como una importante distracción adicional.

Según la fuente, Sutskever fue fundamental para el equipo de Superalineación, no solo contribuyendo a la investigación, sino también sirviendo como un puente hacia otras divisiones dentro de OpenAI. También actuaba como una especie de embajador, impresionando la importancia del trabajo del equipo en los principales tomadores de decisiones de OpenAI.

Después de las salidas de Leike y Sutskever, John Schulman, otro cofundador de OpenAI, ha pasado a encabezar el tipo de trabajo que estaba haciendo el equipo de Superalineación, pero ya no habrá un equipo dedicado, en su lugar será un grupo de investigadores asociados de forma flexible integrados en las divisiones de la empresa. Un portavoz de OpenAI lo describió como "integrando [el equipo] de forma más profunda".

El temor es que, como resultado, el desarrollo de IA de OpenAI no esté tan centrado en la seguridad como podría haber sido.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Desconfianza creciente

Creciente adopción de IA en EE. UU. pero baja confianza

La adopción de la inteligencia artificial en Estados Unidos crece, pero la confianza en ella es baja. Un estudio revela que el 76% desconfía de...

Gemelos digitales

Mantis Biotech revoluciona la medicina con gemelos digitales humanos

Mantis Biotech ha desarrollado una plataforma que crea gemelos digitales del cuerpo humano mediante la recopilación de datos de diversas fuentes. Esta tecnología permite simular...

Optimización autónoma

ScaleOps recauda 130 millones para optimizar gestión en la nube

ScaleOps, una startup emergente, ha recaudado 130 millones de dólares para desarrollar una solución autónoma que optimiza la gestión de infraestructuras en la nube, reduciendo...

Inversión tecnológica

Mistral AI invierte 830 millones en infraestructura de IA en Europa

Mistral AI ha recaudado 830 millones de dólares para construir un centro de datos cerca de París, impulsando la infraestructura de inteligencia artificial en Europa....

Adulación perjudicial

Chatbots fomentan dependencia al adular más que humanos

La "sicosis de la adulación" en la inteligencia artificial, especialmente en chatbots, valida las creencias de los usuarios, debilitando sus habilidades sociales y fomentando la...

Crecimiento ético

Anthropic crece con Claude en medio de disputa con Defensa

La disputa entre Anthropic y el Departamento de Defensa de EE. UU. ha impulsado el crecimiento de su producto, Claude, gracias a una estrategia de...

Valoración inversores

SK hynix planea cotizar en EE. UU. para atraer inversores

SK hynix busca cotizar en EE. UU. para aumentar su valoración y atraer nuevos inversores, con una recaudación prevista de hasta 14.000 millones de dólares....

Inteligencia artificial

Juez apoya a Anthropic en disputa sobre regulación de IA

Un juez federal ha respaldado a Anthropic en su disputa con la administración Trump, ordenando el retiro de su designación como riesgo de seguridad. Este...