IA | Seguridad

OpenAI crea equipo Preparedness para proteger contra riesgos de IA

OpenAI crea un equipo para evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial

OpenAI se prepara para enfrentar los riesgos de la IA

OpenAI ha anunciado hoy la creación de un nuevo equipo llamado Preparedness, encargado de evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial (IA). Este equipo será liderado por Aleksander Madry, director del Centro de Aprendizaje Automático Desplegable del MIT. Las principales responsabilidades de Preparedness serán rastrear, predecir y proteger contra los peligros de los futuros sistemas de IA, desde su capacidad para persuadir y engañar a los humanos hasta su capacidad para generar código malicioso.

Preocupaciones sobre amenazas químicas, biológicas, radiológicas y nucleares

En una publicación en su blog, OpenAI enumera las amenazas químicas, biológicas, radiológicas y nucleares como algunas de las áreas de mayor preocupación en lo que respecta a los modelos de IA. Si bien algunas de estas categorías de riesgo pueden parecer más descabelladas que otras, el hecho de que OpenAI esté dispuesta a estudiar y evaluar escenarios que parecen sacados de novelas distópicas de ciencia ficción es sorprendente.

Convocatoria de ideas para estudios de riesgo

Con motivo del lanzamiento del equipo Preparedness, OpenAI está solicitando ideas para estudios de riesgo a la comunidad. Los diez mejores envíos recibirán un premio de $25,000 y la oportunidad de formar parte del equipo Preparedness. Una de las preguntas en la convocatoria plantea el escenario de que los participantes tengan acceso ilimitado a los modelos de IA de OpenAI y sean actores maliciosos. Se les pide que consideren el mal uso más único y probablemente catastrófico del modelo.

Formulación de una política de desarrollo basada en el riesgo

El equipo Preparedness también se encargará de formular una "política de desarrollo basada en el riesgo", que detallará el enfoque de OpenAI para la evaluación de modelos de IA y las herramientas de monitoreo, las acciones de mitigación de riesgos de la compañía y su estructura de gobierno para la supervisión de todo el proceso de desarrollo del modelo. Esta política busca complementar el trabajo de OpenAI en el campo de la seguridad de la IA, con un enfoque tanto en las fases previas como posteriores a la implementación del modelo.

El compromiso de OpenAI con la seguridad de la IA

En su publicación en el blog, OpenAI enfatiza que si bien los modelos de IA tienen el potencial de beneficiar a toda la humanidad, también plantean riesgos cada vez más graves. La compañía considera fundamental tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces.

Preocupaciones sobre la llegada de la IA superinteligente

La presentación de Preparedness en la cumbre gubernamental del Reino Unido sobre seguridad de la IA no es una coincidencia. OpenAI también anunció recientemente la formación de un equipo para estudiar, guiar y controlar formas emergentes de IA superinteligente. Sam Altman, CEO de OpenAI, y Ilya Sutskever, científico jefe y cofundador de OpenAI, creen que la IA con una inteligencia superior a la humana podría llegar en la próxima década y que esta IA no necesariamente será benévola, lo que hace necesario investigar formas de limitarla y controlarla.

En resumen, OpenAI ha creado el equipo Preparedness para evaluar y proteger contra los riesgos catastróficos de la IA. Este equipo se encargará de rastrear y predecir los peligros de los futuros sistemas de IA, así como de formular una política de desarrollo basada en el riesgo. OpenAI busca asegurarse de tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces. Además, la compañía está solicitando ideas para estudios de riesgo y ha formado otro equipo para estudiar y controlar formas emergentes de IA superinteligente.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Colaboración finalizada

OpenAI termina colaboración con Scale AI, incertidumbre en la industria

OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...

Desalineación ética

OpenAI revela hallazgos sobre comportamientos desalineados en IA

Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...

Controversia ambiental

xAI en el ojo del huracán por turbinas sin permisos

La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...

Interacción fluida

Google presenta "Search Live" para búsquedas interactivas y fluidas

Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...

Comunidades auténticas

Digg renace con IA y recompensas para comunidades auténticas

La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...

Ética tecnológica

Desafíos éticos en la búsqueda de inteligencia artificial general

La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...

Competencia intensa

Meta ofrece hasta 100 millones por talento en IA

Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...

Fiesta viral

Fiesta de Cluely se vuelve viral y termina cerrada por policía

La fiesta organizada por Cluely tras el AI Startup School se convirtió en un fenómeno viral cuando la multitud superó las expectativas, llevando a su...