IA | Seguridad

OpenAI crea equipo Preparedness para proteger contra riesgos de IA

OpenAI crea un equipo para evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial

OpenAI se prepara para enfrentar los riesgos de la IA

OpenAI ha anunciado hoy la creación de un nuevo equipo llamado Preparedness, encargado de evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial (IA). Este equipo será liderado por Aleksander Madry, director del Centro de Aprendizaje Automático Desplegable del MIT. Las principales responsabilidades de Preparedness serán rastrear, predecir y proteger contra los peligros de los futuros sistemas de IA, desde su capacidad para persuadir y engañar a los humanos hasta su capacidad para generar código malicioso.

Preocupaciones sobre amenazas químicas, biológicas, radiológicas y nucleares

En una publicación en su blog, OpenAI enumera las amenazas químicas, biológicas, radiológicas y nucleares como algunas de las áreas de mayor preocupación en lo que respecta a los modelos de IA. Si bien algunas de estas categorías de riesgo pueden parecer más descabelladas que otras, el hecho de que OpenAI esté dispuesta a estudiar y evaluar escenarios que parecen sacados de novelas distópicas de ciencia ficción es sorprendente.

Convocatoria de ideas para estudios de riesgo

Con motivo del lanzamiento del equipo Preparedness, OpenAI está solicitando ideas para estudios de riesgo a la comunidad. Los diez mejores envíos recibirán un premio de $25,000 y la oportunidad de formar parte del equipo Preparedness. Una de las preguntas en la convocatoria plantea el escenario de que los participantes tengan acceso ilimitado a los modelos de IA de OpenAI y sean actores maliciosos. Se les pide que consideren el mal uso más único y probablemente catastrófico del modelo.

Formulación de una política de desarrollo basada en el riesgo

El equipo Preparedness también se encargará de formular una "política de desarrollo basada en el riesgo", que detallará el enfoque de OpenAI para la evaluación de modelos de IA y las herramientas de monitoreo, las acciones de mitigación de riesgos de la compañía y su estructura de gobierno para la supervisión de todo el proceso de desarrollo del modelo. Esta política busca complementar el trabajo de OpenAI en el campo de la seguridad de la IA, con un enfoque tanto en las fases previas como posteriores a la implementación del modelo.

El compromiso de OpenAI con la seguridad de la IA

En su publicación en el blog, OpenAI enfatiza que si bien los modelos de IA tienen el potencial de beneficiar a toda la humanidad, también plantean riesgos cada vez más graves. La compañía considera fundamental tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces.

Preocupaciones sobre la llegada de la IA superinteligente

La presentación de Preparedness en la cumbre gubernamental del Reino Unido sobre seguridad de la IA no es una coincidencia. OpenAI también anunció recientemente la formación de un equipo para estudiar, guiar y controlar formas emergentes de IA superinteligente. Sam Altman, CEO de OpenAI, y Ilya Sutskever, científico jefe y cofundador de OpenAI, creen que la IA con una inteligencia superior a la humana podría llegar en la próxima década y que esta IA no necesariamente será benévola, lo que hace necesario investigar formas de limitarla y controlarla.

En resumen, OpenAI ha creado el equipo Preparedness para evaluar y proteger contra los riesgos catastróficos de la IA. Este equipo se encargará de rastrear y predecir los peligros de los futuros sistemas de IA, así como de formular una política de desarrollo basada en el riesgo. OpenAI busca asegurarse de tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces. Además, la compañía está solicitando ideas para estudios de riesgo y ha formado otro equipo para estudiar y controlar formas emergentes de IA superinteligente.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Protección digital

Trump firma ley que penaliza la distribución de imágenes no consensuadas

El Take It Down Act, firmado por Donald Trump, criminaliza la distribución de imágenes explícitas no consensuadas, incluyendo deepfakes y "revenge porn". Esta ley establece...

Notas inteligentes

Google presenta NotebookLM, la nueva herramienta de notas inteligentes

Google lanza NotebookLM para móviles, una herramienta de toma de notas e investigación basada en inteligencia artificial. Con funciones como resúmenes inteligentes y pódcast generados...

Venta estratégica

AMD vende ZT Systems a Sanmina por 3.000 millones de dólares

AMD ha vendido su unidad de servidores ZT Systems a Sanmina por 3.000 millones de dólares, enfocándose en soluciones de inteligencia artificial y cloud computing....

Innovación tecnológica

Microsoft integra IA en Edge para potenciar aplicaciones web

Microsoft ha lanzado nuevas APIs en Edge que integran inteligencia artificial, facilitando a los desarrolladores crear aplicaciones web. Con Phi 4 mini y herramientas de...

Desarrollo chatbot

Microsoft lanza NLWeb para facilitar desarrollo de chatbots online

Microsoft ha lanzado NLWeb, una herramienta que facilita el desarrollo de chatbots en sitios web, mejorando la interacción del usuario con contenido online. NLWeb busca...

Plataforma unificada

Microsoft presenta Windows AI Foundry para potenciar la inteligencia artificial

Microsoft ha lanzado Windows AI Foundry, una plataforma unificada que facilita el desarrollo de aplicaciones de inteligencia artificial en dispositivos Windows. Incluye Foundry Local, que...

Ética tecnológica

Grok de xAI enfrenta críticas por comentarios sobre el Holocausto

La controversia sobre el chatbot Grok, de xAI, destaca los peligros de la IA al tratar temas históricos sensibles, como el Holocausto. Sus comentarios sobre...

Confianza científica

MIT retira artículo sobre IA por dudas en datos científicos

El MIT solicitó la retirada de un artículo sobre IA y productividad en un laboratorio, tras dudas sobre la veracidad de los datos. Este escándalo...