OpenAI crea un equipo para evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial
OpenAI se prepara para enfrentar los riesgos de la IA
OpenAI ha anunciado hoy la creación de un nuevo equipo llamado Preparedness, encargado de evaluar y proteger contra los riesgos catastróficos de la inteligencia artificial (IA). Este equipo será liderado por Aleksander Madry, director del Centro de Aprendizaje Automático Desplegable del MIT. Las principales responsabilidades de Preparedness serán rastrear, predecir y proteger contra los peligros de los futuros sistemas de IA, desde su capacidad para persuadir y engañar a los humanos hasta su capacidad para generar código malicioso.
Preocupaciones sobre amenazas químicas, biológicas, radiológicas y nucleares
En una publicación en su blog, OpenAI enumera las amenazas químicas, biológicas, radiológicas y nucleares como algunas de las áreas de mayor preocupación en lo que respecta a los modelos de IA. Si bien algunas de estas categorías de riesgo pueden parecer más descabelladas que otras, el hecho de que OpenAI esté dispuesta a estudiar y evaluar escenarios que parecen sacados de novelas distópicas de ciencia ficción es sorprendente.
Convocatoria de ideas para estudios de riesgo
Con motivo del lanzamiento del equipo Preparedness, OpenAI está solicitando ideas para estudios de riesgo a la comunidad. Los diez mejores envíos recibirán un premio de $25,000 y la oportunidad de formar parte del equipo Preparedness. Una de las preguntas en la convocatoria plantea el escenario de que los participantes tengan acceso ilimitado a los modelos de IA de OpenAI y sean actores maliciosos. Se les pide que consideren el mal uso más único y probablemente catastrófico del modelo.
Formulación de una política de desarrollo basada en el riesgo
El equipo Preparedness también se encargará de formular una "política de desarrollo basada en el riesgo", que detallará el enfoque de OpenAI para la evaluación de modelos de IA y las herramientas de monitoreo, las acciones de mitigación de riesgos de la compañía y su estructura de gobierno para la supervisión de todo el proceso de desarrollo del modelo. Esta política busca complementar el trabajo de OpenAI en el campo de la seguridad de la IA, con un enfoque tanto en las fases previas como posteriores a la implementación del modelo.
El compromiso de OpenAI con la seguridad de la IA
En su publicación en el blog, OpenAI enfatiza que si bien los modelos de IA tienen el potencial de beneficiar a toda la humanidad, también plantean riesgos cada vez más graves. La compañía considera fundamental tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces.
Preocupaciones sobre la llegada de la IA superinteligente
La presentación de Preparedness en la cumbre gubernamental del Reino Unido sobre seguridad de la IA no es una coincidencia. OpenAI también anunció recientemente la formación de un equipo para estudiar, guiar y controlar formas emergentes de IA superinteligente. Sam Altman, CEO de OpenAI, y Ilya Sutskever, científico jefe y cofundador de OpenAI, creen que la IA con una inteligencia superior a la humana podría llegar en la próxima década y que esta IA no necesariamente será benévola, lo que hace necesario investigar formas de limitarla y controlarla.
En resumen, OpenAI ha creado el equipo Preparedness para evaluar y proteger contra los riesgos catastróficos de la IA. Este equipo se encargará de rastrear y predecir los peligros de los futuros sistemas de IA, así como de formular una política de desarrollo basada en el riesgo. OpenAI busca asegurarse de tener la comprensión y la infraestructura necesarias para garantizar la seguridad de los sistemas de IA altamente capaces. Además, la compañía está solicitando ideas para estudios de riesgo y ha formado otro equipo para estudiar y controlar formas emergentes de IA superinteligente.
Otras noticias • IA
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Google elimina lista de espera y lanza AI Mode para todos
Google ha eliminado la lista de espera para su función AI Mode, permitiendo a todos los usuarios mayores de 18 años en EE. UU. acceder...
Lo más reciente
- 1
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 2
Plataformas de segunda mano se adaptan y crecen en crisis
- 3
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 4
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 5
Filtración en Raw expone datos sensibles y genera alarma
- 6
Startups innovan en tecnología legal moda y salud a pesar desafíos
- 7
NotebookLM de Google transforma la toma de notas móviles