IA | Seguridad

Reino Unido crea Instituto de Seguridad de IA respaldado por empresas

El Reino Unido lanza el Instituto de Seguridad de IA para probar la seguridad de la inteligencia artificial emergente

El Reino Unido ha dado un paso importante hacia el establecimiento de su liderazgo en la política de inteligencia artificial (IA) al lanzar el Instituto de Seguridad de IA. Este instituto, que se describe como un "centro global con sede en el Reino Unido y encargado de probar la seguridad de los tipos emergentes de IA", fue anunciado formalmente por el primer ministro Rishi Sunak. La creación de este instituto es el resultado de la labor realizada por el grupo de trabajo de IA de Frontier AI, establecido por el Reino Unido en junio para preparar la Cumbre de Seguridad de IA que se celebró esta semana.

Liderazgo y financiación del Instituto de Seguridad de IA

El Instituto de Seguridad de IA estará dirigido por Ian Hogarth, quien también presidió el grupo de trabajo de Frontier AI. Uno de los líderes más destacados en el campo de la IA, Yoshio Bengio, será el encargado de producir el primer informe del instituto. Aunque no se ha revelado la cantidad exacta de financiación que el gobierno proporcionará al instituto, se espera que las principales empresas de IA respalden esta iniciativa. Sin embargo, aún no está claro si se espera que las empresas contribuyan económicamente al instituto.

La Declaración de Bletchley y el compromiso de evaluación de riesgos

El anuncio del Instituto de Seguridad de IA coincide con la firma de la Declaración de Bletchley por parte de los países participantes en la cumbre. Esta declaración establece el compromiso de realizar pruebas conjuntas y evaluar los riesgos de las tecnologías de IA de vanguardia, como los modelos de lenguaje avanzados. El primer ministro Sunak enfatizó la importancia de realizar pruebas de seguridad antes de lanzar nuevos modelos de IA, y señaló que hasta ahora solo las empresas desarrolladoras han llevado a cabo estas pruebas.

El debate sobre la regulación de la IA

El Reino Unido ha resistido hasta ahora la implementación de regulaciones específicas para la IA, tanto a nivel de plataformas como de aplicaciones específicas. Algunos críticos argumentan que sin regulaciones efectivas, los conceptos de seguridad y evaluación de riesgos carecen de sentido. Sin embargo, Sunak defendió la postura del gobierno al afirmar que es demasiado pronto para implementar regulaciones, ya que la tecnología de IA está evolucionando rápidamente y es necesario comprender completamente sus implicaciones antes de legislar.

Reuniones en la Cumbre de Seguridad de IA

En la segunda jornada de la cumbre, se llevaron a cabo reuniones bilaterales con la presidenta de la Comisión Europea, Ursula von der Leyen, y el secretario general de las Naciones Unidas, António Guterres. Además, se realizaron dos sesiones plenarias a puerta cerrada, en las que participaron destacados líderes de la industria de la IA y representantes gubernamentales. Sin embargo, la falta de transparencia en estas sesiones plenarias ha generado críticas, ya que los periodistas no tuvieron acceso a las discusiones.

La ausencia de China y Elon Musk

Aunque China fue invitada durante el primer día de la cumbre, no participó en las sesiones plenarias a puerta cerrada. Además, Elon Musk, propietario de X.ai, no estuvo presente en las reuniones de hoy. Sin embargo, está programado que Musk tenga una charla con el primer ministro Sunak esta noche en su plataforma social, aunque no se espera que sea una transmisión en vivo.

Con el establecimiento del Instituto de Seguridad de IA, el Reino Unido busca posicionarse como líder en la formulación de políticas de IA y garantizar la seguridad de las tecnologías emergentes. A medida que avanza en esta dirección, el gobierno británico tendrá que abordar cuestiones clave, como la financiación del instituto y la necesidad de regulaciones efectivas para garantizar la seguridad y evaluar los riesgos asociados con la IA.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Colaboración finalizada

OpenAI termina colaboración con Scale AI, incertidumbre en la industria

OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...

Desalineación ética

OpenAI revela hallazgos sobre comportamientos desalineados en IA

Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...

Controversia ambiental

xAI en el ojo del huracán por turbinas sin permisos

La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...

Interacción fluida

Google presenta "Search Live" para búsquedas interactivas y fluidas

Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...

Comunidades auténticas

Digg renace con IA y recompensas para comunidades auténticas

La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...

Ética tecnológica

Desafíos éticos en la búsqueda de inteligencia artificial general

La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...

Competencia intensa

Meta ofrece hasta 100 millones por talento en IA

Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...

Fiesta viral

Fiesta de Cluely se vuelve viral y termina cerrada por policía

La fiesta organizada por Cluely tras el AI Startup School se convirtió en un fenómeno viral cuando la multitud superó las expectativas, llevando a su...