IA | IA

Hugging Face colabora con expertos para mejorar seguridad de IA

Brecha de seguridad en Hugging Face expone datos sensibles de usuarios

La startup de inteligencia artificial Hugging Face ha confirmado que su equipo de seguridad detectó un acceso no autorizado a Spaces, la plataforma de la compañía para crear, compartir y alojar modelos de IA y recursos. Según Hugging Face, la intrusión afectó a secretos de Spaces, es decir, piezas de información privada que actúan como llaves para desbloquear recursos protegidos como cuentas, herramientas y entornos de desarrollo.

Revocación de tokens y recomendaciones de seguridad

Ante esta situación, Hugging Face ha procedido a revocar varios tokens en esos secretos como medida de precaución. La compañía ha notificado a los usuarios cuyos tokens han sido revocados y recomienda a todos los usuarios que "actualicen cualquier clave o token" y consideren cambiar a tokens de acceso más detallados, que según Hugging Face son más seguros.

Investigación en curso y acciones tomadas

Aunque no está claro cuántos usuarios o aplicaciones se vieron afectados por esta posible brecha, Hugging Face ha afirmado que está trabajando con especialistas forenses en ciberseguridad externos para investigar el problema, revisar sus políticas y procedimientos de seguridad, y ha informado del incidente a las autoridades competentes. La compañía se compromete a utilizar esta situación como una oportunidad para fortalecer la seguridad de toda su infraestructura.

Cuestionamientos sobre prácticas de seguridad

Este incidente se produce en un momento en el que Hugging Face, una de las mayores plataformas para proyectos colaborativos de IA y ciencia de datos con más de un millón de modelos, conjuntos de datos y aplicaciones basadas en IA, está siendo objeto de un escrutinio creciente en cuanto a sus prácticas de seguridad. En los últimos meses, se han descubierto vulnerabilidades y riesgos potenciales en la plataforma, lo que ha generado preocupación entre la comunidad de usuarios y expertos en ciberseguridad.

Compromiso con la mejora de la seguridad

Hugging Face ha anunciado recientemente una asociación con la empresa de seguridad en la nube Wiz para utilizar las herramientas de escaneo de vulnerabilidades y configuración de entornos en la nube de la compañía, con el objetivo de mejorar la seguridad en su plataforma y en el ecosistema de IA y aprendizaje automático en general. Esta colaboración podría ser un paso positivo hacia la protección de los datos sensibles de los usuarios y la prevención de futuros incidentes de seguridad.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Mejoras limitadas

OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos

OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...

Interacción problemática

Reacciones mixtas ante la personalización de ChatGPT en usuarios

La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...

Inversión segura

Geoff Ralston lanza fondo para startups de inteligencia artificial segura

Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...

Falta transparencia

Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro

El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...

IA y privacidad

IA en imágenes: avances y riesgos para la privacidad

El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....

Vigilancia ética

OpenAI implementa vigilancia para prevenir amenazas en IA

OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...

Seguridad ética

Desafíos éticos y de seguridad en la inteligencia artificial

La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....

Programación eficiente

Codex CLI de OpenAI mejora la programación con IA localmente

Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...