Brecha de seguridad en Hugging Face expone datos sensibles de usuarios
La startup de inteligencia artificial Hugging Face ha confirmado que su equipo de seguridad detectó un acceso no autorizado a Spaces, la plataforma de la compañía para crear, compartir y alojar modelos de IA y recursos. Según Hugging Face, la intrusión afectó a secretos de Spaces, es decir, piezas de información privada que actúan como llaves para desbloquear recursos protegidos como cuentas, herramientas y entornos de desarrollo.
Revocación de tokens y recomendaciones de seguridad
Ante esta situación, Hugging Face ha procedido a revocar varios tokens en esos secretos como medida de precaución. La compañía ha notificado a los usuarios cuyos tokens han sido revocados y recomienda a todos los usuarios que "actualicen cualquier clave o token" y consideren cambiar a tokens de acceso más detallados, que según Hugging Face son más seguros.
Investigación en curso y acciones tomadas
Aunque no está claro cuántos usuarios o aplicaciones se vieron afectados por esta posible brecha, Hugging Face ha afirmado que está trabajando con especialistas forenses en ciberseguridad externos para investigar el problema, revisar sus políticas y procedimientos de seguridad, y ha informado del incidente a las autoridades competentes. La compañía se compromete a utilizar esta situación como una oportunidad para fortalecer la seguridad de toda su infraestructura.
Cuestionamientos sobre prácticas de seguridad
Este incidente se produce en un momento en el que Hugging Face, una de las mayores plataformas para proyectos colaborativos de IA y ciencia de datos con más de un millón de modelos, conjuntos de datos y aplicaciones basadas en IA, está siendo objeto de un escrutinio creciente en cuanto a sus prácticas de seguridad. En los últimos meses, se han descubierto vulnerabilidades y riesgos potenciales en la plataforma, lo que ha generado preocupación entre la comunidad de usuarios y expertos en ciberseguridad.
Compromiso con la mejora de la seguridad
Hugging Face ha anunciado recientemente una asociación con la empresa de seguridad en la nube Wiz para utilizar las herramientas de escaneo de vulnerabilidades y configuración de entornos en la nube de la compañía, con el objetivo de mejorar la seguridad en su plataforma y en el ecosistema de IA y aprendizaje automático en general. Esta colaboración podría ser un paso positivo hacia la protección de los datos sensibles de los usuarios y la prevención de futuros incidentes de seguridad.
Otras noticias • IA
OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos
OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...
Reacciones mixtas ante la personalización de ChatGPT en usuarios
La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...
Geoff Ralston lanza fondo para startups de inteligencia artificial segura
Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...
Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro
El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...
IA en imágenes: avances y riesgos para la privacidad
El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....
OpenAI implementa vigilancia para prevenir amenazas en IA
OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...
Desafíos éticos y de seguridad en la inteligencia artificial
La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....
Codex CLI de OpenAI mejora la programación con IA localmente
Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...
Lo más reciente
- 1
Palantir enfrenta críticas éticas por contrato con ICE
- 2
A Minecraft Movie alcanza 720 millones y conquista a fans
- 3
Controversia sobre modelo O3 resalta necesidad de transparencia en IA
- 4
Meta busca revitalizar Facebook ante la competencia de TikTok
- 5
Mechanize genera controversia por su ambiciosa automatización laboral
- 6
Juicio antimonopolio a Meta podría cambiar redes sociales para siempre
- 7
Owen Nowhere revoluciona la animación infantil con blockchain interactivo