Brecha de seguridad en Hugging Face expone datos sensibles de usuarios
La startup de inteligencia artificial Hugging Face ha confirmado que su equipo de seguridad detectó un acceso no autorizado a Spaces, la plataforma de la compañía para crear, compartir y alojar modelos de IA y recursos. Según Hugging Face, la intrusión afectó a secretos de Spaces, es decir, piezas de información privada que actúan como llaves para desbloquear recursos protegidos como cuentas, herramientas y entornos de desarrollo.
Revocación de tokens y recomendaciones de seguridad
Ante esta situación, Hugging Face ha procedido a revocar varios tokens en esos secretos como medida de precaución. La compañía ha notificado a los usuarios cuyos tokens han sido revocados y recomienda a todos los usuarios que "actualicen cualquier clave o token" y consideren cambiar a tokens de acceso más detallados, que según Hugging Face son más seguros.
Investigación en curso y acciones tomadas
Aunque no está claro cuántos usuarios o aplicaciones se vieron afectados por esta posible brecha, Hugging Face ha afirmado que está trabajando con especialistas forenses en ciberseguridad externos para investigar el problema, revisar sus políticas y procedimientos de seguridad, y ha informado del incidente a las autoridades competentes. La compañía se compromete a utilizar esta situación como una oportunidad para fortalecer la seguridad de toda su infraestructura.
Cuestionamientos sobre prácticas de seguridad
Este incidente se produce en un momento en el que Hugging Face, una de las mayores plataformas para proyectos colaborativos de IA y ciencia de datos con más de un millón de modelos, conjuntos de datos y aplicaciones basadas en IA, está siendo objeto de un escrutinio creciente en cuanto a sus prácticas de seguridad. En los últimos meses, se han descubierto vulnerabilidades y riesgos potenciales en la plataforma, lo que ha generado preocupación entre la comunidad de usuarios y expertos en ciberseguridad.
Compromiso con la mejora de la seguridad
Hugging Face ha anunciado recientemente una asociación con la empresa de seguridad en la nube Wiz para utilizar las herramientas de escaneo de vulnerabilidades y configuración de entornos en la nube de la compañía, con el objetivo de mejorar la seguridad en su plataforma y en el ecosistema de IA y aprendizaje automático en general. Esta colaboración podría ser un paso positivo hacia la protección de los datos sensibles de los usuarios y la prevención de futuros incidentes de seguridad.
Otras noticias • IA
Anthropic modifica precios de Claude Code generando reacciones mixtas
Anthropic ha cambiado su política de precios para Claude Code, limitando el uso de herramientas de terceros y adoptando un sistema de "pago por uso"....
Empresas tecnológicas invierten en gas ante demanda de energía creciente
La creciente demanda de energía por parte de los centros de datos impulsados por la inteligencia artificial ha llevado a las empresas tecnológicas a invertir...
OpenAI reestructura su dirección con cambios clave y renuncias
OpenAI ha realizado cambios significativos en su alta dirección, destacando la reubicación de Brad Lightcap y la llegada de Denise Dresser como directora de ingresos....
Gigantes tecnológicos impulsan carrera por gas natural sostenible
La carrera por el gas natural en la era de la IA está impulsada por la demanda energética de gigantes tecnológicos como Microsoft y Google....
Microsoft presenta tres innovadores modelos de IA centrados en humanos
Microsoft lanza tres nuevos modelos de IA: MAI-Transcribe-1 para transcripción, MAI-Voice-1 para generación de audio y MAI-Image-2 para creación de imágenes. Con un enfoque en...
Google Vids lanza funciones innovadoras para crear contenido fácilmente
Google Vids ha lanzado nuevas funciones que permiten personalizar avatares mediante comandos de texto, generar vídeos cortos con Veo 3.1, exportar directamente a YouTube y...
Meta enfrenta críticas por huella de carbono en expansión
La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....
Filtraciones en Anthropic generan alarma sobre seguridad en IA
Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...
Lo más reciente
- 1
Apple pide revisión tras desacato en conflicto con Epic Games
- 2
Irán amenaza centros de datos en creciente conflicto Medio Oriente
- 3
NHTSA cierra investigación sobre "Actually Smart Summon" de Tesla
- 4
Netflix lanza app de juegos educativos para niños pequeños
- 5
Ciberataque norcoreano expone vulnerabilidades en proyectos de código abierto
- 6
Teletrabajo en Corea del Norte: identidades falsas y fraudes
- 7
Xoople revoluciona datos espaciales con satélites e inteligencia artificial

