La sombra de la exposición de datos en el mundo de la inteligencia artificial
En un mundo cada vez más interconectado, la protección de datos se ha convertido en una prioridad crítica para las empresas tecnológicas. Recientemente, un estudio de la empresa de ciberseguridad Lasso ha revelado que miles de repositorios de GitHub, que en algún momento fueron públicos, están expuestos en herramientas de inteligencia artificial generativa como Microsoft Copilot. Esta situación ha generado una ola de preocupación entre las organizaciones afectadas, ya que pone en riesgo información confidencial que podría ser utilizada de forma indebida.
La exposición de datos, aunque sea breve, puede tener consecuencias duraderas.
El descubrimiento alarmante
Lasso, una empresa de ciberseguridad con sede en Israel, ha puesto de manifiesto que los datos pueden permanecer accesibles en sistemas de inteligencia artificial incluso después de haber sido eliminados o configurados como privados. Ophir Dror, cofundador de Lasso, mencionó que su equipo encontró contenido de un repositorio de GitHub que habían configurado como privado después de haber estado expuesto brevemente. Este repositorio, que contenía información sensible, fue indexado y almacenado en caché por el motor de búsqueda Bing de Microsoft, lo que permitió que su contenido aún estuviera accesible a través de Copilot.
El hecho de que una empresa pueda inadvertidamente exponer datos sensibles durante un breve periodo de tiempo y que esos datos puedan persistir en herramientas de inteligencia artificial es un fenómeno preocupante. La seguridad de la información en la era digital es más crítica que nunca. La capacidad de los chatbots para acceder a información que se creía privada plantea preguntas sobre la eficacia de las medidas de seguridad actuales.
La magnitud del problema
La investigación de Lasso no solo se limitó a su propio repositorio. La empresa logró identificar más de 20,000 repositorios de GitHub que habían estado públicos en algún momento y que, tras ser eliminados o configurados como privados, aún eran accesibles a través de Copilot. Esto afecta a más de 16,000 organizaciones, incluyendo gigantes tecnológicos como Amazon Web Services, Google, IBM, PayPal, Tencent y Microsoft.
La preocupación por la seguridad de los datos se intensifica cuando se considera que Copilot puede recuperar archivos confidenciales que contienen propiedad intelectual, datos corporativos sensibles, claves de acceso y tokens.
Este hallazgo resalta la fragilidad de las medidas de seguridad que las empresas tienen en marcha. La idea de que datos sensibles pueden ser consultados por cualquier persona que formule la pregunta correcta a una herramienta de inteligencia artificial plantea serias dudas sobre la privacidad en la nube.
El caso de los repositorios de GitHub
Uno de los casos más destacados en la investigación de Lasso fue la recuperación de datos de un repositorio de GitHub que Microsoft había eliminado, el cual albergaba una herramienta para la creación de imágenes de inteligencia artificial "ofensivas y dañinas". Este ejemplo subraya no solo la posibilidad de que se exponga información sensible, sino también el potencial de que dicha información sea utilizada de manera perjudicial.
Las herramientas de inteligencia artificial, aunque útiles, pueden convertirse en un arma de doble filo si no se gestionan adecuadamente.
La naturaleza del problema se agrava al considerar que muchas empresas pueden no ser conscientes de la exposición de sus datos. Al ser consultados sobre este asunto, las empresas afectadas, incluyendo Microsoft, no respondieron a las solicitudes de información, lo que genera aún más incertidumbre sobre la gravedad de la situación.
La respuesta de Microsoft
Tras el descubrimiento de Lasso, se informó a Microsoft en noviembre de 2024 sobre la gravedad del problema. Sin embargo, la respuesta de la empresa fue clasificar el problema como de "baja gravedad", argumentando que el comportamiento de almacenamiento en caché era "aceptable". A pesar de que Microsoft anunció que dejaría de incluir enlaces a la caché de Bing en sus resultados de búsqueda a partir de diciembre de 2024, Lasso afirmó que Copilot aún tenía acceso a esos datos.
La falta de una respuesta contundente por parte de Microsoft ante un problema tan serio plantea interrogantes sobre el compromiso de las empresas tecnológicas con la seguridad de los datos.
Este tipo de reacciones pueden llevar a una falta de confianza por parte de los usuarios y las empresas que dependen de estos servicios. Si las organizaciones no pueden estar seguras de que su información se mantendrá privada, la confianza en las herramientas de inteligencia artificial podría verse gravemente afectada.
El impacto en la industria
La exposición de datos en herramientas de inteligencia artificial generativa podría tener repercusiones en toda la industria tecnológica. La creciente dependencia de la inteligencia artificial para tareas cotidianas en empresas de diversos sectores hace que la seguridad de la información sea más crucial que nunca. La posibilidad de que datos sensibles se filtren y se utilicen de forma indebida podría llevar a una reevaluación de las políticas de seguridad y privacidad en las organizaciones.
Las empresas deben tomar medidas proactivas para proteger su información y asegurarse de que sus datos no sean accesibles a través de herramientas de inteligencia artificial.
La situación también podría generar un mayor interés en la regulación de la inteligencia artificial y la protección de datos. A medida que más organizaciones se ven afectadas por la exposición de datos, la presión sobre los reguladores para establecer normativas más estrictas en torno a la privacidad de la información aumentará.
La necesidad de una mayor transparencia
La falta de transparencia por parte de las grandes empresas tecnológicas en relación con la seguridad de los datos es un aspecto que necesita ser abordado. Las organizaciones deben ser más abiertas sobre cómo manejan la información de los usuarios y cómo se protegen contra posibles filtraciones. La confianza del consumidor es fundamental, y cualquier indicio de negligencia en la protección de datos puede llevar a una pérdida de clientes y reputación.
Es imperativo que las empresas adopten un enfoque más proactivo en la gestión de la seguridad de la información. Esto incluye la implementación de auditorías regulares, la capacitación del personal en prácticas de seguridad y la creación de protocolos claros para manejar datos sensibles.
La responsabilidad de los desarrolladores de IA
Los desarrolladores de herramientas de inteligencia artificial también tienen un papel crucial en la protección de los datos. Deben asegurarse de que sus sistemas estén diseñados para minimizar el riesgo de exposición de datos. Esto implica no solo la creación de algoritmos efectivos, sino también la implementación de medidas de seguridad que garanticen que los datos no sean accesibles una vez que hayan sido eliminados o configurados como privados.
La ética en el desarrollo de inteligencia artificial no debe ser subestimada.
Los desarrolladores deben considerar las implicaciones de sus creaciones y trabajar para garantizar que sus herramientas se utilicen de manera responsable y ética. La falta de atención a la seguridad de los datos puede tener consecuencias devastadoras, no solo para las empresas, sino también para los consumidores que confían en ellas.
La situación actual pone de relieve la importancia de una colaboración más estrecha entre empresas de tecnología, reguladores y consumidores para abordar las preocupaciones sobre la seguridad de los datos. Es necesario crear un entorno en el que la privacidad de la información sea una prioridad y en el que las empresas rindan cuentas por su manejo de datos sensibles.
Otras noticias • Seguridad
Vulnerabilidades en Freedom Chat amenazan la privacidad de usuarios
La seguridad en la mensajería es crucial tras las vulnerabilidades descubiertas en Freedom Chat, que expusieron datos sensibles de usuarios. La falta de un programa...
Petco expone datos sensibles en nueva brecha de seguridad
Petco ha sufrido una grave brecha de seguridad que expuso datos sensibles de clientes en su página Vetco Clinics, permitiendo el acceso no autorizado a...
FTC prohíbe a fundador de stalkerware por violaciones de seguridad
La FTC ha prohibido permanentemente a Scott Zuckerman, fundador de empresas de stalkerware, tras violaciones graves de seguridad que expusieron datos personales de miles. Este...
Petco sufre brecha de datos que compromete información personal
Petco ha sufrido una brecha de datos que compromete información personal de sus clientes, incluyendo datos sensibles como números de la Seguridad Social y financieros....
Petco sufre brecha de seguridad que expone datos de clientes
Petco ha sufrido una brecha de seguridad que expone datos personales de clientes, generando preocupación y desconfianza. La empresa ofrece servicios de monitoreo de crédito...
Inodoro inteligente de Kohler genera preocupaciones sobre privacidad y salud
El Dekoda, un inodoro inteligente de Kohler, analiza la salud intestinal mediante imágenes, generando preocupaciones sobre la privacidad y el acceso a datos. Aunque promete...
Europol desmantela Cryptomixer y captura 25 millones en bitcoin
Europol ha desmantelado Cryptomixer, un servicio de blanqueo de criptomonedas que facilitó el lavado de 1.3 mil millones de euros en bitcoin. La operación incluyó...
Fallo de seguridad expone datos sensibles en jurados estadounidenses y canadienses
Un fallo de seguridad en portales de jurados en EE. UU. y Canadá expuso datos sensibles, incluyendo información personal y médica. Tyler Technologies reconoció la...
Lo más reciente
- 1
Apple lanza iOS 26.2 con mejoras en Liquid Glass y más
- 2
Home Depot expone fallos de seguridad en token de acceso
- 3
Retro lanza "Rewind" para revivir recuerdos fotográficos compartidos
- 4
Google presenta traducción en tiempo real con auriculares beta
- 5
Vulnerabilidad en Hama Film expone datos sensibles de clientes
- 6
Robotaxis y vehículos autónomos transforman la movilidad urbana
- 7
Reddit demanda a Australia por ley que limita acceso juvenil

