La sombra de la exposición de datos en el mundo de la inteligencia artificial
En un mundo cada vez más interconectado, la protección de datos se ha convertido en una prioridad crítica para las empresas tecnológicas. Recientemente, un estudio de la empresa de ciberseguridad Lasso ha revelado que miles de repositorios de GitHub, que en algún momento fueron públicos, están expuestos en herramientas de inteligencia artificial generativa como Microsoft Copilot. Esta situación ha generado una ola de preocupación entre las organizaciones afectadas, ya que pone en riesgo información confidencial que podría ser utilizada de forma indebida.
La exposición de datos, aunque sea breve, puede tener consecuencias duraderas.
El descubrimiento alarmante
Lasso, una empresa de ciberseguridad con sede en Israel, ha puesto de manifiesto que los datos pueden permanecer accesibles en sistemas de inteligencia artificial incluso después de haber sido eliminados o configurados como privados. Ophir Dror, cofundador de Lasso, mencionó que su equipo encontró contenido de un repositorio de GitHub que habían configurado como privado después de haber estado expuesto brevemente. Este repositorio, que contenía información sensible, fue indexado y almacenado en caché por el motor de búsqueda Bing de Microsoft, lo que permitió que su contenido aún estuviera accesible a través de Copilot.
El hecho de que una empresa pueda inadvertidamente exponer datos sensibles durante un breve periodo de tiempo y que esos datos puedan persistir en herramientas de inteligencia artificial es un fenómeno preocupante. La seguridad de la información en la era digital es más crítica que nunca. La capacidad de los chatbots para acceder a información que se creía privada plantea preguntas sobre la eficacia de las medidas de seguridad actuales.
La magnitud del problema
La investigación de Lasso no solo se limitó a su propio repositorio. La empresa logró identificar más de 20,000 repositorios de GitHub que habían estado públicos en algún momento y que, tras ser eliminados o configurados como privados, aún eran accesibles a través de Copilot. Esto afecta a más de 16,000 organizaciones, incluyendo gigantes tecnológicos como Amazon Web Services, Google, IBM, PayPal, Tencent y Microsoft.
La preocupación por la seguridad de los datos se intensifica cuando se considera que Copilot puede recuperar archivos confidenciales que contienen propiedad intelectual, datos corporativos sensibles, claves de acceso y tokens.
Este hallazgo resalta la fragilidad de las medidas de seguridad que las empresas tienen en marcha. La idea de que datos sensibles pueden ser consultados por cualquier persona que formule la pregunta correcta a una herramienta de inteligencia artificial plantea serias dudas sobre la privacidad en la nube.
El caso de los repositorios de GitHub
Uno de los casos más destacados en la investigación de Lasso fue la recuperación de datos de un repositorio de GitHub que Microsoft había eliminado, el cual albergaba una herramienta para la creación de imágenes de inteligencia artificial "ofensivas y dañinas". Este ejemplo subraya no solo la posibilidad de que se exponga información sensible, sino también el potencial de que dicha información sea utilizada de manera perjudicial.
Las herramientas de inteligencia artificial, aunque útiles, pueden convertirse en un arma de doble filo si no se gestionan adecuadamente.
La naturaleza del problema se agrava al considerar que muchas empresas pueden no ser conscientes de la exposición de sus datos. Al ser consultados sobre este asunto, las empresas afectadas, incluyendo Microsoft, no respondieron a las solicitudes de información, lo que genera aún más incertidumbre sobre la gravedad de la situación.
La respuesta de Microsoft
Tras el descubrimiento de Lasso, se informó a Microsoft en noviembre de 2024 sobre la gravedad del problema. Sin embargo, la respuesta de la empresa fue clasificar el problema como de "baja gravedad", argumentando que el comportamiento de almacenamiento en caché era "aceptable". A pesar de que Microsoft anunció que dejaría de incluir enlaces a la caché de Bing en sus resultados de búsqueda a partir de diciembre de 2024, Lasso afirmó que Copilot aún tenía acceso a esos datos.
La falta de una respuesta contundente por parte de Microsoft ante un problema tan serio plantea interrogantes sobre el compromiso de las empresas tecnológicas con la seguridad de los datos.
Este tipo de reacciones pueden llevar a una falta de confianza por parte de los usuarios y las empresas que dependen de estos servicios. Si las organizaciones no pueden estar seguras de que su información se mantendrá privada, la confianza en las herramientas de inteligencia artificial podría verse gravemente afectada.
El impacto en la industria
La exposición de datos en herramientas de inteligencia artificial generativa podría tener repercusiones en toda la industria tecnológica. La creciente dependencia de la inteligencia artificial para tareas cotidianas en empresas de diversos sectores hace que la seguridad de la información sea más crucial que nunca. La posibilidad de que datos sensibles se filtren y se utilicen de forma indebida podría llevar a una reevaluación de las políticas de seguridad y privacidad en las organizaciones.
Las empresas deben tomar medidas proactivas para proteger su información y asegurarse de que sus datos no sean accesibles a través de herramientas de inteligencia artificial.
La situación también podría generar un mayor interés en la regulación de la inteligencia artificial y la protección de datos. A medida que más organizaciones se ven afectadas por la exposición de datos, la presión sobre los reguladores para establecer normativas más estrictas en torno a la privacidad de la información aumentará.
La necesidad de una mayor transparencia
La falta de transparencia por parte de las grandes empresas tecnológicas en relación con la seguridad de los datos es un aspecto que necesita ser abordado. Las organizaciones deben ser más abiertas sobre cómo manejan la información de los usuarios y cómo se protegen contra posibles filtraciones. La confianza del consumidor es fundamental, y cualquier indicio de negligencia en la protección de datos puede llevar a una pérdida de clientes y reputación.
Es imperativo que las empresas adopten un enfoque más proactivo en la gestión de la seguridad de la información. Esto incluye la implementación de auditorías regulares, la capacitación del personal en prácticas de seguridad y la creación de protocolos claros para manejar datos sensibles.
La responsabilidad de los desarrolladores de IA
Los desarrolladores de herramientas de inteligencia artificial también tienen un papel crucial en la protección de los datos. Deben asegurarse de que sus sistemas estén diseñados para minimizar el riesgo de exposición de datos. Esto implica no solo la creación de algoritmos efectivos, sino también la implementación de medidas de seguridad que garanticen que los datos no sean accesibles una vez que hayan sido eliminados o configurados como privados.
La ética en el desarrollo de inteligencia artificial no debe ser subestimada.
Los desarrolladores deben considerar las implicaciones de sus creaciones y trabajar para garantizar que sus herramientas se utilicen de manera responsable y ética. La falta de atención a la seguridad de los datos puede tener consecuencias devastadoras, no solo para las empresas, sino también para los consumidores que confían en ellas.
La situación actual pone de relieve la importancia de una colaboración más estrecha entre empresas de tecnología, reguladores y consumidores para abordar las preocupaciones sobre la seguridad de los datos. Es necesario crear un entorno en el que la privacidad de la información sea una prioridad y en el que las empresas rindan cuentas por su manejo de datos sensibles.
Otras noticias • Seguridad
Desmantelan botnet SocksEscort que afectó 369,000 enrutadores globalmente
La reciente operación contra SocksEscort, una botnet que comprometió más de 369,000 enrutadores en 163 países, destaca la colaboración internacional en la lucha contra el...
Ciberataque a Stryker revela vulnerabilidad en el sector salud
El ataque cibernético del grupo Handala a Stryker, una empresa de tecnología médica, resalta la vulnerabilidad del sector salud ante ciberamenazas. Con más de 200,000...
Google compra Wiz por 32 mil millones para fortalecer ciberseguridad
Google ha adquirido Wiz, una empresa de ciberseguridad, por 32 mil millones de dólares, destacando su enfoque en mejorar la seguridad en la nube. La...
Armadin recauda 189,9 millones para ciberseguridad con IA
Armadin, una startup de ciberseguridad fundada por Kevin Mandia, ha recaudado 189,9 millones de dólares en financiación. Su enfoque se centra en desarrollar agentes autónomos...
Salt Typhoon ataca telecomunicaciones globales y roba millones de datos
Salt Typhoon, un grupo de hacking vinculado a China, ha realizado ataques cibernéticos masivos en telecomunicaciones globales, robando millones de registros y comprometiendo infraestructuras críticas....
Hackers rusos atacan a usuarios de Signal y WhatsApp
Un informe de inteligencia de los Países Bajos revela una campaña de hacking por parte de hackers rusos, enfocada en usuarios de Signal y WhatsApp,...
Escándalo en Italia por ataque de spyware a periodista
El ataque de spyware al periodista Francesco Cancellato ha desatado un escándalo en Italia, cuestionando la privacidad y la libertad de prensa. La falta de...
Nuevo kit de hacking amenaza la seguridad de iPhones antiguos
Investigadores han descubierto el kit de hacking Coruna, que compromete iPhones con software antiguo. Originalmente desarrollado para vigilancia gubernamental, ha caído en manos de cibercriminales,...
Lo más reciente
- 1
MacBook Neo de Apple: más asequible y fácil de reparar
- 2
Nvidia lanza DLSS 5, revolucionando gráficos y desarrollo de videojuegos
- 3
Demanda a xAI revela explotación de menores por IA abusiva
- 4
Apple compra MotionVFX para potenciar su software de edición
- 5
Britannica demanda a OpenAI por uso indebido de artículos
- 6
Fuse revoluciona préstamos automotrices con inteligencia artificial y $25M
- 7
Shopify impulsa compras personalizadas con asistentes de inteligencia artificial

