Google advierte sobre la privacidad de los datos en sus aplicaciones de chatbot
En una nueva documentación de soporte, Google ha revelado la forma en que recopila datos de los usuarios de sus aplicaciones de chatbot de la familia GenAI, llamadas Gemini. La compañía advierte a los usuarios que tengan cuidado con la información que comparten en estas aplicaciones, ya que los conversaciones son leídas y procesadas por anotadores humanos para mejorar el servicio. Aunque Google no especifica si estos anotadores son empleados internos o externos, esta información podría ser relevante en términos de seguridad de datos.
Conversaciones retenidas durante tres años
Google indica que las conversaciones con Gemini se mantienen en sus servidores durante un período de hasta tres años. Además de los mensajes, se retienen datos relacionados como los idiomas y dispositivos utilizados por el usuario, así como su ubicación. La compañía no ha ofrecido detalles sobre el propósito de esta retención de datos ni cómo se utilizan exactamente.
Control limitado para los usuarios
Google permite a los usuarios tener cierto control sobre los datos relevantes para Gemini que se retienen. Es posible desactivar la actividad de las aplicaciones de Gemini en el panel de actividad de Mi Actividad de Google, lo cual evita que las conversaciones futuras sean guardadas en una cuenta de Google para su revisión. Sin embargo, Google advierte que incluso con esta función desactivada, las conversaciones de Gemini se guardarán en una cuenta de Google durante 72 horas por motivos de seguridad y para mejorar las aplicaciones.
Además, los usuarios también pueden eliminar de forma individual las conversaciones y los mensajes con Gemini desde la pantalla de actividad de las aplicaciones de Gemini. Sin embargo, esto no afecta a los datos que ya han sido retenidos por Google.
El equilibrio entre privacidad y mejora de los modelos de IA
La política de recopilación y retención de datos de GenAI de Google no difiere mucho de la de sus competidores. Sin embargo, esta situación destaca los desafíos que implica equilibrar la privacidad con el desarrollo de modelos de IA que se alimentan de los datos de los usuarios para mejorar.
En el pasado, políticas de retención de datos similares han llevado a problemas legales para otros proveedores de tecnología. OpenAI, por ejemplo, ha enfrentado solicitudes de información detallada por parte de la FTC sobre cómo la compañía utiliza y protege los datos de los usuarios en el entrenamiento de sus modelos de IA. En Italia, el regulador de privacidad de datos, la Autoridad Italiana de Protección de Datos, ha criticado a OpenAI por la recopilación masiva de datos personales sin una base legal.
Preocupación creciente sobre los riesgos de privacidad
A medida que las herramientas de GenAI se vuelven más populares, las organizaciones están cada vez más preocupadas por los riesgos de privacidad. Una encuesta reciente de Cisco reveló que el 63% de las empresas han establecido limitaciones sobre los datos que se pueden ingresar en las herramientas de GenAI, mientras que el 27% las han prohibido por completo. La encuesta también mostró que el 45% de los empleados han ingresado datos "problemáticos" en estas herramientas, incluyendo información confidencial de los empleados y archivos no públicos sobre su empleador.
Aunque algunas compañías como OpenAI, Microsoft, Amazon y Google ofrecen productos de GenAI para empresas que no retienen datos por ningún período de tiempo, los consumidores no siempre tienen la misma protección. Es importante que los usuarios sean conscientes de las implicaciones de privacidad al utilizar aplicaciones de chatbot como Gemini y tengan precaución al compartir información sensible en ellas.
Otras noticias • IA
OpenAI presenta innovadoras funciones de inteligencia vocal y traducción
OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...
Perplexity lanza PC para Mac con inteligencia artificial integrada
Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....
OpenAI presenta Trusted Contact para mejorar la seguridad emocional
OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...
Bumble elimina deslizamiento y apuesta por inteligencia artificial
Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...
Musk y OpenAI: Tensión entre seguridad y lucro en IA
El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...
Inteligencia artificial transforma la seguridad del software y ciberseguridad
La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...
Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5
Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...
xAI y Anthropic transforman la industria tecnológica con nueva alianza
La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...
Lo más reciente
- 1
Inteligencia artificial despide empleados pese a ingresos crecientes
- 2
Avride y Uber bajo investigación por accidentes de robotaxis
- 3
Allison Stern lanza fondo de inversión para madres consumidoras
- 4
Porsche cierra subsidiarias y despide a más de 500 empleados
- 5
Exejecutivo de ciberseguridad condenado por espionaje y traición
- 6
Polonia advierte sobre ciberataques a infraestructuras críticas de agua
- 7
EE. UU. publica archivos sobre fenómenos anómalos para transparencia

