Google advierte sobre la privacidad de los datos en sus aplicaciones de chatbot
En una nueva documentación de soporte, Google ha revelado la forma en que recopila datos de los usuarios de sus aplicaciones de chatbot de la familia GenAI, llamadas Gemini. La compañía advierte a los usuarios que tengan cuidado con la información que comparten en estas aplicaciones, ya que los conversaciones son leídas y procesadas por anotadores humanos para mejorar el servicio. Aunque Google no especifica si estos anotadores son empleados internos o externos, esta información podría ser relevante en términos de seguridad de datos.
Conversaciones retenidas durante tres años
Google indica que las conversaciones con Gemini se mantienen en sus servidores durante un período de hasta tres años. Además de los mensajes, se retienen datos relacionados como los idiomas y dispositivos utilizados por el usuario, así como su ubicación. La compañía no ha ofrecido detalles sobre el propósito de esta retención de datos ni cómo se utilizan exactamente.
Control limitado para los usuarios
Google permite a los usuarios tener cierto control sobre los datos relevantes para Gemini que se retienen. Es posible desactivar la actividad de las aplicaciones de Gemini en el panel de actividad de Mi Actividad de Google, lo cual evita que las conversaciones futuras sean guardadas en una cuenta de Google para su revisión. Sin embargo, Google advierte que incluso con esta función desactivada, las conversaciones de Gemini se guardarán en una cuenta de Google durante 72 horas por motivos de seguridad y para mejorar las aplicaciones.
Además, los usuarios también pueden eliminar de forma individual las conversaciones y los mensajes con Gemini desde la pantalla de actividad de las aplicaciones de Gemini. Sin embargo, esto no afecta a los datos que ya han sido retenidos por Google.
El equilibrio entre privacidad y mejora de los modelos de IA
La política de recopilación y retención de datos de GenAI de Google no difiere mucho de la de sus competidores. Sin embargo, esta situación destaca los desafíos que implica equilibrar la privacidad con el desarrollo de modelos de IA que se alimentan de los datos de los usuarios para mejorar.
En el pasado, políticas de retención de datos similares han llevado a problemas legales para otros proveedores de tecnología. OpenAI, por ejemplo, ha enfrentado solicitudes de información detallada por parte de la FTC sobre cómo la compañía utiliza y protege los datos de los usuarios en el entrenamiento de sus modelos de IA. En Italia, el regulador de privacidad de datos, la Autoridad Italiana de Protección de Datos, ha criticado a OpenAI por la recopilación masiva de datos personales sin una base legal.
Preocupación creciente sobre los riesgos de privacidad
A medida que las herramientas de GenAI se vuelven más populares, las organizaciones están cada vez más preocupadas por los riesgos de privacidad. Una encuesta reciente de Cisco reveló que el 63% de las empresas han establecido limitaciones sobre los datos que se pueden ingresar en las herramientas de GenAI, mientras que el 27% las han prohibido por completo. La encuesta también mostró que el 45% de los empleados han ingresado datos "problemáticos" en estas herramientas, incluyendo información confidencial de los empleados y archivos no públicos sobre su empleador.
Aunque algunas compañías como OpenAI, Microsoft, Amazon y Google ofrecen productos de GenAI para empresas que no retienen datos por ningún período de tiempo, los consumidores no siempre tienen la misma protección. Es importante que los usuarios sean conscientes de las implicaciones de privacidad al utilizar aplicaciones de chatbot como Gemini y tengan precaución al compartir información sensible en ellas.
Otras noticias • IA
Innovaciones sorprendentes en CES 2026 transforman la tecnología diaria
CES 2026 ha presentado gadgets insólitos como un compañero holográfico, un robot panda para mayores, una máquina de hielo silenciosa, un cuchillo de cocina ultrasonido...
Senador propone prohibir juguetes con IA para menores en California
El senador Steve Padilla propone la ley SB 287 en California, que prohibiría durante cuatro años la venta de juguetes con IA para menores de...
Instalan primer imán en reactor de fusión Sparc de CFS
Commonwealth Fusion Systems ha instalado el primer imán en su reactor de fusión Sparc, un avance crucial hacia la energía de fusión. Con 18 imanes...
AMD lanza procesadores Ryzen AI 400 para revolucionar la IA
En la CES 2026, AMD presentó la serie de procesadores Ryzen AI 400, diseñados para potenciar la inteligencia artificial en ordenadores personales. Con un rendimiento...
Nvidia transforma la robótica con IA y simulación avanzada
Nvidia está revolucionando la robótica con modelos de IA avanzados y herramientas de simulación, como Isaac Lab-Arena y la tarjeta Jetson T4000. Su colaboración con...
Nvidia lanza arquitectura Rubin que revoluciona la inteligencia artificial
Nvidia ha presentado su nueva arquitectura de computación, Rubin, en la feria de Electrónica de Consumo. Esta tecnología, que reemplaza a Blackwell, mejora el rendimiento...
Nvidia presenta Alpamayo, IA de código abierto para vehículos autónomos
Nvidia ha lanzado Alpamayo, un modelo de IA de código abierto para vehículos autónomos, que mejora su capacidad de razonamiento y toma de decisiones en...
Grok de xAI genera deepfakes sexuales y provoca indignación global
La controversia en torno a Grok, un chatbot de xAI, surge por la generación de deepfakes sexualizados, provocando indignación internacional y acciones gubernamentales en varios...
Lo más reciente
- 1
Meta compra Manus por 2.000 millones y despierta dudas regulatorias
- 2
La IA revoluciona inversiones y empleo, plantea retos éticos
- 3
CES 2026: Innovaciones tecnológicas impulsadas por inteligencia artificial
- 4
Desinformación digital crece en redes sociales y necesita solución urgente
- 5
Mobileye adquiere Mentee Robotics por 900 millones de dólares
- 6
LMArena recauda 150 millones y alcanza valoración de 1.7 mil millones
- 7
Intel lanza plataforma Panther Lake para revolucionar el gaming portátil

