IA | Vetado

Rite Aid prohíbe uso de reconocimiento facial tras investigación de FTC

Rite Aid prohíbe el uso de software de reconocimiento facial después de una investigación de la FTC

La cadena de farmacias Rite Aid ha sido prohibida de utilizar software de reconocimiento facial durante cinco años, después de que la Comisión Federal de Comercio (FTC) encontrara que el "uso imprudente de sistemas de vigilancia facial" dejaba a los clientes humillados y ponía en riesgo su "información sensible".

Eliminación de imágenes y protección de datos personales

La Orden de la FTC, que está sujeta a la aprobación del Tribunal de Quiebras de Estados Unidos después de que Rite Aid presentara una solicitud de protección por bancarrota en octubre, también instruye a Rite Aid a eliminar cualquier imagen que haya recopilado como parte de su implementación del sistema de reconocimiento facial, así como cualquier producto que se haya creado a partir de esas imágenes. La empresa también debe implementar un programa sólido de seguridad de datos para proteger cualquier dato personal que recopile.

Implementación secreta del reconocimiento facial

Un informe de Reuters de 2020 detalló cómo la cadena de farmacias había introducido secretamente sistemas de reconocimiento facial en alrededor de 200 tiendas de Estados Unidos durante un período de ocho años, a partir de 2012, con "vecindarios mayoritariamente de bajos ingresos y no blancos" como campo de prueba de la tecnología.

Acusaciones de la FTC

Con el enfoque cada vez mayor de la FTC sobre el mal uso de la vigilancia biométrica, Rite Aid se convirtió en el objetivo principal de la agencia gubernamental. Entre las acusaciones se encuentra que Rite Aid, en colaboración con dos empresas contratadas, creó una "base de datos de lista de vigilancia" que contenía imágenes de clientes a los que la empresa consideraba que habían participado en actividades delictivas en una de sus tiendas. Estas imágenes, que a menudo eran de mala calidad, se capturaban desde CCTV o las cámaras de los teléfonos móviles de los empleados.

Cuando un cliente ingresaba a una tienda y supuestamente coincidía con una imagen existente en la base de datos, los empleados recibían una alerta automática que les indicaba que tomaran medidas, y la mayoría de las veces esta instrucción era "acercarse e identificar", es decir, verificar la identidad del cliente y pedirle que se fuera. A menudo, estas "coincidencias" eran falsos positivos que llevaban a los empleados a acusar incorrectamente a los clientes de conductas indebidas, lo que generaba "vergüenza, acoso y otros daños", según la FTC.

Además, la FTC dijo que Rite Aid no informó a los clientes que se utilizaba tecnología de reconocimiento facial, y también instruyó a los empleados a no revelar esta información a los clientes.

Controversias y prejuicios en el reconocimiento facial

El software de reconocimiento facial se ha convertido en una de las facetas más controvertidas de la era de la vigilancia impulsada por la inteligencia artificial. En los últimos años, hemos visto cómo las ciudades emiten prohibiciones amplias sobre esta tecnología, mientras que los políticos luchan por regular cómo la policía la utiliza. Además, empresas como Clearview AI han sido demandadas y multadas en todo el mundo por importantes violaciones de privacidad de datos relacionadas con la tecnología de reconocimiento facial.

Conclusiones de la FTC y respuesta de Rite Aid

Los hallazgos más recientes de la FTC sobre Rite Aid también ponen de manifiesto los sesgos inherentes en los sistemas de inteligencia artificial. Por ejemplo, la FTC afirma que Rite Aid no logró mitigar los riesgos para ciertos consumidores debido a su raza: su tecnología era "más propensa a generar falsos positivos en tiendas ubicadas en comunidades mayoritariamente negras y asiáticas que en comunidades mayoritariamente blancas", según el informe.

En un comunicado de prensa, Rite Aid dijo que estaba "complacido de llegar a un acuerdo con la FTC", pero que no estaba de acuerdo con el meollo de las acusaciones. La empresa afirmó que las acusaciones se referían a un programa piloto de tecnología de reconocimiento facial que la compañía implementó en un número limitado de tiendas y que dejó de usar hace más de tres años, antes de que comenzara la investigación de la FTC sobre el uso de esta tecnología por parte de la empresa.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Inteligencia artificial

Yann LeCun lanza startup AMI para revolucionar inteligencia artificial

Yann LeCun ha fundado la startup Advanced Machine Intelligence (AMI), dirigida por Alex LeBrun. AMI Labs busca desarrollar "modelos de mundo" en inteligencia artificial, abordando...

Financiación estratégica

OpenAI busca 100 mil millones para liderar en inteligencia artificial

OpenAI busca hasta 100 mil millones de dólares en financiación para reforzar su posición en inteligencia artificial, enfrentando competencia creciente. La empresa, con 64 mil...

Consumo digital

Inteligencia artificial impulsa gasto digital a 3.000 millones de dólares

La inteligencia artificial está revolucionando el consumo digital, destacando el hito de 3.000 millones de dólares en gastos en la app de ChatGPT. Este crecimiento...

Edición innovadora

Luma lanza Ray3 Modify, revolucionando la edición de vídeo

Luma ha lanzado Ray3 Modify, un modelo de IA que transforma la edición de vídeo, permitiendo modificar metraje existente mientras se conserva la esencia de...

Interacción inteligente

Amazon presenta "Greetings", timbres Ring con IA para interacciones

Amazon ha lanzado "Greetings", una funcionalidad para timbres Ring que utiliza inteligencia artificial para reconocer y gestionar interacciones con visitantes. Permite personalizar respuestas a repartidores...

Revolución tecnológica

Lovable revoluciona el software con "vibe coding" y crece rápido

La startup sueca Lovable, valorada en 6.600 millones de dólares, ha revolucionado el desarrollo de software con su herramienta de "vibe coding". Su rápido crecimiento,...

Derechos autorales

Adobe enfrenta demanda por uso indebido de obras en IA

La demanda contra Adobe por el uso no autorizado de obras para entrenar su modelo de IA destaca las preocupaciones sobre derechos de autor en...

Inteligencia avanzada

Google lanza Gemini 3 Flash, revolucionando la inteligencia artificial

Google ha lanzado el modelo Gemini 3 Flash, que redefine la inteligencia artificial con capacidades multimodales y un rendimiento superior. A pesar de un ligero...