IA | Propuestas

La FTC propone sanciones severas para combatir los deepfakes

FTC busca expandir las regulaciones para combatir el aumento de deepfakes

El creciente riesgo de los deepfakes ha llevado a la Comisión Federal de Comercio (FTC) a buscar modificar una regla existente que prohíbe la suplantación de empresas o agencias gubernamentales para cubrir a todos los consumidores.

La FTC propone ampliar la regla de suplantación para incluir la suplantación de personas, de manera que los estafadores que utilizan herramientas de inteligencia artificial (IA) para impersonar a individuos enfrenten sanciones severas. Esta medida se debe al aumento de los fraudes en línea, como los engaños románticos con deepfakes y la suplantación de empleados para extorsionar dinero a las empresas.

En una encuesta reciente de YouGov, el 85% de los estadounidenses afirmó estar muy preocupado o algo preocupado por la propagación de deepfakes de video y audio engañosos. Otro estudio realizado por The Associated Press-NORC Center for Public Affairs Research reveló que casi el 60% de los adultos cree que las herramientas de IA aumentarán la propagación de información falsa y engañosa durante el ciclo electoral de Estados Unidos en 2024.

La propuesta de la FTC es una respuesta directa a estos crecientes temores y a los casos de deepfakes que han causado daño a individuos y organizaciones. La presidenta de la FTC, Lina Khan, enfatizó la importancia de proteger a los estadounidenses de los fraudes de suplantación de identidad habilitados por la IA y destacó que estas expansiones fortalecerían las herramientas de la FTC para abordar los engaños con IA que suplantan a personas.

La falta de una legislación federal específica

Aunque las víctimas de alto perfil, como las celebridades, teóricamente pueden recurrir a los remedios legales existentes, como la ley de derechos de autor y los derechos de imagen, litigar estos casos puede llevar mucho tiempo y ser complicado.

Actualmente, no existe una ley federal que prohíba específicamente los deepfakes. Sin embargo, diez estados en todo el país han promulgado leyes que criminalizan los deepfakes, principalmente aquellos relacionados con la pornografía no consensuada. A medida que las herramientas de generación de deepfakes se vuelven cada vez más sofisticadas, es probable que estas leyes se modifiquen para abarcar una gama más amplia de deepfakes y que se promulguen más leyes a nivel estatal. Por ejemplo, la ley de Minnesota ya se dirige específicamente a los deepfakes utilizados en campañas políticas.

La falta de una acción legislativa a nivel federal ha llevado a la FTC y a la Comisión Federal de Comunicaciones (FCC) a tomar medidas para abordar el problema de los deepfakes. La FCC ha reinterpretado una regla existente para prohibir las llamadas robóticas con voz de IA, mientras que la FTC busca ampliar las regulaciones para cubrir la suplantación de individuos.

El impacto de los deepfakes en la sociedad

El aumento de los deepfakes plantea preocupaciones significativas para la sociedad. Además de los casos de suplantación de identidad de celebridades, los engaños románticos en línea con deepfakes están en aumento. Los estafadores también están suplantando a empleados para obtener dinero de las empresas.

La creciente sofisticación de las herramientas de IA ha permitido a los estafadores crear deepfakes con una precisión inquietante y en una escala mucho mayor. Esto plantea riesgos para la privacidad y la seguridad de los consumidores, así como para la confianza en la información que se comparte en línea.

En resumen, la propuesta de la FTC de expandir las regulaciones para abordar los deepfakes es una medida necesaria para proteger a los consumidores de los fraudes y la suplantación de identidad habilitados por la IA. A medida que los deepfakes se vuelven más comunes y sofisticados, es crucial que las agencias gubernamentales tomen medidas para abordar este problema en evolución. Sin embargo, se necesita una acción legislativa más amplia para abordar adecuadamente los desafíos planteados por los deepfakes y garantizar la protección de los derechos individuales en la era de la inteligencia artificial.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Precios ajustados

Anthropic modifica precios de Claude Code generando reacciones mixtas

Anthropic ha cambiado su política de precios para Claude Code, limitando el uso de herramientas de terceros y adoptando un sistema de "pago por uso"....

Energía artificial

Empresas tecnológicas invierten en gas ante demanda de energía creciente

La creciente demanda de energía por parte de los centros de datos impulsados por la inteligencia artificial ha llevado a las empresas tecnológicas a invertir...

Cambios directivos

OpenAI reestructura su dirección con cambios clave y renuncias

OpenAI ha realizado cambios significativos en su alta dirección, destacando la reubicación de Brad Lightcap y la llegada de Denise Dresser como directora de ingresos....

Gas sostenible

Gigantes tecnológicos impulsan carrera por gas natural sostenible

La carrera por el gas natural en la era de la IA está impulsada por la demanda energética de gigantes tecnológicos como Microsoft y Google....

Nuevos modelos

Microsoft presenta tres innovadores modelos de IA centrados en humanos

Microsoft lanza tres nuevos modelos de IA: MAI-Transcribe-1 para transcripción, MAI-Voice-1 para generación de audio y MAI-Image-2 para creación de imágenes. Con un enfoque en...

Innovaciones digitales

Google Vids lanza funciones innovadoras para crear contenido fácilmente

Google Vids ha lanzado nuevas funciones que permiten personalizar avatares mediante comandos de texto, generar vídeos cortos con Veo 3.1, exportar directamente a YouTube y...

Dilemas medioambientales

Meta enfrenta críticas por huella de carbono en expansión

La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....

Filtraciones preocupantes

Filtraciones en Anthropic generan alarma sobre seguridad en IA

Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...