IA | Propuestas

La FTC propone sanciones severas para combatir los deepfakes

FTC busca expandir las regulaciones para combatir el aumento de deepfakes

El creciente riesgo de los deepfakes ha llevado a la Comisión Federal de Comercio (FTC) a buscar modificar una regla existente que prohíbe la suplantación de empresas o agencias gubernamentales para cubrir a todos los consumidores.

La FTC propone ampliar la regla de suplantación para incluir la suplantación de personas, de manera que los estafadores que utilizan herramientas de inteligencia artificial (IA) para impersonar a individuos enfrenten sanciones severas. Esta medida se debe al aumento de los fraudes en línea, como los engaños románticos con deepfakes y la suplantación de empleados para extorsionar dinero a las empresas.

En una encuesta reciente de YouGov, el 85% de los estadounidenses afirmó estar muy preocupado o algo preocupado por la propagación de deepfakes de video y audio engañosos. Otro estudio realizado por The Associated Press-NORC Center for Public Affairs Research reveló que casi el 60% de los adultos cree que las herramientas de IA aumentarán la propagación de información falsa y engañosa durante el ciclo electoral de Estados Unidos en 2024.

La propuesta de la FTC es una respuesta directa a estos crecientes temores y a los casos de deepfakes que han causado daño a individuos y organizaciones. La presidenta de la FTC, Lina Khan, enfatizó la importancia de proteger a los estadounidenses de los fraudes de suplantación de identidad habilitados por la IA y destacó que estas expansiones fortalecerían las herramientas de la FTC para abordar los engaños con IA que suplantan a personas.

La falta de una legislación federal específica

Aunque las víctimas de alto perfil, como las celebridades, teóricamente pueden recurrir a los remedios legales existentes, como la ley de derechos de autor y los derechos de imagen, litigar estos casos puede llevar mucho tiempo y ser complicado.

Actualmente, no existe una ley federal que prohíba específicamente los deepfakes. Sin embargo, diez estados en todo el país han promulgado leyes que criminalizan los deepfakes, principalmente aquellos relacionados con la pornografía no consensuada. A medida que las herramientas de generación de deepfakes se vuelven cada vez más sofisticadas, es probable que estas leyes se modifiquen para abarcar una gama más amplia de deepfakes y que se promulguen más leyes a nivel estatal. Por ejemplo, la ley de Minnesota ya se dirige específicamente a los deepfakes utilizados en campañas políticas.

La falta de una acción legislativa a nivel federal ha llevado a la FTC y a la Comisión Federal de Comunicaciones (FCC) a tomar medidas para abordar el problema de los deepfakes. La FCC ha reinterpretado una regla existente para prohibir las llamadas robóticas con voz de IA, mientras que la FTC busca ampliar las regulaciones para cubrir la suplantación de individuos.

El impacto de los deepfakes en la sociedad

El aumento de los deepfakes plantea preocupaciones significativas para la sociedad. Además de los casos de suplantación de identidad de celebridades, los engaños románticos en línea con deepfakes están en aumento. Los estafadores también están suplantando a empleados para obtener dinero de las empresas.

La creciente sofisticación de las herramientas de IA ha permitido a los estafadores crear deepfakes con una precisión inquietante y en una escala mucho mayor. Esto plantea riesgos para la privacidad y la seguridad de los consumidores, así como para la confianza en la información que se comparte en línea.

En resumen, la propuesta de la FTC de expandir las regulaciones para abordar los deepfakes es una medida necesaria para proteger a los consumidores de los fraudes y la suplantación de identidad habilitados por la IA. A medida que los deepfakes se vuelven más comunes y sofisticados, es crucial que las agencias gubernamentales tomen medidas para abordar este problema en evolución. Sin embargo, se necesita una acción legislativa más amplia para abordar adecuadamente los desafíos planteados por los deepfakes y garantizar la protección de los derechos individuales en la era de la inteligencia artificial.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Adquisición estratégica

OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

OpenAI ha adquirido Promptfoo, una startup de seguridad de IA, para integrar su tecnología en OpenAI Frontier. Esta adquisición busca mejorar la seguridad de los...

Demanda ética

Anthropic demanda al DOD por restricciones en colaboración gubernamental

Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...