La FCC busca investigar el riesgo de robocalls mejorados con IA
La Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) está tomando medidas para abordar el problema de los robocalls que utilizan voces generadas por inteligencia artificial (IA). La propuesta es que el uso de tecnología de clonación de voz en llamadas automatizadas sea considerado ilegal, lo que facilitaría el enjuiciamiento de los operadores de estas estafas.
La ilegalidad de los robocalls
Los robocalls son llamadas automáticas no deseadas que a menudo se utilizan para realizar estafas telefónicas. Aunque algunos tipos de llamadas automatizadas son necesarias y deseables, cuando se descubre que una operación de llamadas está violando la ley, se convierte en un asunto de las autoridades.
Recientemente, se han reportado casos de llamadas falsas en New Hampshire en las que se utiliza la voz del presidente Biden para decirle a la gente que no vote. El fiscal general del estado ha declarado que estos mensajes "parecen ser un intento ilegal de interrumpir las elecciones primarias presidenciales de New Hampshire y de suprimir a los votantes de dicho estado".
Bajo la ley vigente en New Hampshire, la supresión de votantes es ilegal. Por lo tanto, cuando se identifique a los responsables, es probable que se les acuse de este delito, entre otros. Sin embargo, es necesario que se haya cometido un delito o que exista una sospecha razonable de que se ha cometido para que las autoridades intervengan.
El uso de tecnología de clonación de voz
El uso de la tecnología de clonación de voz en llamadas automatizadas, como lo que se utilizó en las llamadas falsas con la voz del presidente Biden, podría considerarse ilegal en sí mismo. Esto facilitaría el enjuiciamiento de los responsables de los robocalls.
"Es por eso que la FCC está tomando medidas para reconocer esta tecnología emergente como ilegal según la ley vigente, brindando a nuestros socios en las fiscalías generales estatales de todo el país nuevas herramientas que pueden utilizar para combatir estas estafas y proteger a los consumidores", dijo la presidenta de la FCC, Jessica Rosenworcel, en un comunicado de prensa.
La FCC ya utiliza la Ley de Protección al Consumidor de Telecomunicaciones como base para acusar a los robocallers y a otros estafadores telefónicos. Sin embargo, no está claro si las voces clonadas entran en la categoría de "artificiales" que prohíbe esta ley. Por lo tanto, la FCC propone emitir una Declaración Jurada que establezca que la clonación de voz impulsada por IA hace que una llamada se considere "artificial".
La evolución de la ley y la tecnología
La legislación en este ámbito está en constante evolución a medida que las tecnologías de voz telefónica, mensajería y generación de voz se desarrollan. Por lo tanto, no es de extrañar que no esté del todo claro qué es ilegal y qué no lo es, o por qué algunas llamadas o estafas, a pesar de ser obviamente ilegales, parecen operar impunemente. Es un trabajo en progreso.
Se espera que la FCC tome medidas adicionales para abordar el problema de los robocalls mejorados con IA. Estaremos atentos a las actualizaciones y proporcionaremos más información sobre las acciones exactas que se están tomando para combatir esta forma de fraude telefónico.
Otras noticias • IA
Claude de Anthropic supera a ChatGPT en la conferencia HumanX AI
La conferencia HumanX AI destacó cómo la IA agentiva transforma los negocios, con Claude de Anthropic superando a ChatGPT de OpenAI en popularidad. A pesar...
Sam Altman reflexiona tras ataque violento en su hogar
Sam Altman, CEO de OpenAI, sufrió un ataque violento en su hogar tras la publicación de un perfil crítico sobre su liderazgo. Reflexionó sobre el...
Controversia entre OpenClaw y Anthropic desata debate sobre ética en IA
La controversia entre Peter Steinberger de OpenClaw y Anthropic, tras la suspensión temporal de su cuenta, resalta tensiones en la IA. Anthropic cambió su política...
OpenAI lanza plan de suscripción para desarrolladores a 100 dólares
OpenAI ha lanzado un nuevo plan de suscripción de 100 dólares al mes para desarrolladores, ofreciendo mayor capacidad de codificación con Codex. Este plan se...
Mercor enfrenta crisis tras brecha de datos sensible y demandas
Mercor, una startup de inteligencia artificial, enfrenta una crisis tras una brecha de datos que comprometió información sensible. La situación ha llevado a la suspensión...
Tiroteo en Florida genera demanda contra OpenAI por ChatGPT
Un tiroteo en la Universidad Estatal de Florida, donde se alega que el atacante usó ChatGPT para planificar el ataque, ha llevado a una demanda...
Anthropic limita acceso a Mythos para priorizar seguridad cibernética
Anthropic ha restringido el acceso a su modelo de IA, Mythos, para detectar vulnerabilidades en software, priorizando la seguridad y la colaboración entre grandes empresas....
Meta lanza Muse Spark y escala en la App Store
Meta ha lanzado Muse Spark, un modelo de IA que ha impulsado su aplicación Meta AI al 5º puesto en la App Store de EE....
Lo más reciente
- 1
Booking.com sufre ataque cibernético y pone en riesgo datos personales
- 2
Aumentan ataques cibernéticos: la ciberseguridad es esencial hoy
- 3
Vercel crece con inteligencia artificial y planes de salida a bolsa
- 4
Slate Auto recauda 650 millones para camionetas eléctricas asequibles
- 5
Roblox mejora seguridad infantil con nuevas cuentas por edad
- 6
Kepler Communications lanza clúster de 40 GPUs para innovación espacial
- 7
X de Elon Musk recorta pagos a creadores de contenido

