IA | Transparencia

FCC propone revelar contenido generado por IA en anuncios políticos

La FCC propone que se revele el contenido generado por inteligencia artificial en anuncios políticos, pero no lo prohíbe

La presidenta Jessica Rosenworcel ha presentado la propuesta oficial el miércoles para que la FCC investigue y solicite comentarios sobre esta regla. Aunque la agencia ya ha declarado ilegales las llamadas robocall generadas por IA, eso se debió más a que no cumplían con las normas de llamadas automatizadas que a la parte de IA.

"Los consumidores tienen derecho a saber cuándo se utilizan herramientas de IA en los anuncios políticos que ven, y espero que [los comisionados] actúen rápidamente sobre este tema", dijo en un comunicado que acompañaba al anuncio.

Bajo el marco propuesto, tanto los anuncios de candidatos como los de temas requerirían incluir una divulgación en el aire y presentada de que se ha utilizado contenido generado por IA. Esto se aplicaría a "operadores de cable, proveedores de televisión satelital y radio", pero no a plataformas de streaming o, por ejemplo, YouTube, ya que la FCC carece de la autoridad legal para regularlas. Primero tendría que haber una definición acordada de contenido generado por IA.

Una propuesta para la investigación

La propuesta es de tipo de búsqueda de hechos, el primer paso público en el desarrollo de una nueva regulación. Si se adopta, la FCC solicitaría comentarios sobre si la regulación es necesaria en primer lugar, cómo se debería definir el contenido y así sucesivamente. A diferencia de un documento de reglamentación, estos pueden ser votados en cualquier momento, por lo que es concebible, aunque improbable, que los otros comisionados den el visto bueno antes del cierre del miércoles.

El documento de la FCC describe "una clara obligación de interés público para los licenciatarios, regulados y permisionarios de la Comisión de proteger al público de programas falsos, engañosos o engañosos y promover un público informado".

Ciertamente parece intuitivamente cierto que a la mayoría de las personas les gustaría tener algún tipo de indicación cuando las imágenes, el audio o cualquier otra cosa en un anuncio de campaña es generado por IA; tal regulación probablemente también disuadiría los intentos de baja calidad de hacerlo, y ayudaría a sentar las bases para perseguir a actores malintencionados como la empresa sombría detrás de las llamadas falsas de Biden.

He pedido a la FCC un poco más de información sobre dónde se superpondría o interactuaría esta regla con la FTC y la FEC (que rigen la publicidad y las reglas de campaña respectivamente), y cuándo podríamos esperar que esta propuesta esté en vigor.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Inteligencia vocal

OpenAI presenta innovadoras funciones de inteligencia vocal y traducción

OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...

Productividad mejorada

Perplexity lanza PC para Mac con inteligencia artificial integrada

Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....

Contacto confiable

OpenAI presenta Trusted Contact para mejorar la seguridad emocional

OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...

Cambio estratégico

Bumble elimina deslizamiento y apuesta por inteligencia artificial

Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...

Tensión regulatoria

Musk y OpenAI: Tensión entre seguridad y lucro en IA

El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...

Seguridad informática

Inteligencia artificial transforma la seguridad del software y ciberseguridad

La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...

Crecimiento rápido

Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5

Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...

Cambio tecnológico

xAI y Anthropic transforman la industria tecnológica con nueva alianza

La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...