IA | Reportar

YouTube permite denunciar contenido AI-generado de rostros y voces

YouTube actualiza su política para permitir la eliminación de contenido AI-generado

YouTube ha implementado silenciosamente un cambio de política en junio que permitirá a las personas solicitar la eliminación de contenido AI-generado u otro contenido sintético que simule su rostro o voz. Esta actualización permite a las personas solicitar la eliminación de este tipo de contenido AI bajo el proceso de solicitud de privacidad de YouTube. Es una expansión de su enfoque previamente anunciado sobre la agenda de inteligencia artificial responsable presentada por primera vez en noviembre.

En lugar de solicitar que se elimine el contenido por ser engañoso, como un deepfake, YouTube quiere que las partes afectadas soliciten directamente la eliminación del contenido como una violación de la privacidad. Según la documentación de Ayuda recientemente actualizada de YouTube sobre el tema, requiere reclamaciones de primera parte fuera de un puñado de excepciones, como cuando el individuo afectado es menor de edad, no tiene acceso a una computadora, está fallecido, u otras excepciones similares.

Simplemente enviar la solicitud de eliminación no significa necesariamente que el contenido será eliminado. YouTube advierte que tomará su propio juicio sobre la queja basado en una variedad de factores.

Por ejemplo, puede considerar si el contenido se presenta como sintético o hecho con IA, si identifica de forma única a una persona, y si el contenido podría considerarse parodia, sátira o algo más de valor e interés público. La empresa también señala que puede considerar si el contenido AI presenta a una figura pública u otra persona conocida, y si muestra a esa persona participando en "comportamientos sensibles" como actividad criminal, violencia o respaldando un producto o candidato político. Este último es especialmente preocupante en un año electoral, donde los respaldos generados por IA podrían potencialmente influir en los votos.

YouTube también dará al creador del contenido 48 horas para actuar sobre la queja. Si el contenido se elimina antes de que haya pasado ese tiempo, la queja se cerrará. De lo contrario, YouTube iniciará una revisión.

La empresa también advierte a los usuarios que la eliminación significa eliminar completamente el video del sitio y, si corresponde, eliminar el nombre e información personal del individuo del título, descripción y etiquetas del video. Los usuarios también pueden difuminar los rostros de las personas en sus videos, pero no pueden simplemente hacer el video privado para cumplir con la solicitud de eliminación, ya que el video podría volver a ser público en cualquier momento.

YouTube no anunció ampliamente el cambio de política, aunque en marzo introdujo una herramienta en Creator Studio que permitía a los creadores revelar cuándo se creó contenido con apariencia realista con medios alterados o sintéticos, incluida la IA generativa. También comenzó recientemente una prueba de una función que permitiría a los usuarios agregar notas aportadas por la comunidad que proporcionen contexto adicional sobre los videos, como si se trata de una parodia o si es engañoso de alguna manera.

YouTube no está en contra del uso de la IA, habiendo experimentado previamente con la IA generativa, incluido un resumen de comentarios y una herramienta conversacional para hacer preguntas sobre un video o recibir recomendaciones. Sin embargo, la empresa ha advertido previamente que simplemente etiquetar el contenido de IA como tal no lo protegerá necesariamente de la eliminación, ya que seguirá teniendo que cumplir con las Normas de la Comunidad de YouTube.

En el caso de quejas de privacidad sobre material AI, YouTube no penalizará automáticamente al creador original del contenido.

"Para los creadores, si recibes una notificación de una queja de privacidad, ten en cuenta que las violaciones de privacidad son distintas de las infracciones de las Normas de la Comunidad y recibir una queja de privacidad no resultará automáticamente en una infracción", compartió un representante de la empresa este mes en el sitio de la Comunidad de YouTube donde la empresa actualiza directamente a los creadores sobre nuevas políticas y características.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Crecimiento digital

Vercel crece con inteligencia artificial y planes de salida a bolsa

Vercel, bajo el liderazgo de Guillermo Rauch, se beneficia del auge de la inteligencia artificial y la democratización del desarrollo de aplicaciones. Con un crecimiento...

IA agentiva

Claude de Anthropic supera a ChatGPT en la conferencia HumanX AI

La conferencia HumanX AI destacó cómo la IA agentiva transforma los negocios, con Claude de Anthropic superando a ChatGPT de OpenAI en popularidad. A pesar...

Ataque mediático

Sam Altman reflexiona tras ataque violento en su hogar

Sam Altman, CEO de OpenAI, sufrió un ataque violento en su hogar tras la publicación de un perfil crítico sobre su liderazgo. Reflexionó sobre el...

Tensiones éticas

Controversia entre OpenClaw y Anthropic desata debate sobre ética en IA

La controversia entre Peter Steinberger de OpenClaw y Anthropic, tras la suspensión temporal de su cuenta, resalta tensiones en la IA. Anthropic cambió su política...

Suscripción intermedia

OpenAI lanza plan de suscripción para desarrolladores a 100 dólares

OpenAI ha lanzado un nuevo plan de suscripción de 100 dólares al mes para desarrolladores, ofreciendo mayor capacidad de codificación con Codex. Este plan se...

Crisis cibernética

Mercor enfrenta crisis tras brecha de datos sensible y demandas

Mercor, una startup de inteligencia artificial, enfrenta una crisis tras una brecha de datos que comprometió información sensible. La situación ha llevado a la suspensión...

Tiroteo tecnológico

Tiroteo en Florida genera demanda contra OpenAI por ChatGPT

Un tiroteo en la Universidad Estatal de Florida, donde se alega que el atacante usó ChatGPT para planificar el ataque, ha llevado a una demanda...

Acceso restringido

Anthropic limita acceso a Mythos para priorizar seguridad cibernética

Anthropic ha restringido el acceso a su modelo de IA, Mythos, para detectar vulnerabilidades en software, priorizando la seguridad y la colaboración entre grandes empresas....