La proliferación de deepfakes en la red
La llegada de la inteligencia artificial ha revolucionado muchos aspectos de nuestra vida cotidiana, pero también ha traído consigo desafíos significativos. Uno de los fenómenos más preocupantes en el ámbito digital son los deepfakes, especialmente aquellos que involucran contenido pornográfico. La mayoría de los deepfakes que circulan en internet son imágenes o vídeos de carácter sexual no consensuados, lo que plantea serias cuestiones éticas y legales. Según un informe de Home Security Heroes, el 98% de todos los vídeos deepfake en línea son pornográficos. Esta situación se ha visto agravada por el fácil acceso a herramientas de inteligencia artificial generativa, que han incrementado la cantidad de deepfakes en un asombroso 550% entre 2019 y 2023.
La lucha contra los deepfakes no consensuales
A pesar de la alarmante proliferación de este tipo de contenido, las leyes que abordan los deepfakes no consensuales están todavía rezagadas, sobre todo en Estados Unidos. Sin embargo, la situación está empezando a mejorar gracias a la implementación de nuevas herramientas en Google Search. Google ha realizado cambios significativos en su algoritmo de búsqueda para combatir el contenido pornográfico deepfake, con el objetivo de reducir su visibilidad en los resultados de búsqueda. Además, han establecido un procedimiento acelerado para procesar solicitudes de eliminación de estos contenidos, lo que facilita que las personas afectadas puedan actuar.
Cómo solicitar la eliminación de un deepfake
Si alguien se encuentra en la situación de tener que solicitar la eliminación de un deepfake no consensual, el proceso ha sido simplificado a través de un formulario web específico. Este formulario permite a las personas afectadas reportar contenido que les perjudica directamente, ya sea una página web, imagen o vídeo. Es importante tener en cuenta que existe un formulario diferente para el contenido relacionado con el abuso sexual infantil. Para que el contenido sea eliminado, debe cumplir con ciertos criterios establecidos por Google.
Las condiciones para que un contenido sea considerado para su eliminación son claras. El contenido debe ser desnudo, íntimo o sexualmente explícito y distribuido sin permiso, o debe representar falsamente a la persona en una situación sexual o asociarla incorrectamente con la prostitución. Al completar el formulario, se debe seleccionar la opción correspondiente que refleje la naturaleza del contenido que se desea eliminar.
Proceso de solicitud y seguimiento
Una vez que se ha enviado la solicitud, el solicitante recibe una confirmación automática por correo electrónico. Google revisará la solicitud y, en algunos casos, puede pedir información adicional, como más URLs que respalden la solicitud. Es crucial que los solicitantes estén preparados para proporcionar toda la información necesaria para respaldar su caso, ya que esto puede determinar el éxito de la eliminación del contenido.
Si la solicitud es denegada, existe la opción de volver a enviarla con materiales de apoyo adicionales. Google ha señalado que, cuando se logra eliminar contenido de pornografía deepfake no consensual, sus sistemas también intentarán filtrar resultados explícitos en búsquedas futuras relacionadas con esa persona. Esto implica que, si una imagen es eliminada bajo las políticas de Google, sus sistemas buscarán y eliminarán cualquier duplicado que puedan encontrar.
Protección y privacidad en el entorno digital
La implementación de estas herramientas por parte de Google es un paso positivo en la dirección correcta para proteger a las personas de los efectos dañinos de los deepfakes. Estos esfuerzos buscan ofrecer una mayor tranquilidad a quienes temen que contenido similar pueda aparecer en el futuro, permitiendo a las personas recuperar un cierto control sobre su imagen y reputación en línea. Google ha declarado que han desarrollado capacidades similares para abordar otros tipos de imágenes no consensuales, lo que refuerza la importancia de estas nuevas medidas.
Sin embargo, el camino hacia una mayor protección es largo. La velocidad a la que se desarrolla la tecnología de deepfake exige una respuesta igualmente rápida y efectiva por parte de los legisladores y las plataformas digitales. Es fundamental que se establezcan leyes más robustas y efectivas para abordar la creación y distribución de deepfakes no consensuales, así como un enfoque más proactivo en la educación sobre los riesgos asociados con estas tecnologías.
El impacto de los deepfakes en la vida de las personas puede ser devastador, y la necesidad de soluciones eficaces es más urgente que nunca. Con cada nuevo avance en inteligencia artificial, es esencial que las plataformas y los legisladores se mantengan a la vanguardia para garantizar un entorno digital más seguro y responsable.
Otras noticias • Seguridad
Vulnerabilidades en privacidad por acceso fácil a datos de ubicación
A pesar de las estrictas leyes de protección de datos en Europa, la facilidad para acceder a la ubicación de ciudadanos, incluidos funcionarios de la...
Flock Safety enfrenta críticas por fallas en ciberseguridad y transparencia
La controversia en torno a Flock Safety destaca la falta de ciberseguridad en sus cámaras de vigilancia, generando preocupaciones sobre la protección de datos sensibles....
Empleados de DigitalMint y Sygnia implicados en escándalo de ransomware
Un escándalo en ciberseguridad involucra a empleados de DigitalMint y Sygnia acusados de ransomware. Colaboraron con el grupo ALPHV/BlackCat, afectando a varias empresas. Este caso...
Ciberataque a Universidad de Pensilvania genera crisis de confianza
La Universidad de Pensilvania sufrió un ciberataque mediante correos electrónicos maliciosos que cuestionaban su seguridad y ética. Enfrenta un desafío de confianza con estudiantes y...
Ribbon sufre hackeo de un año por grupo chino
Ribbon, un gigante de las telecomunicaciones, sufrió un hackeo durante casi un año por un grupo respaldado por el gobierno chino. Este incidente expone vulnerabilidades...
Exgerente de L3Harris se declara culpable por venta ilegal
Peter Williams, exgerente de L3Harris, se declaró culpable de vender tecnología de vigilancia a un corredor ruso, comprometiendo la seguridad nacional. Este caso resalta la...
Fallo de seguridad en Tata Motors expone datos de clientes
Un fallo de seguridad en Tata Motors expuso datos sensibles de clientes, incluyendo información personal y facturas. La empresa reconoció las vulnerabilidades y las corrigió,...
CyDeploy revoluciona ciberseguridad con IA y gemelos digitales
CyDeploy, fundada por Tina Williams-Koroma, utiliza inteligencia artificial para gestionar actualizaciones de software y prevenir ciberataques mediante gemelos digitales. Su enfoque híbrido mejora la precisión...
Lo más reciente
- 1
People Inc. y Microsoft transforman la industria editorial con IA
- 2
Amazon y Perplexity destacan la urgencia de regular asistentes automatizados
- 3
Beta Technologies recauda más de 1.000 millones en Bolsa
- 4
Roelof Botha deja Sequoia Capital en cambio de liderazgo
- 5
Google mejora su IA para reservas y compras interactivas
- 6
Rivian lanza Mind Robotics con 110 millones para diversificación
- 7
Sora de OpenAI llega a Android con un millón de descargas

