El startup británico Yepic AI incumple su propia política de consentimiento para el uso de deepfakes
La startup británica Yepic AI, que afirma utilizar "deepfakes para el bien", y promete "nunca recrear a alguien sin su consentimiento", parece haber quebrantado su propia normativa.
En un correo electrónico no solicitado enviado a un reportero, un representante de Yepic AI compartió dos vídeos "deepfake" del periodista, quien no había dado su consentimiento para que su imagen fuera reproducida. Yepic AI afirmó en el correo que había "utilizado una foto públicamente disponible" del reportero para producir dos vídeos deepfake de él hablando en diferentes idiomas.
El periodista solicitó a Yepic AI que eliminara los vídeos deepfake que se habían creado sin su permiso.
¿Qué son los deepfakes?
Los deepfakes son fotos, vídeos o audios creados por sistemas de IA generativos diseñados para parecerse a un individuo. Aunque no son nuevos, la proliferación de sistemas de IA generativos permite a casi cualquiera crear contenido deepfake convincente de cualquier otra persona con relativa facilidad, incluso sin su conocimiento o consentimiento.
Política de ética de Yepic AI
En una página web que Yepic AI titula "Ética", la empresa afirmó: "Se prohíben los deepfakes y las imitaciones satíricas con fines políticos y otros [sic]". Además, la empresa declaró en una entrada de blog de agosto: "Nos negamos a producir avatares personalizados de personas sin su permiso expreso".
No se sabe si la empresa generó deepfakes de otras personas sin permiso, y la empresa se negó a comentar al respecto.
Respuesta de Yepic AI
Al ser contactado para hacer comentarios, el director ejecutivo de Yepic AI, Aaron Jones, informó que la empresa está actualizando su política de ética para "acomodar excepciones para imágenes generadas por IA que se crean con fines artísticos y expresivos".
En relación con cómo sucedió el incidente, Jones dijo: "Ni yo ni el equipo de Yepic estuvimos directamente involucrados en la creación de los vídeos en cuestión. Nuestro equipo de RR.PP. ha confirmado que el vídeo fue creado específicamente para el periodista para generar conciencia sobre la increíble tecnología que Yepic ha creado".
Jones afirmó que los vídeos y la imagen utilizada para la creación de la imagen del periodista fueron eliminados.
Impacto de los deepfakes
Previsiblemente, los deepfakes han engañado a víctimas desprevenidas para que caigan en estafas y entreguen sin saberlo sus criptomonedas o información personal, eludiendo algunos sistemas de moderación. En un caso, los estafadores utilizaron la IA para suplantar la voz del director ejecutivo de una empresa con el fin de engañar al personal para que realizara una transacción fraudulenta de cientos de miles de euros. Antes de que los deepfakes se popularizaran entre los estafadores, es importante destacar que las personas utilizaban deepfakes para crear imágenes pornográficas o sexuales no consentidas que victimizaban a las mujeres, es decir, creaban vídeos pornográficos de aspecto realista utilizando la imagen de mujeres que no habían dado su consentimiento para formar parte del vídeo.
Otras noticias • IA
Anthropic demanda al DOD por restricciones en colaboración gubernamental
Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica
La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Lo más reciente
- 1
FAA aprueba pruebas de aeronaves eléctricas eVTOL para empresas
- 2
Empleados de OpenAI y Google DeepMind respaldan demanda de Anthropic
- 3
Bluesky cambia de CEO ante desafíos de moderación y regulación
- 4
Inteligencia artificial transforma desarrollo de software y mejora calidad
- 5
Ticketmaster bajo fuego por precios altos y prácticas monopolísticas
- 6
Chevrolet Bolt regresa impulsando la electrificación y sostenibilidad de GM
- 7
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA

