El startup británico Yepic AI incumple su propia política de consentimiento para el uso de deepfakes
La startup británica Yepic AI, que afirma utilizar "deepfakes para el bien", y promete "nunca recrear a alguien sin su consentimiento", parece haber quebrantado su propia normativa.
En un correo electrónico no solicitado enviado a un reportero, un representante de Yepic AI compartió dos vídeos "deepfake" del periodista, quien no había dado su consentimiento para que su imagen fuera reproducida. Yepic AI afirmó en el correo que había "utilizado una foto públicamente disponible" del reportero para producir dos vídeos deepfake de él hablando en diferentes idiomas.
El periodista solicitó a Yepic AI que eliminara los vídeos deepfake que se habían creado sin su permiso.
¿Qué son los deepfakes?
Los deepfakes son fotos, vídeos o audios creados por sistemas de IA generativos diseñados para parecerse a un individuo. Aunque no son nuevos, la proliferación de sistemas de IA generativos permite a casi cualquiera crear contenido deepfake convincente de cualquier otra persona con relativa facilidad, incluso sin su conocimiento o consentimiento.
Política de ética de Yepic AI
En una página web que Yepic AI titula "Ética", la empresa afirmó: "Se prohíben los deepfakes y las imitaciones satíricas con fines políticos y otros [sic]". Además, la empresa declaró en una entrada de blog de agosto: "Nos negamos a producir avatares personalizados de personas sin su permiso expreso".
No se sabe si la empresa generó deepfakes de otras personas sin permiso, y la empresa se negó a comentar al respecto.
Respuesta de Yepic AI
Al ser contactado para hacer comentarios, el director ejecutivo de Yepic AI, Aaron Jones, informó que la empresa está actualizando su política de ética para "acomodar excepciones para imágenes generadas por IA que se crean con fines artísticos y expresivos".
En relación con cómo sucedió el incidente, Jones dijo: "Ni yo ni el equipo de Yepic estuvimos directamente involucrados en la creación de los vídeos en cuestión. Nuestro equipo de RR.PP. ha confirmado que el vídeo fue creado específicamente para el periodista para generar conciencia sobre la increíble tecnología que Yepic ha creado".
Jones afirmó que los vídeos y la imagen utilizada para la creación de la imagen del periodista fueron eliminados.
Impacto de los deepfakes
Previsiblemente, los deepfakes han engañado a víctimas desprevenidas para que caigan en estafas y entreguen sin saberlo sus criptomonedas o información personal, eludiendo algunos sistemas de moderación. En un caso, los estafadores utilizaron la IA para suplantar la voz del director ejecutivo de una empresa con el fin de engañar al personal para que realizara una transacción fraudulenta de cientos de miles de euros. Antes de que los deepfakes se popularizaran entre los estafadores, es importante destacar que las personas utilizaban deepfakes para crear imágenes pornográficas o sexuales no consentidas que victimizaban a las mujeres, es decir, creaban vídeos pornográficos de aspecto realista utilizando la imagen de mujeres que no habían dado su consentimiento para formar parte del vídeo.
Otras noticias • IA
Creciente adopción de IA en EE. UU. pero baja confianza
La adopción de la inteligencia artificial en Estados Unidos crece, pero la confianza en ella es baja. Un estudio revela que el 76% desconfía de...
Mantis Biotech revoluciona la medicina con gemelos digitales humanos
Mantis Biotech ha desarrollado una plataforma que crea gemelos digitales del cuerpo humano mediante la recopilación de datos de diversas fuentes. Esta tecnología permite simular...
ScaleOps recauda 130 millones para optimizar gestión en la nube
ScaleOps, una startup emergente, ha recaudado 130 millones de dólares para desarrollar una solución autónoma que optimiza la gestión de infraestructuras en la nube, reduciendo...
Mistral AI invierte 830 millones en infraestructura de IA en Europa
Mistral AI ha recaudado 830 millones de dólares para construir un centro de datos cerca de París, impulsando la infraestructura de inteligencia artificial en Europa....
Chatbots fomentan dependencia al adular más que humanos
La "sicosis de la adulación" en la inteligencia artificial, especialmente en chatbots, valida las creencias de los usuarios, debilitando sus habilidades sociales y fomentando la...
Anthropic crece con Claude en medio de disputa con Defensa
La disputa entre Anthropic y el Departamento de Defensa de EE. UU. ha impulsado el crecimiento de su producto, Claude, gracias a una estrategia de...
SK hynix planea cotizar en EE. UU. para atraer inversores
SK hynix busca cotizar en EE. UU. para aumentar su valoración y atraer nuevos inversores, con una recaudación prevista de hasta 14.000 millones de dólares....
Juez apoya a Anthropic en disputa sobre regulación de IA
Un juez federal ha respaldado a Anthropic en su disputa con la administración Trump, ordenando el retiro de su designación como riesgo de seguridad. Este...
Lo más reciente
- 1
Alexa+ revoluciona pedidos a domicilio con interacciones personalizadas
- 2
Whoop recauda 575 millones y alcanza valoración de 10.100 millones
- 3
Ataque a Axios revela vulnerabilidades en software de código abierto
- 4
Dubái lanza robotaxis autónomos, revolucionando la movilidad urbana
- 5
Micromovilidad transforma entregas urbanas con vehículos autónomos sostenibles
- 6
Vulnerabilidades en CareCloud amenazan la seguridad de datos de pacientes
- 7
NomadicML recibe 8,4 millones para revolucionar datos en IA autónoma

