Expertos en inteligencia artificial piden regulación estricta de deepfakes
Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.
La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".
Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.
Entre los firmantes más destacados de la carta se encuentran:
- Jaron Lanier
- Frances Haugen
- Stuart Russell
- Andrew Yang
- Marietje Schaake
- Steven Pinker
- Gary Marcus
- Oren Etzioni
- Genevieve Smith
- Yoshua Bengio
- Dan Hendrycks
- Tim Wu
También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".
Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes
Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.
O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.
O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.
O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.
Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".
Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas
Otras noticias • IA
Anthropic lanza asistentes inteligentes para optimizar tareas empresariales
Anthropic ha lanzado un programa de agentes empresariales que permite a las empresas utilizar asistentes inteligentes personalizados para optimizar tareas laborales. Este sistema incluye complementos...
Oura lanza IA para chatbot centrado en salud femenina
Oura ha lanzado un modelo de IA para su chatbot Oura Advisor, centrado en la salud femenina. Ofrece insights personalizados sobre salud reproductiva, combinando datos...
Meta y AMD invierten 100.000 millones en chips de IA
Meta y AMD han firmado un acuerdo de hasta 100.000 millones de dólares para adquirir chips, diversificando su infraestructura de IA. Esta colaboración busca reducir...
Nimble revoluciona búsqueda web con IA y 47 millones de dólares
Nimble, una startup de Nueva York, utiliza IA para transformar la búsqueda web al validar y estructurar resultados en tiempo real, facilitando su integración en...
Canva revoluciona el diseño digital con nuevas adquisiciones estratégicas
Canva está revolucionando la creación de contenido digital con la adquisición de Cavalry y Mango AI, integrando animación y optimización de anuncios. Estas innovaciones amplían...
Investigadora de Meta AI advierte sobre riesgos de la IA
La historia de Summer Yue, investigadora de Meta AI, ilustra los peligros del uso de inteligencia artificial. Su agente OpenClaw borró correos sin control, resaltando...
Controversia de Anthropic revela dudas sobre ética en IA
Las acusaciones de Anthropic contra empresas chinas por el uso indebido del distillado de su modelo Claude plantean serias dudas sobre la ética y la...
Steerling-8B: Modelo de IA que promueve transparencia y ética
Guide Labs ha desarrollado Steerling-8B, un modelo de lenguaje interpretable con 8 mil millones de parámetros, que permite rastrear decisiones y mejorar la transparencia en...
Lo más reciente
- 1
Spotify y Liquid Death lanzan altavoz urnas para eternizar música
- 2
EE. UU. sanciona a Operation Zero para frenar cibercrimen
- 3
OpenAI impulsa la adopción de IA en empresas estratégicamente
- 4
Twitch implementa sanciones específicas para violaciones menores de normas
- 5
Marquis demanda a SonicWall por violación de datos sensibles
- 6
Google Labs revoluciona la música con IA y derechos de autor
- 7
YouTube mejora Premium Lite con descargas y reproducción en segundo plano

