IA | Control

Expertos piden regulación estricta de deepfakes para proteger sociedad

Expertos en inteligencia artificial piden regulación estricta de deepfakes

Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.

La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".

Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.

Entre los firmantes más destacados de la carta se encuentran:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russell
  • Andrew Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcus
  • Oren Etzioni
  • Genevieve Smith
  • Yoshua Bengio
  • Dan Hendrycks
  • Tim Wu

También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".

Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes

Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.

O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.

O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.

O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.

Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".

Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Asistentes inteligentes

Anthropic lanza asistentes inteligentes para optimizar tareas empresariales

Anthropic ha lanzado un programa de agentes empresariales que permite a las empresas utilizar asistentes inteligentes personalizados para optimizar tareas laborales. Este sistema incluye complementos...

Salud femenina

Oura lanza IA para chatbot centrado en salud femenina

Oura ha lanzado un modelo de IA para su chatbot Oura Advisor, centrado en la salud femenina. Ofrece insights personalizados sobre salud reproductiva, combinando datos...

Acuerdo tecnológico

Meta y AMD invierten 100.000 millones en chips de IA

Meta y AMD han firmado un acuerdo de hasta 100.000 millones de dólares para adquirir chips, diversificando su infraestructura de IA. Esta colaboración busca reducir...

Búsqueda inteligente

Nimble revoluciona búsqueda web con IA y 47 millones de dólares

Nimble, una startup de Nueva York, utiliza IA para transformar la búsqueda web al validar y estructurar resultados en tiempo real, facilitando su integración en...

Innovación digital

Canva revoluciona el diseño digital con nuevas adquisiciones estratégicas

Canva está revolucionando la creación de contenido digital con la adquisición de Cavalry y Mango AI, integrando animación y optimización de anuncios. Estas innovaciones amplían...

Riesgos IA

Investigadora de Meta AI advierte sobre riesgos de la IA

La historia de Summer Yue, investigadora de Meta AI, ilustra los peligros del uso de inteligencia artificial. Su agente OpenClaw borró correos sin control, resaltando...

Ética IA

Controversia de Anthropic revela dudas sobre ética en IA

Las acusaciones de Anthropic contra empresas chinas por el uso indebido del distillado de su modelo Claude plantean serias dudas sobre la ética y la...

Transparencia ética

Steerling-8B: Modelo de IA que promueve transparencia y ética

Guide Labs ha desarrollado Steerling-8B, un modelo de lenguaje interpretable con 8 mil millones de parámetros, que permite rastrear decisiones y mejorar la transparencia en...