IA | Control

Expertos piden regulación estricta de deepfakes para proteger sociedad

Expertos en inteligencia artificial piden regulación estricta de deepfakes

Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.

La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".

Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.

Entre los firmantes más destacados de la carta se encuentran:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russell
  • Andrew Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcus
  • Oren Etzioni
  • Genevieve Smith
  • Yoshua Bengio
  • Dan Hendrycks
  • Tim Wu

También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".

Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes

Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.

O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.

O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.

O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.

Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".

Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Contratación triplicada

IBM triplicará contratación de jóvenes con habilidades humanas para 2026

IBM planea triplicar la contratación de puestos de entrada en EE. UU. para 2026, enfocándose en habilidades humanas como la creatividad y la empatía. Este...

Monetización complicada

Pinterest lucha por monetizar a pesar del crecimiento de usuarios

Pinterest enfrenta desafíos para monetizar su plataforma a pesar de un aumento en usuarios activos. La competencia de la inteligencia artificial y cambios en la...

Aprovisionamiento automatizado

Didero revoluciona la cadena de suministro con inteligencia artificial

La pandemia reveló la complejidad del aprovisionamiento global. Tim Spencer fundó Didero para automatizar procesos, integrando comunicación y reduciendo tareas manuales. Con inteligencia artificial, Didero...

Innovación musical

Spotify impulsa la música con inteligencia artificial innovadora

Spotify está revolucionando su desarrollo y experiencia musical mediante la inteligencia artificial, utilizando un sistema interno que agiliza la codificación y personaliza la música. La...

Codificación optimizada

OpenAI y Cerebras lanzan Codex-Spark para revolucionar la programación

OpenAI ha lanzado Codex-Spark, una versión optimizada de su herramienta de codificación, en colaboración con Cerebras. Este avance, respaldado por un acuerdo de 10 mil...

Financiación estratégica

Modal Labs busca financiación para alcanzar valoración de 2.500 millones

Modal Labs, una startup centrada en la optimización de la infraestructura de inferencia de inteligencia artificial, busca financiación para elevar su valoración a 2.500 millones...

Reestructuración interna

xAI reestructura equipos y despide empleados en nueva dirección

xAI, cofundada por Elon Musk, reveló en una reunión interna su reestructuración y despidos, centrándose en cuatro equipos de desarrollo. Musk destacó la importancia de...

Disolución ética

OpenAI disuelve equipo de alineación de IA generando preocupaciones éticas

OpenAI ha disuelto su equipo de alineación de IA, generando preocupaciones sobre la ética en el desarrollo de estas tecnologías. Los miembros han sido reasignados...