IA | Control

Expertos piden regulación estricta de deepfakes para proteger sociedad

Expertos en inteligencia artificial piden regulación estricta de deepfakes

Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.

La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".

Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.

Entre los firmantes más destacados de la carta se encuentran:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russell
  • Andrew Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcus
  • Oren Etzioni
  • Genevieve Smith
  • Yoshua Bengio
  • Dan Hendrycks
  • Tim Wu

También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".

Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes

Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.

O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.

O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.

O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.

Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".

Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Acceso restringido

Meta restringe acceso de adolescentes a IA por seguridad

Meta ha suspendido el acceso de adolescentes a personajes de IA en sus aplicaciones globalmente, buscando desarrollar una versión más segura. Esta decisión responde a...

Seguridad juvenil

Meta pausa acceso de adolescentes a personajes de IA

Meta ha decidido pausar el acceso de los adolescentes a sus personajes de IA, desarrollando una versión más adecuada para ellos. Esta medida responde a...

Memes personalizados

Google Photos presenta "Me Meme" para crear memes personalizados

Google Photos lanza "Me Meme", una función que permite a los usuarios crear memes personalizados con sus propias imágenes utilizando inteligencia artificial. Inicialmente disponible en...

Interés tecnológico

Sam Altman visitará India para la India AI Impact Summit

Sam Altman, CEO de OpenAI, visitará India en febrero para participar en la India AI Impact Summit 2026. Este viaje subraya el interés de OpenAI...

Calendarios inteligentes

Blockit transforma calendarios con IA y atrae a Sequoia Capital

Kais Khimji ha fundado Blockit, una startup que utiliza inteligencia artificial para revolucionar la programación de calendarios. Su enfoque permite que los agentes de IA...

Reestructuración empresarial

OpenAI reestructura liderazgo para fortalecer su enfoque empresarial

OpenAI está reestructurando su liderazgo, destacando el regreso de Barret Zoph para fortalecer su enfoque en el mercado empresarial. A pesar de haber lanzado ChatGPT...

Progreso limitado

Inteligencia artificial avanza lentamente en trabajos del conocimiento

La inteligencia artificial ha avanzado, pero su impacto en trabajos del conocimiento ha sido limitado. Un estudio de Mercor revela que los modelos actuales apenas...

Monetización equilibrada

Debate sobre monetización de inteligencia artificial y experiencia del usuario

La monetización de la inteligencia artificial está en debate, especialmente tras la decisión de OpenAI de implementar anuncios. Demis Hassabis, de Google DeepMind, aboga por...