Expertos en inteligencia artificial piden regulación estricta de deepfakes
Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.
La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".
Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.
Entre los firmantes más destacados de la carta se encuentran:
- Jaron Lanier
- Frances Haugen
- Stuart Russell
- Andrew Yang
- Marietje Schaake
- Steven Pinker
- Gary Marcus
- Oren Etzioni
- Genevieve Smith
- Yoshua Bengio
- Dan Hendrycks
- Tim Wu
También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".
Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes
Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.
O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.
O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.
O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.
Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".
Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas
Otras noticias • IA
Claude de Anthropic supera a ChatGPT en la conferencia HumanX AI
La conferencia HumanX AI destacó cómo la IA agentiva transforma los negocios, con Claude de Anthropic superando a ChatGPT de OpenAI en popularidad. A pesar...
Sam Altman reflexiona tras ataque violento en su hogar
Sam Altman, CEO de OpenAI, sufrió un ataque violento en su hogar tras la publicación de un perfil crítico sobre su liderazgo. Reflexionó sobre el...
Controversia entre OpenClaw y Anthropic desata debate sobre ética en IA
La controversia entre Peter Steinberger de OpenClaw y Anthropic, tras la suspensión temporal de su cuenta, resalta tensiones en la IA. Anthropic cambió su política...
OpenAI lanza plan de suscripción para desarrolladores a 100 dólares
OpenAI ha lanzado un nuevo plan de suscripción de 100 dólares al mes para desarrolladores, ofreciendo mayor capacidad de codificación con Codex. Este plan se...
Mercor enfrenta crisis tras brecha de datos sensible y demandas
Mercor, una startup de inteligencia artificial, enfrenta una crisis tras una brecha de datos que comprometió información sensible. La situación ha llevado a la suspensión...
Tiroteo en Florida genera demanda contra OpenAI por ChatGPT
Un tiroteo en la Universidad Estatal de Florida, donde se alega que el atacante usó ChatGPT para planificar el ataque, ha llevado a una demanda...
Anthropic limita acceso a Mythos para priorizar seguridad cibernética
Anthropic ha restringido el acceso a su modelo de IA, Mythos, para detectar vulnerabilidades en software, priorizando la seguridad y la colaboración entre grandes empresas....
Meta lanza Muse Spark y escala en la App Store
Meta ha lanzado Muse Spark, un modelo de IA que ha impulsado su aplicación Meta AI al 5º puesto en la App Store de EE....
Lo más reciente
- 1
Booking.com sufre ataque cibernético y pone en riesgo datos personales
- 2
Aumentan ataques cibernéticos: la ciberseguridad es esencial hoy
- 3
Vercel crece con inteligencia artificial y planes de salida a bolsa
- 4
Slate Auto recauda 650 millones para camionetas eléctricas asequibles
- 5
Roblox mejora seguridad infantil con nuevas cuentas por edad
- 6
Kepler Communications lanza clúster de 40 GPUs para innovación espacial
- 7
X de Elon Musk recorta pagos a creadores de contenido

