Expertos en inteligencia artificial piden regulación estricta de deepfakes
Cientos en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones generadas por IA, o deepfakes. Aunque esto es poco probable que genere una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), actúa como un indicador de cómo se inclinan los expertos sobre este tema controvertido.
La carta, firmada por más de 500 personas en y adyacentes al campo de la IA en el momento de su publicación, declara que "Los deepfakes son una amenaza creciente para la sociedad, y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener la proliferación de deepfakes".
Llamamiento a la criminalización total de los materiales de abuso sexual infantil deepfake (CSAM, también conocido como pornografía infantil) independientemente de si las figuras representadas son reales o ficticias. Se piden sanciones penales en cualquier caso en el que alguien cree o difunda deepfakes perjudiciales. Y se insta a los desarrolladores a evitar que se creen deepfakes perjudiciales utilizando sus productos en primer lugar, con sanciones si sus medidas preventivas son inadecuadas.
Entre los firmantes más destacados de la carta se encuentran:
- Jaron Lanier
- Frances Haugen
- Stuart Russell
- Andrew Yang
- Marietje Schaake
- Steven Pinker
- Gary Marcus
- Oren Etzioni
- Genevieve Smith
- Yoshua Bengio
- Dan Hendrycks
- Tim Wu
También están presentes cientos de académicos de todo el mundo y de diversas disciplinas. En caso de que te interese, una persona de OpenAI firmó, un par de Google Deepmind, y ninguno en el momento de la publicación de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es no estándar). Curiosamente, están clasificados en la carta por "Notabilidad".
Propuesta de la UE para criminalizar el abuso sexual infantil generado por IA y deepfakes
Quizás sea la disposición de la UE para deliberar y seguir adelante lo que ha activado a estos investigadores, creadores y ejecutivos a hablar.
O quizás sea la marcha lenta de KOSA hacia la aceptación, y su falta de protección para este tipo de abuso.
O quizás sea la amenaza de (como ya hemos visto) las llamadas de estafa generadas por IA que podrían influir en las elecciones o engañar a personas ingenuas para que les quiten su dinero.
O quizás sea el anuncio del grupo de trabajo de ayer sin una agenda en particular más que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían estar restringidas legislativamente.
Como puedes ver, no faltan razones para que aquellos en la comunidad de IA estén aquí agitando los brazos y diciendo "¿quizás deberíamos, ya sabes, hacer algo?!".
Llamadas generadas por IA de Biden a través de una empresa de telecomunicaciones sombría y una empresa 'Life Corporation' de Texas
Otras noticias • IA
OpenAI lanza herramientas financieras en ChatGPT Pro con Plaid
OpenAI ha lanzado herramientas de finanzas personales en ChatGPT Pro, colaborando con Plaid para conectar cuentas de más de 12,000 instituciones. Estas funcionalidades permiten un...
Osaurus revoluciona la IA local y en la nube para Apple
Osaurus es un servidor de modelos de lenguaje exclusivo para Apple que permite ejecutar IA de forma local o en la nube, ofreciendo flexibilidad y...
SpaceXAI pierde más de 50 empleados por presión laboral
SpaceXAI enfrenta una significativa fuga de talento, con más de 50 empleados abandonando la empresa desde su adquisición por SpaceX. La presión laboral, cambios en...
Campbell Brown lanza Forum AI para combatir desinformación digital
Campbell Brown, exjefa de noticias de Facebook, fundó Forum AI para abordar los desafíos de la inteligencia artificial en la información. Colaborando con expertos, busca...
Clawdmeter: Innovador dispositivo que fusiona diversión y productividad
El Clawdmeter es un dispositivo de código abierto que monitoriza el uso de Claude Code, combinando diversión y productividad con animaciones nostálgicas. Creado por Hermann...
Alianzas tecnológicas: expectativas desiguales y conflictos en colaboración
Las alianzas tecnológicas, como la de OpenAI y Apple, pueden generar expectativas desiguales y conflictos. La frustración de OpenAI por la integración insatisfactoria de ChatGPT...
Cerebras Systems recauda 5.500 millones y dispara acciones un 108%
Cerebras Systems ha recaudado 5.500 millones de dólares en su OPI, con acciones que inicialmente subieron un 108%. La empresa, especializada en chips para IA,...
Ian Crosby lanza Synthetic para revolucionar la contabilidad automatizada
Ian Crosby, tras el fracaso de Bench Accounting, lanza Synthetic, una startup que busca automatizar completamente la contabilidad mediante inteligencia artificial. Con 10 millones de...
Lo más reciente
- 1
ArXiv refuerza políticas para garantizar calidad en investigación científica
- 2
Amazon deja de soportar Kindles antiguos, usuarios buscan alternativas
- 3
Controversia entre General Catalyst y a16z resalta ética en inversión
- 4
Filtración de datos en Tabiq afecta a más de un millón
- 5
Crisis energética en Lake Tahoe por demanda de centros de datos
- 6
Accidentes de Robotaxis en Austin revelan desafíos de conducción autónoma
- 7
Trump en China: Seguridad extrema y tensiones persistentes

