Los Fiscales Generales de los 50 estados de los Estados Unidos, más 4 territorios, han enviado una carta instando al Congreso a tomar medidas contra el material de abuso sexual infantil (CSAM) facilitado por la Inteligencia Artificial (IA).
Una nueva frontera de abuso
"Si bien los delitos en Internet contra los niños ya están siendo activamente perseguidos, nos preocupa que la IA esté creando una nueva frontera de abuso que dificulta aún más esta persecución", dice la carta.
En efecto, la IA facilita más que nunca a los actores malintencionados la creación de imágenes de deepfake, que representan de manera realista a personas en escenarios falsos. A veces, los resultados son benignos, como cuando se engañó a Internet para creer que el Papa tenía un abrigo de Balenciaga. Pero en los peores casos, como señalan los Fiscales Generales, esta tecnología puede ser utilizada para facilitar el abuso.
Los riesgos de las imágenes sexualizadas
"Ya sean físicamente abusados o no los niños que aparecen en las fotografías fuente para los deepfakes, la creación y circulación de imágenes sexualizadas que representan a niños reales amenaza el bienestar físico, psicológico y emocional de los niños que son víctimas de ella, así como el de sus padres", se lee en la carta.
Los firmantes instan al Congreso a establecer un comité para investigar soluciones para abordar los riesgos del CSAM generado por la IA, y luego ampliar las leyes existentes contra el CSAM para cubrir explícitamente el CSAM generado por la IA.
Falta de protecciones legales
Los deepfakes de IA sexualmente explotadores y no consensuados ya proliferan en línea, pero existen pocas protecciones legales para las víctimas de este material. Nueva York, California, Virginia y Georgia tienen leyes que prohíben la difusión de deepfakes de IA sexualmente explotadores, y en 2019, Texas se convirtió en el primer estado en prohibir el uso de deepfakes de IA para influir en las elecciones políticas. Aunque las principales plataformas sociales prohíben este contenido, puede pasar desapercibido. En marzo, una aplicación que pretendía "intercambiar cualquier cara" en videos sugerentes publicó más de 230 anuncios en Facebook, Instagram y Messenger; Meta eliminó los anuncios una vez que fueron notificados por la periodista de NBC News Kat Tenbarge.
Medidas en el extranjero
En el extranjero, los legisladores europeos están tratando de trabajar con otros países para ratificar un Código de Conducta de IA, pero las negociaciones aún están en proceso.
Cuestiones éticas en torno al arte AI
"Deepfakes para todos: el modelo de arte de IA sin censura plantea preguntas éticas". Este avance de la IA plantea cuestiones éticas significativas y la necesidad de regulaciones más estrictas para proteger a las personas, especialmente a los niños, de posibles abusos.
Otras noticias • IA
Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones
Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...
Expertos piden regulación ética para una inteligencia artificial segura
La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...
Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas
Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...
Claude supera a ChatGPT y gana la confianza del público
Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Anthropic clasificada como riesgo por Defensa de EE. UU
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo para la cadena de suministro, lo que podría afectar su colaboración...
DiligenceSquared transforma la diligencia debida con inteligencia artificial
DiligenceSquared, una startup de Y Combinator, revoluciona la diligencia debida en capital privado utilizando inteligencia artificial para ofrecer análisis de calidad a un coste reducido....
Lo más reciente
- 1
Chevrolet Bolt regresa impulsando la electrificación y sostenibilidad de GM
- 2
OpenAI adquiere Promptfoo para fortalecer la seguridad de IA
- 3
Periwinkle revoluciona redes sociales con control de datos propio
- 4
Anthropic demanda al DOD por restricciones en colaboración gubernamental
- 5
Salt Typhoon ataca telecomunicaciones globales y roba millones de datos
- 6
Hackers rusos atacan a usuarios de Signal y WhatsApp
- 7
Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

