IA | Imágenes sintéticas

Imágenes sintéticas desnudas amenazan privacidad y seguridad personal

La problemática de las imágenes sintéticas

La evolución de las herramientas de inteligencia artificial generativa ha traído consigo un nuevo desafío para la sociedad: la proliferación de imágenes desnudas sintéticas que se asemejan a personas reales. Este fenómeno ha generado preocupación entre los defensores de la privacidad y la seguridad en línea, especialmente en el contexto del "revenge porn" o pornografía de venganza, donde imágenes íntimas son divulgadas sin consentimiento. Este problema no solo afecta a las víctimas, sino que también plantea interrogantes sobre la ética y la responsabilidad de las plataformas en línea.

La necesidad de actuar es urgente. En este contexto, Microsoft ha dado un paso significativo al asociarse con StopNCII, una organización que permite a las víctimas de la pornografía de venganza crear una huella digital de estas imágenes explícitas en sus dispositivos. Esta colaboración tiene como objetivo frenar la difusión de contenido no consensuado en su motor de búsqueda Bing, uniéndose así a otras plataformas como Facebook, Instagram y TikTok, que también han implementado medidas similares.

La acción de Microsoft

Microsoft ha tomado la iniciativa de abordar este problema de manera proactiva. En un reciente comunicado, la compañía informó que ya había tomado medidas respecto a 268,000 imágenes explícitas que aparecían en los resultados de búsqueda de Bing, utilizando la base de datos de StopNCII. A pesar de que anteriormente ofrecía una herramienta de reporte directo, Microsoft ha reconocido que este método no es suficiente para combatir el problema de forma efectiva.

La empresa destacó en su publicación que ha escuchado las preocupaciones de las víctimas y de expertos en la materia, quienes señalaron que el reporte por parte de los usuarios no siempre es eficaz ni suficiente para abordar el riesgo de que estas imágenes sean accesibles a través de búsquedas. La respuesta de Microsoft subraya la importancia de implementar soluciones más robustas y colaborativas para proteger a las personas de la explotación en línea.

La situación en Google

La situación es aún más alarmante cuando se considera el papel de Google en este contexto. Aunque Google Search también ofrece herramientas para reportar y eliminar imágenes explícitas, ha enfrentado críticas por no colaborar con StopNCII. Un informe de Wired revela que desde 2020, los usuarios en Corea del Sur han reportado 170,000 enlaces en busca de contenido sexual no deseado en Google y YouTube. Esto pone de manifiesto la necesidad de que las grandes plataformas asuman una mayor responsabilidad en la protección de sus usuarios.

La falta de acción por parte de Google resalta un vacío en la regulación y la protección de las víctimas de contenido no consensuado. A medida que las herramientas de inteligencia artificial se vuelven más accesibles, el riesgo de que se creen y distribuyan imágenes manipuladas de manera no consensuada aumenta. Sin una colaboración efectiva entre plataformas y una respuesta unificada ante este problema, es probable que la situación empeore.

La realidad de los jóvenes

Además de las preocupaciones sobre las víctimas adultas, hay un creciente número de adolescentes que también se ven afectados por este fenómeno. Las plataformas que permiten la creación de imágenes "desnudadas" están causando estragos en la vida de los estudiantes de secundaria en todo el país. Esto es particularmente preocupante dado que muchas de estas herramientas de StopNCII solo están disponibles para personas mayores de 18 años.

La falta de legislación específica en Estados Unidos en relación con la pornografía deepfake significa que las víctimas a menudo quedan desprotegidas. En lugar de contar con un marco legal claro que responsabilice a los creadores de contenido no consensuado, el país enfrenta un enfoque fragmentado que varía según el estado y la localidad.

Iniciativas legales y acciones en curso

Los fiscales de San Francisco han tomado la delantera al presentar una demanda en agosto contra 16 de los sitios web más notorios que permiten la creación de estas imágenes "desnudadas". Esto indica un movimiento hacia la regulación y la búsqueda de justicia para las víctimas. Según un seguimiento de las leyes sobre pornografía deepfake realizado por Wired, 23 estados americanos han promulgado leyes para abordar los deepfakes no consensuados, mientras que nueve han rechazado propuestas en este sentido.

La lucha contra la pornografía de venganza y las imágenes sintéticas es un campo en evolución que requiere la colaboración entre las plataformas tecnológicas, las autoridades y la sociedad civil. El desafío es monumental, pero la combinación de iniciativas legales y la presión sobre las plataformas para que actúen puede marcar la diferencia. La tecnología avanza rápidamente, y con ella, la necesidad de establecer mecanismos de protección que salvaguarden la dignidad y los derechos de todas las personas en el entorno digital.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Reto monetización

Grandes tecnológicas luchan por monetizar la inteligencia artificial

La monetización de la inteligencia artificial sigue siendo un reto para las grandes tecnológicas, como Apple y OpenAI, que enfrentan presión de inversores. A pesar...

Fusiones estratégicas

Elon Musk evalúa fusiones que revolucionarán tecnología y aeroespacio

Elon Musk está considerando fusiones entre SpaceX, xAI y Tesla, lo que podría revolucionar los sectores tecnológico y aeroespacial. Las sinergias potenciales incluyen la integración...

Ingresos decepcionantes

Microsoft reporta ingresos sólidos pero acciones caen por dudas

Microsoft reportó ingresos de 81.300 millones de dólares, pero sus acciones cayeron por preocupaciones sobre sus inversiones en inteligencia artificial y nube. A pesar del...

Adquisición estratégica

Apple compra Q.ai por casi 2.000 millones para innovar audio

Apple ha adquirido Q.ai, una startup israelí especializada en inteligencia artificial y procesamiento de audio, por casi 2.000 millones de dólares. Esta compra busca mejorar...

Derechos autorales

Edidores musicales demandan a Anthropic por descarga ilegal de canciones

La demanda de editores musicales contra Anthropic por la descarga ilegal de 20,000 canciones protegidas plantea serias preocupaciones sobre los derechos de autor en la...

Éxito decreciente

Sora enfrenta caída en descargas y futuro incierto

Sora, la app de generación de vídeos de OpenAI, comenzó con gran éxito pero ha visto una caída significativa en descargas y gasto de usuarios...

Navegación inteligente

Google Maps incorpora Gemini para navegación manos libres segura

Google Maps integra Gemini para ofrecer una navegación manos libres, permitiendo a los usuarios realizar consultas mientras caminan o montan en bicicleta. Esta actualización mejora...

Innovación sostenible

Flapping Airplanes lanza laboratorio de IA con 180 millones de dólares

Flapping Airplanes, un nuevo laboratorio de IA financiado con 180 millones de dólares, busca desafiar el enfoque actual de escalabilidad. Promueve la investigación a largo...