IA | Imágenes sintéticas

Imágenes sintéticas desnudas amenazan privacidad y seguridad personal

La problemática de las imágenes sintéticas

La evolución de las herramientas de inteligencia artificial generativa ha traído consigo un nuevo desafío para la sociedad: la proliferación de imágenes desnudas sintéticas que se asemejan a personas reales. Este fenómeno ha generado preocupación entre los defensores de la privacidad y la seguridad en línea, especialmente en el contexto del "revenge porn" o pornografía de venganza, donde imágenes íntimas son divulgadas sin consentimiento. Este problema no solo afecta a las víctimas, sino que también plantea interrogantes sobre la ética y la responsabilidad de las plataformas en línea.

La necesidad de actuar es urgente. En este contexto, Microsoft ha dado un paso significativo al asociarse con StopNCII, una organización que permite a las víctimas de la pornografía de venganza crear una huella digital de estas imágenes explícitas en sus dispositivos. Esta colaboración tiene como objetivo frenar la difusión de contenido no consensuado en su motor de búsqueda Bing, uniéndose así a otras plataformas como Facebook, Instagram y TikTok, que también han implementado medidas similares.

La acción de Microsoft

Microsoft ha tomado la iniciativa de abordar este problema de manera proactiva. En un reciente comunicado, la compañía informó que ya había tomado medidas respecto a 268,000 imágenes explícitas que aparecían en los resultados de búsqueda de Bing, utilizando la base de datos de StopNCII. A pesar de que anteriormente ofrecía una herramienta de reporte directo, Microsoft ha reconocido que este método no es suficiente para combatir el problema de forma efectiva.

La empresa destacó en su publicación que ha escuchado las preocupaciones de las víctimas y de expertos en la materia, quienes señalaron que el reporte por parte de los usuarios no siempre es eficaz ni suficiente para abordar el riesgo de que estas imágenes sean accesibles a través de búsquedas. La respuesta de Microsoft subraya la importancia de implementar soluciones más robustas y colaborativas para proteger a las personas de la explotación en línea.

La situación en Google

La situación es aún más alarmante cuando se considera el papel de Google en este contexto. Aunque Google Search también ofrece herramientas para reportar y eliminar imágenes explícitas, ha enfrentado críticas por no colaborar con StopNCII. Un informe de Wired revela que desde 2020, los usuarios en Corea del Sur han reportado 170,000 enlaces en busca de contenido sexual no deseado en Google y YouTube. Esto pone de manifiesto la necesidad de que las grandes plataformas asuman una mayor responsabilidad en la protección de sus usuarios.

La falta de acción por parte de Google resalta un vacío en la regulación y la protección de las víctimas de contenido no consensuado. A medida que las herramientas de inteligencia artificial se vuelven más accesibles, el riesgo de que se creen y distribuyan imágenes manipuladas de manera no consensuada aumenta. Sin una colaboración efectiva entre plataformas y una respuesta unificada ante este problema, es probable que la situación empeore.

La realidad de los jóvenes

Además de las preocupaciones sobre las víctimas adultas, hay un creciente número de adolescentes que también se ven afectados por este fenómeno. Las plataformas que permiten la creación de imágenes "desnudadas" están causando estragos en la vida de los estudiantes de secundaria en todo el país. Esto es particularmente preocupante dado que muchas de estas herramientas de StopNCII solo están disponibles para personas mayores de 18 años.

La falta de legislación específica en Estados Unidos en relación con la pornografía deepfake significa que las víctimas a menudo quedan desprotegidas. En lugar de contar con un marco legal claro que responsabilice a los creadores de contenido no consensuado, el país enfrenta un enfoque fragmentado que varía según el estado y la localidad.

Iniciativas legales y acciones en curso

Los fiscales de San Francisco han tomado la delantera al presentar una demanda en agosto contra 16 de los sitios web más notorios que permiten la creación de estas imágenes "desnudadas". Esto indica un movimiento hacia la regulación y la búsqueda de justicia para las víctimas. Según un seguimiento de las leyes sobre pornografía deepfake realizado por Wired, 23 estados americanos han promulgado leyes para abordar los deepfakes no consensuados, mientras que nueve han rechazado propuestas en este sentido.

La lucha contra la pornografía de venganza y las imágenes sintéticas es un campo en evolución que requiere la colaboración entre las plataformas tecnológicas, las autoridades y la sociedad civil. El desafío es monumental, pero la combinación de iniciativas legales y la presión sobre las plataformas para que actúen puede marcar la diferencia. La tecnología avanza rápidamente, y con ella, la necesidad de establecer mecanismos de protección que salvaguarden la dignidad y los derechos de todas las personas en el entorno digital.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Notas inteligentes

NotebookLM de Google transforma la toma de notas móviles

NotebookLM de Google, disponible para dispositivos móviles a partir del 20 de mayo, revolucionará la toma de notas y la gestión de información. Con resúmenes...

Cambios significativos

OpenAI mejora IA tras incidentes de respuestas inapropiadas

OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...

Atención automatizada

Airbnb lanza bot de IA que reduce consultas humanas un 15%

Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...

Interacción comunitaria

Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso

Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...

Asistente mejorado

Amazon presenta Alexa+ con IA generativa para interacciones mejoradas

Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...

Transformación científica

Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente

La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...

IA accesible

Olmo 2 1B democratiza la IA con un billón de parámetros

Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...

Mejoras funcionales

Claude de Anthropic se actualiza con nuevas integraciones avanzadas

Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...