Prevención | Social

Coalición tecnológica lanza programa Lantern contra explotación infantil en línea

La coalición tecnológica lanza el programa Lantern para combatir la explotación y abuso sexual infantil en línea

La coalición tecnológica, un grupo de empresas tecnológicas que desarrollan enfoques y políticas para combatir la explotación y abuso sexual infantil (CSEA, por sus siglas en inglés) en línea, anunció hoy el lanzamiento de un nuevo programa llamado Lantern. Este programa está diseñado para permitir a las plataformas de redes sociales compartir "señales" sobre actividad y cuentas que podrían violar sus políticas contra la CSEA.

Compartiendo señales para identificar violaciones de políticas

Las plataformas participantes en Lantern, que hasta ahora incluyen a Discord, Google, Mega, Meta, Quora, Roblox, Snap y Twitch, pueden subir señales a Lantern sobre actividad que infrinja sus términos, explica la coalición tecnológica. Estas señales pueden incluir información vinculada a cuentas que violan las políticas, como direcciones de correo electrónico y nombres de usuario, o palabras clave utilizadas para el grooming, así como para comprar y vender material de abuso sexual infantil (CSAM, por sus siglas en inglés). Otras plataformas participantes pueden seleccionar las señales disponibles en Lantern, ejecutar las señales seleccionadas en su plataforma, revisar cualquier actividad y contenido que las señales muestren y tomar las medidas apropiadas.

La coalición tecnológica se encarga de señalar que estas señales no son pruebas definitivas de abuso. Más bien, solo ofrecen pistas para investigaciones posteriores y pruebas para entregar a las autoridades y fuerzas del orden pertinentes.

Resultados prometedores durante el programa piloto

En apariencia, las señales subidas a Lantern pueden ser útiles. Durante un programa piloto, la coalición tecnológica, que afirma que Lantern ha estado en desarrollo durante dos años con la retroalimentación regular de "expertos" externos, señala que el servicio de alojamiento de archivos Mega compartió URLs que Meta utilizó para eliminar más de 10.000 perfiles y páginas de Facebook y cuentas de Instagram.

Después de que el grupo inicial de empresas en la "primera fase" de Lantern evalúe el programa, se dará la bienvenida a nuevos participantes, según afirma la coalición tecnológica.

Uniendo fuerzas para proteger a las víctimas

"Debido a que el abuso sexual infantil se extiende por diferentes plataformas, en muchos casos, una sola empresa solo puede ver una parte del daño que enfrenta una víctima. Para descubrir el cuadro completo y tomar medidas adecuadas, las empresas deben trabajar juntas", escribió la coalición tecnológica en una publicación de blog publicada esta mañana. "Nos comprometemos a incluir Lantern en el informe anual de transparencia de la coalición tecnológica y a proporcionar a las empresas participantes recomendaciones sobre cómo incorporar su participación en el programa en sus propios informes de transparencia".

A pesar de las discrepancias sobre cómo abordar la CSEA sin coartar la privacidad en línea, existe preocupación por la creciente amplitud del material de abuso infantil, tanto real como generado por IA, que circula en línea. En 2022, el Centro Nacional para Menores Desaparecidos y Explotados recibió más de 32 millones de informes de CSAM.

Llamados a la acción y resultados mixtos

Una encuesta reciente realizada por RAINN y YouGov reveló que el 82% de los padres creen que la industria tecnológica, especialmente las empresas de redes sociales, deberían hacer más para proteger a los niños del abuso y explotación sexual en línea. Esto ha llevado a los legisladores a tomar medidas, aunque con resultados mixtos.

En septiembre, los fiscales generales de los 50 estados de Estados Unidos, más cuatro territorios, firmaron una carta pidiendo al Congreso que actúe contra el CSAM habilitado por IA. Mientras tanto, la Unión Europea ha propuesto exigir que las empresas tecnológicas escaneen el CSAM, además de identificar y denunciar la actividad de grooming dirigida a los niños en sus plataformas.


Flowers
Publicidad


Otras noticias • Social

Fracaso

Demandada de Elon Musk no cumple expectativas y pierde anunciantes

Elon Musk's X ha presentado una demanda por difamación contra Media Matters, pero la demanda no cumple con las expectativas y no refuta las afirmaciones...

Expansión

Instagram amplía función de Amigos Cercanos y monetización de contenido

Instagram ha expandido su función de Amigos Cercanos, permitiendo a los usuarios compartir publicaciones y reels exclusivamente con esta lista selecta de personas. Esta expansión...

Promoción

Meta implementará políticas de divulgación para anuncios políticos y deepfakes

Meta implementará nuevas políticas de divulgación para anuncios políticos y de problemas en sus plataformas. Los anunciantes deberán revelar cuando los anuncios sean "creados o...

Privacidad

X elimina función de Círculos y expone publicaciones privadas

X, anteriormente conocida como Twitter, ha eliminado la función de Círculos, lo que expone las publicaciones privadas de los usuarios. Aunque no se han reportado...

Influencia

El liderazgo de Musk afecta el crecimiento y compromiso de la plataforma X

Bajo el liderazgo de Musk, la plataforma X ha experimentado un menor crecimiento y compromiso. Los usuarios pasan menos tiempo en la plataforma y el...

Multa

eSafety multa a X con $386,000 por ignorar abuso infantil online

El regulador australiano de seguridad en línea, eSafety, ha multado a la plataforma de redes sociales X (antes Twitter) con 386.000 dólares por no abordar...

TikTok

TikTok prueba integrar Google Search para atraer a más usuarios

TikTok está probando una nueva función que integra la búsqueda de Google en sus resultados de búsqueda. Esta característica es parte de los esfuerzos de...

Fracaso

Aspirante republicano Vivek Ramaswamy fracasa al intentar conectar con jóvenes en TikTok

El aspirante republicano a la presidencia de Estados Unidos, Vivek Ramaswamy, se ha unido a TikTok con la ayuda de Jake Paul. Ramaswamy intenta conectar...