Crecimiento exponencial y desafíos de moderación en Bluesky
Bluesky, la red social que ha atraído la atención de millones de usuarios tras su explosivo crecimiento en 2024, ha presentado su informe de moderación del último año. Este informe no solo destaca el notable aumento de su base de usuarios, sino que también pone de manifiesto los retos que enfrenta su equipo de confianza y seguridad. El número de informes de acoso, trolling e intolerancia ha crecido de manera alarmante, lo que ha llevado a la plataforma a tomar medidas significativas para abordar estos problemas.
A lo largo de 2024, Bluesky incorporó más de 23 millones de usuarios, convirtiéndose en un nuevo refugio para aquellos que abandonaron Twitter/X. La decisión de la plataforma de Elon Musk de cambiar las dinámicas de bloqueo y la polarización política que caracterizó el periodo electoral en EE. UU. fueron factores determinantes que impulsaron esta migración. Además, la prohibición temporal de X en Brasil durante septiembre atrajo a una oleada de usuarios a Bluesky.
Respuesta ante el crecimiento
Para gestionar el aumento de informes, Bluesky incrementó su equipo de moderadores a aproximadamente 100 personas, y la compañía ha continuado contratando más personal. La magnitud del crecimiento de la red social ha hecho que la carga de trabajo del equipo de moderación se dispare. En total, se recibieron 6.48 millones de informes en 2024, un aumento de 17 veces respecto a los 358,000 informes del año anterior.
A medida que la plataforma creció, también lo hizo la necesidad de proporcionar apoyo psicológico a los moderadores, quienes se enfrentan a contenido gráfico y situaciones estresantes a diario. Bluesky comenzó a ofrecer sesiones de asesoramiento psicológico a su equipo, reconociendo que la exposición constante a contenido perturbador puede tener efectos adversos en la salud mental de sus trabajadores.
Nuevas funcionalidades en moderación
A partir de este año, Bluesky ha decidido implementar un sistema que permite a los usuarios presentar informes de moderación directamente desde la aplicación. Esta nueva funcionalidad es similar a la que ya ofrece X, y permitirá a los usuarios seguir el estado de sus informes y recibir actualizaciones de manera más eficiente. Con esta medida, Bluesky espera mejorar la comunicación con su comunidad y aumentar la transparencia en sus decisiones de moderación.
En el mes de agosto, cuando la plataforma vio un incremento masivo de usuarios brasileños, se alcanzaron picos de hasta 50,000 informes diarios. Esta situación generó un retraso significativo en el tratamiento de los informes, lo que llevó a la compañía a contratar más personal que hablara portugués, incluyendo colaboradores externos para gestionar la demanda.
En este contexto, la automatización de ciertos tipos de informes se convirtió en una necesidad. Bluesky comenzó a implementar procesos automatizados para abordar no solo el spam, sino también otras categorías de informes. Esto permitió reducir el tiempo de procesamiento a “segundos” para cuentas de “alta certeza”, un avance considerable respecto al tiempo anterior, que era de aproximadamente 40 minutos por informe.
La naturaleza de los informes
El informe de Bluesky revela que el 4.57% de sus usuarios activos, es decir, 1.19 millones de personas, realizaron al menos un informe de moderación en 2024, una ligera disminución en comparación con el 5.6% en 2023. La mayoría de estos informes, alrededor de 3.5 millones, se centraron en publicaciones individuales. Además, las cuentas fueron reportadas 47,000 veces, en su mayoría por razones relacionadas con imágenes de perfil o fotos de banner.
Las categorías de informes son diversas, destacando comportamientos anti-sociales como el trolling y el acoso, que indican que los usuarios de Bluesky están buscando un entorno menos tóxico en comparación con otras plataformas. El deseo de una experiencia más saludable en redes sociales es evidente, y Bluesky parece estar respondiendo a esta necesidad.
Los datos del informe también desglosan otros tipos de informes, entre ellos:
- Contenido engañoso (impersonación, desinformación o afirmaciones falsas sobre identidad o afiliaciones): 1.20 millones.
- Spam (menciones excesivas, respuestas o contenido repetitivo): 1.40 millones.
- Contenido sexual no deseado (nudismo o contenido para adultos no etiquetado correctamente): 630,000.
- Problemas ilegales o urgentes (violaciones claras de la ley o de los términos de servicio de Bluesky): 933,000.
- Otros (temas que no encajan en las categorías anteriores): 726,000.
Etiquetado y apelaciones
El informe también ofrece detalles sobre el sistema de etiquetado que la plataforma ha implementado. Durante 2024, los etiquetadores humanos añadieron 55,422 etiquetas de “figura sexual”, 22,412 etiquetas de “grosero”, 13,201 etiquetas de “spam”, 11,341 etiquetas de “intolerante” y 3,046 etiquetas de “amenaza”. Esta función tiene como objetivo ayudar a los usuarios a identificar y evitar contenido problemático en la plataforma.
Además, un total de 93,076 usuarios presentaron 205,000 apelaciones relacionadas con las decisiones de moderación de Bluesky. Esta cifra demuestra que los usuarios están interesados en participar activamente en el proceso de moderación y que desean tener voz en las decisiones que afectan su experiencia en la red social.
A lo largo del año, los moderadores de Bluesky eliminaron 66,308 cuentas, mientras que 35,842 cuentas fueron eliminadas automáticamente. También se recibieron 238 solicitudes de fuerzas del orden, gobiernos y bufetes de abogados, a las que la compañía respondió en 182 casos, cumpliendo con 146 de ellas. La mayoría de estas solicitudes provienen de Alemania, EE. UU., Brasil y Japón, lo que resalta la importancia de la colaboración entre plataformas de redes sociales y las autoridades.
Enfoque en la seguridad infantil
El informe de Bluesky no se limita a los problemas de moderación y comportamiento en línea; también aborda cuestiones relacionadas con la seguridad infantil. La compañía indicó que envió 1,154 informes confirmados de abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Este compromiso con la seguridad de los menores es fundamental, ya que refleja una responsabilidad social que muchas plataformas aún luchan por implementar de manera efectiva.
El informe también resalta la importancia de un enfoque proactivo en la moderación, donde la tecnología y la intervención humana deben trabajar en conjunto para garantizar un entorno seguro para todos los usuarios.
A medida que Bluesky continúa creciendo y evolucionando, es evidente que la moderación de contenido y la seguridad del usuario seguirán siendo temas críticos. Con un enfoque en la transparencia y la mejora continua, la plataforma busca no solo atraer a más usuarios, sino también mantener un espacio digital donde todos se sientan seguros y respetados.
Otras noticias • Apps
Corea del Sur permite a Google exportar datos geográficos precisos
La reciente decisión de Corea del Sur de permitir a Google exportar datos geográficos de alta precisión marca un cambio significativo en el mapeo digital....
Threads facilita mensajes directos con nuevo atajo en prueba
Threads ha introducido un atajo para enviar mensajes directos, permitiendo iniciar conversaciones privadas fácilmente. Actualmente en fase de prueba en EE. UU. y Canadá, esta...
X optimiza anuncios reutilizando creativos de otras redes sociales
La reciente actualización de X permite a los anunciantes reutilizar creativos de otras redes sociales sin reformatear, mejorando la eficiencia publicitaria. Esta innovación, impulsada por...
Instagram alerta a padres sobre búsquedas de autolesionismo en adolescentes
Instagram implementará alertas para informar a los padres si sus hijos adolescentes buscan repetidamente términos relacionados con el suicidio o autolesionismo. Esta medida busca fomentar...
Snapchat celebra creatividad con su primera gala de premios
Snapchat lanza "The Snappys", su primera gala de premios para reconocer a creadores en diversas categorías, celebrando la creatividad y la diversidad en la plataforma....
Acusaciones de comercio con información privilegiada sacuden mercados de predicción
El editor de MrBeast, Artem Kaptur, ha sido acusado de comercio con información privilegiada en Kalshi, generando un debate sobre la regulación de los mercados...
Apple lanza herramientas de verificación de edad para proteger menores
Apple implementa herramientas de verificación de edad para proteger a los menores de contenido inapropiado, incluyendo una API que permite a los desarrolladores conocer la...
Discord retrasa verificación de edad hasta 2026 por críticas
Discord ha retrasado su verificación de edad global, prevista para 2024, hasta 2026, tras críticas sobre privacidad y seguridad. La empresa buscará alternativas de verificación...
Lo más reciente
- 1
Google y Airtel combaten el spam en mensajería RCS en India
- 2
Controversia por acuerdo de OpenAI y Defensa de EE. UU
- 3
Inversores priorizan startups de IA con propuestas de valor únicas
- 4
Honor lanza teléfono con brazo robótico y cámara de 200 MP
- 5
Claude supera a ChatGPT con enfoque ético en IA
- 6
Honor Magic V6: potente y delgado, redefine los plegables
- 7
OpenAI colabora con Defensa de EE. UU. en IA clasificada

