Crecimiento exponencial y desafíos de moderación en Bluesky
Bluesky, la red social que ha atraído la atención de millones de usuarios tras su explosivo crecimiento en 2024, ha presentado su informe de moderación del último año. Este informe no solo destaca el notable aumento de su base de usuarios, sino que también pone de manifiesto los retos que enfrenta su equipo de confianza y seguridad. El número de informes de acoso, trolling e intolerancia ha crecido de manera alarmante, lo que ha llevado a la plataforma a tomar medidas significativas para abordar estos problemas.
A lo largo de 2024, Bluesky incorporó más de 23 millones de usuarios, convirtiéndose en un nuevo refugio para aquellos que abandonaron Twitter/X. La decisión de la plataforma de Elon Musk de cambiar las dinámicas de bloqueo y la polarización política que caracterizó el periodo electoral en EE. UU. fueron factores determinantes que impulsaron esta migración. Además, la prohibición temporal de X en Brasil durante septiembre atrajo a una oleada de usuarios a Bluesky.
Respuesta ante el crecimiento
Para gestionar el aumento de informes, Bluesky incrementó su equipo de moderadores a aproximadamente 100 personas, y la compañía ha continuado contratando más personal. La magnitud del crecimiento de la red social ha hecho que la carga de trabajo del equipo de moderación se dispare. En total, se recibieron 6.48 millones de informes en 2024, un aumento de 17 veces respecto a los 358,000 informes del año anterior.
A medida que la plataforma creció, también lo hizo la necesidad de proporcionar apoyo psicológico a los moderadores, quienes se enfrentan a contenido gráfico y situaciones estresantes a diario. Bluesky comenzó a ofrecer sesiones de asesoramiento psicológico a su equipo, reconociendo que la exposición constante a contenido perturbador puede tener efectos adversos en la salud mental de sus trabajadores.
Nuevas funcionalidades en moderación
A partir de este año, Bluesky ha decidido implementar un sistema que permite a los usuarios presentar informes de moderación directamente desde la aplicación. Esta nueva funcionalidad es similar a la que ya ofrece X, y permitirá a los usuarios seguir el estado de sus informes y recibir actualizaciones de manera más eficiente. Con esta medida, Bluesky espera mejorar la comunicación con su comunidad y aumentar la transparencia en sus decisiones de moderación.
En el mes de agosto, cuando la plataforma vio un incremento masivo de usuarios brasileños, se alcanzaron picos de hasta 50,000 informes diarios. Esta situación generó un retraso significativo en el tratamiento de los informes, lo que llevó a la compañía a contratar más personal que hablara portugués, incluyendo colaboradores externos para gestionar la demanda.
En este contexto, la automatización de ciertos tipos de informes se convirtió en una necesidad. Bluesky comenzó a implementar procesos automatizados para abordar no solo el spam, sino también otras categorías de informes. Esto permitió reducir el tiempo de procesamiento a “segundos” para cuentas de “alta certeza”, un avance considerable respecto al tiempo anterior, que era de aproximadamente 40 minutos por informe.
La naturaleza de los informes
El informe de Bluesky revela que el 4.57% de sus usuarios activos, es decir, 1.19 millones de personas, realizaron al menos un informe de moderación en 2024, una ligera disminución en comparación con el 5.6% en 2023. La mayoría de estos informes, alrededor de 3.5 millones, se centraron en publicaciones individuales. Además, las cuentas fueron reportadas 47,000 veces, en su mayoría por razones relacionadas con imágenes de perfil o fotos de banner.
Las categorías de informes son diversas, destacando comportamientos anti-sociales como el trolling y el acoso, que indican que los usuarios de Bluesky están buscando un entorno menos tóxico en comparación con otras plataformas. El deseo de una experiencia más saludable en redes sociales es evidente, y Bluesky parece estar respondiendo a esta necesidad.
Los datos del informe también desglosan otros tipos de informes, entre ellos:
- Contenido engañoso (impersonación, desinformación o afirmaciones falsas sobre identidad o afiliaciones): 1.20 millones.
- Spam (menciones excesivas, respuestas o contenido repetitivo): 1.40 millones.
- Contenido sexual no deseado (nudismo o contenido para adultos no etiquetado correctamente): 630,000.
- Problemas ilegales o urgentes (violaciones claras de la ley o de los términos de servicio de Bluesky): 933,000.
- Otros (temas que no encajan en las categorías anteriores): 726,000.
Etiquetado y apelaciones
El informe también ofrece detalles sobre el sistema de etiquetado que la plataforma ha implementado. Durante 2024, los etiquetadores humanos añadieron 55,422 etiquetas de “figura sexual”, 22,412 etiquetas de “grosero”, 13,201 etiquetas de “spam”, 11,341 etiquetas de “intolerante” y 3,046 etiquetas de “amenaza”. Esta función tiene como objetivo ayudar a los usuarios a identificar y evitar contenido problemático en la plataforma.
Además, un total de 93,076 usuarios presentaron 205,000 apelaciones relacionadas con las decisiones de moderación de Bluesky. Esta cifra demuestra que los usuarios están interesados en participar activamente en el proceso de moderación y que desean tener voz en las decisiones que afectan su experiencia en la red social.
A lo largo del año, los moderadores de Bluesky eliminaron 66,308 cuentas, mientras que 35,842 cuentas fueron eliminadas automáticamente. También se recibieron 238 solicitudes de fuerzas del orden, gobiernos y bufetes de abogados, a las que la compañía respondió en 182 casos, cumpliendo con 146 de ellas. La mayoría de estas solicitudes provienen de Alemania, EE. UU., Brasil y Japón, lo que resalta la importancia de la colaboración entre plataformas de redes sociales y las autoridades.
Enfoque en la seguridad infantil
El informe de Bluesky no se limita a los problemas de moderación y comportamiento en línea; también aborda cuestiones relacionadas con la seguridad infantil. La compañía indicó que envió 1,154 informes confirmados de abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Este compromiso con la seguridad de los menores es fundamental, ya que refleja una responsabilidad social que muchas plataformas aún luchan por implementar de manera efectiva.
El informe también resalta la importancia de un enfoque proactivo en la moderación, donde la tecnología y la intervención humana deben trabajar en conjunto para garantizar un entorno seguro para todos los usuarios.
A medida que Bluesky continúa creciendo y evolucionando, es evidente que la moderación de contenido y la seguridad del usuario seguirán siendo temas críticos. Con un enfoque en la transparencia y la mejora continua, la plataforma busca no solo atraer a más usuarios, sino también mantener un espacio digital donde todos se sientan seguros y respetados.
Otras noticias • Apps
StubHub pagará 10 millones por falta de transparencia en precios
StubHub ha acordado pagar 10 millones de dólares tras ser acusado por la FTC de no revelar claramente los precios totales de las entradas, incluidas...
Instagram permite editar comentarios en 15 minutos tras publicación
Instagram ha lanzado la opción de editar comentarios dentro de los 15 minutos posteriores a su publicación, mejorando la experiencia del usuario. Esta actualización responde...
X Chat reintegra notas de voz para atraer nuevos usuarios
X ha reintroducido las notas de voz en su servicio de mensajería, X Chat, para competir en un mercado saturado. Esta función, junto a mejoras...
Avec revoluciona el correo electrónico con su innovadora interfaz
Avec es una innovadora aplicación de gestión de correo electrónico que utiliza una interfaz de "tarjetas" para facilitar la organización. Ofrece funciones de respuesta por...
Spotify permite desactivar vídeos para una experiencia de escucha personalizada
Spotify ha introducido la opción de desactivar vídeos en su plataforma, permitiendo a los usuarios personalizar su experiencia de escucha. Esta medida, disponible para todos...
Instagram refuerza restricciones para proteger a adolescentes en línea
Instagram ha implementado nuevas restricciones para cuentas de adolescentes, limitando su acceso a contenido perjudicial tras un fallo judicial que responsabiliza a Meta por daños...
Canva adquiere Simtheory y Ortto para potenciar su plataforma integral
Canva ha adquirido Simtheory y Ortto para diversificar su oferta, integrando inteligencia artificial y automatización de marketing. Estas adquisiciones buscan transformar Canva en una plataforma...
Países regulan redes sociales para proteger a menores
Varios países han comenzado a regular el acceso a redes sociales para menores debido a preocupaciones sobre salud mental, ciberacoso y adicción. Australia, Dinamarca, Francia,...
Lo más reciente
- 1
YouTube incrementa precios en Premium y Music ante críticas mixtas
- 2
Francia adopta Linux para fortalecer su soberanía digital
- 3
Meta lanza Muse Spark ante preocupaciones de privacidad y confianza
- 4
Fiscal de Florida investiga a OpenAI por tiroteo escolar
- 5
Volkswagen detiene ID.4 en EE.UU. para priorizar SUV Atlas
- 6
Anjuna Security se adapta y fortalece su cultura organizacional
- 7
OpenAI lanza plan de suscripción para desarrolladores a 100 dólares

