Social | Desinformación preocupante

Meta elimina verificadores de hechos en EE. UU. generando preocupaciones

Un cambio radical en la moderación de contenidos de Meta

El panorama de las redes sociales en Estados Unidos ha experimentado un giro significativo con la reciente decisión de Meta de eliminar a todos los verificadores de hechos en el país. Esta medida, anunciada por el director de Asuntos Globales de Meta, Joel Kaplan, marca un punto de inflexión en la forma en que la compañía aborda la desinformación y el discurso en sus plataformas, que incluyen Facebook, Instagram y Threads. La decisión ha generado una mezcla de reacciones, desde el alivio de algunos usuarios hasta la preocupación de defensores de los derechos humanos y expertos en información.

A medida que Meta se aleja de la moderación tradicional, surge la pregunta de quién protegerá a los usuarios de la desinformación.

Un contexto de cambios

La decisión de Meta no se produce en un vacío. En enero, la compañía ya había comenzado a aflojar sus reglas de moderación de contenido, coincidiendo con un periodo de tensiones políticas en Estados Unidos. La asistencia de Mark Zuckerberg, fundador y CEO de Meta, a la investidura del expresidente Donald Trump y su donación de un millón de dólares a su fondo de inauguración han suscitado interrogantes sobre la influencia política que la compañía podría estar ejerciendo. La incorporación de Dana White, un conocido aliado de Trump y CEO de UFC, al consejo de Meta, ha añadido más leña al fuego.

La eliminación de los verificadores de hechos se enmarca en una tendencia más amplia hacia la libertad de expresión, pero a qué precio.

La nueva política de contenido

La política de Meta, que permite alegaciones de enfermedad mental o anormalidad basadas en la identidad de género o la orientación sexual, ha sido objeto de críticas. La empresa parece priorizar un tipo de discurso que, según algunos, puede ser perjudicial para comunidades marginadas. En su afán por promover un espacio donde todos puedan expresarse, se corre el riesgo de dejar sin protección a aquellos que enfrentan discursos de odio o desinformación.

La estrategia de Meta se inspira en el modelo de Community Notes, implementado por la plataforma X de Elon Musk, donde los usuarios tienen un papel activo en la moderación de contenidos. Kaplan ha señalado que, en lugar de los tradicionales chequeos de hechos, se comenzarán a implementar estas notas comunitarias que, aunque pueden ofrecer contexto, carecen de la rigurosidad de una verificación profesional.

Se espera que esta transición no solo impacte la calidad de la información, sino también la seguridad de los usuarios.

Las repercusiones de la falta de moderación

Con la disminución de la moderación de contenidos, ya se han observado los efectos de esta nueva política. La propagación de información falsa ha aumentado de forma alarmante. Un administrador de una página de Facebook que difundió una afirmación viral y falsa sobre que ICE pagaría a personas para que denunciaran a inmigrantes indocumentados, calificó la eliminación del programa de verificación como "una gran información". Esto pone de manifiesto el potencial de desinformación que puede proliferar en un entorno donde la regulación se ha debilitado.

El hecho de que los usuarios sean responsables de moderar el contenido podría resultar en un caos informativo.

La atención del usuario como moneda de cambio

El interés de Meta en maximizar la atención de sus usuarios no es un secreto. Con menos moderación de contenido, la compañía puede generar más interacciones, lo que a su vez podría resultar en un aumento de la publicidad y, por ende, en sus ingresos. Sin embargo, este enfoque plantea preguntas éticas sobre el valor que se le da a la atención en comparación con la veracidad de la información.

La tendencia hacia un contenido más polarizador y emocionalmente cargado puede resultar en un ciclo de retroalimentación donde la desinformación se convierte en la norma. Los algoritmos de Meta están diseñados para resaltar publicaciones que generan reacciones fuertes, lo que puede significar que la información falsa o engañosa obtenga más visibilidad.

La voz de la comunidad y su eficacia

La idea de empoderar a la comunidad en la moderación de contenidos tiene sus defensores. Algunos argumentan que este enfoque podría fomentar una mayor responsabilidad entre los usuarios y una cultura de verificación colaborativa. Sin embargo, esta visión idealista no considera las posibles manipulaciones y la falta de conocimiento que muchos usuarios pueden tener sobre la información que consumen y comparten.

Sin la intervención de expertos en verificación, el riesgo de que la desinformación se propague es alto.

La responsabilidad social de las plataformas

Las plataformas de redes sociales, al igual que Meta, tienen una responsabilidad social inherente. La desinformación no solo afecta a individuos, sino que también puede influir en decisiones políticas y sociales a gran escala. La falta de un marco de moderación adecuado podría contribuir a la polarización social y a la desconfianza en las instituciones democráticas.

La capacidad de las plataformas para actuar como árbitros de la verdad ha sido cuestionada en varias ocasiones, pero la decisión de renunciar a esta responsabilidad plantea un dilema ético significativo. Si bien la libertad de expresión es un derecho fundamental, el desafío radica en encontrar un equilibrio que no comprometa la seguridad y el bienestar de los usuarios.

Un futuro incierto

El futuro de la moderación de contenidos en Meta y otras plataformas de redes sociales se presenta incierto. Con la eliminación de los verificadores de hechos, los usuarios se enfrentan a un nuevo paisaje donde la desinformación puede prosperar. La confianza en la información que se consume en línea se verá puesta a prueba, y las comunidades más vulnerables podrían ser las más afectadas.

Las implicaciones de este cambio son vastas y complejas. Si bien algunos pueden ver la eliminación de la moderación como un paso hacia la libertad de expresión, otros ven un camino hacia un entorno digital más tóxico y polarizado.

El dilema radica en si las plataformas pueden realmente permitir un discurso abierto sin poner en peligro a sus usuarios.

La transición hacia un modelo donde los usuarios son los encargados de moderar el contenido plantea interrogantes sobre la eficacia y la ética de tal enfoque. A medida que Meta se adentra en este nuevo territorio, el mundo observa con atención cómo esta estrategia impactará en la información que circula en sus plataformas y en la salud del discurso público en general.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • Social

Comunicación digital

Usha Vance lanza @SLOTUS para mejorar comunicación gubernamental digital

La creación de la cuenta @SLOTUS para Usha Vance refleja la importancia de las redes sociales en la comunicación gubernamental. Aunque la transición de seguidores...

Juego fiscal

PokéTax transforma la declaración de impuestos en un juego divertido

Open Ledger ha lanzado PokéTax, un videojuego que gamifica la declaración de impuestos, convirtiendo el proceso en una experiencia divertida e interactiva. Con un asistente...

Narrativa auténtica

Zuckerberg defiende su historia y autenticidad en mundo digital

Mark Zuckerberg, fundador de Facebook, reflexiona sobre la distorsión de su historia en "The Social Network". A través de su experiencia, destaca la lucha por...

Conexión personal

Facebook reinventa pestaña de Amigos para conectar de verdad

Facebook ha lanzado una nueva pestaña de Amigos, centrada en la conexión personal, eliminando contenido ajeno. Este cambio busca recuperar su esencia original y atraer...

Innovaciones tecnológicas

ATmosphere en Seattle presenta innovaciones clave del ATProto

La conferencia ATmosphere en Seattle destacó las innovaciones del ATProto, incluyendo la incorporación de OAuth para mejorar la autenticación, la publicación de léxicos para estructurar...

Redes alternativas

Bluesky crece como alternativa social atrayendo a figuras influyentes

Bluesky se consolida como alternativa a las redes sociales tradicionales, atrayendo a figuras como Barack Obama. Con un enfoque en la transparencia y el activismo,...

Consentimiento ético

Bluesky propone control de datos en inteligencia artificial y genera debate

Bluesky ha propuesto un nuevo sistema de consentimiento para que los usuarios controlen el uso de sus datos en la inteligencia artificial, generando debate sobre...

Redes descentralizadas

Bluesky desafía a Meta y Twitter con red social descentralizada

Bluesky, una red social descentralizada, desafía a gigantes como Meta y Twitter. Su CEO, Jay Graber, criticó la centralización con una camiseta que simboliza un...