28/5/2024

Problemas en el Fediverso: una mirada a las limitaciones de moderación de las redes sociales descentralizadas

Hace un tiempo, cuando el barco de Twitter empezó a hundirse, apareció en el panorama un nuevo grupo de plataformas que entonces parecieron ser la tierra prometida: las redes sociales federadas o descentralizadas. Mastodon acogió en ese primer momento a muchos disidentes de la red social que Elon Musk acababa de comprar, y por un momento se creyó que ese movimiento sería el primer paso hacia un nueva fase de la interacción en línea.

Desde entonces han pasado muchas cosas: el entusiasmo inicial por Mastodon se fue reduciendo y aparecieron otros actores importantes: BlueSky y en especial Threads, la primera apuesta de un pez gordo de la industria por crear una red social de este tipo. Ahora, con algo más de distancia, podemos ver con mayor detenimiento este nuevo tipo de plataformas y los retos de moderación y gobernanza que tienen por delante.

Las redes sociales federadas o descentralizadas reúnen plataformas conectadas a través de protocolos compartidos. Uno de los que más ha hecho carrera hasta ahora es Activity Pub, sobre el cual está montado Mastodon y Meta ya está probando para integrar Threads al Fediverso. 

Buena parte de ellas nacieron sin fines de lucro y con la promesa de ofrecer estructuras de gobernanza alternativas, en las que los usuarios tengan mayor autonomía sobre el contenido que quieren acceder y cómo debería estar curado. De esta manera, las publicaciones y las normas que los moderan dependen más de la voluntad y los intereses de los usuarios que de los algoritmos y las pautas definidas por una compañía. 

A diferencia de lo que ocurre en las redes sociales tradicionales, en este tipo de plataformas no hay un sólo espacio que administre y distribuya el contenido. En su lugar, este está compartimentado en servidores distintos, que al tener el mismo protocolo pueden interactuar entre sí. 

En las redes federadas, los usuarios pueden ser anfitriones en sus propios servidores o en los de terceros. De esta manera, tienen la posibilidad de establecer sus reglas de moderación de acuerdo con sus preferencias. 

En un reporte reciente, los investigadores Yoel Roth –antiguo director de Trust & Safety de Twitter– y Samantha Lei analizaron las principales limitaciones de sistemas como el de Mastodon o BlueSky para responder a amenazas y controlar operaciones de influencia o spam. 

De acuerdo con la investigación, estas plataformas se enfrentan con obstáculos considerables para robustecer sus esquemas de gobernanza, como tecnologías de moderación insuficientes y la falta de un modelo financiero sostenible que les permita fortalecer equipos de seguridad y confianza. 

Al momento de actuar contra el contenido dañino o comportamientos que pretendan manipular las redes, el espíritu descentralizado de estas plataformas también es un limitante, pues por lo general no hay una ruta que permita que los administradores de un espacio puedan ser conscientes de amenazas presentes en otro. 

En el caso de Mastodon y BlueSky, por ejemplo, los moderadores no tienen la capacidad de bloquear URLs a sitios dañinos. Esto limita la posibilidad de atajar de entrada el tráfico hacia páginas de spam o estafas. 

Según una encuesta desarrollada en el marco de la investigación, los moderadores del Fediverso informaron que no cuentan con pautas formales o entrenamientos para ejercer su labor. Algunos, incluso, reportaron haber experimentado burnout como parte de su trabajo para manejar el contenido en sus servidores, sin posibilidad de buscar ayuda u orientación en instancias superiores.

Además, las plataformas federadas tampoco tienen prácticas de transparencia bien establecidas, pues no hay información que permita comprender cómo aplican sus propios estándares de moderación. Aunque normas como la Ley de Servicios Digitales de la Unión Europea ya imponen a las compañías de tecnología este tipo de obligaciones, el tamaño de muchas de estas redes les permite todavía quedar exentas.

Es posible que a medida que estas plataformas crezcan en número de usuarios, entren completamente en el radar de los reguladores y haya más presión por parte de la sociedad civil para garantizar la seguridad de estos espacios. También es posible que ese crecimiento les permita responder a sus necesidades de seguridad y confianza.

Por ahora, los investigadores sugieren una serie de medidas que podrían mejorar la calidad de la moderación en estos espacios. Entre ellos, implementar sistemas que permitan dar respuestas institucionales a amenazas de spam y manipulación de las plataformas e inversiones en herramientas de acceso abierto. 

Dado el modelo financiero de estas compañías, Roth y Lei sugieren que esto último podría solucionarse a través de una entidad central que maneje recursos, mantenga las herramientas y conecte a desarrolladores con financiadores que quieran invertir en estos espacios. 

Desde marzo de este año, Meta ha estado haciendo pruebas piloto para que algunos usuarios de Threads puedan compartir sus publicaciones en otros servidores del Fediverso. Aunque todavía no hay fecha para una posible integración total, dado el tamaño de la compañía, este podría ser el pistoletazo de salida para pensar en un ecosistema digital distinto. Por la misma razón, desde ahora es clave hacer seguimiento a las medidas de seguridad y confianza que estas y otras redes están implementando para hacer del Fediverso un espacio seguro.