Pubblicato da @IFTAS questo rapporto si basa su sondaggi dettagliati e sul feedback della community, composto da moderatori volontari, amministratori e community manager del social web decentralizzato. Offre il quadro più completo finora sul panorama della fiducia e della sicurezza in progetti come Mastodon, GoToSocial, WordPress, PeerTube e altri.
Cosa c'è nel rapporto
- Nuove pressioni sui moderatori : il rapporto medio moderatori-utenti è peggiorato a 1:3.500
- Lo spam ha superato il CSAM come principale preoccupazione per la maggior parte delle squadre
- Il burnout rimane diffuso : 1 amministratore e moderatore su 5 ha segnalato traumi o esaurimento
- La maggior parte dei servizi non dispone delle garanzie legali o procedurali necessarie per gestire il rischio
- Le piccole comunità dominano , ma l'ecosistema non ha gli strumenti progettati per loro
- La federazione basata sul consenso sta emergendo come un modello desiderato per la crescita e la sicurezza
Novità del 2025
- C’è una crescente concentrazione tra i grandi servizi e una crescente tensione
- C'è meno integrazione di nuovi moderatori , anche se le minacce aumentano
- Le campagne di disinformazione e lo spam generato dall'intelligenza artificiale sono ora rischi importanti
- La complessità legale e normativa è in aumento, ma il supporto resta scarso
Previsioni per il 2026
Il rapporto di quest'anno include anche una previsione lungimirante, individuando cinque tendenze che caratterizzeranno l'anno a venire:
- La logica condivisa e i segnali di fiducia sostituiranno le liste di blocco frammentate
- I media sintetici e l'impersonificazione metteranno alla prova la moderazione umana
- I rischi di cattura delle infrastrutture aumentano man mano che gli strumenti vengono centralizzati
- La regolamentazione globale della sicurezza sta diventando obbligatoria e non facoltativa
- Greylisting e allowlisting potrebbero presto sostituire la “federazione aperta predefinita”
Perché questo è importante
I moderatori sono la spina dorsale di un social web più sicuro, ma la maggior parte di loro non è retribuita, non riceve sufficiente supporto ed è costantemente sotto pressione. Se vogliamo un futuro per le piattaforme decentralizzate che rispetti l'autonomia degli utenti, la libertà di parola e l'autonomia della comunità, dobbiamo supportare l'infrastruttura che ne garantisce la sicurezza.
about.iftas.org/2026/01/08/the…
@Che succede nel Fediverso?
The 2025 Social Web Trust & Safety Report Is Here
New insights into the people, pressures, and infrastructure shaping decentralised platforms

Published by IFTAS, this report draws on detailed surveys and community feedback from volunteer moderators, administrators, and community managers across the decentralised social web. It offers our most comprehensive picture yet of the trust and safety landscape across projects like Mastodon, GoToSocial, WordPress, PeerTube, and more.
What’s in the Report
- New pressures on moderators: The average mod-to-user ratio has worsened to 1:3,500
- Spam has overtaken CSAM as the top concern for most teams
- Burnout remains widespread: 1 in 5 admins and moderators reported trauma or exhaustion
- Most services lack legal or procedural safeguards needed to manage risk
- Small communities dominate, but the ecosystem lacks tooling designed for them
- Consent-based federation is emerging as a desired model for growth and safety
What’s New in 2025
- There is growing consolidation among large services – and growing strain
- There’s less onboarding of new moderators, even as threats increase
- Disinformation campaigns and AI-generated spam are now prominent risks
- Legal and regulatory complexity is increasing – but support remains scarce
Forecasts for 2026
This year’s report also includes a forward-looking forecast, identifying five trends that will shape the coming year:
- Shared logic and trust signals will replace fragmented blocklists
- Synthetic media and impersonation will challenge human moderation
- Infrastructure capture risks are rising as more tooling centralises
- Global safety regulation is becoming enforceable, not optional
- Greylisting and allowlisting may soon replace “default open federation”
Why This Matters
Moderators are the backbone of a safer social web – but most are unpaid, under-supported, and under constant strain. If we want a future for decentralised platforms that respects user agency, civil speech, and community autonomy, we need to support the infrastructure that keeps it safe.
Read the Report
Download the 2025 Needs Assessment Report (PDF)
In the weeks ahead, we’ll be publishing a series of follow-up posts that take a closer look at the trends, challenges, and emerging patterns highlighted in this year’s report. These articles will explore context and practical insights for anyone working to support safer, more resilient decentralised platforms.
Media or Press Enquiries
For questions, interviews, or background information related to the report or IFTAS’ work, contact press@iftas.org
Follow IFTAS to stay informed: Mastodon, Bluesky, WordPress (see below)
Running a federated messaging service exposes the volunteer staff to legal and regulatory requirements, online harms, and myriad questions. IFTAS provides resources to volunteer moderators, adminis…
IFTAS