Salta al contenuto principale


Il fediverso è adatto per introdurre i giovani all'internet sociale? La riflessione di @drupas@vivaldi.net

Una cosa tipica dei nuovi arrivati ​​nel #fediverso proveniente dall'internet commerciale è "qui non succede niente", questo è morto...
Ma COSA VUOI CHE ACCADA? Cosa stai aspettando? Qualcosa di sensazionalistico? Morboso? Umiliante? Qualcosa che ti faccia saltare di rabbia e lanciare insulti? O desiderare follemente quel viaggio/scarpe/acqua di colonia/corpo che non è alla tua portata.

write.as/xh64rquxn630h.md

@Che succede nel Fediverso?

in reply to Informa Pirata

Mi è capitato per caso di atterrare a contenuti NSFW (troppo espliciti anche per mio standard di adulto) non taggati. Credo il livello di moderazione è ancora troppo scarso per consigliarlo al mio figlio. La fortuna del fediverso è che non ci sono tanti utenti. Per me i problemi (per esempio moderazione di fenomeni come fascismo) di una rete come Bluesky sarebbero una sfida troppo grande per lo stato attuale di fedi.
in reply to mapto

@mapto non so quanti anni abbia tuo figlio, ma legalmente non possono esistere istanze aperte all'iscrizione di ragazzi sotto i 14 anni (anche se il limite è quasi sempre sotto i 16).
Per quello che è la mia esperienza, posso dire che il livello di moderazione delle istanze del Fediverso è di qualità alta e non capisco la tua considerazione sulla moderazione di fenomeni come il fascismo

reshared this

in reply to Informa Pirata

legalmente non possono esistere istanze aperte all'iscrizione di ragazzi sotto i 14 anni (anche se il limite è quasi sempre sotto i 16)


È una precisa legge che hai in mente? Di quale paese?

in reply to mapto

@mapto

È una precisa legge che hai in mente? Di quale paese?

In Italia, in base alla legge che ha accolto il GDPR, i minori sotto i 14 anni possono iscriversi a un social network solo con il consenso dei genitori. Tuttavia nessuna istanza del Fediverso è tecnicamente in grado di verificare se un genitore ha autorizzato il figlio. Il limite di età consigliato dal gdpr è comunque di 16 anni, e alcuni paesi europei hanno accolto quel limite. Proprio a novembre è stata approvata dal Parlamento Europeo una risoluzione che fissa irrevocabilmente a 16 anni l'età del consenso digitale e pertanto, anche se questa risoluzione deve essere ancora accolta da tutti i paesi membri, ti fa già capire qual è l'intendimento futuro. In Italia Inoltre si sta discutendo una legge per consentire l'accesso ai social network solo attraverso SPID o CIE...

Considera infine che l'anonimato è un valore irrinunciabile per tutta la comunità del Fediverso e anonimato non va d'accordissimo con verifica dell'età... 😂
Nelle mie istanze infatti ho stabilito questa "regola":

Politica sull'età: il Fediverso è anonimo e noi non vogliamo sapere la tua età ma NON PUOI ISCRIVERTI A QUESTO SERVER SE NON HAI COMPIUTO I 16 ANNI e se a nostro insindacabile giudizio dimostri meno di 16 anni, sospenderemo il tuo account

Che fondamentalmente si rifà al vecchio metodo del carabiniere di provincia che quando vedeva un ragazzino che guidava un motorino lo fermava solo se quel ragazzino guidava come un coglione... 😂

reshared this

in reply to Informa Pirata

Mi pare che il punto chiave rimane:

i minori sotto i 14 anni possono iscriversi a un social network solo con il consenso dei genitori


Non vedo perché uno potrebbe equiparare il requisito di un consenso dei genitori ad un vieto

Questa voce è stata modificata (5 giorni fa)
in reply to mapto

@mapto

Non vedo perché uno potrebbe equiparare il requisito di un consenso dei genitori ad un vieto

Non ho parlato di divieto. Ho semplicemente detto che le istanze non possono, anche se avrei dovuto spiegare meglio dicendo che avrebbero grosse difficoltà a consentirlo Senza rischiare di passare qualche guaio.

reshared this

in reply to Informa Pirata

@mapto tu però stai pensando a una istanza con iscrizione pubblica. In una piccola istanza privata l'amministratore potrebbe raccogliere offline i consensi dei genitori
in reply to GaMe

@GaMe sì, ci sono anche soluzioni (purtroppo non previste da Mastodon) in cui alcuni utenti (i minori) accedono solo alle risorse locali o a un bouquet selezionato di istanze esterne, mentre altri possono utilizzare la federazione. Ma non sono di facile implementazione
@mapto @Informa Pirata

reshared this

in reply to GaMe

@GaMe si possono creare due istanze Friendica:

- un'istanza A rigidamente moderata, federata con poche istanze di qualità e dedicata agli over 16
- un'istanza B dedicata agli under 16 federata solo con l'istanza A

@Informa Pirata @mapto

reshared this

in reply to Informa Pirata

Per quello che è la mia esperienza


Ci sta che abbiamo fatto esperienze diverse. Il mio punto era che qui non abbiamo avuto la pressione che riceve una rete d'impatto. Avevo questo esempio in mente:

In its recently released moderation report for 2024, Bluesky said it grew by about 23 million users, jumping from 2.9 million users to nearly 26 million. And, its moderators received 17 times the number of user reports they got in 2023 — 6.48 million in 2024 compared to 358,000 the previous year.


engadget.com/social-media/blue…

in reply to mapto

@mapto io non ho dubbi sul fatto che Blue Sky possa aver avuto grosse difficoltà nella moderazione, ma il paragone con il Fediverso non è possibile.
Per quanto esista un evidente problema di centralizzazione anche qui nel Fediverso, come dimostra il caso di mastodon.social che oggi (è sottolineo oggi, perché in futuro Sono certo che quella percentuale diminuirà) cannibalizza il 70% delle nuove iscrizioni, la struttura stessa del Fediverso è fatta per accrescersi in maniera distribuita tra diversi server.

Come ti potrebbe confermare @filippodb ⁂ , l'istanza mastodon.uno con meno di 80.000 utenti dispone di più di un quarto dei moderatori che aveva BlueSky fino all'anno scorso (erano 50 e Bluesky ha dovuto raddoppiare questo numero solo negli ultimi mesi).

Capisci adesso il motivo per cui sono così ottimista sulla moderazione all'interno del fediverso? Naturalmente esistono molte criticità, ma molte di queste si risolvono proprio Grazie all'architettura distribuita e, non dimentichiamocelo, al fatto che i gestori dei server non sono mai spinti da un interesse commerciale ma sono fortemente animati dall'intenzione di migliorare l'ambiente digitale.
Questo è un aspetto importante perché sebbene questa sia tra le "Mission" dichiarate da Blue Sky È ovvio che l'obiettivo primario di quelle ecosistema sia la monetizzazione.

reshared this

in reply to Informa Pirata

Ecco un approfondimento: about.iftas.org/2026/01/21/beh…


Behind the Numbers: Who Moderates the Social Web?


This post is part of an ongoing series exploring the findings and forecasts from the 2025 Social Web Trust & Safety Needs Assessment Report.

Now that we have three years of data, we’ll not only dive into the 2025 results, but also take a broader look at how key patterns have shifted over time. From volunteer burnout to federation policies, this series will highlight what’s changing, what’s staying the same, and what that means for the future of trust and safety on the social web.


Volunteers, burnout, and the people holding the line


Who is doing the work to keep the social web safe? Who responds to reports, blocks malicious actors, answers legal requests, and supports users in distress?

According to the 2025 Social Web Trust & Safety Needs Assessment Report, it is mostly unpaid, overstretched volunteers. This year’s findings confirm what many already know from experience: the people making moderation possible are holding up a system that is growing heavier by the day.

Moderators are doing everything, often alone


Most of the people keeping platforms safe are not working in large teams or focused roles. They are volunteers running small or medium-sized services who also manage hosting, community building, and legal issues.

  • More than half of all respondents said they were the only moderator or part of a very small team
  • Only 13% said their main focus was moderation
  • The rest balance moderation with technical administration, community management, and legal/compliance activities

There is no clear boundary between roles on most services. Instead, safety work is something moderators have to squeeze in along with everything else.

In 2025, 45% of respondents reported handling three or more roles, down from 52% in 2023. This includes those selecting all four roles (moderation, systems admin, community management, and legal/compliance).

This slight but consistent decline may indicate some separation of duties as communities mature. However, it could also reflect role fatigue, reduced participation, or the departure of volunteers who were previously covering multiple responsibilities.

The mod-to-member ratio is getting worse, not better


Based on service account totals, the average ratio of moderators to accounts is now 1:24,288 (total accounts). In 2023 this was 1:6,167. This change is likely not due to improved efficiency, it more likely reflects a growing burden on the same limited pool of volunteers.

While some of the largest instances have dedicated teams, the majority of services are run by one or two people. There is no easy way to scale up this labour, and no capacity to absorb new or worsening threats.

Moderators are burning out


One in five respondents reported that their moderation work had a negative impact on their mental health. This includes trauma, exhaustion, or withdrawal from community life. This number has been consistent since 2023, roughly 20% report the same each year.

The harms moderators are exposed to include spam floods, disinformation campaigns, hate speech, harassment, and occasionally CSAM or reports of serious real-world harm. Most teams do not have access to legal advice, mental health resources, or trauma-informed processes.

“There is no backup. If I disappear for a week, everything piles up” said one respondent. Many moderators do not feel safe or supported. Even those who continue to moderate effectively report a high cost to doing so.

We are not onboarding enough new people


Although the report shows a modest increase in average experience overall, it also reveals a decline in the number of new moderators entering the ecosystem. In many communities, experienced moderators have been doing the work for years, often without formal support or clear succession planning.

Moderator experience appears to be splitting into two distinct groups: a growing number of early-career moderators with fewer than three years of experience, and a smaller but rising group with six to ten years.

Those in the middle, particularly with three to six years of experience, are falling away sharply. Without stronger onboarding and retention support, the gap between newer volunteers and long-time moderators is likely to widen.

If we don’t improve the pathways for new moderators to enter, learn, and stay, the system may not hold. The number of people doing the work will continue to shrink, even as threats increase.

This is not sustainable


Decentralised platforms pride themselves on being community-led and member-directed. But community care requires people. And right now, those people are overwhelmed.

If we want the social web to remain open, resilient, and safe for marginalised users, we need to support the humans at its core.

What will help: shared tools and templates for policy, onboarding, and moderation; access to wellbeing support and peer networks; sustainable funding for training, stipends, and community-led projects; less duplication and more shared infrastructure across services.

We’ll be sharing more posts in the coming weeks, each looking at a different part of the report. From big-picture trends to behind-the-scenes insights, our goal is to make the findings useful, readable, and relevant to the people doing the work. If you’re part of that work, or thinking about getting involved, we hope you’ll follow along.

Support the people doing the work


IFTAS supports the moderators, administrators, and community volunteers who make the social web safer and more resilient. If you believe this work matters, please consider making a donation. Even small contributions help fund training, tools, and care for the people doing the work.

Donate to IFTAS today.


in reply to mapto

@mapto i problemi analizzati da IFTAS sono reali, soprattutto quello della sostenibilità e del burnout, ma non hanno una vera attinenza con quelli che hai sollevato tu.
Quelli evidenziati da IFTAS possiamo chiamarli "problemi dei moderatori" ma non sono, se non a tendere, reali "problemi di moderazione".

A meno che un'istanza non sia abbandonata, qualsiasi server del Fediverso ha un rapporto moderatori/utenti superiore a quello di Bluesky

reshared this