Salta al contenuto principale


๐Ÿ‘€๐Ÿ”Ž La scorsa settimana le aziende Big Tech hanno pubblicato i loro primi report su come valutano i rischi sistemici delle loro piattaforme per gli utenti ai sensi del Digital Services Act dell'UE. Ecco cosa abbiamo scoperto finora: ๐Ÿงต

Il post di People vs BigTech

@Etica Digitale (Feddit)

Il modello di business basato sulla sorveglianza, i sistemi di raccomandazione tossici e le caratteristiche di progettazione che creano dipendenza (il vero modello di business di questi giganti della tecnologia) non sono considerati fonti di rischi sistemici.

Invece, i report si concentrano sul sintomo (comportamento scorretto dell'utente, moderazione inefficace dei contenuti), ignorando la causa principale: una cattiva progettazione della piattaforma.

Ciรฒ nonostante, le prove schiaccianti che questi sistemi causano danni, tra cui la diffusione e l'amplificazione dell'odio, della disinformazione, della divisione e l'invasione della nostra privacy per profilarci e sfruttare le nostre vulnerabilitร  a scopo di lucro.

Non affrontando i rischi legati alla progettazione della piattaforma e ai modelli di business, le aziende Big Tech hanno ignorato anni di ricerche indipendenti su questo tema, anche da parte dei membri di #PeoplevsBigTech

Le grandi aziende tecnologiche affermano di consultare stakeholder esterni per valutare e mitigare i rischi, ma sembra che nessuna delle +120 organizzazioni in @PeoplevsBigTech, comprese quelle che hanno pubblicato ricerche sui rischi sistemici relativi alle piattaforme di social media, sia stata consultata. La DSA afferma che dovrebbero. Coincidenza?

Ci sono anche lacune nei report, ad esempio Facebook non riesce a spiegare perchรฉ identifica alcuni rischi come bassi. Alcuni report non vanno molto oltre ciรฒ che era giร  di dominio pubblico, con pochissimi dati concreti su metriche ed efficacia.

Sebbene la maggior parte delle aziende Big Tech fornisca informazioni su come mitigano i rischi identificati (alcuni dei quali sono stati suggeriti da gruppi della societร  civile ed esperti), nessuna di esse fornisce informazioni sull'efficacia di queste misure di mitigazione.

Ad esempio, Facebook cita l'uso di etichette di disinformazione e YouTube evidenzia la funzionalitร  "Breaking News Shelf" come esempi di misure di mitigazione, ma non ci vengono forniti dettagli significativi sulla loro efficacia.
Abbiamo bisogno di prove che queste misure di mitigazione funzionino (o meno) per poter giudicare se siano efficaci. Finora la ricerca ha dimostrato che le piattaforme dei social media sono progettate per coinvolgere, far infuriare e creare dipendenza, danneggiando la nostra salute mentale. Se ci sono prove del contrario, vogliamo vederle!

Anche la societร  civile deve essere consultata in modo significativo sui rischi sistemici correlati alle piattaforme dei social media. Avendo pubblicato molte ricerche indipendenti su questo tema, sappiamo una cosa o due sui rischi ๐Ÿ˜‰

Restate sintonizzati per un'analisi piรน dettagliata dei report nelle prossime settimane ๐Ÿ“‘ Nel frattempo, potete trovare alcune delle nostre ricerche precedenti relative ai rischi delle piattaforme di social media qui e di seguito:

globalwitness.org/en/campaignsโ€ฆ

panoptykon.org/sites/default/fโ€ฆ

panoptykon.org/sites/default/fโ€ฆ

panoptykon.org/sites/default/fโ€ฆ

en.panoptykon.org/sites/defaulโ€ฆ

Ringraziamo il servizio di The Reader App per l'unroll

Questa voce รจ stata modificata (1 mese fa)
in reply to The Pirate Post

@piratepost @Etica Digitale (Feddit)
Certo che aspettarsi che sia Big Tech a fornire report onesti, dettagliati e che possano evidenziare un suo fallimento nel proteggere gli utenti รจ proprio ingenuo. Gli ci vorrebbe un bell'audit indipendente.
โ‡ง