๐๐ La scorsa settimana le aziende Big Tech hanno pubblicato i loro primi report su come valutano i rischi sistemici delle loro piattaforme per gli utenti ai sensi del Digital Services Act dell'UE. Ecco cosa abbiamo scoperto finora: ๐งต
Il post di People vs BigTech
Il modello di business basato sulla sorveglianza, i sistemi di raccomandazione tossici e le caratteristiche di progettazione che creano dipendenza (il vero modello di business di questi giganti della tecnologia) non sono considerati fonti di rischi sistemici.
Invece, i report si concentrano sul sintomo (comportamento scorretto dell'utente, moderazione inefficace dei contenuti), ignorando la causa principale: una cattiva progettazione della piattaforma.
Ciรฒ nonostante, le prove schiaccianti che questi sistemi causano danni, tra cui la diffusione e l'amplificazione dell'odio, della disinformazione, della divisione e l'invasione della nostra privacy per profilarci e sfruttare le nostre vulnerabilitร a scopo di lucro.
Non affrontando i rischi legati alla progettazione della piattaforma e ai modelli di business, le aziende Big Tech hanno ignorato anni di ricerche indipendenti su questo tema, anche da parte dei membri di #PeoplevsBigTech
Le grandi aziende tecnologiche affermano di consultare stakeholder esterni per valutare e mitigare i rischi, ma sembra che nessuna delle +120 organizzazioni in @PeoplevsBigTech, comprese quelle che hanno pubblicato ricerche sui rischi sistemici relativi alle piattaforme di social media, sia stata consultata. La DSA afferma che dovrebbero. Coincidenza?
Ci sono anche lacune nei report, ad esempio Facebook non riesce a spiegare perchรฉ identifica alcuni rischi come bassi. Alcuni report non vanno molto oltre ciรฒ che era giร di dominio pubblico, con pochissimi dati concreti su metriche ed efficacia.
Sebbene la maggior parte delle aziende Big Tech fornisca informazioni su come mitigano i rischi identificati (alcuni dei quali sono stati suggeriti da gruppi della societร civile ed esperti), nessuna di esse fornisce informazioni sull'efficacia di queste misure di mitigazione.
Ad esempio, Facebook cita l'uso di etichette di disinformazione e YouTube evidenzia la funzionalitร "Breaking News Shelf" come esempi di misure di mitigazione, ma non ci vengono forniti dettagli significativi sulla loro efficacia.
Abbiamo bisogno di prove che queste misure di mitigazione funzionino (o meno) per poter giudicare se siano efficaci. Finora la ricerca ha dimostrato che le piattaforme dei social media sono progettate per coinvolgere, far infuriare e creare dipendenza, danneggiando la nostra salute mentale. Se ci sono prove del contrario, vogliamo vederle!
Anche la societร civile deve essere consultata in modo significativo sui rischi sistemici correlati alle piattaforme dei social media. Avendo pubblicato molte ricerche indipendenti su questo tema, sappiamo una cosa o due sui rischi ๐
Restate sintonizzati per un'analisi piรน dettagliata dei report nelle prossime settimane ๐ Nel frattempo, potete trovare alcune delle nostre ricerche precedenti relative ai rischi delle piattaforme di social media qui e di seguito:
globalwitness.org/en/campaignsโฆ
panoptykon.org/sites/default/fโฆ
panoptykon.org/sites/default/fโฆ
panoptykon.org/sites/default/fโฆ
en.panoptykon.org/sites/defaulโฆ
Ringraziamo il servizio di The Reader App per l'unroll
like this
reshared this
floreana
in reply to The Pirate Post • •Certo che aspettarsi che sia Big Tech a fornire report onesti, dettagliati e che possano evidenziare un suo fallimento nel proteggere gli utenti รจ proprio ingenuo. Gli ci vorrebbe un bell'audit indipendente.
like this
๐ป๐๐๐๐ ๐ฆ๐ง๐ป๐ป๐ likes this.