Salta al contenuto principale


Tecnocapitalismo USA: controllare gli utenti o smontare le premesse giuridiche degli oligopoli? Il post della prof.ssa Federica Capelluti su X

@Etica Digitale (Feddit)

Alla domanda “come affronterebbe il controllo pervasivo del tecnocapitalismo statunitense?” si può provare a rispondere chiedendosi se sia più utile, per affrontare il problema, controllare gli utenti oppure lavorare sulle leve economico-giuridiche che hanno permesso la nascita e il consolidamento degli oligopoli tecnologici.
Qui alcuni appunti su indizi della natura pretestuosa di certi slogan ricorrenti, addotti per giustificare il controllo, e su possibili leve concrete da costruire o da azionare perché, anche quando esistono, restano sistematicamente eluse.

1) Sui pretesti.


Primo indizio: la prima tutela dei minori dovrebbe essere a scuola


La tutela dei minori è un obiettivo legittimo, ma rischia di venir usato come passepartout per l'identificazione e il controllo generalizzato dell’accesso alla rete e delle comunicazioni private, vd. iniziative come la verifica dell'età e Chat Control 2.0.
La Commissione UE ha pubblicato un modello per la verifica dell’età che, sulla carta, prova a essere rispettoso della privacy dell’utente verso la piattaforma o la app finale [ec.europa.eu/commission/pressc… ma in ogni caso introduce un meccanismo di controllo in accesso. Il modello è costruito sulle stesse specifiche del portafoglio europeo di identità digitale (digital ID wallet / EUDI Wallet) e pensato per integrarsi con esso. Non è difficile intravedere almeno un rischio di slittamento d’uso: ciò che nasce per una categoria di contenuti può diventare infrastruttura di accesso e quindi di sorveglianza [edri.org/our-work/showing-your… e di conseguenza anche di chilling effect, cioè di incentivo all’autocensura e persuasione a non utilizzare spazi digitali perfettamente leciti.
Se davvero l’interesse primario fosse sui minori, si sarebbe dovuto partire dalla scuola. In primo luogo, si sarebbe dovuto evitare di normalizzare ecosistemi proprietari nella scuola (e nell'università). Invece è stato fatto l’opposto: durante e dopo la pandemia, con la DAD, la dipendenza da piattaforme private #GAFAM (Google, Apple, Facebook, Amazon e Microsoft) si è consolidata enormemente [altreconomia.it/la-scuola-ital…
La piattaformizzazione (platformisation) dell’educazione è stata presentata e introdotta come una innovazione “neutrale”, come semplice “uso di strumenti digitali”, ma nella realtà è una trasformazione profonda che implica una riorganizzazione della scuola (e del senso della scuola) attorno alla piattaforma stessa. Non è solo una questione tecnica-economica ma ha a che fare con i fini dell’educazione, l’autonomia dell’istituzione, e la forma mentis che coltiviamo negli studenti stessi. Si tratta di una trasformazione che espone la scuola a “una riduzione in chiave utilitaristica” [testoesenso.it/index.php/testo… Inoltre, anche dal punto di vista dell'interesse economico pubblico questa scelta è controproducente perché induce trasferimento di ricchezza della collettività (attraverso la spesa pubblica) ad attori privati extra-nazionali, rinforzando il lock-in tecnologico. Una ricchezza che invece potrebbe alimentare la creazione di infrastrutture e servizi pubblici in un ciclo economico positivo, di sviluppo, per la collettività stessa.
Ovviamente esistono alternative, abilitate dal software libero, da standard aperti e interoperabili e da infrastrutture pubbliche, ma le proposte in tal senso rimangono sostanzialmente inascoltate. Qui un’iniziativa recente ma utile a ricordare che la normativa italiana è già orientata a privilegiare soluzioni non proprietarie, ma raramente viene applicata [softwarelibero.it/sites/defaul…
Perciò, quando si parla di “tutela dei minori” e al contempo li si immerge fin dalla scuola in un ambiente digitale strutturalmente tossico (per es., a rischio estrazione dati e profilazione, a rischio dipendenza tecnologica, per non parlare dei rischi relativi alla qualità e alla natura dell'appredimento) [Vd. come esempio concreto: noyb.eu/it/noyb-win-microsoft-… le priorità andrebbero riviste. Infine, tutto il discorso relativo alla necessità di verifica dell'età ignora le possibilità offerte dagli strumenti di parental control che possono essere utilizzati dalle famiglie. Si dovrebbe lavorare a rendere questi strumenti più incisivi e facili da utilizzare.

Secondo indizio: istituzionalmente è più “comodo” negoziare con pochi attori

Un elemento più antipatico forse da accettare ma reale deriva dal constatare come, dal punto di vista delle istituzioni UE, un ecosistema pienamente plurale e decentralizzato (cosa tecnicamente possibile) sia molto più difficile da gestire. La storia recente (per es. nel periodo pandemico) ci dimostra che la CE preferisce interagire, anche attraverso canali informali [vd. judiciary.house.gov/sites/evo-… con un numero ristretto di piattaforme proprietarie per regolare il discorso pubblico. Esiste cioè un incentivo strutturale in tema di “social” a preferire oligopoli digitali perché abilitano scorciatoie politicamente molto appetibili per la moderazione dei contenuti.

Terzo indizio: “take back control” europeo, ma di cosa?

Suona bene “take back control”, ma è retorico se a monte non si affrontano alcuni nodi strutturali. Primo, la dipendenza extra-UE lungo tutta la filiera digitale (software, cloud, cybersicurezza, hardware). Uno studio del Parlamento europeo 2025 la mappa in modo esplicito le dipendenze europarl.europa.eu/thinktank/e…
Secondo, gli effetti extraterritoriali delle infrastrutture globali. Qui [roars.it/chi-ha-paura-della-li… ho fatto due esempi, riferendomi al caso di Francesca Albanese e a quello della Corte Penale Internazionale, per mostrare come la sovranità, anche a livello giurisdizionale, possa essere “bucata” grazie alla natura globale/transnazionale dei sistemi e servizi bancari e digitali.
In sintesi, aggiungere “regole” per l’accesso a internet e ai social non scalfisce minimamente le piattaforme oligopoliste. Le regole sono semmai rivolte contro gli utenti, di certo non contro le Big Tech.

2) Sulle leve concrete

Innanzitutto, gli oligopoli non sono un accidente della natura: sono il frutto di scelte normative e politico-economiche (e culturali) che hanno costruito recinti da cui è molto difficile uscire.
Per questo la soluzione non dovrebbe essere cercare di contrapporre a questi “giganti” altri giganti “nostrani” ma smontare le premesse giuridiche su cui si è potuta consolidare la la loro natura oligopolista. È questa natura oligopolista o accentrata (anche statale o unionale) delle tecnologie ad essere di per sé un pericolo per la democrazia, a prescindere da chi le controlla.


La leva tecnico-giuridica: il diritto (o divieto) di aggirare i recinti tecnologici

La leva tecnico-giuridica è quella che negli USA con il DMCA (Digital Millennium Copyright Act) e in Europa con direttive affini sul copyright digitale rende difficilissimo se non rischioso (per il consumatore) se non addirittura proprio illegale aggirare quelle che sono vere e proprie limitazioni d’uso dei propri dispositivi o accesso ai propri dati. Vd. per fare un esempio le ricadute sul tema della riparazione [repair.eu/resources/policy-bri…
Allargo volutamente il discorso ai dispositivi perché, mentre l’UE sta ponendo grande attenzione ai “social”, abbiamo un duopolio Apple/Google a governare il mercato degli smartphone, strumenti che stanno diventando l’interfaccia primaria della vita sociale, economica e politica. @demartin ha scritto un libro proprio su questo, dove mostra come, rispetto al vecchio PC, lo smartphone comprime libertà basilari (installare liberamente, cambiare sistema operativo, manipolare davvero il dispositivo, avere più di un profilo utente per dispositivo – tanto per riallacciarsi al tema della tutela dei minori). Fino ad arrivare al paradosso che siamo noi ad essere posseduti dal dispositivo più che il contrario. [addeditore.it/prodotto/juan-ca… nexa.polito.it/wp-content/uplo…
Le stesse problematiche riguardano un’infinità di oggetti di uso comune e di lavoro il cui controllo viene sempre più esternalizzato dall’utente grazie all’elettronica, al firmware e al governo su cloud. Il che ha anche tutta una serie di ovvie e non positive conseguenze sulla tanto declamata sicurezza, ma il fatto rimane in secondo piano.
Insomma, “riprendere controllo” sul serio vorrebbe dire prima di tutto rimuovere i blocchi giuridici e tecnici che impediscono all’utente di possedere davvero i “suoi” dispositivi e i “suoi” dati. Solo così potrebbe crearsi un mercato plurale e decentralizzato di imprese tecnologiche e comunità che creano servizi e strumenti indipendenti. Cory Doctorow ha presentato una strategia di questo tipo nel caso del Canada, ma è un’analisi che si adatta anche all’UE; è molto interessante e il titolo è significante: “Disenshittification Nation”: [pluralistic.net/2026/01/29/pos…


3) Cose fattibili da adesso (con volontà politica) per contrastare la pervasività delle Big Tech

Sul lato delle piattaforme, qualcosa di realistico e incisivo si potrebbe fare da subito, con volontà politica, a partire da scuola/università e P.A., come primo terreno di decolonizzazione dalle #GAFAM.
In secondo luogo, andrebbero azionati requisiti democratici minimi su tutte le piattaforme online, e tanto più sulle very large.
Requisito minimo #1: per tutte le piattaforme, algoritmi open source realmente ispezionabili/verificabili, perché oggi determinano visibilità, priorità, la formazione delle varie echo-chamber e conseguente polarizzazione degli utenti. Conoscerli e poterli verificare è molto istruttivo, quantomeno, e culturalmente e politicamente importante.
Requisito minimo #2 (il più importante): algoritmi di moderazione “neutrali” salvo la rimozione di contenuti illegali (filiera che peraltro dovrebbe essere sotto il controllo della polizia postale e delle apposite agenzie statali). Per il resto: pluralismo e controllo da parte dell’utente, non “verità d’autorità”.
Infine: alternative concrete alle grandi piattaforme social esistono già. Un esempio di “sistema decentralizzato e plurale” che conosco come utente è Mastodon (Fediverso): software libero, federato, basato su protocollo ActivityPub: abilita un pluralismo reale perché si basa su molteplici istanze/moderazioni e non su un centro unico. Proprio perché pluralista, la moderazione è locale e più frammentata; la scoperta di contenuti richiede maggiore iniziativa da parte dell’utente, la governance è senz’altro più faticosa perché è a carico degli utenti che creano e mantengono le istanze. È il prezzo di non avere un sovrano. Sobbarcarselo, probabilmente, richiede anche un cambiamento culturale.

Qui il post originale