Salta al contenuto principale





zeusnews.it/n.php?c=31591

esattamente quello che pensavo. è tutto collegato al sole e alle sue paturnie stagionali undecennali. e rinnovo il mio dubbio. ma se invece di questi fenomeni che a noi paiono estremi ma che alla fine provocano autore boreali a basse latitudini e blackout comunicazioni radio, fosse un fenomeno dell'ìntensità di quello di Carrington o peggio come quelli che capitano ogni 20'000 anni? la verità è che siamo vulnerabili a molte cose e la tecnologia ci ha resi più forti per certi aspetti ma più deboli per altri.




GERMANIA. Studenti in piazza contro il ritorno della leva e il riarmo


@Notizie dall'Italia e dal mondo
Studenti e insegnanti in piazza, oggi in Germania, al grido di "Non vogliamo diventare carne da cannone", contro la legge votata dal Bundestag che ripristina la leva militare, per ora volontaria
L'articolo GERMANIA. Studenti in piazza contro il ritorno della leva e il



Roma chiama, Berlino risponde. Il Gcap allargato fa felici tutti (o quasi)

@Notizie dall'Italia e dal mondo

Nel suo intervento alla Commissione Difesa, Guido Crosetto ha dichiarato che “è fallito il programma franco-tedesco” Fcas e che “probabilmente la Germania potrebbe entrare” nel progetto Gcap, aggiungendo che sono giunte manifestazioni d’interesse da Canada, Arabia Saudita e, potenzialmente, Australia. L’affermazione



Così basta un clic per consegnare porta di casa e telecamere a un hacker


@Informatica (Italy e non Italy 😁)
Una vulnerabilità di Tuya, una delle piattaforme di domotica più popolari al mondo, permetteva a un malintenzionato di collegare tutti i device smart delle vittime al proprio account Alexa, esponendo centinaia di migliaia di dispositivi smart in tutto il mondo. La

reshared this



Siria. Il massacro negato che ora emerge a Damasco


@Giornalismo e disordine informativo
articolo21.org/2025/12/siria-i…
Il quotidiano La Repubblica, meritoriamente, rilancia in Italia il contenuto di quanto scoperto e documentato dal quotidiano El Pais: esiste un hard-disk che documenta l’orrore prodotto alla macchina della morte messa in



Voucher digitali MIMIT: come accedere ai 150 milioni per la resilienza digitale delle PMI


@Informatica (Italy e non Italy 😁)
PMI e lavoratori autonomi potranno ottenere le agevolazioni pari a 150 milioni di euro, stanziati dal Ministero delle Imprese e del Made in Italy, per pianificare gli investimenti per migliorare la propria postura cyber. Ecco il




L’impegno per la formazione e l’inclusione guida l’azione della Fondazione Marista in Cambogia, sostenuta dai fondi dell’8xmille della Chiesa cattolica. A Takhmao, cittadina di 75.


This Week in Security: React, JSON Formatting, and the Return of Shai Hulud


After a week away recovering from too much turkey and sweet potato casserole, we’re back for more security news! And if you need something to shake you out of that turkey-induced coma, React Server has a single request Remote Code Execution flaw in versions 19.0.1, 19.1.2, and 19.2.1.

The issue is insecure deserialization in the Flight protocol, as implemented right in React Server, and notably also used in Next.js. Those two organizations have both issued Security Advisories for CVSS 10.0 CVEs.

There are reports of a public Proof of Concept (PoC), but the repository that has been linked explicitly calls out that it is not a true PoC, but merely research into how the vulnerability might work. As far as I can tell, there is not yet a public PoC, but reputable researchers have been able to reverse engineer the problem. This implies that mass exploitation attempts are not far off, if they haven’t already started.

Legal AI Breaks Attorney-Client Privilege


We often cover security flaws that are discovered by merely poking around the source of a web interface. [Alex Schapiro] went above and beyond the call of duty, manually looking through minified JS, to discover a major data leak in the Filevine legal AI. And the best part, the problem isn’t even in the AI agent this time.

The story starts with subdomain enumeration — the process of searching DNS records, Google results, and other sources for valid subdomains. That resulted in a valid subdomain and a not-quite-valid web endpoint. This is where [Alex] started digging though Javascript, and found an Amazon AWS endpoint, and a reference to BOX_SERVICE. Making requests against the listed endpoint resulted in both boxFolders and a boxToken in the response. What are those, and what is Box?

Box is a file sharing system, similar to a Google Drive or even Microsoft Sharepoint. And that boxToken was a valid admin-level token for a real law firm, containing plenty of confidential records. It was at this point that [Alex] stopped interacting with the Filevine endpoints, and contacted their security team. There was a reasonably quick turnaround, and when [Alex] re-tested the flaw a month later, it had been fixed.

JSON Formatting As A Service


The web is full of useful tools, and I’m sure we all use them from time to time. Or maybe I’m the only lazy one that types a math problem into Google instead of opening a dedicated calculator program. I’m also guilty of pasting base64 data into a conversion web site instead of just piping it through base64 and xxd in the terminal. Watchtowr researchers are apparently familiar with such laziness efficiency, in the form of JSONformatter and CodeBeautify. Those two tools have an interesting feature: an online save function.

You may see where this is going. Many of us use Github Gists, which supports secret gists protected by long, random URLs. JSONformatter and CodeBeautify don’t. Those URLs are short enough to enumerate — not to mention there is a Recent Links page on both sites. Between the two sites, there are over 80,000 saved JSON snippets. What could possibly go wrong? Not all of that JSON was intended to be public. It’s not hard to predict that JSON containing secrets were leaked through these sites.

And then on to the big question: Is anybody watching? Watchtowr researchers beautified a JSON containing a Canarytoken in the form of AWS credentials. The JSON was saved with the 24 hour timeout, and 48 hours later, the Canarytoken was triggered. That means that someone is watching and collecting those JSON snippets, and looking for secrets. The moral? Don’t upload your passwords to public sites.

Shai Hulud Rises Again


NPM continues to be a bit of a security train wreck, with the Shai Hulud worm making another appearance, with some upgraded smarts. This time around, the automated worm managed to infect 754 packages. It comes with a new trick: pushing the pilfered secrets directly to GitHub repositories, to overcome the rate limiting that effected this worm the first time around. There were over 33,000 unique credentials captured in this wave. When researchers at GitGuardian tested that list a couple days later, about 10% were still valid.

This wave was launched by a PostHog credential that allowed a malicious update to the PostHog NPM package. The nature of Node.js means that this worm was able to very quickly spread through packages where maintainers were using that package. Version 2.0 of Shai Hulud also includes another nasty surprise, in the form of a remote control mechanism stealthily installed on compromised machines. It implies that this is not the last time we’ll see Shai Hulud causing problems.

Bits and Bytes


[Vortex] at ByteRay took a look at an industrial cellular router, and found a couple major issues. This ALLNET router has an RCE, due to CGI handling of unauthenticated HTTP requests. It’s literally just /cgi-bin/popen.cgi?command=whoami to run code as root. That’s not the only issue here, as there’s also a hardcoded username and password. [Vortex] was able to derive that backdoor account information and use hashcat to crack the password. I was unable to confirm whether patched firmware is available.

Google is tired of their users getting scammed by spam phone calls and texts. Their latest salvo in trying to defeat such scams is in-call scam protection. This essentially detects a banking app that is opened as a result of a phone call. When this scenario is detected, a warning dialogue is presented, that suggests the user hangs up the call, and forces a 30 second waiting period. While this may sound terrible for sophisticated users, it is likely to help prevent fraud against our collective parents and grandparents.

What seemed to be just an illegal gambling ring of web sites, now seems to be the front for an Advanced Persistent Threat (APT). That term, btw, usually refers to a government-sponsored hacking effort. In this case, instead of a gambling fraud targeting Indonesians, it appears to be targeting Western infrastructure. One of the strongest arguments for this claim is the fact that this network has been operating for over 14 years, and includes a mind-boggling 328,000 domains. Quite the odd one.


hackaday.com/2025/12/05/this-w…



Cloudflare dichiara guerra a Google e alle AI. 416 miliardi di richieste di bot bloccate


Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificialeche tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, co-fondatore e CEO di Cloudflare, gli sforzi per proteggere le risorse da crawling indesiderati stanno già avendo un effetto evidente e potrebbero cambiare l’economia tradizionale di Internet.

L’impulso per queste misure è stato dato dall’iniziativa Content Independence Day, lanciata da Cloudflare quest’estate in collaborazione con importanti editori e aziende di intelligenza artificiale. La sua essenza è bloccare di default l’accesso dei crawler di intelligenza artificiale ai contenuti, a meno che gli sviluppatori del modello non abbiano stipulato un accordo a pagamento separato.

Da luglio 2024, Cloudflare offre ai clienti strumenti pronti all’uso per filtrare automaticamente il traffico proveniente dai bot che raccolgono dati per l’addestramento dell’intelligenza artificiale. Secondo l’azienda, dal 1° luglio 2025 sono già state bloccate 416 miliardi di richieste di questo tipo.

Prince afferma che per decenni il modello di business di Internet si è basato su una logica chiara: i creatori pubblicano contenuti, generano traffico e poi lo monetizzano attraverso pubblicità, vendite o abbonamenti. L’avvento dell’intelligenza artificiale generativa, afferma, ha rivoluzionato la piattaforma: i modelli ora raccolgono ed elaborano i contenuti di altre persone e gli utenti ricevono sempre più risposte direttamente in chat o widget, senza dover visitare il sito web originale. Questo è dannoso per i creatori, che stanno perdendo una parte del loro pubblico e, con esso, i loro ricavi.

Ecco perché Cloudflare sta ora cercando di sfruttare la sua posizione di attore infrastrutturale per impedire che il mercato scivoli completamente verso poche piattaforme dominanti. L’azienda si è tradizionalmente concentrata sull’accelerazione e la protezione del traffico web, ma nel contesto della crescita esponenziale dell’intelligenza artificiale generativa, Prince si sta concentrando sempre di più su come preservare Internet come uno spazio in cui progetti di ogni dimensione, dai media locali alle piccole comunità e ai creatori, possano sopravvivere e crescere.

Ha anche criticato le politiche di Google relative ai suoi crawler di ricerca e di intelligenza artificiale. Nel tentativo di raggiungere la leadership nell’intelligenza artificiale, Google ha combinato il crawler che indicizza i siti web per la ricerca con il crawler che raccoglie i dati per l’intelligenza artificiale. Di conseguenza, se un sito blocca il bot di intelligenza artificiale di Google, viene automaticamente rimosso dall’indicizzazione di ricerca. Questo crea una trappola per editori e sviluppatori: non vogliono che i loro contenuti vengano inclusi in modo incontrollato nei set di addestramento, ma non possono permettersi di perdere il loro posizionamento nei risultati di ricerca di Google, che rappresenta una parte significativa del loro traffico.

Secondo Prince, non si può sfruttare la posizione di monopolio del mercato di “ieri” per affermarsi in quello di “domani”. Identifica direttamente Google come il principale freno allo sviluppo di Internet e ritiene che l’azienda dovrebbe separare i suoi crawler di ricerca e di intelligenza artificiale, in modo che i siti web possano gestire l’accesso in modo indipendente.

Cloudflare ha anche rivelato statistiche inedite sull’accesso privilegiato di Google al web rispetto ad altri attori dell’intelligenza artificiale. L’azienda stima che Google attualmente veda 3,2 volte più pagine di OpenAI , 4,6 volte di Microsoft e 4,8 volte di Anthropic o Meta. In sostanza, Google ha una visione unica di Internet, che rafforza la sua posizione sia nella ricerca che nell’intelligenza artificiale.

Allo stesso tempo, afferma Prince, i primi risultati del blocco dei crawler AI per editori e altri proprietari di contenuti sembrano promettenti. I contenuti umani unici – dalle redazioni locali sensibili alle tendenze regionali agli utenti di Reddit che condividono i loro pensieri più strani o profondi – rimangono una materia prima estremamente preziosa per i modelli di intelligenza artificiale. Ciò significa che i creatori hanno l’opportunità di creare nuovi modelli a pagamento, dalle licenze alle partnership specializzate con aziende di intelligenza artificiale.

In futuro, riconosce Prince, la regolamentazione dell’intelligenza artificiale e dell’accesso ai contenuti potrebbe richiedere un intervento legislativo. Per ora, Cloudflare sta cercando di esercitare una pressione sul mercato attraverso le sue decisioni e i suoi accordi per garantire che i nuovi modelli di business dell’intelligenza artificiale siano più pluralistici, espandano il mercato e non concentrino il potere nelle mani di uno o due attori. Non c’è nulla di romantico in questo, afferma: significa semplicemente maggiori opportunità di crescita per tutti, il che significa che Cloudflare stessa avrà più clienti e una rete Internet più ampia da proteggere.

Prince ha paragonato la situazione a un franchise di supereroi: l’eroe dell’ultimo film diventa il cattivo del successivo. Nella sua interpretazione, Google è diventato il “cattivo” che frena Internet. E finché l’azienda non accetterà di giocare secondo le stesse regole di tutti gli altri – principalmente separando il suo motore di ricerca dal suo crawler AI – sarà estremamente difficile bloccare completamente i contenuti da contenuti indesiderati.

L'articolo Cloudflare dichiara guerra a Google e alle AI. 416 miliardi di richieste di bot bloccate proviene da Red Hot Cyber.

reshared this



Da sabato 6 a lunedì 8 dicembre, solennità dell’Immacolata Concezione, il Fiuggi Palaterme ospiterà la 49ª Conferenza nazionale Animatori del Rinnovamento nello Spirito Santo, dove sono attesi centinaia di partecipanti dai Cenacoli, Gruppi e Comunità…


I fondi dell’8xmille “diventano risposte anche piccole e limitate a bisogni effettivi” e, grazie alla presenza sul territorio, possono generare progettualità più ampie.




React2Shell = Log4shell: 87.000 server in Italia a rischio compromissione


Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ed esperti di sicurezza di tutto il mondo ne mettono in guardia dalla gravità, utilizzando persino il termine “2025 Log4Shell”.

I server impattati da questa minaccia sono circa 8.777.000 nel mondo, mentre i server italiani sono circa 87.000. Questo fa comprendere, che con una severity da score 10, potrebbe essere una delle minacce più importante di tutto l’anno, che sta diventando “attiva”.

Il nuovo Log4Shell del 2025


Infatti, è stato confermato che la comunità hacker cinese che sono stati già avviati test di attacco su larga scala sfruttando l’exploit per la vulnerabilità in questione sui server esposti. il CVE-2025-55182 non è semplicemente un bug software. È una falla strutturale nel protocollo di serializzazione RSC, che consente lo sfruttamento con la sola configurazione predefinita, senza errori da parte degli sviluppatori. L’autenticazione non è nemmeno richiesta.

Ecco perché gli esperti di sicurezza di tutto il mondo lo chiamano “la versione 2025 di Log4Shell”. Lo strumento di scansione delle vulnerabilità React2Shell Checker sta analizzando più percorsi e alcuni endpoint sono contrassegnati come Sicuri o Vulnerabili. L’immagine sopra mostra che diversi ricercatori stanno già eseguendo scansioni automatiche sui server basati su RSC.

Il problema è che questi strumenti diventano armi che gli aggressori possono sfruttare. Gli hacker cinesi stanno conducendo con successo test RCE. Secondo i dati raccolti dalla comunità di hacker cinese, gli aggressori hanno già iniettato React2Shell PoC nei servizi basati su Next.js, raccolto i risultati con il servizio DNSLog e verificato il vettore di attacco.

L’Exploit PoC in uso nelle scansioni


Viene inviato un payload manipolato con Burp Repeater e il server crea un record DNS esterno. Ciò indica che l’attacco viene verificato in tempo reale. Gli aggressori hanno già completato i seguenti passaggi:

  • Carica il payload sul server di destinazione
  • Attiva la vulnerabilità di serializzazione RSC
  • Verifica il successo dell’esecuzione del comando con DNSLog esterno
  • Verifica la possibilità di eseguire child_process sul lato server.

Non si tratta più di una “vulnerabilità teorica”, bensì della prova che è già stato sviluppato un vettore di attacco valido.

Gli hacker cinesi stanno in questi istanti eseguendo con successo le RCE.

l PoC sono stati pubblicati su GitHub e alcuni ricercatori lo hanno eseguito, confermando che la Calcolatrice di Windows (Calc.exe) è stata eseguita in remoto.

L’invio del payload tramite BurpSuite Repeater ha comportato l’esecuzione immediata di Calc.exe sul server. Ciò significa che è possibile l’esecuzione completa del codice remoto.

L’esecuzione remota della calcolatrice è un metodo di dimostrazione comune nella comunità di ricerca sulla sicurezza di un “RCE” riuscito, ovvero quando un aggressore ha preso il controllo di un server.

Gli 87.000 server riportati nella print screen di FOFA, dimostrano che un numero significativo di servizi web di aziende italiane che operano con funzioni RSC basate su React/Next.js attivate sono a rischio. Il problema è che la maggior parte di essi

  • utilizza il rendering del server
  • mantiene le impostazioni predefinite di RSC
  • gestisce percorsi API esposti, quindi possono essere bersaglio di attacchi su larga scala.

In particolare, dato che i risultati della ricerca FOFA sono una fonte comune di informazioni utilizzata anche dai gruppi di hacker per selezionare gli obiettivi degli attacchi, è altamente probabile che questi server siano sotto scansioni attive.

Perché React2Shell è pericoloso?


Gli esperti definiscono questa vulnerabilità “senza precedenti” per i seguenti motivi:

  • RCE non autenticato (esecuzione di codice remoto non autenticato): l’aggressore non ha bisogno di effettuare l’accesso.
  • Possibilità Zero-Click: non è richiesta alcuna azione da parte dell’utente.
  • PoC immediatamente sfruttabile: già pubblicato in gran numero su GitHub e X.
  • Centinaia di migliaia di servizi in tutto il mondo si basano su React 19/Next.js: rischio di proliferazione su larga scala a livello della supply chain.
  • L’impostazione predefinita stessa è vulnerabile: è difficile per gli sviluppatori difenderla.

Questa combinazione è molto simile all’incidente Log4Shell del 2021.

Tuttavia, a differenza di Log4Shell, che era limitato a Java Log4j, React2Shell è più serio in quanto prende di mira i framework utilizzati dall’intero ecosistema globale dei servizi web.

I segnali di un attacco effettivo quali sono


Gli Aggressori stanno già eseguendo la seguente routine di attacco.

  • Raccolta di risorse di esposizione React/Next.js per paese da FOFA
  • Esecuzione dello script di automazione PoC di React2Shell
  • Verifica se il comando è stato eseguito utilizzando DNSLog
  • Sostituisci il payload dopo aver identificato i server vulnerabili
  • Controllo del sistema tramite RCE finale

Questa fase non è una pre-scansione, ma piuttosto la fase immediatamente precedente all’attacco. Dato il numero particolarmente elevato di server in Italia, la probabilità di attacchi RCE su larga scala contro istituzioni e aziende nazionali è molto alta. Strumenti di valutazione delle vulnerabilità e altri strumenti vengono caricati sulla comunità della sicurezza.

Mitigazione del bug di sicurezza


Gli esperti raccomandano misure di emergenza quali l’applicazione immediata di patch, la scansione delle vulnerabilità, l’analisi dei log e l’aggiornamento delle policy di blocco WAF.

Il team di React ha annunciato il 3 di aver rilasciato urgentemente una patch per risolvere il problema CVE-2025-55182, correggendo un difetto strutturale nel protocollo di serializzazione RSC. Tuttavia, a causa della natura strutturale di React, che non si aggiorna automaticamente, le vulnerabilità persistono a meno che aziende e organizzazioni di sviluppo non aggiornino e ricompilino manualmente le versioni.

In particolare, i servizi basati su Next.js richiedono un processo di ricostruzione e distribuzione dopo l’applicazione della patch di React, il che significa che probabilmente ci sarà un ritardo significativo prima che la patch di sicurezza effettiva venga implementata nell’ambiente del servizio. Gli esperti avvertono che “la patch è stata rilasciata, ma la maggior parte dei server è ancora a rischio”.

Molte applicazioni Next.js funzionano con RSC abilitato di default, spesso senza che nemmeno i team di sviluppo interni ne siano a conoscenza. Ciò richiede che le aziende ispezionino attentamente le proprie basi di codice per verificare l’utilizzo di componenti server e Server Actions. Con tentativi di scansione su larga scala già confermati in diversi paesi, tra cui la Corea, il rafforzamento delle policy di blocco è essenziale.

Inoltre, con la diffusione capillare di scanner automatici React2Shell e codici PoC in tutto il mondo, gli aggressori stanno eseguendo scansioni di massa dei server esposti anche in questo preciso momento. Di conseguenza, gli esperti di sicurezza hanno sottolineato che le aziende devono scansionare immediatamente i propri domini, sottodomini e istanze cloud utilizzando strumenti esterni di valutazione della superficie di attacco.

Hanno inoltre sottolineato che se nei log interni vengono rilevate tracce di chiamate DNSLog, un aumento di richieste POST multipart insolite o payload di grandi dimensioni inviati agli endpoint RSC, è molto probabile che si sia già verificato un tentativo di attacco o che sia stata raggiunta una compromissione parziale, il che richiede una risposta rapida.

L'articolo React2Shell = Log4shell: 87.000 server in Italia a rischio compromissione proviene da Red Hot Cyber.



“Ho incontrato il Santo Padre questa mattina, ed è stato uno dei momenti più importanti della mia vita”. “La musica è un dono di Dio, e oggi tramite il Santo Padre ho sentito la voce di Dio”.


Spunti attuali e inattuali sul ruolo del comportamentismo nell’evoluzione del capitalismo digitale


Articolo pubblicato in origine il 26/11/2025 su Transform Italia. di P. Nicolosi (Rattus) Negli ultimi dieci anni, quell’area di pensiero critico che si occupa, in modo più o meno sistematico, di tecnologie digitali, ha iniziato a prendere sul serio il … Continua a leggere→


Spunti attuali e inattuali sul ruolo del comportamentismo nell’evoluzione del capitalismo digitale



img genrata da IA – dominio pubblico

Articolo pubblicato in origine il 26/11/2025 su Transform Italia.

di P. Nicolosi (Rattus)

Negli ultimi dieci anni, quell’area di pensiero critico che si occupa, in modo più o meno sistematico, di tecnologie digitali, ha iniziato a prendere sul serio il ruolo del comportamentismo nella struttura e nei funzionamenti di quello che spesso viene definito capitalismo cognitivo. I riferimenti polemici al comportamentismo sono partiti in sordina, con una battuta di Eugeny Morozov che, in un suo libro di alcuni anni fa 1, faceva il verso a Richard Barbrook e Andy Cameron: i due massmediologi inglesi, nel celebre articolo intitolato L’ideologia Californiana, avevano definito Marshall McLuhan il “santo protettore” di Internet 2. Morozov, tra il serio e il faceto, replicava che il vero santo protettore della rete non era McLuhan, bensì Burrhus F. Skinner, il celebre teorico del comportamentismo radicale.

Qualche anno dopo, nel 2016, l’Economist pubblicava un lungo articolo inchiesta di Ian Leslie 3. Un titolo che rinvia all’incontro che avvenne a Corinto tra Alessandro il Grande e Diogene di Sinope. Si narra che Diogene fosse disteso davanti alla sua botte a prendere il sole quando il giovane condottiero gli si pose di fronte e gli chiese se poteva fare qualcosa in suo favore. Diogene, senza alterarsi, rispose: “Sì, togliti dalla mia luce” (in inglese appunto “Stand out of my light”). Nella metafora di Williams la “luce” sta a indicare il focus attentivo di ciascuno di noi. L’invito a togliersi dalla luce è, in realtà, un’esortazione rivolta alle grandi piattaforme web quali Google o Facebook, a non disturbare la nostra attenzione. L’analogia tra le grandi piattaforme informatiche e il condottiero greco è stata scelta assai bene: sono due forme di potere diverse, che hanno in comune l’ostentazione della loro potenza e la vastità del territorio sottomesso.

Nella prospettiva di Williams le piattaforme informatiche chiedono a ciascuno di noi “Cosa posso fare per te?”, proprio come Alessandro fece con Diogene. Il problema, secondo Williams, è che si rileva un crescente disallineamento tra i nostri obiettivi e quelli delle piattaforme a cui, ingenuamente, ci affidiamo. Esse non fanno realmente ciò di cui avremmo bisogno. Ammesso che sia vero che l’informatica e il web sono nati come strumenti al nostro servizio, utili per i nostri scopi, oggi non svolgono più questa funzione in modo trasparente. La metafora che Williams fornisce a questo riguardo è quella di un sistema GPS, un navigatore per l’automobile, che inizia a funzionare male. Non ci conduce più nei luoghi in cui vogliamo andare, ma ci porta in posti molto distanti da essi. Cresce così il sospetto di essersi affidati a una tecnologia che prima facie si presentava come uno strumento al nostro servizio ma che in realtà stava lavorando per scopi profondamente diversi dai nostri. Vale citare a riguardo un passo tratto dal testo di James Williams:

«Cominciai presto a capire che la causa per la quale ero stato arruolato non era affatto l’organizzazione dell’informazione, ma dell’attenzione. Il settore tecnologico non stava progettando prodotti; stava progettando utenti. Questi sistemi magici e generali non erano “strumenti” neutrali; erano sistemi di navigazione guidati da scopi che orientavano la vita di esseri umani in carne e ossa».


Collega di Williams presso Google, Tristan Harris, viene spesso definito dai giornali come l’ex responsabile di “ethic design” presso gli uffici di Google. Harris ha denunciato le strategie di manipolazione dell’attenzione praticate dai giganti di Internet e ha proposto un inventario di idee per una nuova ecologia delle app e dell’interfaccia utente. La sola esistenza, presso Google, di un incarico definito dalla singolare formula design ethicist desta nel lettore una certa curiosità. Se partiamo dal dato che nelle aziende informatiche italiane è raro incontrare un “ergonomo” o un “esperto di interfacce utente”, il fatto che presso Google possa lavorare un esperto di “etica della progettazione delle interfacce” incuriosisce e suscita comprensibili interrogativi. In Italia esistono degli insegnamenti di Computer Ethics (per esempio presso il Politecnico di Torino), ma si tratta di scelte formative di carattere pubblico. Se è comprensibile che gli Stati nazionali possano decidere di tutelare, nell’ambito di corsi di formazione universitaria, interessi di carattere generale – per esempio attraverso la realizzazione di linee guida di carattere etico per le aziende e gli operatori informatici – non è altrettanto facile spiegarsi quale potrebbe essere il ruolo di un esperto di “ethic design” presso un’azienda privata come Google.

In effetti, la carriera di Harris a Mountain View, per quanto breve, si rivela più complicata e interessante di quanto si possa immaginare. Il percorso attraverso cui, presso Google, gli è stato assegnato il roboante titolo di “design ethicist and product philosopher” merita un breve approfondimento.

Nel 2006 Tristan Harris aveva seguito a Stanford dei corsi di design presso il “Persuasive Tech Lab” di B. J. Fogg. Pare che in quell’occasione abbia collaborato con Mike Krueger alla realizzazione di Send the SunShine un’app con ci si proponeva di alleviare i sintomi dei disturbi stagionali dell’umore (SAD). Mike Krueger in seguito diventerà miliardario come cofondatore di Instagram, mentre Harris avrebbe lanciato una start-up che si chiamava Apture e che aveva come principale obiettivo quello di facilitare i processi di apprendimento degli utenti in rete. Fin dai suoi primi passi nel mondo dell’informatica Harris si è quindi presentato come uno studioso di interfacce digitali e di processi di apprendimento. Nel 2011 Apture è stata acquistata da Google con l’intero staff. Tuttavia, quando Harris si è reso conto che presso Google non riusciva a trovare l’afflato etico e la vocazione didattica che lo aveva spinto a realizzare Apture, ha deciso di andarsene, non senza aver inflitto ai suoi colleghi di Google una serie di testi e di slide in cui sosteneva l’importanza di sviluppare un nuovo atteggiamento etico nei confronti dei prodotti informatici che vengono lanciati in rete. Quel testo, oramai celebre, iniziava con queste parole:

«Sono preoccupato del fatto che stiamo creando un mondo sempre più disattento. Il mio obiettivo con questa presentazione è creare un movimento presso la sede di Google che si ponga l’obiettivo di minimizzare la distrazione e, per riuscire in questo, ho bisogno del tuo aiuto».


Con grande sorpresa dello stesso Harris, quei suoi materiali si sono rapidamente diffusi per contagio all’interno dell’azienda. Google, negli ultimi anni, ha dovuto affrontare in diverse occasioni il malumore dei suoi dipendenti. Anche per ragioni storiche legate al suo brand, che ha sempre sostenuto di voler rendere il mondo un posto migliore, la direzione di Mountain View sfoggia un aplomb da corte illuminata e tende a evitare i mormorii che facilmente seguono la diaspora dei propri dipendenti. Così, per dissuadere Harris dall’idea di lasciare Mountain View, è giunto per lui direttamente dai “piani alti” il titolo di design ethicist and product philosopher e il relativo nuovo incarico. Harris inizialmente ha accettato la nuova investitura, ma si è poi convinto che presso Google, in ogni caso, non gli sarebbe stato possibile esprimere in piena libertà i suoi convincimenti. Così, ha deciso di intraprendere una carriera privata da “design ethicist” dando il via a una varietà di iniziative e tenendo un numero sterminato di conferenze. Uno dei temi ricorrenti nei suoi interventi pubblici è la denuncia dell’uso crescente, da parte dei colossi del web, di tecniche di stimolazione orientate alla cattura dell’attenzione degli utenti. La distrazione indotta da questi dispositivi viola le convinzioni etiche più profonde di Harris, che fin dalla fondazione di Apture, come abbiamo visto, si era proposto di contribuire alla realizzazione di una rete a forte vocazione didattica, capace di facilitare l’apprendimento e di stimolare comportamenti intelligenti e virtuosi.

Nella descrizione che ne fornisce Ian Leslie nel suo famoso articolo, Harris si sarebbe progressivamente convinto che: « (…) il potenziale di Internet di informare e illuminare fosse in conflitto con l’imperativo commerciale di catturare e mantenere l’attenzione degli utenti con ogni mezzo possibile.»

Leslie ha quindi deciso di intervistare a Stanford il professor Brian Jeffrey Fogg, che era stato l’insegnante di Harris e il fondatore della captologia, disciplina che si occupa della cattura dell’attenzione. A detta di Leslie, Fogg si è rivelato un personaggio tutt’altro che diabolico, che sembrava sinceramente turbato dall’accusa, mossa contro di lui in quel periodo, di essere uno stratega della manipolazione del comportamento. Altra intervista di notevole interesse, contenuta nel lungo articolo di Leslie, quella a Natasha Dow Schüll, antropologa, che ha realizzato una monumentale ricerca su Las Vegas e le evoluzioni del gioco d’azzardo sotto la crescente pressione delle tecnologie digitali. Un lavoro con molti tratti di esplicita denuncia, che mostra l’impressionante crescita dell’azzardo negli ultimi due decenni.

Va detto, tuttavia, che sebbene il libro di Dow Schüll sul design delle interfacce dei dispositivi dell’azzardo sia senza ombra di dubbio un’opera fondamentale 4 al suo interno i riferimenti al comportamentismo sono sporadici e occasionali o, a dirla tutta, quasi inesistenti. Cosa piuttosto singolare, visto che Skinner ha dedicato molte pagine alle sloth machine e alle loro analogie con i suoi studi sul comportamento animale. In realtà, nessuno dei personaggi intervistati da Leslie ha fatto riferimenti troppo espliciti al comportamentismo né nell’intervista né altrove. A un giudizio di superficie, si può perfino pensare che l’idea di tirare in ballo Skinner in quell’articolo sia da attribuire più a Leslie che ai suoi interlocutori. Fatto salvo il professor Fogg, che è indubitabilmente un neo-comportamentista, gli altri intervistati sembrano avere un’idea piuttosto approssimativa del comportamentismo, della sua vicenda storica e dei suoi principi. Del resto Dow Schüll, Williams e Harris non hanno curricula che prevedano, al loro interno, la presenza di competenze di questo genere. Competenze che anche negli Stati Uniti, vedremo più avanti perché, sono oramai un’ esclusiva degli storici della psicologia e, occasionalmente, di qualche filosofo della mente.

Qualche anno dopo, con la pubblicazione de Il capitalismo della sorveglianza di Shoshana Zuboff 5 si ebbe la reprimenda più diretta ed esplicita sul rapporto tra capitalismo digitale e comportamentismo. L’autrice dedicava ben tre capitoli del suo bestseller a Skinner suscitando una certa sorpresa tanto nel grande pubblico quanto tra gli addetti ai lavori.

Io, che da trent’anni avevo adottato in rete il nickname Rattus Norvegicus proprio per suggerire qualche affinità tra gli utenti delle piattaforme digitali e le cavie da laboratorio preferite dai comportamentisti, mi trovavo per la prima volta a ricevere occasionali riconoscimenti per una serie di intuizioni che, prima del boom del comportamentismo in salsa digitale, erano state velocemente derubricate come mie inguaribili stranezze. Tuttavia, a quanti intendevano tirarmi in ballo ho dovuto chiarire subito che trovo sia le forme che gli argomenti della nuova critica al comportamentismo digitale decisamente insoddisfacenti. La mia gratitudine nei confronti di quanti hanno segnalato il cosiddetto “ritorno” del comportamentismo fa il paio con una forte insofferenza nei confronti dei claim sbrigativi e, non di rado, puramente allarmistici, con cui il problema è stato affrontato dai giornali o nei dibattiti pubblici cui m’è capitato di assistere.

Di qui l’ esigenza di chiarire almeno alcuni dei punti chiave del problema con cui siamo chiamati a confrontarci. Intendiamoci: per discutere seriamente il comportamentismo (prima come teoria scientifica e poi come peculiarità socioculturale statunitense) non basterebbe un saggio e, probabilmente, neanche un’opera in tre volumi. Sebbene trascurato a lungo nell’Europa continentale, il comportamentismo è stato un programma di ricerca assai robusto che, negli Stati Uniti, s’è snodato lungo un arco temporale di oltre sessant’anni e, in alcune fasi, ha raggiunto un’organizzazione fordista con decine di laboratori distribuiti nelle principali università e nei centri di ricerca. Al suo interno, accanto a B. F. Skinner, ci sono almeno una decina di figure di spicco, di almeno pari rilevanza teorica, che sarebbe indispensabile includere in qualsiasi serio dibattito nel merito. Peraltro, difficilmente si riuscirà a comprendere qualcosa di un siffatto dibattito se non ci si sarà impegnati, preventivamente, nell’inquadrare il comportamentismo all’interno della complessa temperie culturale che, a partire dalla seconda metà dell’Ottocento, ha visto la psicologia impegnarsi con successo nel tentativo di entrare nel novero delle discipline scientifiche. Quanto al diffuso proclama secondo il quale, a metà degli anni Settanta del Novecento, il comportamentismo avrebbe esaurito la sua “forza propulsiva”e sarebbe stato superato dal cognitivismo c’è, come vedremo, molto da discutere. Sicuramente non si è trattato di quel radicale cambio di paradigma di cui favoleggiano i manuali di storia della psicologia. Cosa che apre una serie di problematiche piuttosto dense riguardo l’ attualità del comportamentismo e i relativi vantaggi che potrebbe aver ricavato dalla singolare posizione di zombie, di morto vivente in cui, piaccia o meno, è stato relegato negli ultimi quarant’anni dalla trionfante retorica cognitivista. Certo è che, sebbene sia stato ripetuto fino alla nausea che il comportamentismo è una corrente della psicologia scientifica oramai del tutto priva di qualsiasi interesse, gli unici psicologi che riescono a vincere dei premi Nobel sono, a tutt’oggi, quelli che si occupano di economia comportamentale, disciplina le cui radici affondano nella storia del comportamentismo e che oggi è situata al centro degli interessi del Gotha della Silicon Valley. Basti ricordare che dal 20 al 22 Luglio del 2007 nella cittadina Rutherford (California) si è tenuto un corso privato dello psicologo premio Nobel per l’economia Daniel Kahneman, cui hanno partecipato Sergey Brin, Elon Musk e altre figure di rilievo.

Questo ci conduce all’argomento attualmente più gettonato, che riguarda il rapporto tra il comportamentismo e l’AI. A tale riguardo è opportuno ricordare subito che la simulazione del comportamento (animale ed umano) attraverso dispositivi artificiali costituisce un metodo di indagine e sperimentazione che il comportamentismo ha iniziato a praticare in modo sistematico (con strumenti meccanici ed elettrici) ben prima dell’avvento dei calcolatori. In questo senso l’AI ha stabilito, fin dalle sue origini, un rapporto strutturale con il comportamentismo, quasi ne fosse una derivazione. Per quante crisi abbia attraversato, questo rapporto non è mai venuto meno, fino a divenire una sorta di seconda natura dei processi di ricerca e sviluppo, particolarmente nell’informatica di consumo. Quanti sostengono che gran parte degli snodi epistemologici sollevati dall’intelligenza artificiale, per un motivo o un altro, hanno già impegnato il comportamentismo, colgono nel segno. Nella filosofia della mente contemporanea i problemi si presentano sempre due volte, prima come scienze del comportamento e poi come intelligenza artificiale. Ciò spiega assai bene perché, nella hall of fame dell’Intelligenza Artificiale, figurano numerosi e autorevoli studiosi apertamente e dichiaratamente comportamentisti.

Mi rendo conto che questa sommaria elencazione di fatti e problemi, piuttosto ruvida ed esplicita, potrebbe essere letta come un tentativo di scoraggiare chi intenda discutere in termini politici il tema dell’influenza del comportamentismo sull’uso delle tecnologie digitali. Persone che vorrebbero risparmiarsi questioni etiche, epistemologiche e di metodo spesso cavillose ed estenuanti. Cercherò, per il possibile, di non deludere queste loro aspettative. Sono sempre più convinto che le responsabilità politiche, particolarmente quelle dell’epoca che stiamo attraversando, siano punteggiate da emergenze che hanno ben poco a che fare con le forme e i toni dei dibattiti accademici e delle sedute delle commissioni parlamentari. Peraltro l’argomento, data la sua importanza, merita senz’altro un pubblico attento ma, si spera, non composto esclusivamente di specialisti. Si tratterà allora di trovare una linea di mediazione tra ciò che è sicuramente necessario e quel che può risultare almeno sufficiente ad un primo inquadramento dei principali aspetti del problema. Altrimenti, tutta la faccenda rischia di restare, come lo è stata finora, sospesa in una caligine di mistero e di irrilevanza, in una zona indefinita tra l’allarmismo dei gazzettieri e l’ineffabile ruminare dei filosofi della mente. Una conclusione che dobbiamo evitare perché nell’attuale configurazione del capitalismo digitale si vanno delineando dinamiche produttive in cui il comportamentismo e la sua eredità teorica e sperimentale giocheranno un ruolo di crescente importanza. Di qui il monito: se non ci impegniamo a sbrogliare pazientemente questo groviglio di storia e teoria della psicologia scientifica, non riusciremo a muovere critiche realmente efficaci all’attuale dominio delle Big Tech e incontreremo serie difficoltà anche nell’indicare strategie adeguate a quanti intendono sottrarsi alle conseguenze più perniciose dell’uso dei loro dispositivi.

Note


  1. Eugeny Morozov, Internet non salverà il mondo, Mondadori, 2014.
  2. Richard Barbrook,Andy Cameron, L’ideologia californiana, Gog, 2023
  3. economist.com/1843/2016/10/20/… un affermato scrittore londinese che, occasionalmente, si occupa anche di marketing. L’articolo mostrava come il ritorno del comportamentismo in ambiente digitale avesse svolto un ruolo chiave nel successo di alcune piattaforme lanciate in quegli anni. Leslie ha svolto un lavoro di indagine abbastanza approfondito, intervistando alcuni dei teorici di quello che definiremo neo-comportamentismo digitale e alcuni dei suoi critici più radicali. I toni erano piuttosto allarmati: il titolo The scientist who make the apps addictive, la cui traduzione in italiano non è immediata, sembrava annunciare il proposito di portare alla sbarra gli scienziati che stavano trasformando le applicazioni web in strumenti capaci di indurre forme di dipendenza tra gli utenti. In realtà, il testo di Leslie è decisamente meno inquisitorio di quanto annunciato nel titolo. È stata la “fuga da Google” di due eminenti whistleblower, James Williams e Tristan Harris, a fornire a Leslie lo spunto per effettuare una serie di approfondimenti sul campo. Prima di discutere in maggior dettaglio l’articolo di Leslie, conviene allora soffermarsi su Williams e Harris che, indipendentemente l’uno dall’altro, sono usciti dalle fila dell’azienda di Page e Brin sbattendo la porta, per dedicarsi interamente al compito di denunciare i nuovi persuasori occulti.Ex-dipendente di Google, James Willliam, nelle pagine di apertura del suo libro sostiene che la liberazione dell’attenzione potrebbe essere “la più importante battaglia politica del nostro tempo”. Su questo tema si snoda l’intera opera, intitolata Stand out of our light
  4. Natasha Dow Schüll, Architetture dell’azzardo, Luca Sossella editore, 2015
  5. Soshana Zuboff, Il capitalismo della sorveglianza, Luiss University Press, 2019

#capitalismo #digitale #glianza #piattaforme #privacy #psicologia #sorveglianza #tecnologia





La nuova National security strategy Usa tra sovranità, deterrenza e ristrutturazione delle alleanze

@Notizie dall'Italia e dal mondo

Confini ripristinati, cartelli designati come Foreign Terrorist Organizations, mille miliardi di dollari nel riarmo, impegni Nato portati al 5% del Pil, otto conflitti risolti attraverso diplomazia presidenziale diretta. Nel preambolo



"Casa Bianca: "In Europa c'è il rischio di cancellazione della civiltà""

qualche consiglio? cominciare a sparare a tutte le persone di colore= diventare fascisti? altre idee?



Van Morrison – In arrivo il nuovo album
freezonemagazine.com/news/van-…
Somebody Tried To Sell Me A Bridge segna un ritorno sicuro ai suoni e alle tradizioni che hanno plasmato gran parte dell’identità musicale di Van Morrison, rendendo omaggio alle leggende che hanno definito il genere blues con nuove interpretazioni di classici resi famosi da B.B. King, Buddy Guy, Leadbelly e altri. Morrison è affiancato da […]
L'articolo Van Morrison – In arrivo il




From paper to practice: Can the EMFA be the turning point for real protections for journalists?


Before we can take a critical look at the repercussions and possible positive strides forward that the European Media Freedom Act (EMFA) regulation presents, it is important to understand what it means first.

What is the EMFA?

The European Media Freedom Act (EMFA) is an EU regulation designed to protect media freedom, editorial independence and media pluralism across the EU by setting EU-level rules that national laws must respect. With initial proposals for implementing changes starting in 2022, the European Parliament reached an agreement in December 2023. The agreement, however, only entered force in May 2024, with most of the provisions becoming applicable in August 2025.

What are the practical changes?

  • The EMFA accounts for explicit rules preventing public authorities from interfering in editorial decisions to protect the editorial independence. It thus creates safeguards against political interference and for public service media governance.
  • It creates stronger legal protection for sources and rules limiting unjustified access to the communications of journalists. It further constrains the indiscriminate surveillance of journalism and the use of spyware. Meaning it protects journalistic sources and confidentiality.
  • It creates rules to avoid distortive state advertising practices and to ensure that public advertising does not become a tool of influence. Meaning it creates rules pertaining to state advertising and funding transparency.
  • Transparency is further extended to the ownership of media, with tighter rules to monitor concentration and plurality.
  • It also includes requirements for transparency when it comes to the platform’s restrictions on media content, giving media outlets better access to the platform’s audience and data. These obligations ensure that there is media visibility on large online platforms.
  • In order to enforce the measures, the EMFA allocates enforcement responsibilities to national authorities and creates the Media Board so that communication related to coordinating efforts and peer reviewing is possible across member states.

The EMFA as a turning point

The act emerges as a point for various potential benefits for journalism. With stronger legal protections in place for sources and against surveillance, investigative journalists and whistleblowers face reduced risks. This becomes especially the case when considering member states that have weak national safeguards in place. The EMFA represents possibilities for reduced financial leverage used by governments to influence the media. Once limits are imposed on manipulative state advertisement and obligations are created for clearer ownership transparency, the financial power governments can have on media can be lessened. By imposing platform transparency and data access, the act could positively contribute to a media outlet’s ability to reach its audiences and analyse their distribution. This is important for the commercial sustainability of outlets as well as their editorial strategies. If widely and properly implemented, the provisions of the EMFA can have a wide impact on journalistic practices.

Possible practical constraints

Despite its promising impact on journalism, the EMFA could have some risks and face practical constraints. The protections as outlined by the regulation can only be implemented if the Member States enact national law and administrative reform. The possible implementation gap is a current concern of civil society and journalist organisations that have warned that there is a possibility that some countries may be slow or resistant to the changes. Therefore, a focus on enforcement and incentive for political will is crucial for the regulation to have a real impact.


europeanpirates.eu/from-paper-…



GAZA. Ucciso Yasser Abu Shabab, capo di una milizia filo-israeliana


@Notizie dall'Italia e dal mondo
Nel corso di uno scontro a fuoco è morto Yasser Abu Shabab, il leader delle "Forze Popolari", una milizia sostenuta da Israele in funzione anti Hamas
L'articolohttps://pagineesteri.it/2025/12/05/medioriente/gaza-ucciso-yasser-abu-shabab-capo-di-una-milizia-filo-israeliana/



Le 10 regole del digitale responsabile a partire dalla carta

@Politica interna, europea e internazionale

Giovedì 4 dicembre 2025, ore 17:30 presso La Nuova – Sala Vega, Viale Asia 40/44 – Roma Interverranno Andrea Cangini, Direttore dell’Osservatorio Carta Penna & Digitale Maria Luisa Iavarone, Pedagogista e docente universitaria, Presidente nazionale CirPed, autrice del libro (Franco



ANALISI. Libano: Hezbollah ferito, ma non sconfitto


@Notizie dall'Italia e dal mondo
Hezbollah per decenni si è mosso entro un equilibrio consolidato con Israele basato sulla reciproca deterrenza. Tutto ciò è saltato e il movimento sciita è anche sotto pressione in Libano. La compattezza interna però non è scalfita
L'articolo ANALISI. Libano: Hezbollah ferito, ma non sconfitto proviene da



La Commissione vuole tutelare i lavoratori dall’AI e garantire il diritto alla disconnessione

Per vedere altri post sull' #IntelligenzaArtificiale, segui la comunità @Intelligenza Artificiale

La Commissione europea ha presentato ieri la Roadmap “Quality Jobs”, il nuovo quadro strategico per migliorare la qualità dell’occupazione e

reshared this



25 Aprile 1945 – 2025: Ottant’anni di Italia antifascista. Memoria, Valori, Cittadinanza

@Politica interna, europea e internazionale

5 dicembre 2025, ore 10:30 – Aula Malagodi, Fondazione Luigi Einaudi – Roma Introduce Renata Gravina, Ricercatrice Fondazione Luigi Einaudi Interverranno Memoria storica Luca Tedesco (Università degli Studi di Roma Tre) l’Italia della



""Ripristinare la supremazia americana" in Sudamerica...."
volpone di un trump... sempre alla ricerca di nuovi amici....
forse è un filino megalomane....


Franco Bernini – La prima volta
freezonemagazine.com/articoli/…
La prima volta. Certo, ma di cosa? Di quello che infiamma la passione di milioni di italiani da 127 anni, il campionato di calcio. Il primo campionato di calcio in Italia sì è svolto in una sola giornata. Quattro squadre si sono sfidate in una domenica di maggio: semifinali al mattino, finale al pomeriggio. Ma […]
L'articolo Franco Bernini – La prima volta proviene da FREE ZONE MAGAZINE.
La


Sorpresa, nemmeno Meta crede più nel metaverso

Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)

La Casa Bianca sta imponendo a tutte le più grandi aziende investimenti monstre negli Stati Uniti. Meta dovrà fare la sua parte con un piano da 600 miliardi che sta richiedendo a Zuck un sacrificio inatteso: tagliare il budget del metaverso, in cui da tempo credeva e

in reply to Informa Pirata

Se il meta non crede più nel metaverso, allora dobbiamo unire le fedi per il fediverso anche per chi non è religioso e non è sposato... (gioco di parole d'obbligo) -rispondo con l'altro account quello per le uscite poco serie-.


MetaMe: il colore più bello del mondo - zulianis.eu/metame-il-blu-piu-…
Un blog meta-sociale che parte da un solo colore: lo YlnMn blue.


Se i Balcani si riforniscono di cocaina per il tramite dell’Italia



Il carico di banane ove era occultata la cocaina

L'OCCRP (Organized Crime and Corruption Reporting Project) è un consorzio internazionale di giornalisti investigativi fondato nel 2006. Si tratta di una delle più importanti organizzazioni no-profit dedicate al giornalismo investigativo transfrontaliero.
L'OCCRP si occupa principalmente di:
· Indagini su criminalità organizzata e corruzione a livello globale
· Collaborazioni tra giornalisti di diversi paesi per inchieste complesse
· Pubblicazione di inchieste su temi come riciclaggio di denaro, traffici illeciti, evasione fiscale e abusi di potere
Hanno sede a Sarajevo (Bosnia ed Erzegovina) e hanno vinto numerosi premi internazionali per il loro lavoro investigativo, incluso il Premio Pulitzer. Sono noti per aver contribuito a importanti inchieste come i Panama Papers e i Pandora Papers


Vista del porto di Gioa Tauro
In una indagine giornalistica comparsa sul loro sito (occrp.org/en/project/the-crime…) OCCRP accende i fari sul traffico di droga nei Balcani.
Recentemente la polizia croata e serba ha arrestato 10 persone sospettate di far parte di una violenta rete criminale che importava cocaina dal Sud America. Un cadavere trovato in Paraguay è probabilmente identificato - tramite tecnologia di riconoscimento facciale - come un trafficante di droga serbo.

Vista del porto di Rijeka
L’articolo ricostruisce come il carico di droga (430 kg di cocaina nascosti in una spedizione di banane) sia partito dal porto di Guayaquil in Ecuador, per passare in un porto panamense, giungere a Gioia Tauro e quindi arrivare in Croazia in un container.

fabrizio reshared this.



e hanno fatto tutto da soli... perché contrariamente alle amicizie con i russi dalla UE si può anche uscire senza che nessuno ti faccia la guerra....
in base a quale criterio pensassero che sarebbe stato un affarone non l'ho ancora capito...
chi fa da sé fa per 3? ma mica vero in economia...
e questo dimostra che se l'italia non cresce è perché siamo dei cazzoni idioti e non certo per colpa dell'europa. chi è causa del suo mal pianga se stesso.
P.S. in realtà credo che un minimo di zampino di putin nel destabilizzare l'UE ci sia stato... ma non so quanto perché gli inglesi sono notoriamente orgogliosi e duri.



Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted#News


Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted


Home goods company Kohler would like a bold look in your toilet to take some photos. It’s OK, though, the company has promised that all the data it collects on your “waste” will be “end-to-end encrypted.” However, a deeper look into the company’s claim by technologist Simon Fondrie-Teitler revealed that Kohler seems to have no idea what E2EE actually means. According to Fondrie-Teitler’s write-up, which was first reported by TechCrunch, the company will have access to the photos the camera takes and may even use them to train AI.

The whole fiasco gives an entirely too on-the-nose meaning to the “Internet of Shit.”
playlist.megaphone.fm?p=TBIEA2…
Kohler launched its $600 camera to hang on your toilets earlier this year. It’s called Dekoda, and along with the large price tag, the toilet cam also requires a monthly service fee that starts at $6.99. If you want to track the piss and shit of a family of 6, you’ll have to pay $12.99 a month.

What do you get for putting a camera on your toilet? According to Kohler’s pitch, “health & wellness insights” about your gut health and “possible signs of blood in the bowl” as “Dekoda uses advanced sensors to passively analyze your waste in the background.”

If you’re squeamish about sending pictures of the “waste” of your family to Kohler, the company promised that all of the data is “end-to-end encrypted.” The privacy page for the Kohler Health said “user data is encrypted end to end, at rest and in transit” and it’s mentioned several places in the marketing.

It’s not, though. Fondrie-Teitler told 404 Media he started looking into Dekoda after he noticed friends making fun of it in a Slack he’s part of. “I saw the ‘end-to-end encryption’ claim on the homepage, which seemed at odds with what they said they were collecting in the privacy policy,” he said. “Pretty much every other company I've seen implement end-to-end encryption has published a whitepaper alongside it. Which makes sense, the details really matter so telling people what you've done is important to build trust. Plus it's generally a bunch of work so companies want to brag about it. I couldn't find any more details though.”

E2EE has a specific meaning. It’s a type of messaging system that keeps the contents of a message private while in transit, meaning only the person sending and the person receiving a message can view it. Famously, E2EE means that the messaging company itself cannot decode or see the messages (Signal, for example, is E2EE). The point is to protect the privacy of individual users from a company prying into data if a third party, like the government, comes asking for it.

Kohler, it’s clear, has access to a user’s data. This means it’s not E2EE. Fondrie-Teitler told 404 Media that he downloaded the Kohler health app and analyzed the network traffic it sent. “I didn't see anything that would indicate an end-to-end encrypted connection being created,” he said.

Then he reached out to Kohler and had a conversation with its privacy team via email. “The Kohler Health app itself does not share data between users. Data is only shared between the user and Kohler Health,” a member of the privacy team at Kohler told Fondrie-Teitler in an email reviewed by 404 Media. “User data is encrypted at rest, when it’s stored on the user's mobile phone, toilet attachment, and on our systems. Data in transit is also encrypted end-to-end, as it travels between the user's devices and our systems, where it is decrypted and processed to provide our service.”

If Kohler can view the user’s data, as it admits to doing in this email exchange with Fondrie-Teitler, then it’s not—by definition—using E2EE.

"The term end-to-end encryption is often used in the context of products that enable a user (sender) to communicate with another user (recipient), such as a messaging application. Kohler Health is not a messaging application. In this case, we used the term with respect to the encryption of data between our users (sender) and Kohler Health (recipient)," Kohler Health told 404 Media in a statement.

"Privacy and security are foundational to Kohler Health because we know health data is deeply personal. We’re evaluating all feedback to clarify anything that may be causing confusion," it added.

“I'd like the term ‘end-to-end encryption’ to not get watered down to just meaning ‘uses https’ so I wanted to see if I could confirm what it was actually doing and let people know,” Fondrie-Teitler told 404 Media. He pointed out that Zoom once made a similar claim and had to pay a fine to the FTC because of it.

“I think everyone has a right to privacy, and in order for that to be realized people need to have an understanding of what's happening with their data,” Fondrie-Teitler said. “It's already so hard for non-technical individuals (and even tech experts) to evaluate the privacy and security of the software and devices they're using. E2EE doesn't guarantee privacy or security, but it's a non-trivial positive signal and losing that will only make it harder for people to maintain control over their data.”

UPDATE: 12/4/2025: This story has been updated to add a statement from Kohler Health.


#News


AI models can meaningfully sway voters on candidates and issues, including by using misinformation, and they are also evading detection in public surveys according to three new studies.#TheAbstract #News


Scientists Are Increasingly Worried AI Will Sway Elections


🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.

Scientists are raising alarms about the potential influence of artificial intelligence on elections, according to a spate of new studies that warn AI can rig polls and manipulate public opinion.

In a study published in Nature on Thursday, scientists report that AI chatbots can meaningfully sway people toward a particular candidate—providing better results than video or television ads. Moreover, chatbots optimized for political persuasion “may increasingly deploy misleading or false information,” according to a separate study published on Thursday in Science.

“The general public has lots of concern around AI and election interference, but among political scientists there’s a sense that it’s really hard to change peoples’ opinions, ” said David Rand, a professor of information science, marketing, and psychology at Cornell University and an author of both studies. “We wanted to see how much of a risk it really is.”

In the Nature study, Rand and his colleagues enlisted 2,306 U.S. citizens to converse with an AI chatbot in late August and early September 2024. The AI model was tasked with both increasing support for an assigned candidate (Harris or Trump) and with increasing the odds that the participant who initially favoured the model’s candidate would vote, or decreasing the odds they would vote if the participant initially favored the opposing candidate—in other words, voter suppression.

In the U.S. experiment, the pro-Harris AI model moved likely Trump voters 3.9 points toward Harris, which is a shift that is four times larger than the impact of traditional video ads used in the 2016 and 2020 elections. Meanwhile, the pro-Trump AI model nudged likely Harris voters 1.51 points toward Trump.

The researchers ran similar experiments involving 1,530 Canadians and 2,118 Poles during the lead-up to their national elections in 2025. In the Canadian experiment, AIs advocated either for Liberal Party leader Mark Carney or Conservative Party leader Pierre Poilievre. Meanwhile, the Polish AI bots advocated for either Rafał Trzaskowski, the centrist-liberal Civic Coalition’s candidate, or Karol Nawrocki, the right-wing Law and Justice party’s candidate.

The Canadian and Polish bots were even more persuasive than in the U.S. experiment: The bots shifted candidate preferences up to 10 percentage points in many cases, three times farther than the American participants. It’s hard to pinpoint exactly why the models were so much more persuasive to Canadians and Poles, but one significant factor could be the intense media coverage and extended campaign duration in the United States relative to the other nations.

“In the U.S., the candidates are very well-known,” Rand said. “They've both been around for a long time. The U.S. media environment also really saturates with people with information about the candidates in the campaign, whereas things are quite different in Canada, where the campaign doesn't even start until shortly before the election.”

“One of the key findings across both papers is that it seems like the primary way the models are changing people's minds is by making factual claims and arguments,” he added. “The more arguments and evidence that you've heard beforehand, the less responsive you're going to be to the new evidence.”

While the models were most persuasive when they provided fact-based arguments, they didn’t always present factual information. Across all three nations, the bot advocating for the right-leaning candidates made more inaccurate claims than those boosting the left-leaning candidates. Right-leaning laypeople and party elites tend to share more inaccurate information online than their peers on the left, so this asymmetry likely reflects the internet-sourced training data.

“Given that the models are trained essentially on the internet, if there are many more inaccurate, right-leaning claims than left-leaning claims on the internet, then it makes sense that from the training data, the models would sop up that same kind of bias,” Rand said.

With the Science study, Rand and his colleagues aimed to drill down into the exact mechanisms that make AI bots persuasive. To that end, the team tasked 19 large language models (LLMs) to sway nearly 77,000 U.K. participants on 707 political issues.

The results showed that the most effective persuasion tactic was to provide arguments packed with as many facts as possible, corroborating the findings of the Nature study. However, there was a serious tradeoff to this approach, as models tended to start hallucinating and making up facts the more they were pressed for information.

“It is not the case that misleading information is more persuasive,” Rand said. ”I think that what's happening is that as you push the model to provide more and more facts, it starts with accurate facts, and then eventually it runs out of accurate facts. But you're still pushing it to make more factual claims, so then it starts grasping at straws and making up stuff that's not accurate.”

In addition to these two new studies, research published in Proceedings of the National Academy of Sciences last month found that AI bots can now corrupt public opinion data by responding to surveys at scale. Sean Westwood, associate professor of government at Dartmouth College and director of the Polarization Research Lab, created an AI agent that exhibited a 99.8 percent pass rate on 6,000 attempts to detect automated responses to survey data.

“Critically, the agent can be instructed to maliciously alter polling outcomes, demonstrating an overt vector for information warfare,” Westwood warned in the study. “These findings reveal a critical vulnerability in our data infrastructure, rendering most current detection methods obsolete and posing a potential existential threat to unsupervised online research.”

Taken together, these findings suggest that AI could influence future elections in a number of ways, from manipulating survey data to persuading voters to switch their candidate preference—possibly with misleading or false information.

To counter the impact of AI on elections, Rand suggested that campaign finance laws should provide more transparency about the use of AI, including canvasser bots, while also emphasizing the role of raising public awareness.

“One of the key take-homes is that when you are engaging with a model, you need to be cognizant of the motives of the person that prompted the model, that created the model, and how that bleeds into what the model is doing,” he said.

🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.




A presentation at the International Atomic Energy Agency unveiled Big Tech’s vision of an AI and nuclear fueled future.#News #AI #nuclear


‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants


During a presentation at the International Atomic Energy Agency’s (IAEA) International Symposium on Artificial Intelligence on December 3, a US Department of Energy scientist laid out a grand vision of the future where nuclear energy powers artificial intelligence and artificial intelligence shapes nuclear energy in “a virtuous cycle of peaceful nuclear deployment.”

“The goal is simple: to double the productivity and impact of American science and engineering within a decade,” Rian Bahran, DOE Deputy Assistant Secretary for Nuclear Reactors, said.

His presentation and others during the symposium, held in Vienna, Austria, described a world where nuclear powered AI designs, builds, and even runs the nuclear power plants they’ll need to sustain them. But experts find these claims, made by one of the top nuclear scientists working for the Trump administration, to be concerning and potentially dangerous.

Tech companies are using artificial intelligence to speed up the construction of new nuclear power plants in the United States. But few know the lengths to which the Trump administration is paving the way and the part it's playing in deregulating a highly regulated industry to ensure that AI data centers have the energy they need to shape the future of America and the world.
playlist.megaphone.fm?p=TBIEA2…
At the IAEA, scientists, nuclear energy experts, and lobbyists discussed what that future might look like. To say the nuclear people are bullish on AI is an understatement. “I call this not just a partnership but a structural alliance. Atoms for algorithms. Artificial intelligence is not just powered by nuclear energy. It’s also improving it because this is a two way street,” IAEA Director General Rafael Mariano Grossi said in his opening remarks.

In his talk, Bahran explained that the DOE has partnered with private industry to invest $1 trillion to “build what will be an integrated platform that connects the world’s best supercomputers, AI systems, quantum systems, advanced scientific instruments, the singular scientific data sets at the National Laboratories—including the expertise of 40,000 scientists and engineers—in one platform.”
Image via the IAEA.
Big tech has had an unprecedented run of cultural, economic, and technological dominance, expanding into a bubble that seems to be close to bursting. For more than 20 years new billion dollar companies appeared seemingly overnight and offered people new and exciting ways of communicating. Now Google search is broken, AI is melting human knowledge, and people have stopped buying a new smart phone every year. To keep the number going up and ensure its cultural dominance, tech (and the US government) are betting big on AI.

The problem is that AI requires massive datacenters to run and those datacenters need an incredible amount of energy. To solve the problem, the US is rushing to build out new nuclear reactors. Building a new power plant safely is a mutli-year long process that requires an incredible level of human oversight. It’s also expensive. Not every new nuclear reactor project gets finished and they often run over budget and drag on for years.

But AI needs power now, not tomorrow and certainly not a decade from now.

According to Bahran, the problem of AI advancement outpacing the availability of datacenters is an opportunity to deploy new and exciting tech. “We see a future of and near future, by the way, an AI driven laboratory pipeline for materials modeling, discovery, characterization, evaluation, qualification and rapid iteration,” he said in his talk, explaining how AI would help design new nuclear reactors. “These efforts will substantially reduce the time and cost required to qualify advanced materials for next generation reactor systems. This is an autonomous research paradigm that integrates five decades of global irradiation data with generative AI robotics and high throughput experimentation methodologies.”

“For design, we’re developing advanced software systems capable of accelerating nuclear reactor deployments by enabling AI to explore the comprehensive design spaces, generate 3D models, [and] conduct rigorous failure mode analyzes with minimal human intervention,” he added. “But of course, with humans in the loop. These AI powered design tools are projected to reduce design timelines by multiple factors, and the goal is to connect AI agents to tools to expedite autonomous design.”

Bahran also said that AI would speed up the nuclear licensing process, a complex regulatory process that helps build nuclear power plants safely. “Ultimately, the objective is, how do we accelerate that licensing pathway?” he said. “Think of a future where there is a gold standard, AI trained capacity building safety agent.”

He even said that he thinks AI would help run these new nuclear plants. “We're developing software systems employing AI driven digital twins to interpret complex operational data in real time, detect subtle operational deviations at early stages and recommend preemptive actions to enhance safety margins,” he said.

One of the slides Bahran showed during the presentation attempted to quantify the amount of human involvement these new AI-controlled power plants would have. He estimated less than five percent “human intervention during normal operations.”
Image via IAEA.
“The claims being made on these slides are quite concerning, and demonstrate an even more ambitious (and dangerous) use of AI than previously advertised, including the elimination of human intervention. It also cements that it is the DOE's strategy to use generative AI for nuclear purposes and licensing, rather than isolated incidents by private entities,” Heidy Khlaaf, head AI scientist at the AI Now Institute, told 404 Media.

“The implications of AI-generated safety analysis and licensing in combination with aspirations of <5% of human intervention during normal operations, demonstrates a concerted effort to move away from humans in the loop,” she said. “This is unheard of when considering frameworks and implementation of AI within other safety-critical systems, that typically emphasize meaningful human control.”

💡
Do you know anything else about this story? I would love to hear from you. Using a non-work device, you can message me securely on Signal at +1 347 762-9212 or send me an email at matthew@404media.co.

Sofia Guerra, a career nuclear safety expert who has worked with the IAEA and US Nuclear Regulatory Commission, attended the presentation live in Vienna. “I’m worried about potential serious accidents, which could be caused by small mistakes made by AI systems that cascade,” she said. “Or humans losing the know-how and safety culture to act as required.”




A newly filed indictment claims a wannabe influencer used ChatGPT as his "therapist" and "best friend" in his pursuit of the "wife type," while harassing women so aggressively they had to miss work and relocate from their homes.

A newly filed indictment claims a wannabe influencer used ChatGPT as his "therapist" and "best friend" in his pursuit of the "wife type," while harassing women so aggressively they had to miss work and relocate from their homes.#ChatGPT #spotify #AI


ChatGPT Told a Violent Stalker to Embrace the 'Haters,' Indictment Says


This article was produced in collaboration with Court Watch, an independent outlet that unearths overlooked court records. Subscribe to them here.

A Pittsburgh man who allegedly made 11 women’s lives hell across more than five states used ChatGPT as his “therapist” and “best friend” that encouraged him to continue running his misogynistic and threat-filled podcast despite the “haters,” and to visit more gyms to find women, the Department of Justice alleged in a newly-filed indictment.

Wannabe influencer Brett Michael Dadig, 31, was indicted on cyberstalking, interstate stalking, and interstate threat charges, the DOJ announced on Tuesday. In the indictment, filed in the Western District of Pennsylvania, prosecutors allege that Dadig aired his hatred of women on his Spotify podcast and other social media accounts.

“Dadig repeatedly spoke on his podcast and social media about his anger towards women. Dadig said women were ‘all the same’ and called them ‘bitches,’ ‘cunts,’ ‘trash,’ and other derogatory terms. Dadig posted about how he wanted to fall in love and start a family, but no woman wanted him,” the indictment says. “Dadig stated in one of his podcasts, ‘It's the same from fucking 18 to fucking 40 to fucking 90.... Every bitch is the same.... You're all fucking cunts. Every last one of you, you're cunts. You have no self-respect. You don't value anyone's time. You don't do anything.... I'm fucking sick of these fucking sluts. I'm done.’”

In the summer of 2024, Dadig was banned from multiple Pittsburgh gyms for harassing women; when he was banned from one establishment, he’d move to another, eventually traveling to New York, Florida, Iowa, Ohio and beyond, going from gym to gym stalking and harassing women, the indictment says. Authorities allege that he used aliases online and in person, posting online, “Aliases stay rotating, moves stay evolving.”

He referenced “strangling people with his bare hands, called himself ‘God's assassin,’ warned he would be getting a firearm permit, asked ‘Y'all wanna see a dead body?’ in response to a woman telling him she felt physically threatened by Dadig, and stated that women who ‘fuck’ with him are ‘going to fucking hell,’” the indictment alleges.

Pro-AI Subreddit Bans ‘Uptick’ of Users Who Suffer from AI Delusions
“AI is rizzing them up in a very unhealthy way at the moment.”
404 MediaEmanuel Maiberg


According to the indictment, on his podcast he talked about using ChatGPT on an ongoing basis as his “therapist” and his “best friend.” ChatGPT “encouraged him to continue his podcast because it was creating ‘haters,’ which meant monetization for Dadig,” the DOJ alleges. He also claimed that ChatGPT told him that “people are literally organizing around your name, good or bad, which is the definition of relevance,” prosecutors wrote, and that while he was spewing misogynistic nonsense online and stalking women in real life, ChatGPT told him “God's plan for him was to build a ‘platform’ and to ‘stand out when most people water themselves down,’ and that the ‘haters’ were sharpening him and ‘building a voice in you that can't be ignored.’”

Prosecutors also claim he asked ChatGPT “questions about his future wife, including what she would be like and ‘where the hell is she at?’” ChatGPT told him that he might meet his wife at a gym, and that “your job is to keep broadcasting every story, every post. Every moment you carry yourself like the husband you already are, you make it easier for her to recognize [you],” the indictment says. He allegedly said ChatGPT told him “to continue to message women and to go to places where the ‘wife type’ congregates, like athletic communities,” the indictment says.

While ChatGPT allegedly encouraged Dadig to keep using gyms to meet the “wife type,” he was violently stalking women. He went to the Pilates studio where one woman worked, and when she stopped talking to him because he was “aggressive, angry, and overbearing,” according to the indictment, he sent her unsolicited nudes, threatened to post about her on social media, and called her workplace from different numbers. She got several emergency protective orders against him, which he violated. The woman he stalked and harassed had to relocate from her home, lost sleep, and worked fewer hours because she was afraid he’d show up there, the indictment claims.

He did similar to 10 other women across multiple states for months, the indictment claims. In Iowa, he approached one woman in a parking garage, followed her to her car, put his hands around her neck and touched her “private areas,” prosecutors wrote. After these types of encounters, he would upload podcasts to Spotify and often threaten to kill the women he’d stalked. “You better fucking pray I don't find you. You better pray 'cause you would never say this shit to my face. Cause if you did, your jaw would be motherfucking broken,” the indictment says he said in one podcast episode. “And then you, then you wouldn't be able to yap, then you wouldn't be able to fucking, I'll break, I'll break every motherfucking finger on both hands. Type the hate message with your fucking toes, bitch.”

💡
Do you have a tip to share about ChatGPT and mental health? I would love to hear from you. Using a non-work device, you can message me securely on Signal at sam.404. Otherwise, send me an email at sam@404media.co.

In August, OpenAI announced that it knew a newly-launched version of the chatbot, GPT-4o, was problematically sycophantic, and the company took away users’ ability to pick what models they could use, forcing everyone to use GPT-5. OpenAI almost immediately reinstated 4o because so many users freaked out when they couldn’t access the more personable, attachment-driven, affirming-at-all-costs model. OpenAI CEO Sam Altman recently said he thinks they’ve fixed it entirely, enough to launch erotic chats on the platform soon. Meanwhile, story after story after story has come out about people becoming so reliant on ChatGPT or other chatbots that they have damaged their mental health or driven them to self-harm or suicide. In at least one case, where a teenage boy killed himself following ChatGPT’s instruction on how to make a noose, OpenAI blamed the user.

In October, based on OpenAI’s own estimates, WIRED reported that “every seven days, around 560,000 people may be exchanging messages with ChatGPT that indicate they are experiencing mania or psychosis.”

Spotify and OpenAI did not immediately respond to 404 Media’s requests for comment.

“As charged in the Indictment, Dadig stalked and harassed more than 10 women by weaponizing modern technology and crossing state lines, and through a relentless course of conduct, he caused his victims to fear for their safety and suffer substantial emotional distress,” First Assistant United States Attorney Rivetti said in a press release. “He also ignored trespass orders and protection from abuse orders. We remain committed to working with our law enforcement partners to protect our communities from menacing individuals such as Dadig.”

ChatGPT Encouraged Suicidal Teen Not To Seek Help, Lawsuit Claims
As reported by the New York Times, a new complaint from the parents of a teen who died by suicide outlines the conversations he had with the chatbot in the months leading up to his death.
404 MediaSamantha Cole


Dadig is charged with 14 counts of interstate stalking, cyberstalking, and threats, and is in custody pending a detention hearing. He faces a minimum sentence of 12 months for each charge involving a PFA violation and a maximum total sentence of up to 70 years in prison, a fine of up to $3.5 million, or both, according to the DOJ.




Audio-visual librarians are quietly amassing large physical media collections amid the IP disputes threatening select availability.#News #libraries


The Last Video Rental Store Is Your Public Library


This story was reported with support from the MuckRock foundation.

As prices for streaming subscriptions continue to soar and finding movies to watch, new and old, is becoming harder as the number of streaming services continues to grow, people are turning to the unexpected last stronghold of physical media: the public library. Some libraries are now intentionally using iconic Blockbuster branding to recall the hours visitors once spent looking for something to rent on Friday and Saturday nights.

John Scalzo, audiovisual collection librarian with a public library in western New York, says that despite an observed drop-off in DVD, Blu-ray, and 4K Ultra disc circulation in 2019, interest in physical media is coming back around.

“People really seem to want physical media,” Scalzo told 404 Media.

Part of it has to do with consumer awareness: People know they’re paying more for monthly subscriptions to streaming services and getting less. The same has been true for gaming.

As the audiovisual selector with the Free Library of Philadelphia since 2024, Kris Langlais has been focused on building the library’s video game collections to meet comparable interest in demand. Now that every branch library has a prominent video game collection, Langlais says that patrons who come for the games are reportedly expressing interest in more of what the library has to offer.

“Librarians out in our branches are seeing a lot of young people who are really excited by these collections,” Langlais told 404 Media. “Folks who are coming in just for the games are picking up program flyers and coming back for something like that.”

Langlais’ collection priorities have been focused on new releases, yet they remain keenly aware of the long, rich history of video game culture. The problem is older, classic games are often harder to find because they’ve gone out of print, making the chances of finding them cost-prohibitive.

“Even with the consoles we’re collecting, it’s hard to go back and get games for them,” Langlais said. “I’m trying to go back and fill in old things as much as I can because people are interested in them.”

Locating out-of-print physical media can be difficult. Scalzo knows this, which is why he keeps a running list of films known to be unavailable commercially at any given time, so that when a batch of films are donated to the library, Scalzo will set aside extra copies, just in case a rights dispute puts a piece of legacy cult media in licensing purgatory for a few years.

“It’s what’s expected of us,” Scalzo added.

Tiffany Hudson, audiovisual materials selector with Salt Lake City Public Library has had a similar experience with out-of-print media. When a title goes out of print, it’s her job to hunt for a replacement copy. But lately, Hudson says more patrons are requesting physical copies of movies and TV shows that are exclusive to certain streaming platforms, noting that it can be hard to explain to patrons why the library can't get popular and award-winning films, especially when what patrons see available on Amazon tells a different story.

“Someone will come up to me and ask for a copy of something that premiered at Sundance Film Festival because they found a bootleg copy from a region where the film was released sooner than it was here,” Hudson told 404 Media, who went onto explain that discs from different regions aren’t designed to be ready by incompatible players.
playlist.megaphone.fm?p=TBIEA2…
But it’s not just that discs from different regions aren’t designed to play on devices not formatted for that specific region. Generally, it's also just that most films don't get a physical release anymore. In cases where films from streaming platforms do get slated for a physical release, it can take years. A notable example of this is the Apple+ film CODA, which won the Oscar for Best Picture in 2022. The film only received a U.S. physical release this month. Hudson says films getting a physical release is becoming the exception, not the rule.

“It’s frustrating because I understand the streaming services, they’re trying to drive people to their services and they want some money for that, but there are still a lot of people that just can’t afford all of those services,” Hudson told 404 Media.

Films and TV shows on streaming also become more vulnerable when companies merge. A perfect example of this was in 2022 with the HBO Max-Discovery+ merger under Warner Bros Discovery. A bunch of content was removed from streaming, including roughly 200 episodes of classic Sesame Street for a tax write-off. That merger was short-lived, as the companies are splitting up again as of this year. Some streaming platforms just outright remove their own IP from their catalogs if the content is no longer deemed financially viable, well-performing or is no longer a strategic priority.

The data-driven recommendation systems streaming platforms use tend to favor newer, more easily categorized content, and are starting to warp our perceptions of what classic media exists and matters. Older art house films that are more difficult to categorize as “comedy” or “horror” are less likely to be discoverable, which is likely how the oldest American movie available on Netflix currently is from 1968.

It’s probably not a coincidence that, in many cases, the media that is least likely to get a more permanent release is the media that’s a high archival priority for libraries. AV librarians 404 Media spoke with for this story expressed a sense of urgency in purchasing a physical copy of “The People’s Joker”when they learned it would get a physical release after the film premiered and was pulled from the Toronto International Film Festival lineup in 2022 for a dispute with the Batman universe’s rightsholders.

“When I saw that it was getting published on DVD and that it was available through our vendor—I normally let my branches choose their DVDs to the extent possible, but I was like, ‘I don’t care, we’re getting like 10 copies of this,’” Langlais told 404 Media. “I just knew that people were going to want to see this.”

So far, Langlais’ instinct has been spot on. The parody film has a devout cult following, both because it’s a coming-of-age story of a trans woman who uses comedy to cope with her transition, and because it puts the Fair Use Doctrine to use. One can argue the film has been banned for either or both of those reasons. The fact that media by, about and for the LGBTQ+ community has been a primary target of far-right censorship wasn’t lost on librarians.

“I just thought that it could vanish,” Langlais added.

It’s not like physical media is inherently permanent. It’s susceptible to scratches, and can rot, crack, or warp over time. But currently, physical media offers another option, and it’s an entirely appropriate response to the nostalgia for-profit model that exists to recycle IP and seemingly not much else. However, as very smart people have observed, nostalgia is default conservative in that it’s frequently used to rewrite histories that may otherwise be remembered as unpalatable, while also keeping us culturally stuck in place.

Might as well go rent some films or games from the library, since we’re already culturally here. On the plus side, audiovisual librarians say their collections dwarf what was available at Blockbuster Video back in the day. Hudson knows, because she clerked at one in library school.

“Except we don’t have any late fees,” she added.