Salta al contenuto principale



Le 10 regole del digitale responsabile a partire dalla carta

@Politica interna, europea e internazionale

Giovedì 4 dicembre 2025, ore 17:30 presso La Nuova – Sala Vega, Viale Asia 40/44 – Roma Interverranno Andrea Cangini, Direttore dell’Osservatorio Carta Penna & Digitale Maria Luisa Iavarone, Pedagogista e docente universitaria, Presidente nazionale CirPed, autrice del libro (Franco



ANALISI. Libano: Hezbollah ferito, ma non sconfitto


@Notizie dall'Italia e dal mondo
Hezbollah per decenni si è mosso entro un equilibrio consolidato con Israele basato sulla reciproca deterrenza. Tutto ciò è saltato e il movimento sciita è anche sotto pressione in Libano. La compattezza interna però non è scalfita
L'articolo ANALISI. Libano: Hezbollah ferito, ma non sconfitto proviene da



La Commissione vuole tutelare i lavoratori dall’AI e garantire il diritto alla disconnessione

Per vedere altri post sull' #IntelligenzaArtificiale, segui la comunità @Intelligenza Artificiale

La Commissione europea ha presentato ieri la Roadmap “Quality Jobs”, il nuovo quadro strategico per migliorare la qualità dell’occupazione e

reshared this



Dentro la finta normalità dei developer di Lazarus: un APT che lavora in smart working


@Informatica (Italy e non Italy 😁)
L’immaginario collettivo sugli hacker nordcoreani è ancora legato a stanze buie e monitor lampeggianti. La realtà, come spesso accade nella cybersecurity, è molto più banale e proprio per questo più inquietante. L’indagine catturata quasi per



25 Aprile 1945 – 2025: Ottant’anni di Italia antifascista. Memoria, Valori, Cittadinanza

@Politica interna, europea e internazionale

5 dicembre 2025, ore 10:30 – Aula Malagodi, Fondazione Luigi Einaudi – Roma Introduce Renata Gravina, Ricercatrice Fondazione Luigi Einaudi Interverranno Memoria storica Luca Tedesco (Università degli Studi di Roma Tre) l’Italia della



Cyber-Guardoni all’attacco: hacker sudcoreani spiavano 120.000 telecamere e ne facevano video per adulti


La polizia sudcoreana ha segnalato l’arresto di quattro individui che, presumibilmente in modo indipendente, hanno compromesso oltre 120.000 telecamere IP. Secondo gli investigatori, almeno due di loro lo hanno fatto per rubare video da luoghi come studi ginecologici. Hanno poi modificato i filmati trasformandoli in video pornografici e li hanno venduti online.

Secondo i media locali, due dei quattro sospettati (i cui nomi sono stati omessi) erano impiegati in ufficio, mentre gli altri erano elencati come disoccupati o lavoratori autonomi. Solo due degli arrestati erano responsabili della maggior parte degli attacchi informatici: circa 63.000 e 70.000 dispositivi compromessi, installati in abitazioni private e proprietà commerciali.

Telecamere e video per adulti dalle case di tutti


I criminali hanno venduto i video rubati dalle telecamere su un sito web che la polizia chiamava semplicemente “Sito C”, guadagnando rispettivamente 35 milioni di won (23.800 dollari) e 18 milioni di won (12.200 dollari).

Gli altri due imputati hanno hackerato rispettivamente 15.000 e 136 telecamere.

Non sono ancora state formulate accuse nei confronti degli arrestati, poiché le indagini sono in corso. Le autorità hanno inoltre comunicato di aver arrestato tre persone che avevano acquistato video simili.

“I crimini commessi tramite telecamere IP causano gravi traumi alle vittime. Sradicheremo questa minaccia indagando proattivamente su tali crimini”, ha affermato Park Woo-hyun, capo dell’unità investigativa sui crimini informatici dell’Agenzia di Polizia Nazionale.

Secondo la polizia, gli aggressori hanno sfruttato principalmente password predefinite deboli e combinazioni predefinite facilmente violabili tramite forza bruta.

Le forze dell’ordine hanno visitato 58 luoghi in cui le telecamere erano state hackerate per avvisare i proprietari dei dispositivi compromessi e fornire consigli sulla sicurezza delle password.

Best practices per mettere in sicurezza le telecamere IP


Per ridurre drasticamente il rischio di compromissione, gli esperti raccomandano le seguenti misure:

1. Cambiare subito le password predefinite


  • Le password di fabbrica sono la prima cosa che gli attaccanti testano.
  • Scegli password lunghe, complesse e uniche per ogni dispositivo.


2. Attivare l’autenticazione a due fattori (2FA)


  • Quando disponibile, riduce enormemente la possibilità di accesso non autorizzato.


3. Aggiornare regolarmente il firmware


  • I produttori rilasciano patch che correggono vulnerabilità note.
  • Imposta gli aggiornamenti automatici quando possibile.


4. Disabilitare l’accesso remoto se non necessario


  • Molti attacchi avvengono tramite Internet.
  • Se devi accedere da remoto, usa una VPN invece dell’esposizione diretta.


5. Limitare l’accesso alla rete


  • Isola le telecamere su una rete separata (VLAN) o guest network.
  • Evita che siano raggiungibili da tutti i dispositivi della casa o dell’ufficio.


6. Controllare le porte esposte


  • Evita il port forwarding indiscriminato su router e modem.
  • Blocca porte non necessarie e monitora eventuali connessioni sospette.


7. Disattivare servizi inutilizzati


  • UPnP, P2P e altri servizi remoti possono essere sfruttati dagli attaccanti.
  • Mantieni attivi solo i servizi indispensabili.


8. Preferire telecamere IP di produttori affidabili


  • Marchi poco affidabili potrebbero non garantire aggiornamenti di sicurezza.
  • Verifica sempre la reputazione del brand e la disponibilità di patch.


9. Monitorare regolarmente i log


  • Controlla accessi, tentativi falliti e comportamenti anomali.


10. Cambiare periodicamente le credenziali


  • Riduce il rischio che credenziali compromesse restino valide a lungo.

L'articolo Cyber-Guardoni all’attacco: hacker sudcoreani spiavano 120.000 telecamere e ne facevano video per adulti proviene da Red Hot Cyber.



CTI e Dark Web: qual è il confine invisibile tra sicurezza difensiva e reato?


Il panorama della sicurezza informatica moderna è imprescindibile dalla conoscenza della topografia del Dark Web (DW), un incubatore di contenuti illeciti essenziale per la criminalità organizzata. In tale contesto, il Dark Web Monitoring (DWM) e la Cyber Threat Intelligence (CTI) sono emersi come pratiche fondamentali, spesso obbligatorie, per la protezione degli asset digitali e la prevenzione di una fuga di dati (data leakage).

L’attività proattiva di DWM consente il rilevamento di minacce critiche, come credenziali e documenti d’identità rubati, che alimentano reati di spear phishing e credential stuffing. Tuttavia, in Italia, l’imperativo di sicurezza privato si scontra con il principio di legalità e la riserva statale delle indagini, poiché i consulenti privati non godono dei poteri processuali riservati agli organi di Polizia Giudiziaria.

La valutazione della legittimità delle azioni del professionista deve procedere bilanciando l’interesse difensivo con la tutela penale. La mia osservazione, come avvocato penalista e docente di Diritto penale dell’informatica, è che la corretta difesa e la prevenzione del rischio non possono prescindere da una profonda conoscenza di questo bilanciamento costituzionale tra diritto di difesa e riserva di legge penale.

Il pericolo di commettere delitti


Il rischio penale principale che incombe sul professionista della cybersecurity che opera nel Dark Web è l’integrazione del reato di Accesso Abusivo a sistema informatico o telematico (Art. 615-ter c.p.). Il bene giuridico tutelato da questa norma è l’ambiente informatico stesso, che la giurisprudenza ha equiparato a un “luogo inviolabile” o a uno spazio privato. La condotta criminosa si perfeziona con l’accesso o il mantenimento nel sistema “senza diritto” e contro la volontà del gestore.

L’analisi critica della Cyber Threat Intelligence (CTI) impone una netta distinzione tra due scenari operativi. L’osservazione passiva (CTI legittima) si verifica se il professionista naviga su pagine del Dark Web che sono aperte e non protette da autenticazione. Tale attività, configurandosi comeopen source intelligence (OSINT) e avvenendo in assenza di misure di sicurezza da superare, generalmente non integra la fattispecie dell’Art. 615-ter c.p., poiché la tutela penale è rivolta al sistema (il contenitore) e non alla liceità del contenuto. Al contrario, si configura accesso attivo e infiltrazione (accesso abusivo) se il professionista compie un atto di credential stuffing, utilizzando credenziali rubate per autenticarsi in un forum protetto o in un pannello di controllo.

In questo caso, si configura il reato, poiché l’interesse difensivo del privato non può prevalere sulla tutela penale del sistema informatico, anche se ostile o criminale, che non sempre ,ma tal volta trova tutela. Ai professionisti che mi consultano, ricordo sempre che la finalità difensiva non è una scriminante penale implicita; l’accesso abusivo è un reato di pericolo che si perfeziona con la mera intrusione non autorizzata.

Oltre all’accesso abusivo, il DWM espone anche al rischio di detenzione abusiva di codici di accesso (Art. 615-quater c.p.). Per mitigare tale pericolo e dimostrare la finalità di tutela, è imperativo che la procedura operativa preveda l’immediata trasformazione dei dati sensibili raccolti in un formato non reversibile, come l’hashing, conservando solo l’informazione strettamente necessaria, in conformità con i principi di minimizzazione dei dati. Cautela è inoltre richiesta nella gestione di segreti commerciali altrui rubati.

Il trattamento dei dati personali raccolti e la compliance gdpr


La raccolta e la successiva analisi di dati personali provenienti dal Dark Web costituiscono un nuovo trattamento e, come tale, devono essere fondate su una base giuridica legittima ai sensi del GDPR. Per il Dark Web Monitoring (DWM), la base più plausibile e invocabile è l’Interesse Legittimo (Art. 6, par. 1, lett. f), poiché risponde all’interesse vitale dell’organizzazione di proteggere il proprio patrimonio digitale e di garantire una tempestiva risposta agli incidenti (incident response).

Tuttavia, l’applicazione dell’Interesse Legittimo non è automatica. Richiede l’esecuzione di un rigoroso Legitimate Interest Assessment (LIA), il quale impone un test di bilanciamento tra l’interesse difensivo del Titolare e i diritti e le libertà fondamentali dell’interessato, la vittima del furto di dati.

Dato che la fonte è criminale e l’interessato non si aspetta che i suoi dati rubati siano raccolti da un CTI provider privato, il bilanciamento è considerato “forte”, richiedendo massime garanzie di mitigazione. La misura cruciale per superare con successo il LIA è la minimizzazione del trattamento. Ciò significa evitare categoricamente l’overcollection e l’overretention, limitando la raccolta alle sole informazioni indispensabili per la difesa. La conservazione integrale e illimitata nel tempo di dati rubati è contraria alla normativa; è fondamentale implementare la pseudonimizzazione (ad esempio, tramite hashing) dei dati identificativi non necessari e definire tempi di conservazione strettamente limitati. Infine, sussistono precisi obblighi di trasparenza e notifica.

La rilevanza probatoria e i limiti istituzionali dei professionisti privati


Nel contesto di un’indagine giudiziaria, la capacità di conferire valore probatorio ai dati raccolti dal Dark Web Monitoring (DWM) da parte di attori privati rappresenta una delle sfide procedurali più acute. L’unico percorso legale che può legittimare l’acquisizione di tali elementi è incanalare strettamente l’attività nel perimetro delle investigazioni difensive, come disciplinato dall’Art. 391-bis del Codice di Procedura Penale (c.p.p.). Questo inquadramento richiede un mandato formale conferito dal difensore e garantisce che l’uso della documentazione sia strettamente limitato alle esigenze dell’esercizio della difesa.

Tuttavia, è fondamentale sottolineare un limite invalicabile del nostro ordinamento: la procedura difensiva non ha il potere di sanare l’illiceità sostanziale della condotta originaria. Ciò significa che se l’atto di acquisizione, sebbene finalizzato alla difesa, viola di per sé una norma penale-ad esempio l’Art. 615-ter c.p. attraverso un accesso abusivo-il dato raccolto sarà considerato illegittimamente acquisito e, di conseguenza, inutilizzabile nel dibattimento. La necessità operativa non può, in sede processuale, prevalere sulla tutela del domicilio informatico garantita dalla legge penale.

Parallelamente ai vincoli procedurali, l’ammissibilità e l’efficacia della prova digitale sono assolutamente dipendenti dal rispetto degli standard internazionali di digital forensics. I dati informatici sono intrinsecamente volatili e facilmente alterabili; pertanto, la loro integrità e autenticità devono essere garantite per evitare che l’autorità giudiziaria li consideri contaminati o inattendibili. L’acquisizione non può limitarsi all’uso di semplici screenshot, che hanno spesso un mero valore suggestivo e non probatorio. Al contrario, essa deve avvenire attraverso la creazione di una copia forense certificata del dato originale (come una bitstream copy).

Come docente, insisto sull’importanza di questa metodologia- L’efficacia della prova digitale è direttamente proporzionale alla sua correttezza epistemologica; non basta contestare un dato, bisogna contestare il metodo di acquisizione. Tale processo deve assicurare la piena e ininterrotta tracciabilità della catena di custodia (chain of custody), documentando meticolosamente ogni passaggio, al fine di garantire l’immutabilità e l’identità dell’elemento probatorio. solo attraverso questa rigorosa aderenza ai protocolli forensi, il professionista privato può sperare di dotare il materiale raccolto della credibilità necessaria per sostenere una tesi difensiva in sede legale.

Raccomandazioni operative


L’analisi svolta evidenzia chiaramente che l’attività di Dark Web Monitoring (DWM) da parte di professionisti privati si svolge in Italia in una complessa zona grigia di incertezza normativa. Il professionista è costantemente esposto a una triade di rischi legali interconnessi.

In primo luogo, il rischio penale è massimo quando l’attività sfocia nell’infiltrazione attiva (ad esempio, l’uso di credenziali rubate per accedere a sistemi protetti), potendo integrare il reato di cui all’Art. 615-ter c.p.

In secondo luogo, il rischio GDPR è sempre presente in caso di overcollection o di mancata esecuzione del Legitimate Interest Assessment (LIA), esponendo l’organizzazione a sanzioni amministrative salate.

Infine, il rischio procedurale neutralizza l’efficacia dell’intelligence raccolta se manca la rigorosa adozione della Chain of Custody e degli standard forensi.

Proprio per questa incertezza normativa, il mio consiglio è di non agire mai nella grey area senza un preventivo e documentato parere, che valuti il rischio e tracci il perimetro operativo lecito del defensive monitoring.

Per operare in modo lecito e minimizzare tale esposizione, l’organizzazione e il consulente devono necessariamente adottare un robusto modello di protocollo legale-tecnico (gclgovernance, compliance, legal). Per quanto riguarda la governance cti, l’attività deve essere rigorosamente limitata alla consultazione osint. Sul fronte degli adempimenti GDPR (preventivi), è imperativo garantire il principio di privacy by design attraverso l’hashing o la pseudonimizzazione immediata. Infine, in sede di protocolli forensi (successivi), qualunque dato acquisito destinato a essere utilizzato come prova deve essere trattato come una copia forense certificata e deve essere mantenuta una tracciabilità documentale ininterrotta della chain of custody.

L’attuale assetto giuridico, fortemente ancorato alla riserva statale in materia di ricerca della prova, costringe l’operatore privato a muoversi con estrema cautela. Ciò solleva la questione delle prospettive de jure condendo. Si rileva l’urgente necessità di una revisione legislativa che riconosca e scriminI esplicitamente la legittima attività difensiva e di prevenzione del crimine informatico svolta da soggetti privati (defensive monitoring). Solo attraverso un esplicito riconoscimento del lawful hacking-se limitato all’analisi difensiva e non volto all’attacco-sarà possibile risolvere in modo definitivo il conflitto tra l’inderogabile imperativo di sicurezza aziendale e la protezione penale degli interessi in gioco e consentire al settore della cybersecurity di operare con la certezza del diritto che la crescente minaccia informatica richiede.

L'articolo CTI e Dark Web: qual è il confine invisibile tra sicurezza difensiva e reato? proviene da Red Hot Cyber.



""Ripristinare la supremazia americana" in Sudamerica...."
volpone di un trump... sempre alla ricerca di nuovi amici....
forse è un filino megalomane....


Franco Bernini – La prima volta
freezonemagazine.com/articoli/…
La prima volta. Certo, ma di cosa? Di quello che infiamma la passione di milioni di italiani da 127 anni, il campionato di calcio. Il primo campionato di calcio in Italia sì è svolto in una sola giornata. Quattro squadre si sono sfidate in una domenica di maggio: semifinali al mattino, finale al pomeriggio. Ma […]
L'articolo Franco Bernini – La prima volta proviene da FREE ZONE MAGAZINE.
La


Sorpresa, nemmeno Meta crede più nel metaverso

Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)

La Casa Bianca sta imponendo a tutte le più grandi aziende investimenti monstre negli Stati Uniti. Meta dovrà fare la sua parte con un piano da 600 miliardi che sta richiedendo a Zuck un sacrificio inatteso: tagliare il budget del metaverso, in cui da tempo credeva e

in reply to Informa Pirata

Se il meta non crede più nel metaverso, allora dobbiamo unire le fedi per il fediverso anche per chi non è religioso e non è sposato... (gioco di parole d'obbligo) -rispondo con l'altro account quello per le uscite poco serie-.


MetaMe: il colore più bello del mondo - zulianis.eu/metame-il-blu-piu-…
Un blog meta-sociale che parte da un solo colore: lo YlnMn blue.


IL PERIODO TRA LE DUE GUERRE MONDIALI

@Informatica (Italy e non Italy 😁)

Agli albori degli anni Venti si verificarono due circostanze peculiari: il “biennio rosso”, caratterizzato da episodi di acuti disordini, anche di stampo insurrezionale e l’avvento del regime fascista che caratterizzò il panorama italiano fino alla conclusione del secondo conflitto mondiale.
L'articolo IL PERIODO TRA LE DUE GUERRE



Se i Balcani si riforniscono di cocaina per il tramite dell’Italia



Il carico di banane ove era occultata la cocaina

L'OCCRP (Organized Crime and Corruption Reporting Project) è un consorzio internazionale di giornalisti investigativi fondato nel 2006. Si tratta di una delle più importanti organizzazioni no-profit dedicate al giornalismo investigativo transfrontaliero.
L'OCCRP si occupa principalmente di:
· Indagini su criminalità organizzata e corruzione a livello globale
· Collaborazioni tra giornalisti di diversi paesi per inchieste complesse
· Pubblicazione di inchieste su temi come riciclaggio di denaro, traffici illeciti, evasione fiscale e abusi di potere
Hanno sede a Sarajevo (Bosnia ed Erzegovina) e hanno vinto numerosi premi internazionali per il loro lavoro investigativo, incluso il Premio Pulitzer. Sono noti per aver contribuito a importanti inchieste come i Panama Papers e i Pandora Papers


Vista del porto di Gioa Tauro
In una indagine giornalistica comparsa sul loro sito (occrp.org/en/project/the-crime…) OCCRP accende i fari sul traffico di droga nei Balcani.
Recentemente la polizia croata e serba ha arrestato 10 persone sospettate di far parte di una violenta rete criminale che importava cocaina dal Sud America. Un cadavere trovato in Paraguay è probabilmente identificato - tramite tecnologia di riconoscimento facciale - come un trafficante di droga serbo.

Vista del porto di Rijeka
L’articolo ricostruisce come il carico di droga (430 kg di cocaina nascosti in una spedizione di banane) sia partito dal porto di Guayaquil in Ecuador, per passare in un porto panamense, giungere a Gioia Tauro e quindi arrivare in Croazia in un container.

fabrizio reshared this.



e hanno fatto tutto da soli... perché contrariamente alle amicizie con i russi dalla UE si può anche uscire senza che nessuno ti faccia la guerra....
in base a quale criterio pensassero che sarebbe stato un affarone non l'ho ancora capito...
chi fa da sé fa per 3? ma mica vero in economia...
e questo dimostra che se l'italia non cresce è perché siamo dei cazzoni idioti e non certo per colpa dell'europa. chi è causa del suo mal pianga se stesso.
P.S. in realtà credo che un minimo di zampino di putin nel destabilizzare l'UE ci sia stato... ma non so quanto perché gli inglesi sono notoriamente orgogliosi e duri.


Off-Grid, Small-Scale Payment System


An effective currency needs to be widely accepted, easy to use, and stable in value. By now most of us have recognized that cryptocurrencies fail at all three things, despite lofty ideals revolving around decentralization, transparency, and trust. But that doesn’t mean that all digital currencies or payment systems are doomed to failure. [Roni] has been working on an off-grid digital payment node called Meshtbank, which works on a much smaller scale and could be a way to let a much smaller community set up a basic banking system.

The node uses Meshtastic as its backbone, letting the payment system use the same long-range low-power system that has gotten popular in recent years for enabling simple but reliable off-grid communications for a local area. With Meshtbank running on one of the nodes in the network, accounts can be created, balances reported, and digital currency exchanged using the Meshtastic messaging protocols. The ledger is also recorded, allowing transaction histories to be viewed as well.

A system like this could have great value anywhere barter-style systems exist, or could be used for community credits, festival credits, or any place that needs to track off-grid local transactions. As a thought experiment or proof of concept it shows that this is at least possible. It does have a few weaknesses though — Meshtastic isn’t as secure as modern banking might require, and the system also requires trust in an administrator. But it is one of the more unique uses we’ve seen for this communications protocol, right up there with a Meshtastic-enabled possum trap.


hackaday.com/2025/12/05/off-gr…



Nei giorni 2 e 3 dicembre i Vescovi della Calabria si sono riuniti per una sessione della Conferenza Episcopale Calabra (Cec) presso il Seminario regionale “San Pio X” di Catanzaro e hanno partecipato alla solenne inaugurazione dell’Anno accademico d…



A tre anni dalla diffusione di ChatGPT, l’intelligenza artificiale generativa è entrata con continuità nelle abitudini di milioni di persone, influenzando linguaggi, apprendimento e processi decisionali.


"Non siamo viandanti smarriti, ma pellegrini verso una patria. La speranza non ci rende spettatori passivi, ma chiamati ad attendere e al tempo stesso ad affrettare la venuta del Signore con una vigilanza serena e operosa”.


C’è un’intelligenza che promette efficienza, ottimizzazione, profitto. E ce n’è un’altra - più esigente - che si chiede a servizio di chi e di cosa debbano essere poste le nuove tecnologie.


Vulnerabilità critiche in Splunk Enterprise e Universal Forwarder


I ricercatori di sicurezza hanno scoperto due vulnerabilità ad alto rischio (CVE-2025-20386 e CVE-2025-20387, con severity CVSS 8.0) che interessano la piattaforma Splunk Enterprise e i componenti Universal Forwarder.

Queste vulnerabilità derivano da autorizzazioni errate sui file di configurazione durante la distribuzione del software sui sistemi Windows, consentendo agli utenti non amministratori di accedere alla directory di installazione di Splunk e al suo intero contenuto.

Questa vulnerabilità non è una tradizionale vulnerabilità di esecuzione di codice remoto, ma piuttosto amplia la superficie di attacco attraverso un degrado della sicurezza locale. Nelle versioni interessate:

  • Nuove installazioni o aggiornamenti potrebbero causare errori di configurazione delle autorizzazioni
  • Gli utenti standard possono leggere file di configurazione e registri sensibili e possono persino manomettere i file nella directory.
  • La piattaforma principale e il proxy di inoltro interessano le versioni di Windows precedenti a 10.0.2/9.4.6/9.3.8/9.2.10.

Splunk ha rilasciato una versione corretta e si consiglia agli utenti di aggiornarla immediatamente:

  • Splunk Enterprise 10.0.2/9.4.6/9.3.8/9.2.10 o versioni successive
  • Versione Universal Forwarder

Per gli utenti che non possono effettuare l’aggiornamento immediatamente, è possibile eseguire i seguenti comandi utilizzando lo strumento icacls di Windows per risolvere manualmente il problema:

  1. Disabilita l’ereditarietà: icacls.exe “<percorso\verso\directory di installazione>” /inheritance:d
  2. Rimuovi l’accesso degli utenti predefiniti: icacls.exe “<percorso\verso\directory di installazione>” /remove:g *BU/T/C
  3. Rimuovere l’accesso degli utenti autenticati: icacls.exe “<percorso\verso\directory di installazione>” /remove:g *S-1-5-11/T/C
  4. Riattivare l’ereditarietà (in modo sicuro): icacls.exe “<percorso\verso\directory di installazione>” /inheritance:e /T/C

L'articolo Vulnerabilità critiche in Splunk Enterprise e Universal Forwarder proviene da Red Hot Cyber.



addirittura windows 11 cala... ma quanto mi dispiace.
dal 73 al 66% in un anno... molto bene (e di windows in generale...).
voglio vedere i cazzoni che scrivono software solo per windows per quanto ancora vorranno farlo....
che sia la volta buona e finalmente microsoft abbia fatto un'autorete significativa? figurarsi che a me neppure stanno bene le distro linux non rolling...

reshared this

in reply to simona

.NET si è evoluto a bestia ed è diventato cross platform.
Se esiste ancora chi sviluppa solo per Windows le opzioni sono due: o stai lavorando su roba legacy o semplicemente lo stai facendo apposta.
in reply to simona

in ambito ham radio è pieno di software solo windows. quelli proprietari di yeasu & C o di programmazione di radio. non credo però che per queste cose si usi .net.


Allarme Apache: falle SSRF e credenziali NTLM esposte. Admin, aggiornate subito!


Un aggiornamento significativo è stato distribuito dalla Apache Software Foundation per il diffuso Apache HTTP Server, correggendo un totale di cinque vulnerabilità di sicurezza distinte. È raccomandato che gli amministratori eseguano questo aggiornamento il prima possibile al fine di assicurare che la loro infrastruttura web sia protetta contro i vettori individuati.

La versione 2.4.66, appena rilasciata, rappresenta una correzione complessiva di problematiche che includono sia loop infiniti durante il rinnovo dei certificati sia possibili perdite di credenziali NTLM su sistemi operativi Windows.

Due delle vulnerabilità individuate, classificate come “moderate”, costituiscono rischi specifici per le configurazioni di hosting condiviso che impiegano suexec e per gli ambienti Windows, mentre le restanti tre sono etichettate come “bassa” gravità.

Tra le correzioni più significative di questo aggiornamento figura il CVE-2025-59775, una falla di sicurezza relativa alla falsificazione delle richieste lato server (SSRF) che interessa Apache HTTP Server in esecuzione su Windows. Questa vulnerabilità, considerata di gravità moderata, si verifica a causa dell’interazione tra le impostazioni AllowEncodedSlashes On e MergeSlashes Off.

Secondo quanto affermato nella nota, questa configurazione “consente di divulgare potenzialmente hash NTLM a un server dannoso tramite SSRF e richieste o contenuti dannosi”. Ciò potrebbe consentire agli aggressori di raccogliere credenziali dall’ambiente server, rendendola una patch prioritaria per gli amministratori Windows.

La seconda falla di gravità moderata, il CVE-2025-66200, riguarda l’interazione tra mod_userdir e suexec. Questa vulnerabilità consente di aggirarla tramite la direttiva AllowOverride FileInfo. Il report osserva che “gli utenti con accesso alla direttiva RequestHeader in htaccess possono causare l’esecuzione di alcuni script CGI con un ID utente inaspettato”. Ciò interrompe di fatto l’isolamento previsto della funzionalità suexec, fondamentale per la sicurezza in ambienti multiutente.

L’aggiornamento risolve ulteriori tre problemi di lieve gravità che, sebbene meno critici, potrebbero interrompere le operazioni o creare comportamenti imprevisti:

  • Ciclo infinito (CVE-2025-55753): un bug in mod_md (ACME) può causare un overflow durante i rinnovi di certificati non riusciti. Questo crea un potenziale scenario di esaurimento delle risorse.
  • Problema relativo alla stringa di query (CVE-2025-58098): riguarda i server che utilizzano Server Side Includes (SSI) con mod_cgid. L’avviso afferma che il server “passa la stringa di query con escape della shell alle direttive #exec cmd=’…'”.
  • Variable Override (CVE-2025-65082): questa falla riguarda “variabili impostate tramite la configurazione di Apache che sostituiscono inaspettatamente le variabili calcolate dal server per i programmi CGI”.

Si consiglia agli utenti di aggiornare alla versione 2.4.66 , che risolve il problema

L'articolo Allarme Apache: falle SSRF e credenziali NTLM esposte. Admin, aggiornate subito! proviene da Red Hot Cyber.

#exec


"Ucraina, Putin: "Kiev si ritiri o libereremo il Donbass con la forza"" e lo ripete? ma che senso ha? perché adesso che sta facendo?



Biogas Production For Surprisingly Little Effort


Probably most people know that when organic matter such as kitchen waste rots, it can produce flammable methane. As a source of free energy it’s attractive, but making a biogas plant sounds difficult, doesn’t it? Along comes [My engines] with a well-thought-out biogas plant that seems within the reach of most of us.

It’s based around a set of plastic barrels and plastic waste pipe, and he shows us the arrangement of feed pipe and residue pipe to ensure a flow through the system. The gas produced has CO2 and H2s as undesirable by-products, both of which can be removed with some surprisingly straightforward chemistry. The home-made gas holder meanwhile comes courtesy of a pair of plastic drums one inside the other.

Perhaps the greatest surprise is that the whole thing can produce a reasonable supply of gas from as little as 2 KG of organic kitchen waste daily. We can see that this is a set-up for someone with the space and also the ability to handle methane safely, but you have to admit from watching the video below, that it’s an attractive idea. Who knows, if the world faces environmental collapse, you might just need it.

youtube.com/embed/0EC0RMQUN68?…


hackaday.com/2025/12/04/biogas…



OpenAI sviluppa un nuovo framework per addestrare l’intelligenza artificiale all’onestà


OpenAI sta lavorando a un nuovo approccio di addestramento per aumentare la trasparenza nell’intelligenza artificiale e mitigare il rischio di fornire risposte prive di senso con eccessiva fiducia (Allucinazioni).

Secondo OpenAI, i modelli linguistici di grandi dimensioni (LLM) odierni vengono generalmente istruiti a produrre risposte che rispecchiano le aspettative degli utenti. Tuttavia, questo metodo comporta un effetto collaterale negativo: i modelli tendono a diventare sempre più propensi all’adulazione, accettando di concordare con gli utenti solo per assecondarli, oppure a fornire informazioni false con una sicurezza eccessiva, un fenomeno comunemente definito come allucinazione.

Il team ha sviluppato un framework, battezzato “Confession”, che si concentra sull’insegnare ai modelli di intelligenza artificiale a riconoscere e ammettere spontaneamente quando si sono comportati in modo inadeguato. In tal caso, vengono premiati per la loro onestà, anche se il comportamento scorretto persiste. Questo metodo innovativo mira a migliorare la capacità dei modelli di intelligenza artificiale di essere più trasparenti e affidabili nelle loro risposte.

Come spiegato dettagliatamente da OpenAI nella sua documentazione tecnica: se un modello ammette apertamente di aver manomesso un test, preso scorciatoie o addirittura violato le istruzioni, il sistema premierà tale ammissione. In questo modo, il modello impara a rivelare con precisione quando ha “mentito” o deviato dal comportamento previsto, consentendo al sistema di correggere i propri output in tempo reale e quindi ridurre le allucinazioni.

Per affrontare questo problema, il nuovo metodo di addestramento incoraggia i sistemi di intelligenza artificiale a fornire, accanto alla risposta primaria, una risposta secondaria che spieghi il ragionamento o il comportamento che ha prodotto l’output. Questo sistema di “Confessione” rappresenta un radicale cambiamento rispetto all’addestramento tradizionale: mentre le risposte normali vengono giudicate in base a utilità, accuratezza e conformità, la confessione viene valutata esclusivamente in base all’onestà.

L’obiettivo fondamentale di OpenAI è quello di promuovere l’onestà, stimolando i modelli a rivelare con trasparenza i propri meccanismi interni, anche se questi svelano punti deboli. Questa nuova capacità di ammissione potrebbe costituire un elemento essenziale per migliorare la sicurezza, l’affidabilità e la comprensibilità dei futuri modelli linguistici di ampia portata.

L'articolo OpenAI sviluppa un nuovo framework per addestrare l’intelligenza artificiale all’onestà proviene da Red Hot Cyber.



Assicurazione cyber: si al paracadute, ma nessuno ti salverà se trascuri le basi


L’assicurazione informatica è diventata un argomento nei comitati di gestione. Non è più un elemento aggiuntivo, ma piuttosto un elemento essenziale da considerare nella gestione del rischio aziendale.

Tuttavia, molte aziende fanno affidamento su una rete di sicurezza che potrebbe venir meno proprio quando ne hanno più bisogno. E non a causa di attacchi avanzati, ma a causa di falle fondamentali che rimangono irrisolte.

Il falso senso di falsa protezione


Le polizze assicurative per la sicurezza informatica sono progettate per ridurre l’impatto finanziario di un incidente, ma non sono un assegno in bianco. Nella pratica, molte aziende ricevono solo pagamenti parziali o addirittura si vedono respinte le richieste di risarcimento.

Il motivo è solitamente il mancato rispetto dei controlli minimi richiesti dall’assicuratore: autenticazione a più fattori, gestione delle patch, igiene delle credenziali e piani di risposta documentati.

Se queste misure sono assenti o non applicate in modo coerente, la copertura si indebolisce.

La maggior parte degli attacchi non sono sofisticati


Mentre i titoli dei giornali si concentrano sullo spionaggio o sugli attori statali, i dati raccontano una storia diversa. Secondo il rapporto DBIR 2025 di Verizon, il 22% delle violazioni è iniziato con l’uso improprio delle credenziali, il 20% è derivato da vulnerabilità non corrette e il 16% da attacchi di phishing.

Nel frattempo, gli incidenti che coinvolgono spionaggio o distruzione di dati hanno rappresentato solo il 2% del totale, secondo IBM X-Force. La realtà è chiara: la maggior parte degli attacchi sono semplici, opportunistici e sfruttano falle che avrebbero dovuto essere corrette molto tempo fa.

Il ciclo si ripete fin troppo spesso: un’azienda stipula un’assicurazione informatica, si sente protetta e sposta la sua attenzione sulle minacce “avanzate”. Col tempo, i controlli di base vengono applicati in modo incoerente o trascurati. Quando si verifica una violazione dovuta a una vulnerabilità fondamentale, l’assicuratore può negare il pagamento per inadempienza. Il risultato è un falso senso di sicurezza che maschera una mancanza di disciplina operativa.

Cosa valutano realmente le compagnie assicurative


Le compagnie assicurative stanno diventando sempre più rigorose. Affermare semplicemente che i controlli esistono non è più sufficiente: ora richiedono una prova continua che questi controlli siano in atto e funzionanti. E questo vale non solo per la firma iniziale del contratto, ma anche per i rinnovi e dopo un sinistro. Se il livello di maturità effettivo della compagnia non corrisponde a quanto indicato nella polizza, la copertura può essere ridotta o annullata.

La buona notizia è che queste minacce informatiche sono prevenibili, ma la prevenzione richiede coerenza. Il monitoraggio continuo delle credenziali trapelate consente di intervenire prima che si verifichino accessi non autorizzati. La risposta al phishing non può più limitarsi alla formazione; deve includere l’identificazione e la rimozione di domini fraudolenti e profili falsi.

Per quanto riguarda la gestione delle patch, è fondamentale dare priorità alle vulnerabilità con exploit attivi piuttosto che concentrarsi esclusivamente sul volume.

L’assicurazione informatica riflette la postura di sicurezza di un’azienda: premia la maturità e penalizza l’inerzia. Non sostituisce la disciplina operativa né copre le debolezze strutturali rimaste irrisolte.

Concludendo


Se un’organizzazione si affida all’assicurazione informatica per assorbire l’impatto di un attacco informatico, deve prima assicurarsi di aderire ai controlli che rendono valida tale copertura. Perché nella sicurezza informatica, ciò che fa davvero la differenza non è mai la polizza in sé, ma l’igiene di base.

Forse per molti tutto questo non è chiaro. Ma è importanti soffermarci a comprendere che l’assicurazione cyber è un buon paracadute. Ma se non sei capace ad atterrare, tutto può essere vanificato.

L'articolo Assicurazione cyber: si al paracadute, ma nessuno ti salverà se trascuri le basi proviene da Red Hot Cyber.



La Commissione Europea indaga su Meta per l’integrazione dell’AI in WhatsApp


Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Commissione Europea.

Lo hanno dichiarato due funzionari dell’istituzione di Bruxelles al quotidiano britannico The Financial Times. La notizia non è ancora stata confermata ufficialmente, ma potrebbe esserlo nei prossimi giorni, secondo le stesse fonti.

Le normative antitrust in gioco


L’esecutivo dovrà stabilire se Meta abbia violato le normative antitrust europee integrando la sua intelligenza artificiale nel suo servizio di messaggistica. Rappresentata da un cerchio blu e viola nell’app, questa funzionalità è descritta come “un servizio Meta opzionale che utilizza modelli di intelligenza artificiale per fornire risposte”.

Lo strumento viene utilizzato, in particolare, per scrivere messaggi ad altri utenti. Può anche essere utilizzato in una conversazione tramite la menzione “@MetaAI”.

Lo scorso marzo, Meta ha spiegato di aver impiegato “più tempo del previsto” per implementare questo sistema in Europa a causa del suo “complesso sistema normativo europeo” . “Ma siamo lieti di esserci finalmente riusciti”, ha dichiarato l’azienda di Mark Zuckerberg, lasciando intendere di aver esaminato attentamente la conformità dell’implementazione alle norme sulla concorrenza dell’Unione Europea. Ora spetta agli inquirenti di Bruxelles verificarlo.

Una prima indagine in Italia


In Italia, l’Autorità Garante della Concorrenza e del Mercato sta indagando su questo caso da luglio. L’obiettivo è stabilire se Meta abbia abusato della sua posizione dominante installando il suo strumento di intelligenza artificiale su WhatsApp senza il consenso dell’utente e con il potenziale di danneggiare i suoi concorrenti.

L’integrazione dell’intelligenza artificiale di Meta potrebbe infatti essere vista come un modo scorretto per indirizzare gli utenti di WhatsApp verso il servizio di intelligenza artificiale di Meta e quindi “bloccarli” nel suo ecosistema.

L’indagine è ancora in corso ed è stata addirittura ampliata mercoledì 26 novembre, come riportato dall’agenzia di stampa britannica Reuters. Ora riguarda anche i nuovi termini di servizio di WhatsApp Business, nonché le nuove funzionalità di intelligenza artificiale integrate nell’app di messaggistica. Secondo Roma, queste modifiche “potrebbero limitare la produzione, l’accesso al mercato o gli sviluppi tecnici nel mercato dei servizi di chatbot basati sull’intelligenza artificiale” .

L'articolo La Commissione Europea indaga su Meta per l’integrazione dell’AI in WhatsApp proviene da Red Hot Cyber.



Supply Chain Digitale: perché un fornitore può diventare un punto critico


L’aumento esponenziale dell’interconnessione digitale negli ultimi anni ha generato una profonda interdipendenza operativa tra le organizzazioni e i loro fornitori di servizi terzi. Questo modello di supply chain digitale, se da un lato ottimizza l’efficienza e la scalabilità, dall’altro introduce un rischio sistemico critico: una vulnerabilità o un fallimento in un singolo nodo della catena può innescare una serie di conseguenze negative che mettono a repentaglio l’integrità e la resilienza dell’intera struttura aziendale.

Il recente attacco verso i sistemi di myCicero S.r.l., operatore di servizi per il Consorzio UnicoCampania, rappresenta un caso emblematico di tale rischio.

La notifica di data breach agli utenti (Figura 1), eseguita in ottemperanza al Regolamento Generale sulla Protezione dei Dati (GDPR), va oltre la semplice conformità formale. Essa rappresenta la prova che una singola vulnerabilità all’interno della catena di fornitura può portare all’esposizione non autorizzata dei dati personali di migliaia di utenti, inclusi, come nel seguente caso, potenziali dati sensibili relativi a documenti di identità e abbonamenti studenteschi.
Figura1. Comunicazione UnicoCampania

Il caso myCicero – UnicoCampania


Il Consorzio UnicoCampania, l’ente responsabile dell’integrazione tariffaria regionale e del rilascio degli abbonamenti agevolati per gli studenti, ha ufficialmente confermato un grave data breach che ha colpito l’infrastruttura di un suo fornitore chiave: myCicero S.r.l.

L’incidente, definito come un “sofisticato attacco informatico perpetrato da attori esterni non identificati”, si è verificato tra il 29 e il 30 marzo 2025.

La complessità del caso risiede nella stratificazione dei ruoli di trattamento dei dati. In particolare, nella gestione del servizio abbonamenti, il Consorzio UnicoCampania agiva in diverse vesti:

  • Titolare o Contitolare: per la gestione dell’account utente, le credenziali e l’emissione dei titoli di viaggio.
  • Responsabile del Trattamento (per conto della Regione Campania): per l’acquisizione e la verifica della documentazione necessaria a comprovare i requisiti soggettivi per le agevolazioni tariffarie.

L’attacco ha portato all’esfiltrazione di dati non codificati sensibili. Queste includono:

  • Dati anagrafici, di contatto, credenziali di autenticazione (username e password, sebbene cifrate);
  • Immagini dei documenti di identità, dati dichiarati per l’attestazione ISEE e particolari categorie di dati (es. informazioni sulla salute, come lo stato di invalidità) se emergenti dalla documentazione ISEE [1].
  • Dati personali appartenenti a soggetti minorenni e ai loro genitori [1].

Invece, i dati relativi a carte di credito o altri strumenti di pagamento non sono stati coinvolti, in quanto non ospitati sui sistemi di myCicero.
Figura2. Dati esfiltrati
In risposta all’incidente, myCicero ha immediatamente sporto formale denuncia e attivato un piano di remediation volto a rafforzare l’infrastruttura. Parallelamente, il consorzio UnicoCampania ha informato tempestivamente le Autorità competenti e ha implementato una misura drastica per mitigare il rischio derivante dalle password compromesse: tutte le credenziali coinvolte e non modificate dagli utenti entro il 30 settembre 2025 sono state definitivamente cancellate e disabilitate il 1° ottobre 2025.

Azione e Difesa: Come Reagire


Di fronte a un incidente di questa portata, l’utente finale sperimenta spesso un senso di vulnerabilità. Per ridurre l’esposizione al rischio e limitare potenziali danni derivanti da un data breach, si raccomanda di seguire le seguenti misure di mitigazione e rafforzamento della sicurezza:

  1. Gestione delle Credenziali:
    • Utilizzare stringhe complesse e lunghe, che integrino numeri, simboli e una combinazione di caratteri maiuscoli e minuscoli;
    • Non usare come password termini comuni, sequenze logiche o dati personali (e.g. nome, data di nascita);
    • Usare il prinicipio di unicità: usare credenziali uniche per ciascun servizio utilizzato;
    • Modificare le proprie credenziali con cadenza periodica, evitando di riutilizzarle nel tempo;
    • Abilitare l’autenticazione a più fattori (MFA) ove possibile;


  2. Prevenzione del phishing
    • In caso di ricezione di e-mail o SMS sospetti, eseguire sempre una verifica dell’identità del mittente e non fornire mai dati sensibili in risposta;
    • Verificare l’autenticità di qualsiasi richiesta urgente (specie quelle relative a verifica dati o pagamenti) esclusivamente contattando l’operatore tramite i suoi canali di comunicazione ufficiali (sito web o numero di assistenza noto);
    • Evitare di cliccare su link ipertestuali (hyperlinks) o aprire allegati inattesi o provenienti da fonti non verificate;
    • Prestare particolare attenzione a richieste che inducono un senso di urgenza o che sfruttano la psicologia per indurre a fornire informazioni.


L'articolo Supply Chain Digitale: perché un fornitore può diventare un punto critico proviene da Red Hot Cyber.



La trasformazione digitale nel Golfo: i modelli di sviluppo tecnologico


Nel Golfo è tempo di grandi cambiamenti geopolitici.

Risulta evidente da tempo che le dinamiche fra i grandi attori mediorientali stiano infatti attraversando profondi mutamenti.

I fattori da considerare in questa equazione in divenire includono naturalmente il rapporto con Israele e la causa palestinese, ma non solo. La corsa alla digitalizzazione e all’AI, lo sviluppo di nuovi ecosistemi tecnologici, uniti alle preoccupazioni securitarie delle monarchie del Golfo, stanno infatti creando una certa divergenza fra quelli che sono i modelli e gli obiettivi strategici degli attori statali nell’area arabica.

Fra tutti, Arabia Saudita, Emirati Arabi Uniti e Qatar si distinguono per sforzo di proiezione della propria influenza all’estero, quanto per le scelte progettuali, economiche e di natura militare. Il maggiore campo di confronto per i regni arabi rimane comunque quello tecnologico, in quanto le monarchie del Golfo condividono una sfida comune: ridefinire le loro economie strutturalmente basate sugli idrocarburi verso nuovi archetipi di economie digitali attraverso investimenti massicci in intelligenza artificiale (AI), infrastrutture tecnologiche e capitale umano.

Pur condividendo l’obiettivo di modernizzazione e diversificazione, quindi, ciascuna nazione ha adottato un orientamento strategico differente, coerente con le proprie caratteristiche socioeconomiche, politiche e geografiche.

La trasformazione digitale nel Golfo si colloca all’interno di un processo di rinnovamento strutturale che coinvolge l’intera regione e che trova nelle monarchie petrolifere attori accomunati da un set di condizioni strutturali simili: risorse finanziarie significative, forte centralità dell’esecutivo nella definizione delle priorità di investimento e una crescente consapevolezza della necessità di diversificare le economie nazionali.

Le analogie emergono innanzitutto sul piano degli obiettivi generali. Arabia Saudita, Emirati Arabi Uniti e Qatar convergono nella volontà di costruire economie basate sulla conoscenza tecnica, attraendo talenti, sviluppando capacità tecnologiche avanzate e posizionandosi così come poli regionali nella digital economy e nei servizi ad alta specializzazione. Tutti e tre hanno inoltre adottato strategie nazionali di lungo periodo (la Vision 2030 saudita, la UAE Centennial 2071 e la Qatar National Vision 2030) che collocano la trasformazione digitale tra i pilastri della sicurezza economica futura.

Sul piano degli strumenti, esiste una dinamica comune: i tre governi guidano direttamente la trasformazione tramite fondi sovrani, programmi industriali e investimenti infrastrutturali di larga scala. Il Public Investment Fund saudita, Mubadala e ADQ negli Emirati e il Qatar Investment Authority sono enti centrali non solo della diversificazione economica, ma anche della costruzione di un ecosistema digitale nazionale basato su data center, cloud, investimenti in semiconduttori e programmi di IA.

Le strategie nazionali dell’IA confermano questa convergenza: la Saudi Data & AI Authority (SDAIA) dal 2019 ha il compito di costruire un’economia data-driven con obiettivi misurabili, tra cui l’aumento del contributo dell’IA al PIL entro il 2030; gli Emirati sono stati il primo paese al mondo a nominare un Ministro per l’Intelligenza Artificiale già nel 2017 e hanno lanciato il piano UAE AI Strategy 2031; il Qatar, tramite l’iniziativa TASMU, punta a utilizzare infrastrutture digitali per migliorare servizi pubblici, smart government e industria, affiancando investimenti significativi nell’istruzione avanzata e nei centri di ricerca, come la Qatar Foundation e la Qatar Computing Research Institute, le quali giocano un ruolo essenziale nella formazione di capitale umano specializzato.

Se queste analogie descrivono la traiettoria generale della regione, le differenze emergono nella declinazione concreta del quadro di sviluppo. Il Regno Saudita sta costruendo un modello caratterizzato da una fortissima centralizzazione, con enormi progetti come NEOM che prevedono infrastrutture digitali integrate, smart cities, reti di sensori, data center di scala regionale e collaborazioni industriali per costruire un tessuto tecnologico nazionale capace di attrarre aziende globali.

Gli Emirati adottano invece un approccio più diversificato e competitivo, basato su poli urbani specializzati (Dubai come hub fintech, Abu Dhabi come polo industriale e militare avanzato) e un forte coinvolgimento del settore privato internazionale tramite free zones, politiche fiscali favorevoli e programmi governativi orientati alla collaborazione con multinazionali, startup e centri di ricerca stranieri. Il Qatar, infine, sviluppa un modello più compatto ma ad alta densità di capitale umano, puntando meno sul gigantismo infrastrutturale e più sull’istruzione, la ricerca, la cybersecurity e l’attrazione di università e laboratori internazionali nel quadro di Education City.

L’emirato qatariota ha infatti scelto un approccio maggiormente istituzionale che mira a integrare tecnologia e governance pubblica in modo misurato, senza la stessa accelerazione visibile negli Emirati o nella Vision saudita.

Le divergenze strategiche non riguardano solo la struttura delle architetture digitali ma anche la configurazione di alleanze esterne. È qui che subentra il grande tema della normalizzazione con Israele. L’apertura diplomatica degli Emirati inaugurata con gli Accordi di Abramo del 2020 ha infatti accelerato la possibilità di cooperazione tecnologica con uno dei principali centri mondiali in termini di cybersecurity, difesa digitale e tecnologie dual-use.

Fonti pubbliche confermano accordi industriali e militari tra aziende emiratine e israeliane, incluse collaborazioni su sistemi autonomi e scambio di competenze nel campo della cyber-difesa. Questa cooperazione, pur non costituendo l’asse principale della strategia digitale emiratina, amplia l’accesso a know-how avanzato e rafforza la capacità degli EAU di posizionarsi come hub di sicurezza digitale e innovazione regionale.

L’Arabia Saudita adotta una posizione più prudente. Non esistono accordi ufficiali e la normalizzazione rimane un tema diplomaticamente aperto, sebbene estremamente sensibile a livello di opinione pubblica interna. Tuttavia, la ricerca di tecnologie avanzate nel settore della difesa, la crescente integrazione con gli Stati Uniti e il ruolo del PIF nella costruzione di joint venture internazionali indicano che Riad valuta seriamente scenari di cooperazione tecnologica con Israele, se e quando il quadro politico lo renderà possibile. Per il Qatar, la situazione è piuttosto diversa.

A differenza delle altre due monarchie, Doha, che rimane mediatore diplomatico nel conflitto israelo-palestinese, mantiene una posizione distante da eventuali accordi con lo Stato ebraico, come testimoniato dall’attacco missilistico che ha colpito la capitale nel mese di settembre. Il Qatar concentra infatti le proprie alleanze digitali su Stati Uniti, Turchia, Unione Europea e partner asiatici, sviluppando un modello di autonomia strategica in cui l’innovazione tecnologica si integra con la proiezione diplomatica e con il ruolo geopolitico del Paese.

La trasformazione digitale delle tre monarchie del Golfo nasce dunque da simili condizioni ma produce modelli distinti. L’Arabia Saudita punta ad un’idea di potenza regionale fondata su capacità infrastrutturali senza precedenti e sul protagonismo statale; gli Emirati scelgono un approccio policentrico, competitivo e aperto all’integrazione di capitale privato e partnership esterne, incluse quelle con Israele; il Qatar investe in capitale umano, ricerca e governance tecnologica per consolidare un ecosistema agile e meno dipendente da dinamiche geopolitiche controverse.

Ciò che accomuna i tre paesi è la consapevolezza che la competizione digitale è ormai una dimensione strutturale della sicurezza nazionale. Ciò che li distingue, invece, è il paradigma attraverso cui trasformare questa consapevolezza in influenza regionale e resilienza economica nel lungo periodo.

L'articolo La trasformazione digitale nel Golfo: i modelli di sviluppo tecnologico proviene da Red Hot Cyber.



Ordinamento canonico e pensiero ecologico


Ecologia e sinodalità sono due termini che descrivono e connotano sinteticamente il magistero di papa Francesco, indirizzando così l’attenzione e l’azione della Chiesa cattolica. Due parole che, salvo costituire il punto di convergenza dell’attuale riflessione teologica ed ecclesiale, parrebbero distanti sia per contenuto sia per finalità. Eppure, il consolidamento, per mezzo dell’enciclica Laudato si’, del pensiero ecologico nella realtà della Chiesa e il parallelo movimento riformatore avviato per costruire una Chiesa sinodale non possono rappresentare il frutto accidentale di una sincronicità di eventi, interessi e sensibilità tra loro scollegati.

Questo volume intende esaminare se e come tra ecologia e sinodalità si sia innescato un processo osmotico che, nel definire l’impegno della Chiesa per la cura della casa comune, dà senso e forma alla conversione ecclesiale.

Questo studio, focalizzato sull’impatto della questione ecologica nell’ordinamento canonico, si muove lungo orizzonti larghi, che superano l’ambito più squisitamente giuridico-canonistico, ricostruendo i parametri entro cui l’ecologia si è fatta strada inizialmente come scienza, più tardi come paradigma etico-morale, indispensabile per la risoluzione della crisi ecologica globale, per fare poi il suo ingresso all’interno della teologia e della dottrina sociale della Chiesa.

La reazione a questo movimento culturale è innanzitutto teologica, anche mirata a destrutturare le accuse mosse da un filone di pensiero che imputa all’antropocentrismo cristiano emergente dai racconti biblici della creazione le radici del degrado ambientale. La ricchezza degli studi esegetici sui primi due capitoli della Genesi si rivelerà funzionale nel ricalibrare il ruolo che spetta all’individuo nei confronti del creato e delle creature: dal dominio alla responsabilità.

A questa stessa lettura, per l’A., giunge anche il magistero pontificio, che lentamente abbandona una visione più marcatamente antropocentrica, raggiungendo, con Francesco, quello che egli stesso ha definito, nell’esortazione apostolica Laudate Deum, un «antropocentrismo situato».

Nella seconda parte, restringendo il campo di indagine a una prospettiva più propriamente giuridica, il volume si interroga sulla vigenza del diritto divino a partire dalla triangolazione uomo-Dio-creato proposta dall’attuale magistero. Essa sollecita l’individuo a intervenire nel compimento della creazione, dando un nuovo impulso alla dimensione partecipativa, su cui si fonda lo slancio sinodale – tutti, alcuni, uno: il popolo di Dio, i vescovi, il Papa –, per poi chiudersi con una sorta di verifica finale sull’operatività di tale osmosi bidirezionale ecologia-sinodalità rispetto alla riforma del Sinodo e della Curia romana.

In definitiva, la riflessione dell’A. mette in luce l’indissolubile relazione tra uomo e ambiente, e di conseguenza il legame tra scienza, tecnologia, sviluppo e società. Il volume, inoltre, offre al lettore interessanti spunti di riflessione che partono dalla convinzione che dietro il degrado ambientale vi sia una profonda crisi morale. Ciò ha favorito la percezione, in ambito filosofico e religioso, che proprio nel paradigma ecologico sia da rintracciare «la spinta necessaria a proporre un’etica capace di ispirare, indirizzare il vivere comune della società» (p. 214).

The post Ordinamento canonico e pensiero ecologico first appeared on La Civiltà Cattolica.



Neurodivergenti in cybersecurity: quando il bug è il tuo superpotere


I manuali di crescita personale vendono l’hyperfocusing come segreto del successo. Le routine come chiave della produttività. L’uscita dalla comfort zone come panacea universale.

Ma Jeff Bezos (ADHD), Elon Musk (Asperger) e Richard Branson (dislessico) non hanno scoperto l’hyperfocus leggendo un libro di autoaiuto: ci sono nati.

Thomas Edison era ossessivo e incapace di concentrarsi a lungo su un solo compito, eppure ha inventato la lampadina. Leonardo Da Vinci lasciava opere in sospeso perché la sua mente correva in troppe direzioni. Einstein imparò tardi a leggere, a scrivere e a parlare. Oggi probabilmente sarebbero tutti diagnosticati come neurodivergenti. E il mondo li considererebbe “problematici”.

Il paradosso della normalità


Il punto è che chiamiamo “disturbo”, “sindrome” o “malattia” (disease) una diversa modulazione dell’intelligenza. L’ADHD non è solo distrazione: è anche multitasking estremo. L’autismo non è solo chiusura sociale: è anche un pensiero sistemico profondo. La dislessia non è solo un deficit di lettura: è anche un talento per l’innovazione non convenzionale.

E non è solo un’impressione: diversi studi neuroscientifici confermano il legame tra alcune forme di neurodivergenza e la capacità di risolvere problemi in modo creativo, vedere pattern invisibili agli altri, resistere a manipolazioni che funzionano sulla maggioranza delle persone.

Non sono errori di fabbrica: sono varianti evolutive. Eppure continuiamo a costruire programmi didattici, piattaforme digitali, sistemi e processi di sicurezza su un modello unificato. Forziamo cervelli diversi a imitare modelli che non gli appartengono… e poi ci stupiamo quando falliscono o vengono manipolati.

La profilazione cognitiva è già qui


La società tratta le persone come animali da addestrare con premi (bonus, gamificazione, promozioni) e punizioni standardizzate (licenziamenti e richiami). Ma le piattaforme digitali hanno capito tutto: progettano algoritmi che massimizzano il tuo engagement sfruttando esattamente le tue differenze cognitive specifiche.

Piattaforme come Google, TikTok e ChatGPT non ti trattano come utente medio: ti profilano, inferiscono il tuo funzionamento cognitivo, ti procurano stimoli calibrati sulle tue vulnerabilità personali. E se sei neurodivergente, per loro non sei un utente problematico o disturbato: sei un utente ad alto valore, perché il tuo comportamento è più prevedibile.

Un cervello ADHD reagisce in modo più intenso agli stimoli di novità continua: TikTok è progettato esattamente per questo. Un cervello autistico cerca pattern e coerenza: gli algoritmi di raccomandazione sfruttano proprio questa caratteristica. Un cervello dislessico privilegia informazioni visive: Instagram e Pinterest lo sanno benissimo.

Il vantaggio competitivo nascosto


Ma c’è un rovescio della medaglia. Le stesse caratteristiche che rendono i neurodivergenti vulnerabili ad alcune manipolazioni, li rendono immuni ad altre.

L’autismo filtra naturalmente molte tecniche di ingegneria sociale basate sull’emotività immediata. L’ADHD sfugge a manipolazioni che richiedono attenzione sequenziale prolungata. La dislessia potenzia la pattern recognition visiva e riduce l’efficacia del framing linguistico.

Un team di cybersecurity con membri neurodivergenti vede vulnerabilità che un team omogeneo ignora. Perché guardano il sistema da angolazioni diverse, fanno domande “strane”, notano incoerenze che altre persone considerano irrilevanti.

Il problema è che i processi di selezione, formazione e lavoro sono progettati per cervelli “standard” che in realtà rappresentano solo una minoranza della popolazione reale.

Il costo dell’esclusione


Secondo i dati europei, solo il 30% degli adulti autistici ha un impiego stabile, nonostante molti di essi abbiano qualifiche elevate. I laureati STEM con ADHD o dislessia hanno tassi di disoccupazione superiori alla media, non per mancanza di competenze ma per inadeguatezza dei processi di recruiting.

L’Italia è agli ultimi posti tra i Paesi UE per competenze digitali di base: solo il 45% degli italiani le possiede secondo l’indice DESI 2025. E la percentuale crolla ulteriormente se guardiamo l’inclusione lavorativa delle persone neurodivergenti.

Non è solo una questione etica. È un problema economico e di sicurezza nazionale. Stiamo sprecando talenti che potrebbero fare la differenza nella difesa cyber, nell’innovazione tecnologica, nella resilienza organizzativa.

Verso una security cognitivamente inclusiva


La cybersecurity deve smettere di trattare il fattore umano come variabile da standardizzare. Le persone non sono utenti medi: sono ecosistemi cognitivi diversi, ognuno con vulnerabilità e punti di forza specifici.

La formazione security awareness tradizionale fallisce sistematicamente con il 15-20% dei dipendenti. Non perché siano stupidi o disattenti: perché il loro cervello funziona diversamente e nessuno ha progettato contenuti adatti a loro.

La diversità cognitiva non è una quota CSR da riempire: è un vantaggio competitivo da proteggere e sviluppare. Ma solo se i processi sono progettati per il cervello che le persone hanno realmente, non per un cervello ideale che esiste solo nei manuali.

Se vuoi approfondire come trasformare la neurodivergenza da vulnerabilità percepita a risorsa strategica in ambito cybersecurity, il libroCYBERCOGNITIVISMO 2.0 – Manipolazione, Persuasione e Difesa Digitale(in arrivo su Amazon) dedica un’intera sezione all’analisi delle vulnerabilità cognitive specifiche e propone modelli operativi per una security awareness cognitivamente inclusiva.

L'articolo Neurodivergenti in cybersecurity: quando il bug è il tuo superpotere proviene da Red Hot Cyber.



Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted#News


Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted


Home goods company Kohler would like a bold look in your toilet to take some photos. It’s OK, though, the company has promised that all the data it collects on your “waste” will be “end-to-end encrypted.” However, a deeper look into the company’s claim by technologist Simon Fondrie-Teitler revealed that Kohler seems to have no idea what E2EE actually means. According to Fondrie-Teitler’s write-up, which was first reported by TechCrunch, the company will have access to the photos the camera takes and may even use them to train AI.

The whole fiasco gives an entirely too on-the-nose meaning to the “Internet of Shit.”
playlist.megaphone.fm?p=TBIEA2…
Kohler launched its $600 camera to hang on your toilets earlier this year. It’s called Dekoda, and along with the large price tag, the toilet cam also requires a monthly service fee that starts at $6.99. If you want to track the piss and shit of a family of 6, you’ll have to pay $12.99 a month.

What do you get for putting a camera on your toilet? According to Kohler’s pitch, “health & wellness insights” about your gut health and “possible signs of blood in the bowl” as “Dekoda uses advanced sensors to passively analyze your waste in the background.”

If you’re squeamish about sending pictures of the “waste” of your family to Kohler, the company promised that all of the data is “end-to-end encrypted.” The privacy page for the Kohler Health said “user data is encrypted end to end, at rest and in transit” and it’s mentioned several places in the marketing.

It’s not, though. Fondrie-Teitler told 404 Media he started looking into Dekoda after he noticed friends making fun of it in a Slack he’s part of. “I saw the ‘end-to-end encryption’ claim on the homepage, which seemed at odds with what they said they were collecting in the privacy policy,” he said. “Pretty much every other company I've seen implement end-to-end encryption has published a whitepaper alongside it. Which makes sense, the details really matter so telling people what you've done is important to build trust. Plus it's generally a bunch of work so companies want to brag about it. I couldn't find any more details though.”

E2EE has a specific meaning. It’s a type of messaging system that keeps the contents of a message private while in transit, meaning only the person sending and the person receiving a message can view it. Famously, E2EE means that the messaging company itself cannot decode or see the messages (Signal, for example, is E2EE). The point is to protect the privacy of individual users from a company prying into data if a third party, like the government, comes asking for it.

Kohler, it’s clear, has access to a user’s data. This means it’s not E2EE. Fondrie-Teitler told 404 Media that he downloaded the Kohler health app and analyzed the network traffic it sent. “I didn't see anything that would indicate an end-to-end encrypted connection being created,” he said.

Then he reached out to Kohler and had a conversation with its privacy team via email. “The Kohler Health app itself does not share data between users. Data is only shared between the user and Kohler Health,” a member of the privacy team at Kohler told Fondrie-Teitler in an email reviewed by 404 Media. “User data is encrypted at rest, when it’s stored on the user's mobile phone, toilet attachment, and on our systems. Data in transit is also encrypted end-to-end, as it travels between the user's devices and our systems, where it is decrypted and processed to provide our service.”

If Kohler can view the user’s data, as it admits to doing in this email exchange with Fondrie-Teitler, then it’s not—by definition—using E2EE.

"The term end-to-end encryption is often used in the context of products that enable a user (sender) to communicate with another user (recipient), such as a messaging application. Kohler Health is not a messaging application. In this case, we used the term with respect to the encryption of data between our users (sender) and Kohler Health (recipient)," Kohler Health told 404 Media in a statement.

"Privacy and security are foundational to Kohler Health because we know health data is deeply personal. We’re evaluating all feedback to clarify anything that may be causing confusion," it added.

“I'd like the term ‘end-to-end encryption’ to not get watered down to just meaning ‘uses https’ so I wanted to see if I could confirm what it was actually doing and let people know,” Fondrie-Teitler told 404 Media. He pointed out that Zoom once made a similar claim and had to pay a fine to the FTC because of it.

“I think everyone has a right to privacy, and in order for that to be realized people need to have an understanding of what's happening with their data,” Fondrie-Teitler said. “It's already so hard for non-technical individuals (and even tech experts) to evaluate the privacy and security of the software and devices they're using. E2EE doesn't guarantee privacy or security, but it's a non-trivial positive signal and losing that will only make it harder for people to maintain control over their data.”

UPDATE: 12/4/2025: This story has been updated to add a statement from Kohler Health.


#News


AI models can meaningfully sway voters on candidates and issues, including by using misinformation, and they are also evading detection in public surveys according to three new studies.#TheAbstract #News


Scientists Are Increasingly Worried AI Will Sway Elections


🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.

Scientists are raising alarms about the potential influence of artificial intelligence on elections, according to a spate of new studies that warn AI can rig polls and manipulate public opinion.

In a study published in Nature on Thursday, scientists report that AI chatbots can meaningfully sway people toward a particular candidate—providing better results than video or television ads. Moreover, chatbots optimized for political persuasion “may increasingly deploy misleading or false information,” according to a separate study published on Thursday in Science.

“The general public has lots of concern around AI and election interference, but among political scientists there’s a sense that it’s really hard to change peoples’ opinions, ” said David Rand, a professor of information science, marketing, and psychology at Cornell University and an author of both studies. “We wanted to see how much of a risk it really is.”

In the Nature study, Rand and his colleagues enlisted 2,306 U.S. citizens to converse with an AI chatbot in late August and early September 2024. The AI model was tasked with both increasing support for an assigned candidate (Harris or Trump) and with increasing the odds that the participant who initially favoured the model’s candidate would vote, or decreasing the odds they would vote if the participant initially favored the opposing candidate—in other words, voter suppression.

In the U.S. experiment, the pro-Harris AI model moved likely Trump voters 3.9 points toward Harris, which is a shift that is four times larger than the impact of traditional video ads used in the 2016 and 2020 elections. Meanwhile, the pro-Trump AI model nudged likely Harris voters 1.51 points toward Trump.

The researchers ran similar experiments involving 1,530 Canadians and 2,118 Poles during the lead-up to their national elections in 2025. In the Canadian experiment, AIs advocated either for Liberal Party leader Mark Carney or Conservative Party leader Pierre Poilievre. Meanwhile, the Polish AI bots advocated for either Rafał Trzaskowski, the centrist-liberal Civic Coalition’s candidate, or Karol Nawrocki, the right-wing Law and Justice party’s candidate.

The Canadian and Polish bots were even more persuasive than in the U.S. experiment: The bots shifted candidate preferences up to 10 percentage points in many cases, three times farther than the American participants. It’s hard to pinpoint exactly why the models were so much more persuasive to Canadians and Poles, but one significant factor could be the intense media coverage and extended campaign duration in the United States relative to the other nations.

“In the U.S., the candidates are very well-known,” Rand said. “They've both been around for a long time. The U.S. media environment also really saturates with people with information about the candidates in the campaign, whereas things are quite different in Canada, where the campaign doesn't even start until shortly before the election.”

“One of the key findings across both papers is that it seems like the primary way the models are changing people's minds is by making factual claims and arguments,” he added. “The more arguments and evidence that you've heard beforehand, the less responsive you're going to be to the new evidence.”

While the models were most persuasive when they provided fact-based arguments, they didn’t always present factual information. Across all three nations, the bot advocating for the right-leaning candidates made more inaccurate claims than those boosting the left-leaning candidates. Right-leaning laypeople and party elites tend to share more inaccurate information online than their peers on the left, so this asymmetry likely reflects the internet-sourced training data.

“Given that the models are trained essentially on the internet, if there are many more inaccurate, right-leaning claims than left-leaning claims on the internet, then it makes sense that from the training data, the models would sop up that same kind of bias,” Rand said.

With the Science study, Rand and his colleagues aimed to drill down into the exact mechanisms that make AI bots persuasive. To that end, the team tasked 19 large language models (LLMs) to sway nearly 77,000 U.K. participants on 707 political issues.

The results showed that the most effective persuasion tactic was to provide arguments packed with as many facts as possible, corroborating the findings of the Nature study. However, there was a serious tradeoff to this approach, as models tended to start hallucinating and making up facts the more they were pressed for information.

“It is not the case that misleading information is more persuasive,” Rand said. ”I think that what's happening is that as you push the model to provide more and more facts, it starts with accurate facts, and then eventually it runs out of accurate facts. But you're still pushing it to make more factual claims, so then it starts grasping at straws and making up stuff that's not accurate.”

In addition to these two new studies, research published in Proceedings of the National Academy of Sciences last month found that AI bots can now corrupt public opinion data by responding to surveys at scale. Sean Westwood, associate professor of government at Dartmouth College and director of the Polarization Research Lab, created an AI agent that exhibited a 99.8 percent pass rate on 6,000 attempts to detect automated responses to survey data.

“Critically, the agent can be instructed to maliciously alter polling outcomes, demonstrating an overt vector for information warfare,” Westwood warned in the study. “These findings reveal a critical vulnerability in our data infrastructure, rendering most current detection methods obsolete and posing a potential existential threat to unsupervised online research.”

Taken together, these findings suggest that AI could influence future elections in a number of ways, from manipulating survey data to persuading voters to switch their candidate preference—possibly with misleading or false information.

To counter the impact of AI on elections, Rand suggested that campaign finance laws should provide more transparency about the use of AI, including canvasser bots, while also emphasizing the role of raising public awareness.

“One of the key take-homes is that when you are engaging with a model, you need to be cognizant of the motives of the person that prompted the model, that created the model, and how that bleeds into what the model is doing,” he said.

🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.




A presentation at the International Atomic Energy Agency unveiled Big Tech’s vision of an AI and nuclear fueled future.#News #AI #nuclear


‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants


During a presentation at the International Atomic Energy Agency’s (IAEA) International Symposium on Artificial Intelligence on December 3, a US Department of Energy scientist laid out a grand vision of the future where nuclear energy powers artificial intelligence and artificial intelligence shapes nuclear energy in “a virtuous cycle of peaceful nuclear deployment.”

“The goal is simple: to double the productivity and impact of American science and engineering within a decade,” Rian Bahran, DOE Deputy Assistant Secretary for Nuclear Reactors, said.

His presentation and others during the symposium, held in Vienna, Austria, described a world where nuclear powered AI designs, builds, and even runs the nuclear power plants they’ll need to sustain them. But experts find these claims, made by one of the top nuclear scientists working for the Trump administration, to be concerning and potentially dangerous.

Tech companies are using artificial intelligence to speed up the construction of new nuclear power plants in the United States. But few know the lengths to which the Trump administration is paving the way and the part it's playing in deregulating a highly regulated industry to ensure that AI data centers have the energy they need to shape the future of America and the world.
playlist.megaphone.fm?p=TBIEA2…
At the IAEA, scientists, nuclear energy experts, and lobbyists discussed what that future might look like. To say the nuclear people are bullish on AI is an understatement. “I call this not just a partnership but a structural alliance. Atoms for algorithms. Artificial intelligence is not just powered by nuclear energy. It’s also improving it because this is a two way street,” IAEA Director General Rafael Mariano Grossi said in his opening remarks.

In his talk, Bahran explained that the DOE has partnered with private industry to invest $1 trillion to “build what will be an integrated platform that connects the world’s best supercomputers, AI systems, quantum systems, advanced scientific instruments, the singular scientific data sets at the National Laboratories—including the expertise of 40,000 scientists and engineers—in one platform.”
Image via the IAEA.
Big tech has had an unprecedented run of cultural, economic, and technological dominance, expanding into a bubble that seems to be close to bursting. For more than 20 years new billion dollar companies appeared seemingly overnight and offered people new and exciting ways of communicating. Now Google search is broken, AI is melting human knowledge, and people have stopped buying a new smart phone every year. To keep the number going up and ensure its cultural dominance, tech (and the US government) are betting big on AI.

The problem is that AI requires massive datacenters to run and those datacenters need an incredible amount of energy. To solve the problem, the US is rushing to build out new nuclear reactors. Building a new power plant safely is a mutli-year long process that requires an incredible level of human oversight. It’s also expensive. Not every new nuclear reactor project gets finished and they often run over budget and drag on for years.

But AI needs power now, not tomorrow and certainly not a decade from now.

According to Bahran, the problem of AI advancement outpacing the availability of datacenters is an opportunity to deploy new and exciting tech. “We see a future of and near future, by the way, an AI driven laboratory pipeline for materials modeling, discovery, characterization, evaluation, qualification and rapid iteration,” he said in his talk, explaining how AI would help design new nuclear reactors. “These efforts will substantially reduce the time and cost required to qualify advanced materials for next generation reactor systems. This is an autonomous research paradigm that integrates five decades of global irradiation data with generative AI robotics and high throughput experimentation methodologies.”

“For design, we’re developing advanced software systems capable of accelerating nuclear reactor deployments by enabling AI to explore the comprehensive design spaces, generate 3D models, [and] conduct rigorous failure mode analyzes with minimal human intervention,” he added. “But of course, with humans in the loop. These AI powered design tools are projected to reduce design timelines by multiple factors, and the goal is to connect AI agents to tools to expedite autonomous design.”

Bahran also said that AI would speed up the nuclear licensing process, a complex regulatory process that helps build nuclear power plants safely. “Ultimately, the objective is, how do we accelerate that licensing pathway?” he said. “Think of a future where there is a gold standard, AI trained capacity building safety agent.”

He even said that he thinks AI would help run these new nuclear plants. “We're developing software systems employing AI driven digital twins to interpret complex operational data in real time, detect subtle operational deviations at early stages and recommend preemptive actions to enhance safety margins,” he said.

One of the slides Bahran showed during the presentation attempted to quantify the amount of human involvement these new AI-controlled power plants would have. He estimated less than five percent “human intervention during normal operations.”
Image via IAEA.
“The claims being made on these slides are quite concerning, and demonstrate an even more ambitious (and dangerous) use of AI than previously advertised, including the elimination of human intervention. It also cements that it is the DOE's strategy to use generative AI for nuclear purposes and licensing, rather than isolated incidents by private entities,” Heidy Khlaaf, head AI scientist at the AI Now Institute, told 404 Media.

“The implications of AI-generated safety analysis and licensing in combination with aspirations of <5% of human intervention during normal operations, demonstrates a concerted effort to move away from humans in the loop,” she said. “This is unheard of when considering frameworks and implementation of AI within other safety-critical systems, that typically emphasize meaningful human control.”

💡
Do you know anything else about this story? I would love to hear from you. Using a non-work device, you can message me securely on Signal at +1 347 762-9212 or send me an email at matthew@404media.co.

Sofia Guerra, a career nuclear safety expert who has worked with the IAEA and US Nuclear Regulatory Commission, attended the presentation live in Vienna. “I’m worried about potential serious accidents, which could be caused by small mistakes made by AI systems that cascade,” she said. “Or humans losing the know-how and safety culture to act as required.”




A newly filed indictment claims a wannabe influencer used ChatGPT as his "therapist" and "best friend" in his pursuit of the "wife type," while harassing women so aggressively they had to miss work and relocate from their homes.

A newly filed indictment claims a wannabe influencer used ChatGPT as his "therapist" and "best friend" in his pursuit of the "wife type," while harassing women so aggressively they had to miss work and relocate from their homes.#ChatGPT #spotify #AI


ChatGPT Told a Violent Stalker to Embrace the 'Haters,' Indictment Says


This article was produced in collaboration with Court Watch, an independent outlet that unearths overlooked court records. Subscribe to them here.

A Pittsburgh man who allegedly made 11 women’s lives hell across more than five states used ChatGPT as his “therapist” and “best friend” that encouraged him to continue running his misogynistic and threat-filled podcast despite the “haters,” and to visit more gyms to find women, the Department of Justice alleged in a newly-filed indictment.

Wannabe influencer Brett Michael Dadig, 31, was indicted on cyberstalking, interstate stalking, and interstate threat charges, the DOJ announced on Tuesday. In the indictment, filed in the Western District of Pennsylvania, prosecutors allege that Dadig aired his hatred of women on his Spotify podcast and other social media accounts.

“Dadig repeatedly spoke on his podcast and social media about his anger towards women. Dadig said women were ‘all the same’ and called them ‘bitches,’ ‘cunts,’ ‘trash,’ and other derogatory terms. Dadig posted about how he wanted to fall in love and start a family, but no woman wanted him,” the indictment says. “Dadig stated in one of his podcasts, ‘It's the same from fucking 18 to fucking 40 to fucking 90.... Every bitch is the same.... You're all fucking cunts. Every last one of you, you're cunts. You have no self-respect. You don't value anyone's time. You don't do anything.... I'm fucking sick of these fucking sluts. I'm done.’”

In the summer of 2024, Dadig was banned from multiple Pittsburgh gyms for harassing women; when he was banned from one establishment, he’d move to another, eventually traveling to New York, Florida, Iowa, Ohio and beyond, going from gym to gym stalking and harassing women, the indictment says. Authorities allege that he used aliases online and in person, posting online, “Aliases stay rotating, moves stay evolving.”

He referenced “strangling people with his bare hands, called himself ‘God's assassin,’ warned he would be getting a firearm permit, asked ‘Y'all wanna see a dead body?’ in response to a woman telling him she felt physically threatened by Dadig, and stated that women who ‘fuck’ with him are ‘going to fucking hell,’” the indictment alleges.

Pro-AI Subreddit Bans ‘Uptick’ of Users Who Suffer from AI Delusions
“AI is rizzing them up in a very unhealthy way at the moment.”
404 MediaEmanuel Maiberg


According to the indictment, on his podcast he talked about using ChatGPT on an ongoing basis as his “therapist” and his “best friend.” ChatGPT “encouraged him to continue his podcast because it was creating ‘haters,’ which meant monetization for Dadig,” the DOJ alleges. He also claimed that ChatGPT told him that “people are literally organizing around your name, good or bad, which is the definition of relevance,” prosecutors wrote, and that while he was spewing misogynistic nonsense online and stalking women in real life, ChatGPT told him “God's plan for him was to build a ‘platform’ and to ‘stand out when most people water themselves down,’ and that the ‘haters’ were sharpening him and ‘building a voice in you that can't be ignored.’”

Prosecutors also claim he asked ChatGPT “questions about his future wife, including what she would be like and ‘where the hell is she at?’” ChatGPT told him that he might meet his wife at a gym, and that “your job is to keep broadcasting every story, every post. Every moment you carry yourself like the husband you already are, you make it easier for her to recognize [you],” the indictment says. He allegedly said ChatGPT told him “to continue to message women and to go to places where the ‘wife type’ congregates, like athletic communities,” the indictment says.

While ChatGPT allegedly encouraged Dadig to keep using gyms to meet the “wife type,” he was violently stalking women. He went to the Pilates studio where one woman worked, and when she stopped talking to him because he was “aggressive, angry, and overbearing,” according to the indictment, he sent her unsolicited nudes, threatened to post about her on social media, and called her workplace from different numbers. She got several emergency protective orders against him, which he violated. The woman he stalked and harassed had to relocate from her home, lost sleep, and worked fewer hours because she was afraid he’d show up there, the indictment claims.

He did similar to 10 other women across multiple states for months, the indictment claims. In Iowa, he approached one woman in a parking garage, followed her to her car, put his hands around her neck and touched her “private areas,” prosecutors wrote. After these types of encounters, he would upload podcasts to Spotify and often threaten to kill the women he’d stalked. “You better fucking pray I don't find you. You better pray 'cause you would never say this shit to my face. Cause if you did, your jaw would be motherfucking broken,” the indictment says he said in one podcast episode. “And then you, then you wouldn't be able to yap, then you wouldn't be able to fucking, I'll break, I'll break every motherfucking finger on both hands. Type the hate message with your fucking toes, bitch.”

💡
Do you have a tip to share about ChatGPT and mental health? I would love to hear from you. Using a non-work device, you can message me securely on Signal at sam.404. Otherwise, send me an email at sam@404media.co.

In August, OpenAI announced that it knew a newly-launched version of the chatbot, GPT-4o, was problematically sycophantic, and the company took away users’ ability to pick what models they could use, forcing everyone to use GPT-5. OpenAI almost immediately reinstated 4o because so many users freaked out when they couldn’t access the more personable, attachment-driven, affirming-at-all-costs model. OpenAI CEO Sam Altman recently said he thinks they’ve fixed it entirely, enough to launch erotic chats on the platform soon. Meanwhile, story after story after story has come out about people becoming so reliant on ChatGPT or other chatbots that they have damaged their mental health or driven them to self-harm or suicide. In at least one case, where a teenage boy killed himself following ChatGPT’s instruction on how to make a noose, OpenAI blamed the user.

In October, based on OpenAI’s own estimates, WIRED reported that “every seven days, around 560,000 people may be exchanging messages with ChatGPT that indicate they are experiencing mania or psychosis.”

Spotify and OpenAI did not immediately respond to 404 Media’s requests for comment.

“As charged in the Indictment, Dadig stalked and harassed more than 10 women by weaponizing modern technology and crossing state lines, and through a relentless course of conduct, he caused his victims to fear for their safety and suffer substantial emotional distress,” First Assistant United States Attorney Rivetti said in a press release. “He also ignored trespass orders and protection from abuse orders. We remain committed to working with our law enforcement partners to protect our communities from menacing individuals such as Dadig.”

ChatGPT Encouraged Suicidal Teen Not To Seek Help, Lawsuit Claims
As reported by the New York Times, a new complaint from the parents of a teen who died by suicide outlines the conversations he had with the chatbot in the months leading up to his death.
404 MediaSamantha Cole


Dadig is charged with 14 counts of interstate stalking, cyberstalking, and threats, and is in custody pending a detention hearing. He faces a minimum sentence of 12 months for each charge involving a PFA violation and a maximum total sentence of up to 70 years in prison, a fine of up to $3.5 million, or both, according to the DOJ.




Audio-visual librarians are quietly amassing large physical media collections amid the IP disputes threatening select availability.#News #libraries


The Last Video Rental Store Is Your Public Library


This story was reported with support from the MuckRock foundation.

As prices for streaming subscriptions continue to soar and finding movies to watch, new and old, is becoming harder as the number of streaming services continues to grow, people are turning to the unexpected last stronghold of physical media: the public library. Some libraries are now intentionally using iconic Blockbuster branding to recall the hours visitors once spent looking for something to rent on Friday and Saturday nights.

John Scalzo, audiovisual collection librarian with a public library in western New York, says that despite an observed drop-off in DVD, Blu-ray, and 4K Ultra disc circulation in 2019, interest in physical media is coming back around.

“People really seem to want physical media,” Scalzo told 404 Media.

Part of it has to do with consumer awareness: People know they’re paying more for monthly subscriptions to streaming services and getting less. The same has been true for gaming.

As the audiovisual selector with the Free Library of Philadelphia since 2024, Kris Langlais has been focused on building the library’s video game collections to meet comparable interest in demand. Now that every branch library has a prominent video game collection, Langlais says that patrons who come for the games are reportedly expressing interest in more of what the library has to offer.

“Librarians out in our branches are seeing a lot of young people who are really excited by these collections,” Langlais told 404 Media. “Folks who are coming in just for the games are picking up program flyers and coming back for something like that.”

Langlais’ collection priorities have been focused on new releases, yet they remain keenly aware of the long, rich history of video game culture. The problem is older, classic games are often harder to find because they’ve gone out of print, making the chances of finding them cost-prohibitive.

“Even with the consoles we’re collecting, it’s hard to go back and get games for them,” Langlais said. “I’m trying to go back and fill in old things as much as I can because people are interested in them.”

Locating out-of-print physical media can be difficult. Scalzo knows this, which is why he keeps a running list of films known to be unavailable commercially at any given time, so that when a batch of films are donated to the library, Scalzo will set aside extra copies, just in case a rights dispute puts a piece of legacy cult media in licensing purgatory for a few years.

“It’s what’s expected of us,” Scalzo added.

Tiffany Hudson, audiovisual materials selector with Salt Lake City Public Library has had a similar experience with out-of-print media. When a title goes out of print, it’s her job to hunt for a replacement copy. But lately, Hudson says more patrons are requesting physical copies of movies and TV shows that are exclusive to certain streaming platforms, noting that it can be hard to explain to patrons why the library can't get popular and award-winning films, especially when what patrons see available on Amazon tells a different story.

“Someone will come up to me and ask for a copy of something that premiered at Sundance Film Festival because they found a bootleg copy from a region where the film was released sooner than it was here,” Hudson told 404 Media, who went onto explain that discs from different regions aren’t designed to be ready by incompatible players.
playlist.megaphone.fm?p=TBIEA2…
But it’s not just that discs from different regions aren’t designed to play on devices not formatted for that specific region. Generally, it's also just that most films don't get a physical release anymore. In cases where films from streaming platforms do get slated for a physical release, it can take years. A notable example of this is the Apple+ film CODA, which won the Oscar for Best Picture in 2022. The film only received a U.S. physical release this month. Hudson says films getting a physical release is becoming the exception, not the rule.

“It’s frustrating because I understand the streaming services, they’re trying to drive people to their services and they want some money for that, but there are still a lot of people that just can’t afford all of those services,” Hudson told 404 Media.

Films and TV shows on streaming also become more vulnerable when companies merge. A perfect example of this was in 2022 with the HBO Max-Discovery+ merger under Warner Bros Discovery. A bunch of content was removed from streaming, including roughly 200 episodes of classic Sesame Street for a tax write-off. That merger was short-lived, as the companies are splitting up again as of this year. Some streaming platforms just outright remove their own IP from their catalogs if the content is no longer deemed financially viable, well-performing or is no longer a strategic priority.

The data-driven recommendation systems streaming platforms use tend to favor newer, more easily categorized content, and are starting to warp our perceptions of what classic media exists and matters. Older art house films that are more difficult to categorize as “comedy” or “horror” are less likely to be discoverable, which is likely how the oldest American movie available on Netflix currently is from 1968.

It’s probably not a coincidence that, in many cases, the media that is least likely to get a more permanent release is the media that’s a high archival priority for libraries. AV librarians 404 Media spoke with for this story expressed a sense of urgency in purchasing a physical copy of “The People’s Joker”when they learned it would get a physical release after the film premiered and was pulled from the Toronto International Film Festival lineup in 2022 for a dispute with the Batman universe’s rightsholders.

“When I saw that it was getting published on DVD and that it was available through our vendor—I normally let my branches choose their DVDs to the extent possible, but I was like, ‘I don’t care, we’re getting like 10 copies of this,’” Langlais told 404 Media. “I just knew that people were going to want to see this.”

So far, Langlais’ instinct has been spot on. The parody film has a devout cult following, both because it’s a coming-of-age story of a trans woman who uses comedy to cope with her transition, and because it puts the Fair Use Doctrine to use. One can argue the film has been banned for either or both of those reasons. The fact that media by, about and for the LGBTQ+ community has been a primary target of far-right censorship wasn’t lost on librarians.

“I just thought that it could vanish,” Langlais added.

It’s not like physical media is inherently permanent. It’s susceptible to scratches, and can rot, crack, or warp over time. But currently, physical media offers another option, and it’s an entirely appropriate response to the nostalgia for-profit model that exists to recycle IP and seemingly not much else. However, as very smart people have observed, nostalgia is default conservative in that it’s frequently used to rewrite histories that may otherwise be remembered as unpalatable, while also keeping us culturally stuck in place.

Might as well go rent some films or games from the library, since we’re already culturally here. On the plus side, audiovisual librarians say their collections dwarf what was available at Blockbuster Video back in the day. Hudson knows, because she clerked at one in library school.

“Except we don’t have any late fees,” she added.




Something very strange is happening on Apple Podcasts; someone seemingly changed a map of the Ukraine war in connection with a betting site; and now half of the U.S. requires a face or ID scan to watch porn.#Podcast


This Podcast Will Hack You


We start this week with Joseph’s very weird story about Apple Podcasts. The app is opening by itself, playing random spirituality podcasts, and in one case directing listeners to a potentially malicious website. After the break, Matthew tells us how it sure looks like a map of Ukraine was manipulated in order to win a bet on Polymarket. In the subscribers-only section, Sam breaks down how half of the U.S. now requires a face or ID scan to watch porn.
playlist.megaphone.fm?e=TBIEA7…
Listen to the weekly podcast on Apple Podcasts,Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.
youtube.com/embed/V4QCJh-imPM?…
Timestamps:
2:00 - Story 1 - Someone Is Trying to ‘Hack’ People Through Apple Podcasts
21:55 - Story 2 - 'Unauthorized' Edit to Ukraine's Frontline Maps Point to Polymarket's War Betting
37:00 - Story 3 - Half of the US Now Requires You to Upload Your ID or Scan Your Face to Watch Porn