Salta al contenuto principale



Mina Welby alla presentazione del libro “Roma anni zero – Cronache dal Municipio Ribelle”


📍 Caffetteria Coppi, Largo dei Quintili 16 – Roma (Quadraro)
🗓 Sabato 25 ottobre 2025
🕕 Ore 18:00


La Caffetteria Coppi ospita la presentazione del libro “Roma anni zero – Cronache dal Municipio Ribelle”, edito da Momo Edizioni, una raccolta di esperienze, memorie e riflessioni su un’epoca politica che ha attraversato la Capitale e lasciato un segno profondo nel Municipio VII.

All’incontro parteciperanno:

  • Mina Welby, co-presidente dell’Associazione Luca Coscioni
  • Fabio Galati, giornalista
  • Sandro Medici, già presidente del Municipio Roma X

Modera: Gianmarco Mecozzi

Un’occasione per discutere di politica dal basso, partecipazione attiva e libertà civili, a partire dalle testimonianze di chi ha contribuito a un’esperienza municipale fuori dagli schemi.

L'articolo Mina Welby alla presentazione del libro “Roma anni zero – Cronache dal Municipio Ribelle” proviene da Associazione Luca Coscioni.



Mario Riccio a Pegognaga (MN) – “Per una buona legge sul fine vita”


Mario Riccio a Pegognaga – “Per una buona legge sul fine vita”


Incontro pubblico promosso dal Circolo PD di Pegognaga

📍 Sala civica “G. Bombetti”, Pegognaga (MN)
🗓 Giovedì 23 ottobre 2025
🕗 Ore 20:45


Il Circolo PD di Pegognaga organizza un incontro pubblico sul tema del fine vita, con l’obiettivo di promuovere un confronto aperto e informato su come costruire una legge giusta e rispettosa dell’autodeterminazione.

Tra gli ospiti, Mario Riccio, che nel 2006 è stato il medico che ha assistito Piergiorgio Welby nella sua decisione di rinunciare ai trattamenti sanitari. Nel 2022 è stato il medico che ha gestito il primo caso in Italia (Federico Carboni, conosciuto come “Mario”) di assistenza alla morte volontaria ai sensi della sentenza 242/2019 della Corte di Costituzionale sul caso DjFabo/Cappato. È membro del consiglio generale dell’Associazione Luca Coscioni.

Interverranno inoltre:

  • Alessandra Tellini, consigliera comunale di “RiAttiviamo Pego”
  • Gabriele Tessari, componente del direttivo PD Pegognaga

Un appuntamento importante per discutere delle proposte legislative in campo, del ruolo delle istituzioni e del diritto delle persone a decidere della propria vita, fino alla fine.

L'articolo Mario Riccio a Pegognaga (MN) – “Per una buona legge sul fine vita” proviene da Associazione Luca Coscioni.



Proiezione a Torino – Lasciatemi morire ridendo – dibattito sul fine vita


Proiezione a Torino – Lasciatemi morire ridendo


Il documentario di Massimiliano Fumagalli su Stefano Gheller arriva al Cine Teatro Baretti

📍 Cine Teatro Baretti, Via Baretti 4 – Torino
🗓 Mercoledì 23 ottobre 2025
🕘 Ore 21:00


“Lasciatemi morire ridendo”, il documentario firmato da Massimiliano Fumagalli con la partecipazione di Stefano Gheller, arriva a Torino per una proiezione pubblica organizzata dalla Cellula Coscioni Torino.

Un racconto potente e toccante sulla libertà di scegliere come e quando morire, il documentario intreccia riflessioni intime e pubbliche, individuali e politiche, mettendo al centro il diritto all’autodeterminazione nel fine vita, a partire dalla vicenda di Stefano Gheller.

🎙 Interverrà in sala Diego Silvestri, medico psichiatra e psicoterapeuta, coordinatore della Cellula Coscioni Vicenza – Padova.

Un’occasione per riflettere sul significato della dignità, sulla legge 219/2017, sul diritto a essere liberi fino alla fine e sull’urgenza di norme più giuste e rispettose delle scelte individuali.

🎥 Produzione: Dreamscape Film in collaborazione con Real Game, con il supporto di Accademia09 e Associazione Luca Coscioni.
Con il sostegno di: Banca Etica, Mescalito Film.

L'articolo Proiezione a Torino – Lasciatemi morire ridendo – dibattito sul fine vita proviene da Associazione Luca Coscioni.



Valentina Petrini porta in scena La valigia della libertà a Cagliari


Storia di una disobbedienza civile – Spettacolo di teatro civile

📍 Teatro Massimo, Sala M2 – Cagliari
🗓 Mercoledì 3 dicembre 2025
🕘 Ore 21:00


Valentina Petrini, attrice e giornalista, sarà protagonista a Cagliari dello spettacolo “La valigia della libertà – Storia di una disobbedienza civile”, un racconto teatrale che restituisce voce e dignità alla vicenda di Sibilla Barbieri, Consigliera Generale di Associazione Luca Coscioni per la libertà di ricerca scientifica APS, che ha deciso di porre fine alle proprie sofferenze attraverso il suicidio medicalmente assistito in Svizzera, accompagnata dal figlio.

Attraverso parole, musica e immagini, “La valigia della libertà” invita lo spettatore a riflettere sul significato della dignità, della libertà individuale, e sulla necessità di una legge giusta per il fine vita.

🎼 Alessio Podestà – fisarmonica
🎻 Pasquale Filastrò – violoncello
🎙 Fabia Salvucci – voce
🎨 Coordinamento artistico a cura di Norma Martelli


Lo spettacolo è parte della rassegna di Teatro Civile del Teatro Massimo di Cagliari, promosso da Sardegna Concerti, con il sostegno di Ministero della Cultura, Regione Autonoma della Sardegna, Fondazione di Sardegna e Medinsard Produzioni.

🔗 Per info e aggiornamenti: @teatromassimocagliari

L'articolo Valentina Petrini porta in scena La valigia della libertà a Cagliari proviene da Associazione Luca Coscioni.



Relazione di Filomena Gallo al XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS


Care amiche, cari amici, congressiste e congressisti,

ogni volta che ci ritroviamo qui, insieme, non stiamo solo adempiendo a un obbligo statutario. Ogni volta che ci ritroviamo qui, onoriamo un’idea. Rinnoviamo una speranza. Celebriamo la vita, la visione politica e il coraggio di Luca Coscioni, che ha trasformato la sua battaglia personale in una serie di azioni per la libertà e per i diritti da conquistare promuovendo riforme possibili.

Un uomo che ha trasformato la sua fragilità in una forza collettiva. Un uomo che ha saputo rendere possibile l’impossibile: far nascere un movimento capace di cambiare leggi, di cambiare la vita delle persone. Marco Pannella, nel suo ultimo saluto a Luca, disse: “Luca, riposa anche in mare. e tu sei un po’ un mare, senza sosta, e continuerai a muovere e commuovere maree.” E così è stato.

Oggi, qui nella sua Orvieto, ricordiamo quelle maree che in ventitré anni hanno attraversato tribunali e parlamenti, piazze e istituzioni, per affermare libertà e diritti. Maree che in ventitré anni non si sono mai fermate nel coinvolgere decine di migliaia di persone come iscritte e milioni per la presentazione di referendum e proposte di legge d’iniziativa popolare nazionali e regionali. La storia della nostra Associazione è la storia di Luca, ma è anche la storia di tutte le persone che hanno dato corpo alle nostre azioni.

Non sono solo numeri: sono volti, sono vite.

  • È la storia di Laura Santi, che dopo la sentenza Cappato del 2019 ha dovuto lottare per 2 anni e 8 mesi per vedere rispettate le sue scelte di fine vita. Ha guidato la campagna per la legge regionale “Liberi Subito” perché nessuno debba più lottare come lei per porre fine alle proprie sofferenze.
  • È la storia di Martina Oppelli e di Fabrizio, costretti a un doloroso esilio in Svizzera, abbandonati dallo Stato, ma sostenuti dai disobbedienti civili – che ringraziamo.
  • È la storia di Vittoria e Serena, che in altre Regioni hanno potuto scegliere senza dover attendere l’agonia del tempo.
  • È la storia di Coletta che si chiama Ada e che oggi 4 ottobre 2025, l’Italia ha conosciuto in video, Ada che lotta in Campania per avere rispetto della libertà di scelta e un’assistenza dignitosa.
  • È la storia di “Libera”, prigioniera del suo corpo e di un Paese che ancora le nega libertà, negando l’eutanisia.
  • È la storia di Evita e Serena, e con loro di tante donne e coppie dello stesso sesso, costrette ad andare all’estero per avere un figlio con l’aiuto della PMA.
  • È la storia delle coppie che devono accedere alla PMA con gravidanza per altri, e che oggi rischiano di essere criminalizzate da un governo che vuole perseguire non solo una pratica, ma una scelta personale portata avanti dove ci sono leggi lo prevedono.
  • È la storia di Maurizio, malato di Parkinson, che chiede che la ricerca con uso di embrioni sia possibile anche in Italia per la sua malattia e non solo in Svezia, e che chiede speranza.
  • È la storia di 63 mila detenuti italiani che non ricevono cure adeguate.
  • È la storia di Christian D’Urso, Marco e Carlo Gentili, persone con disabilità che lottano per studiare, per uscire di casa, per avere ausili idonei e assistenza.
  • È la storia di Carlo Gentili, malato di SLA, che oggi può partecipare alla vita politica sottoscrivendo una lista elettorale, grazie alla firma digitale, dopo una battaglia vinta in Corte costituzionale.

Storie diverse. Percorsi diversi. Ma un filo comune: la volontà di persone che vogliono essere libere di scegliere. E insieme, noi conquistiamo quella libertà per tutti. Questa è la ragione più profonda della nostra esistenza Perché queste sono solo alcune delle storie che avete conosciuto, non sono casi isolati. Sono la testimonianza di un Paese intero. In questi 12 mesi, abbiamo dimostrato ancora una volta di essere all’altezza dell’eredità di Luca.

A fronte della politica che è ferma, noi abbiamo agito. Oggi abbiamo 39 procedimenti in corso nei tribunali.

  • 24 procedimenti sul fine vita di cui 18 civili e 6 penali. Di questi 10 sono al momento in tribunale e gli altri in fase stragiudiziale, per un totale di 12 persone indagate, di cui 3 persone su cui pende una imputazione coatta e altre decine che potrebbero essere presto indagate.
  • Stiamo seguendo 15 casi sul tema della fecondazione assistita nei tribunali, di cui oltre 10, su gravidanza per altri. Di questi 10, almeno 7 anche sul fronte penale.

Sono oltre 50 i casi su cui abbiamo fornito pareri in fase stragiudiziale.

Le conquiste di questo ultimo anno su cui vi saranno anche approfondimenti nel corso di questo Congresso. Abbiamo ottenuto in Toscana e in Sardegna l’approvazione della nostra legge di iniziativa popolare per avere tempi certi di risposta e l’erogazione di prestazioni sanitarie, indicate dalla Corte costituzionale con la sentenza Cappato del 2019. Nel pieno rispetto delle competenze regionali.

Il governo, che oltre a proporre un disegno di legge che mira a cancellare diritti sulle scelte di fine vita che sono già in vigore, ha da subito fatto capire che vuole impedire l’applicazione della sentenza Cappato in tutti i modi possibili e lasciare tempi di risposta diversa per le persona malate in base alla regione di residenza. La presidenza del Consiglio dei Ministri ha impugnato davanti alla Corte costituzionale la legge Toscana e a novembre si terrà l’udienza. L’Associazione Luca Coscioni ha presentato osservazioni in difesa.

  • L’Associazione Luca Coscioni ha depositato una proposta di legge di iniziativa popolare al Senato sull’aiuto medico alla morte volontaria, opponendoci a un serie di proposte normative che vogliono cancellare quanto conquistato con la sentenza del 2019 e quanto previsto dalla legge 219/17 e dalla Costituzione.
  • Abbiamo difeso la scienza e il diritto alla salute. Abbiamo aperto interlocuzioni su temi nuovi, come quello delle psicoterapie assistite da psichedelici. Pure sempre in dialogo con chi istituzionalmente prende decisioni e adotta leggi.

Abbiamo agito in linea con la convinzione che i diritti umani non debbano sottostare a dogmi, ideologie o interessi politico-elettorali, ma che debbano essere goduti nella loro universalità e individualità da tutte le persone ovunque nel mondo. Grazie alle nostre azioni, si sono aperte nuove strade davanti alla Corte Costituzionale. Solo nell’ultimo anno è intervenuta ben quattro volte: cancellando leggi ingiuste che limitavano diritti sociali o civili, fornendo interpretazioni di sue decisioni e moniti al Parlamento.

La Corte costituzionale ha interpretato il requisito del trattamento del sostegno vitale, previsto nella sentenza Cappato di sei anni fa. Ha affermato che le terapie fornite da familiari e caregiver sono da considerarsi sostegno vitale e così anche l’indicazione medica a terapie invasive anche se rifiutate è da valutare come se fosse in corso. La Corte ha ribadito che il SSN deve dare pronta applicazione della sentenza Cappato oltre a ribadire l’invito al legislatore per una legge che parta dal giudicato costituzionale.

Presto saremo nuovamente in Corte a seguito dell’ordinanza del 30 settembre con cui il GIP di Bologna ha sollevato la questione di legittimità costituzionale nuovamente sul requisito di sostegno vitale per l’aiuto fornito alla signora Paola da Marco, Felicetta e Virginia, per poter porre fine alle sue sofferenze in Svizzera.

Questa ultima questione di legittimità costituzionale dimostra che la Corte sarà spesso chiamata sul tema che crea discriminazione tra malati che ha lasciato aperto:

Certo avrebbe potuto accogliere, ma non ci fermiamo. Stiamo procedendo con petizioni e proposte al parlamento per la modifica normativa e siamo nei tribunali.

Ha dichiarato incostituzionale l’impossibilità per persone disabili di poter sottoscrivere digitalmente candidature o liste elettorali e ora possono procedere con firma digitale. Con gli amicus curiae in Corte costituzionale anche nei procedimenti non seguiti da noi, abbiamo contribuito alla piena tutela dei diritti di famiglie e minori.

Se oggi in Italia è possibile accedere al suicidio medicalmente assistito, è perché qualcuno – e quel qualcuno è qui – ha aperto la strada.

Per tutti questi motivi, ringraziamoci. Non per autocompiacimento, ma perché non dobbiamo mai perdere la consapevolezza della straordinarietà e della efficace singolarità della nostra azione, che rende fondamentale non solo il ruolo dell’Associazione stessa, ma di ciascuna e ciascuno di noi al suo interno.

A fronte di tutto questo, la politica ufficiale resta troppo spesso distante dai bisogni reali delle persone più fragili, e di chi le accompagna quotidianamente. A volte si ricorda di menzionare diritti fondamentali in campagna elettorale, magari a parole dice di sostenere chi avanza proposte, ma poi ha sistematicamente altre priorità. Tranne poche, e per questo ancora più lodevoli, eccezioni come quelle di parlamentari che anche per il 2025 hanno preso la tessera dell’Associazione.

Nella stragrande maggioranza dei casi riceviamo attestazioni di stima ma non modifiche di leggi su cui ci battiamo. Non si tratta di una novità. Il rispetto dei diritti è l’unica vera misura della liberal-democrazia.

Che si parli del diritto di scegliere come vivere e morire, del diritto a una cura, o del diritto a diventare genitori. Quando un Paese nega questi diritti, indebolisce sé stesso. Il nostro impegno non guarda solo all’Italia, è globale.

In Europa e nel mondo ci sono Paesi che hanno aperto nuove strade alla libertà di scelta e alla ricerca scientifica, mentre altrove i diritti vengono ancora limitati, la ricerca censurata, le persone perseguitate.

Nel 2025 vediamo ancora guerre, profughi, violazioni dei diritti umani. Di fronte a tutto questo possiamo sentirci impotenti, ma credo che la nostra azione concreta per i diritti delle persone più fragili sia la risposta più forte: ogni conquista locale diventa speranza anche dove oggi ci sono dittature e conflitti.

Per questo l’Associazione Luca Coscioni non è mai stata solo italiana: siamo parte di una rete globale per libertà, scienza, presenti all’ONU con Science for Democracy e Cesare Romano con la Loyola Law School. Le nostre azioni sono parte della lotta per la pace, la giustizia e la democrazia globale.

Lo dimostrano anche le oltre 70.000 firme raccolte per l’iniziativa europea My Voice My Choice, che chiede accesso sicuro all’aborto per tutte le donne dell’Unione. Perché dove si nega la libertà di scegliere sul proprio corpo, altrove si rischia di perdere la libertà di parlare, di studiare, di vivere in pace.

Ogni passo avanti o indietro da noi diventa un modello per il mondo. Ecco perché ricordiamolo sempre: agire a livello locale significa incidere a livello globale.

Prima di concludere, voglio ricordare chi è morto, ma il cui impegno vive in questa Associazione: Giulia Simi, pioniera instancabile della libertà di ricerca scientifica, sempre accanto a Luca Coscioni e capace di far nascere incontri memorabili come quello con José Saramago. Massimo Clara, avvocato generoso e competente, che nei tribunali ha portato avanti senza sosta la lotta contro le discriminazioni. Paolo Cardoni, la cui matita e il cui entusiasmo hanno animato per anni la nostra Agenda Coscioni e le nostre iniziative, con leggerezza e determinazione.

Infine, il ricordo commosso di Vladimiro Zagrebelsky, giurista di straordinaria lucidità e maestro prezioso, sempre pronto a difendere i diritti fondamentali e a smascherare le ingiustizie legislative.

Il loro contributo continua nella nostra azione. Ringrazio tutti i colleghi avvocati per lo studio e la difesa di questioni in tribunale. Concludo e guardo al futuro.

Questo Congresso è un appuntamento con la storia. La storia non la fanno i governi da soli. La storia la fanno le persone che hanno il coraggio di cambiare. Noi siamo qui per dire che la libertà e le nostre vite non possono aspettare.

Non possono essere condizionate da calcoli elettorali, da convenienze di partito, da paure di perdere consenso. Siamo qui per ricordare che dietro ogni firma, dietro ogni ricorso, dietro ogni battaglia legale, c’è un volto. Un volto che chiede ascolto, rispetto. Un volto che chiede libertà.

E allora la domanda che dobbiamo porci oggi non è: ce la farà l’Associazione Luca Coscioni a portare avanti le urgenze che condividiamo nella nostra agenda politica? La vera domanda è: ce la farà l’Italia? Ce la farà l’Italia a essere un Paese che non discrimina? Un Paese che non costringe i suoi cittadini a fuggire? Un Paese che considera la scienza, la ricerca e la libertà come valori fondanti e non come minacce? Noi crediamo di sì.

E crediamo che dipenda anche da noi tutti. Dipende da quanto saremo capaci di unire la forza delle idee con la concretezza delle azioni. Dipende da quanto ognuno di noi si sentirà non solo spettatore, ma pure protagonista di questa sfida. Perché la libertà non è un dono.

La libertà si difende, si conquista. Ogni giorno. Con coraggio, con pazienza, con determinazione e responsabilità. E allora oggi, da Orvieto, dalla città di Luca, lanciamo un messaggio al Paese: l’Italia può essere un luogo di libertà, di scienza, di diritti, se tutti insieme scegliamo di muovere e commuovere nuove maree. La nostra storia conferma che possiamo farcela. Lo abbiamo già fatto sull’inizio vita e sul fine vita.

Oggi, qui con voi, rinnovo il mio impegno a guidare quanto insieme decideremo di continuare a fare. Confermo la mia candidatura a Segretaria, con Marco Cappato Tesoriere, Mina Welby, Marco Gentili e Michele De Luca copresidenti, e con il gruppo dirigente che vi presenteremo.

Perché la nostra storia non si ferma. Perché il nostro cammino continua. E insieme possiamo percorrerlo anche se sappiamo che spesso sarà in solitaria o in salita…senza rassegnarci mai! Grazie.

L'articolo Relazione di Filomena Gallo al XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS proviene da Associazione Luca Coscioni.



Putting a Teensy to Task as a Transputer Link


One downside of working with the old Inmos Transputer devices is the rarity and cost of the original silicon. Obviously, you can’t sidestep the acquisition of the processor—unless you emulate—but what about replacing the IMS C011/C012 link chip? You need this (expensive) part to interface the transputer to the programming host, but as [Erturk Kocalar] discovered, it’s perfectly possible to coax a Teensy to do that job for you just as well.
The unusual two-bit start sequence differentiates a data packet from an ACK. It’s simple to emulate if you use the LSB of a 9-bit word as a dummy start bit!
Transputers work by utilizing an array of bit serial interfaces to connect a network of devices, allowing for cooperative computation on tasks too large to fit on a single device. This protocol is, at its link level, a simple asynchronous bit serial affair, with 11-bit data messages, and a raw two-bit frame for the acknowledge. The C011 device at its heart is just a specialized UART—it takes 8-bit parallel data from the host, dealing with handshaking, and pushes it out to the first transputer in the chain at 5, 10 or 20 Mbps, but inverted and with two start bits and a single stop bit. In parallel, it performs the same task in the reverse direction.

[Erturk] realized that the Teensy UART has an inverted mode and, crucially, a 9-bit data mode. This allows the second start bit to be generated as bit 0 of the word, with the remaining eight bits forming the payload. Simple stuff. Additionally, the Teensy UART is capable of the maximum transputer bitrate of 20 Mbps, without breaking a sweat.

There is a slight issue, however, in that there is no way to send or receive the two-cycle acknowledgement frame directly. Since the protocol stop bit is a low, it is possible to implement this by simply sending a dummy data word with all 9 data bits low (since the acknowledge is a ‘1’, ‘0’ pattern). In one specific corner case, that of a direct memory PEEK operation, the command is clocked into the transputer, which sends back a two-cycle ACK—almost immediately followed by the 11-cycle data packet with the result. But, since the Teensy UART is still busy ‘fake decoding’ the full 11-bit dummy ACK message, it will miss the data packet entirely.

It turns out that the easiest way to get around this is to speed up the link and run at the maximum 20 Mbps rate. That way, the Teensy will have fully received the overly-long ACK long before the transputer has completed the PEEK command and started to send over the result. Why you would voluntarily run the link slower escapes us, once you’d got the design dialled in and reliability was a given, anyway.

We like transputers, a cool technology that died too soon. Here’s a quick guide to these innovative devices. Some people are really into transputer hardware, like this person. Finally, with the genuine hardware finicky to work with, expensive and hard to find, you could play along with your trusty web browser, and tick it off your nerdy bucket list.


hackaday.com/2025/10/20/puttin…



Vulnerabilità critica nel client SMB di Windows: CISA lancia l’allarme


Il 20 ottobre 2025, la Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha pubblicato un’allerta urgente riguardante una vulnerabilità critica, CVE-2025-33073, presente nel client SMB di Windows di Microsoft. Questa falla, caratterizzata da un controllo degli accessi inadeguato, potrebbe comportare un aumento significativo dei privilegi per gli aggressori. La vulnerabilità rappresenta un rischio elevato per gli attacchi informatici in tutto il mondo, motivo per cui è stata segnalata con urgenza.

Il CISA sollecita nel suo bollettino un’azione immediata: applicare le ultime patch di Microsoft come indicato nei loro avvisi di sicurezza o seguire la Direttiva operativa vincolante (BOD) 22-01 per i servizi cloud federali.

Secondo il catalogo delle vulnerabilità note sfruttate (KEV) della CISA, i malintenzionati possono creare uno script che ingannano il computer della vittima, inducendolo ad avviare una connessione SMB con il sistema dell’aggressore.

La falla, associata a CWE-284 (Improper Access Control), mette in evidenza le preoccupazioni di vecchia data sui meccanismi di autenticazione del protocollo SMB, che sono stati a lungo un obiettivo privilegiato dei criminali informatici, a partire dall’epidemia di WannaCry nel 2017 e il successivo BlueKeep.

Con l’intensificarsi delle minacce informatiche e l’aumento degli incidenti ransomware, le aziende si stanno affrettando ad applicare le patch ai propri sistemi prima della scadenza del 10 novembre.

La vulnerabilità sfrutta il protocollo Server Message Block (SMB), un elemento fondamentale della condivisione file e delle comunicazioni di rete di Windows.

Questo bug di sicurezza, una volta sfruttato, lascia la porta aperta ad accessi non autorizzati, potenzialmente permettendo agli aggressori di assumere il pieno controllo del dispositivo violato. Questa vulnerabilità può essere sfruttata mediante tecniche di ingegneria sociale o attraverso download drive-by, sfruttando l’errore degli utenti che inconsapevolmente eseguono il payload dannoso.

Una volta attivato, il client SMB si autentica sul server dell’aggressore, aggirando le normali misure di sicurezza e consentendo il movimento laterale all’interno delle reti. Sebbene la CISA sottolinei che non è noto se questa specifica falla alimenti le campagne ransomware, la tecnica rispecchia le tattiche utilizzate da gruppi come LockBit e Conti, che sfruttano abitualmente i protocolli Windows per l’accesso iniziale.

L’avviso giunge in un momento di tensione per gli amministratori IT, in seguito a un’ondata di exploit correlati alle PMI nel 2025, compresi quelli che hanno preso di mira ambienti Azure non aggiornati. Gli esperti avvertono che i sistemi non protetti potrebbero essere soggetti a esfiltrazione di dati o distribuzione di malware, soprattutto in settori come la finanza e l’assistenza sanitaria.

Se le misure di mitigazione non sono praticabili, interrompere l’utilizzo dei prodotti interessati. Strumenti come Windows Defender e il rilevamento degli endpoint di terze parti possono aiutare a monitorare le anomalie del traffico SMB.

L'articolo Vulnerabilità critica nel client SMB di Windows: CISA lancia l’allarme proviene da Red Hot Cyber.



Anonimizzazione dei Dati: Proteggere la Privacy senza Perdere Utilità


In un’epoca in cui la produzione e la condivisione di dati personali avviene in maniera massiva e quotidiana, il concetto di anonimizzazione assume un ruolo centrale nel dibattito sulla tutela della privacy e sul riutilizzo etico dei dati. Con l’avvento del General Data Protection Regulation (GDPR), il quadro normativo europeo ha introdotto definizioni precise e obblighi stringenti per il trattamento dei dati personali, distinguendo in maniera netta tra dati identificabili, pseudonimizzati e completamente anonimizzati.

Secondo il GDPR, un dato può essere considerato anonimo solo quando è reso tale in modo irreversibile, ovvero quando non è più possibile identificare, direttamente o indirettamente, l’interessato, anche attraverso l’uso di informazioni supplementari o tecniche di inferenza. Tuttavia, raggiungere un livello di anonimizzazione assoluto è tutt’altro che banale: i dataset possono contenere identificatori diretti (come nomi o numeri di documento) e quasi-identificatori (informazioni come localizzazione, età o preferenze), che, se combinati, possono consentire la ri-identificazione degli individui.

L’interesse verso l’anonimizzazione è cresciuto in parallelo con l’aumento esponenziale della quantità di dati disponibili online. Oggi, oltre la metà della popolazione mondiale è connessa a Internet, e molte organizzazioni – grandi e piccole – analizzano i dati per individuare pattern, comportamenti e profili, sia a fini interni che per finalità commerciali. Spesso, questi dati vengono condivisi con terze parti o resi pubblici per scopi di ricerca, aumentando il rischio di esposizione di informazioni personali.

Negli anni si sono verificati numerosi casi in cui processi di anonimizzazione inadeguati hanno portato alla ri-identificazione degli utenti, con gravi conseguenze per la loro privacy. Eclatante il caso del 2006, in cui una piattaforma di streaming pubblicò un dataset contenente milioni di valutazioni di film dichiarate “anonime”, che furono però facilmente associate ai rispettivi utenti tramite dati incrociati. Similmente, nel 2013, il Dipartimento dei trasporti di New York rese pubblici i dati dei taxi cittadini, ma un’errata anonimizzazione consentì di risalire alle licenze originali e persino all’identità di alcuni conducenti.

Questi esempi dimostrano come l’anonimizzazione non sia solo una questione tecnica, ma anche normativa, etica e metodologica. Le domande che emergono sono molteplici:

  • Quando un dato può dirsi davvero anonimo?
  • Le tecniche di anonimizzazione sono sempre irreversibili?
  • Come si misura l’efficacia dell’anonimizzazione rispetto alla perdita di utilità dei dati?

L’obiettivo di questo articolo è fare chiarezza su questi interrogativi, offrendo una panoramica delle principali tecniche di anonimizzazione oggi in uso, analizzando i rischi connessi alla ri-identificazione e illustrando come strumenti e metodologie possano supportare una pubblicazione sicura dei dati, conforme ai principi della privacy-by-design e della data protection. In particolare, si approfondiranno le differenze tra l’anonimizzazione dei dati relazionali e quella dei dati strutturati in forma di grafo, sempre più diffusi nell’ambito dei social network e delle analisi comportamentali.

Tecniche di Protezione dei Dati: confronto tra Pseudonimizzazione e Anonimizzazione


Il Regolamento Generale sulla Protezione dei Dati (GDPR) introduce una distinzione fondamentale tra dati personali, dati pseudonimizzati e dati anonimizzati, concetti che vengono spesso confusi, ma che hanno implicazioni molto diverse sul piano normativo, tecnico e operativo.

L’articolo 4 del GDPR fornisce le seguenti definizioni:

  • Dati personali: qualsiasi informazione riguardante una persona fisica identificata o identificabile (data subject), direttamente o indirettamente.
  • Pseudonimizzazione: trattamento dei dati personali in modo tale che non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, che devono essere conservate separatamente e protette da misure tecniche e organizzative adeguate.
  • Anonimizzazione: processo attraverso il quale i dati personali vengono modificati in modo irreversibile, rendendo impossibile l’identificazione, diretta o indiretta, dell’individuo a cui si riferiscono.

Questa distinzione è tutt’altro che formale. Secondo il Considerando 26 del GDPR:

“I principi della protezione dei dati non dovrebbero applicarsi a informazioni anonime, ossia a informazioni che non si riferiscono a una persona fisica identificata o identificabile, o a dati personali resi anonimi in modo tale che l’interessato non sia più identificabile.”

In altre parole, una volta che i dati sono stati anonimizzati correttamente, non rientrano più nell’ambito di applicazione del GDPR. Ciò li rende estremamente preziosi per l’elaborazione, l’analisi e la condivisione, soprattutto in settori come la sanità, la statistica, il marketing e la ricerca scientifica.

Una delle convinzioni più diffuse – e pericolose – è ritenere che pseudonimizzazione e anonimizzazione siano equivalenti. In realtà, il GDPR è molto chiaro nel distinguere i due concetti.

  • La pseudonimizzazione riduce il rischio di esposizione dei dati personali, ma non elimina il legame con l’identità dell’individuo. Chi è in possesso delle informazioni aggiuntive (es. tabelle di corrispondenza, chiavi di decodifica) può facilmente ripristinare l’identità.
  • L’anonimizzazione, invece, comporta l’eliminazione definitiva di ogni possibilità di re-identificazione. I dati anonimizzati non permettono alcun collegamento con l’individuo e, pertanto, cessano di essere considerati dati personali.

Quindi, se esiste una possibilità – anche remota – di risalire all’identità di una persona, i dati non possono essere considerati anonimi, ma semplicemente pseudonimizzati.

Tecniche di Anonimizzazione dei Dati


La scelta della tecnica di anonimizzazione più adatta dipende strettamente dallo scopo per cui i dati devono essere anonimizzati. Ogni metodo comporta compromessi tra livello di privacy garantita e utilità residua del dato: più i dati sono protetti, minore sarà, in genere, la loro granularità e quindi il loro valore analitico.

Le principali modalità attraverso cui i dati possono essere trasformati a fini di anonimizzazione sono tre:

  • Sostituzione di un valore o di un attributo,
  • Modifica (generalizzazione o randomizzazione),
  • Rimozione (soppressione) di attributi o interi record.

L’obiettivo, in ogni caso, è quello di garantire la privacy dei soggetti coinvolti senza compromettere l’utilizzabilità dei dati, soprattutto quando si tratta di analisi statistiche, ricerca o studi di mercato.

In questa sezione verranno presentate alcune delle principali tecniche di anonimizzazione, con indicazioni sul loro corretto utilizzo in base al contesto.

Soppressione di Attributi o Record


La soppressione è una delle tecniche più semplici e dirette: consiste nella rimozione di uno o più attributi da un dataset. È particolarmente utile quando:

  • Un attributo non è rilevante ai fini dell’analisi,
  • L’attributo contiene informazioni identificative dirette e non è possibile anonimizzarlo in altro modo,
  • L’intero record rappresenta un rischio e deve essere rimosso.


Esempio pratico


Immaginiamo di voler analizzare le prestazioni di un gruppo di studenti in un test di valutazione. Il dataset a nostra disposizione contiene tre attributi per ciascun partecipante:

  • Nome dello studente
  • Nome del docente
  • Voto ottenuto

Poiché l’obiettivo dell’analisi è di tipo statistico e non richiede l’identificazione dei singoli studenti, il nome dello studente risulta essere un’informazione non necessaria e altamente identificativa. Per garantire la privacy degli interessati, applichiamo la tecnica della soppressione, eliminando completamente la colonna contenente i nomi.

Dopo questa operazione, il dataset mantiene la propria utilità analitica, in quanto consente ancora di osservare e confrontare i risultati dei test in relazione ai diversi docenti o a gruppi di studenti, ma senza esporre informazioni personali.

In alcuni casi, la soppressione può riguardare anche interi record. Questo avviene, ad esempio, quando la combinazione di più attributi (come età, localizzazione geografica, e materia del test) rende un soggetto potenzialmente riconoscibile, soprattutto in campioni di piccole dimensioni. Se non è possibile anonimizzare efficacemente quei record con altre tecniche, la rimozione totale rappresenta la misura più sicura per tutelare la privacy.

La soppressione è una tecnica semplice ed efficace, in quanto elimina completamente le informazioni sensibili, rendendole irrecuperabili e garantendo così un elevato livello di protezione della privacy. Tuttavia, questa efficacia ha un costo: la rimozione di attributi o record può compromettere la qualità e l’utilità del dataset, soprattutto se le informazioni eliminate sono rilevanti per l’analisi. Inoltre, un uso non bilanciato della soppressione può introdurre distorsioni (bias) nei risultati, riducendo l’affidabilità delle conclusioni ottenute.

Sostituzione di Caratteri (Character Replacement)


La sostituzione di caratteri è una tecnica di anonimizzazione che consiste nel mascherare parzialmente il contenuto di un attributo, sostituendo alcuni caratteri con simboli predefiniti, come ad esempioX o*. Si tratta di un approccio utile quando si desidera nascondere parte dell’informazione, mantenendo però una certa struttura del dato, utile a fini analitici o di verifica. Questa tecnica non elimina l’attributo, ma oscura solo i dati più sensibili, rendendoli meno identificabili. La sostituzione può essere applicata, ad esempio, ai codici postali, ai numeri di telefono, agli indirizzi email o a qualsiasi campo testuale potenzialmente riconducibile a una persona.

Esempio pratico


Supponiamo di voler analizzare la distribuzione geografica degli utenti di un servizio, utilizzando il codice postale. Se il codice completo può rendere identificabile l’individuo, è possibile mascherarne le ultime cifre.

Prima della sostituzione:

  • 20156
  • 00189
  • 70125

Dopo la sostituzione:

  • 201XX
  • 001XX
  • 701XX

In questo modo, è ancora possibile condurre un’analisi per area geografica generale (es. quartieri o zone urbane), ma si elimina la precisione che potrebbe portare alla localizzazione esatta e quindi all’identificazione indiretta del soggetto.

La sostituzione di caratteri è facile da implementare e consente di mantenere una buona utilità del dato, ma è meno sicura rispetto ad altre tecniche più radicali, come la soppressione. Infatti, se il contesto circostante è troppo ricco di informazioni, o se vengono incrociati più attributi, può comunque emergere un rischio di re-identificazione.

Per questo motivo, questa tecnica è indicata soprattutto in dataset di grandi dimensioni, dove l’attributo mascherato non è sufficiente, da solo, a identificare una persona, ma può contribuire ad aumentare la protezione complessiva se combinato con altre tecniche.

Rimescolamento dei Dati (Shuffling)


La tecnica del rimescolamento, oshuffling, consiste nel riorganizzare in modo casuale i valori di un determinato attributo all’interno del dataset, mantenendo inalterata la lista dei valori ma disassociandoli dai relativi record originali. Questa tecnica è utile quando si vuole preservare la distribuzione statistica di un attributo, ma non è necessario mantenere la relazione tra quell’attributo e gli altri presenti nel dataset. In sostanza, i valori non vengono alterati, ma permessi tra i diversi record, rendendo più difficile il collegamento diretto tra un’informazione sensibile e un individuo specifico.

Esempio pratico


Immaginiamo di avere un dataset che contiene:

  • ID cliente
  • Regione geografica
  • Importo speso

Se l’obiettivo è analizzare la distribuzione degli importi spesi per area geografica, ma senza voler collegare l’importo specifico al singolo cliente, possiamo applicare lo shuffling all’attributo “importo speso”, rimescolandone i valori tra i diversi record.

Prima dello shuffling:

Dopo lo shuffling dell’importo:

In questo modo, si preservano i dati regionali e la distribuzione aggregata degli importi, ma si interrompe la correlazione diretta tra individuo e valore economico, riducendo il rischio di identificazione.

Sebbene semplice da applicare, lo shuffling non garantisce da solo un’adeguata anonimizzazione. In alcuni casi, soprattutto quando i dataset sono piccoli o gli attributi fortemente correlati, potrebbe essere possibile ricostruire le associazioni originali attraverso tecniche di inferenza.

Per questo motivo, il rimescolamento viene spesso utilizzato in combinazione con altre tecniche, come la soppressione o la generalizzazione, per rafforzare la protezione dei dati.

Aggiunta di Rumore (Noise Addition)


L’aggiunta di rumore è una tecnica di anonimizzazione molto diffusa e consiste nel modificare leggermente i valori dei dati, introducendo delle variazioni artificiali che nascondono i valori reali, pur mantenendo l’informazione statisticamente utile. L’obiettivo è ridurre la precisione del dato per renderlo meno identificabile, ma senza compromettere l’utilità complessiva, soprattutto quando viene analizzato in aggregato.

Esempio pratico


Supponiamo di avere un dataset con le date di nascita dei pazienti in un’analisi epidemiologica. Per ridurre il rischio di identificazione, possiamo aggiungere o sottrarre casualmente alcuni giorni o mesi a ciascuna data.

Data originale:

  • 12/06/1985
  • 03/11/1990
  • 28/04/1978

Dopo l’aggiunta di rumore (± qualche giorno):

  • 10/06/1985
  • 07/11/1990
  • 30/04/1978

Queste variazioni non alterano in modo significativo l’analisi, ad esempio per fasce di età o tendenze temporali, ma rendono molto più difficile collegare con certezza una data a un individuo specifico.

Un elemento critico di questa tecnica è determinare quanto rumore aggiungere: troppo poco può non essere sufficiente a proteggere la privacy, mentre troppo può distorcere i risultati dell’analisi. Per questo motivo, è essenziale valutare attentamente il contesto di utilizzo e, quando possibile, applicare tecniche di aggiunta di rumore controllata, come nel caso della Differential Privacy, che vedremo più avanti.

Generalizzazione


La generalizzazione è un’altra tecnica di anonimizzazione in cui i dati vengono semplificati o aggregati in modo da ridurre il livello di dettaglio, e quindi la possibilità di identificazione. In pratica, si sostituisce un valore specifico con uno più generico, modificando la scala o il livello di precisione dell’attributo.

Esempio pratico


Nel caso delle date, invece di riportare giorno, mese e anno, possiamo decidere di conservare solo l’anno.

Data originale:

  • 12/06/1985 → 1985
  • 03/11/1990 → 1990
  • 28/04/1978 → 1978

Un altro esempio classico riguarda l’età: anziché indicare “33 anni”, possiamo scrivere “30-35” o “30+”, riducendo la precisione ma mantenendo l’informazione utile per analisi demografiche.

La generalizzazione è particolarmente utile quando si vuole preservare l’analisi su gruppi (cluster), ma è meno efficace per studi che richiedono una precisione individuale. Inoltre, non sempre garantisce un livello sufficiente di anonimizzazione, soprattutto se i dati generalizzati possono essere incrociati con altre fonti.

È per questo motivo che la generalizzazione è spesso combinata con altre tecniche, o applicata attraverso modelli più evoluti come il k-anonimato e l-diversità, che vedremo nelle prossime sezioni.

K-Anonimity


L’idea alla base è quella di garantire che ogni record in un dataset non sia distinguibile da almeno altri k - 1 record, rispetto a un insieme di attributi considerati potenzialmente identificativi (dettiquasi-identificatori).

In altre parole, un dataset soddisfa il criterio di k-anonimato se, per ogni combinazione di attributi sensibili, esistono almeno k record identici, rendendo molto difficile risalire all’identità di una singola persona.

Esempio pratico


Supponiamo di avere un dataset con le seguenti colonne:

  • Età
  • CAP
  • Patologia diagnosticata

Se questi attributi vengono considerati quasi-identificatori, e applichiamo il k-anonimato con k = 3, allora ogni combinazione di età e CAP dovrà comparire in almeno tre record.

Prima dell’anonimizzazione:
Dopo l’anonimizzazione con K = 3:


In questo esempio, l’età è stata generalizzata e il CAP parzialmente mascherato, in modo da creare un gruppo indistinguibile di almeno tre record. Di conseguenza, la probabilità di identificare un individuo specifico in quel gruppo è al massimo 1 su 3.

Le principali caratteristiche del k-anonimato sono:


  • Maggiore è il valore di k, minore è il rischio di identificazione.
  • La tecnica può essere applicata a diversi tipi di dati, ma richiede l’individuazione attenta dei quasi-identificatori.
  • L’efficacia dipende fortemente dalla qualità e varietà del dataset: se troppo eterogeneo, la perdita di dettaglio può essere significativa.

Il k-anonimato non protegge dai cosiddetti attacchi di background knowledge: se un avversario conosce informazioni aggiuntive (es. una persona vive in un certo CAP e ha una certa età), potrebbe comunque risalire alla sua patologia, anche se presente in un gruppo di k elementi. Per mitigare questo rischio, si ricorre ad approcci più sofisticati, come l-diversità e t-closeness, che introducono ulteriori vincoli sulla distribuzione dei dati sensibili all’interno dei gruppi.

L-Diversity


La l-diversità è una tecnica che estende e rafforza il concetto di k-anonimato, con l’obiettivo di evitare che all’interno dei gruppi di equivalenza (ossia i gruppi di record resi indistinguibili tra loro) ci sia scarsa varietà nei dati sensibili.

Infatti, anche se un dataset è k-anonimo, può comunque essere vulnerabile: se in un gruppo di 3 record tutti i soggetti condividono lo stesso valore per un attributo sensibile (es. una malattia), un attaccante potrebbe facilmente dedurre quell’informazione, pur non sapendo esattamente a chi appartiene. Con l-diversità, si impone una regola aggiuntiva: ogni gruppo di equivalenza deve contenere almeno L valori distinti per l’attributo sensibile. Questo aumenta il livello di incertezza per chi tenta di effettuare una re-identificazione.

Esempio pratico


Riprendiamo l’esempio di un dataset sanitario con i seguenti attributi:

  • Età
  • CAP
  • Diagnosi

Supponiamo di aver ottenuto gruppi indistinguibili tramite k-anonimato, ma che tutti i soggetti abbiano la stessa diagnosi:

Esempio di gruppo con scarsa diversità:


Un gruppo come questo rispetta il k-anonimato (k=3), ma è altamente vulnerabile, perché un attaccante sa che chiunque in quel gruppo ha il diabete.

Applicando L-Diversità (L=3):


Ora, anche se il gruppo è indistinguibile rispetto ai quasi-identificatori, l’attributo sensibile “diagnosi” ha almeno tre valori diversi, il che limita la possibilità di dedurre informazioni certe.

La l-diversità è efficace nel:

  • Aumentare l’incertezza per gli attaccanti, anche in presenza di conoscenze pregresse.
  • Evitare la perdita di riservatezza in caso di gruppi omogenei.

Tuttavia, non è infallibile: in situazioni in cui la distribuzione dei dati sensibili è fortemente sbilanciata (es. 9 diagnosi comuni e 1 rara), anche con l-diversità può verificarsi un attacco per inferenza probabilistica, dove l’informazione meno frequente può comunque essere dedotta con alta probabilità.

Rischi di Re-identificazione


Anche dopo l’anonimizzazione, esiste sempre un rischio residuo che un individuo possa essere identificato, ad esempio incrociando i dati con informazioni esterne o tramite inferenze. Per questo motivo, è fondamentale valutare attentamente il rischio prima di condividere o pubblicare un dataset.

I rischi si suddividono in tre categorie:

  • Prosecutor Risk: l’attaccante sa che un individuo è nel dataset e cerca di trovarlo.
  • Journalist Risk: l’attaccante non sa se l’individuo è presente, ma prova comunque a identificarlo.
  • Marketer Risk: l’obiettivo è identificare quanti più record possibile, non singole persone.

Questi rischi sono gerarchici: se un dataset è protetto contro il rischio più elevato (prosecutor), è considerato sicuro anche rispetto agli altri.

Ogni organizzazione dovrebbe definire il livello di rischio accettabile, in base alle finalità e al contesto del trattamento dei dati.

Conclusioni


L’anonimizzazione dei dati rappresenta oggi una sfida cruciale nel bilanciare due esigenze spesso contrapposte: da un lato la protezione della privacy degli individui, dall’altro la valorizzazione del dato come risorsa per l’analisi, la ricerca e l’innovazione.

È fondamentale comprendere che nessuna tecnica, da sola, garantisce la protezione assoluta: l’efficacia dell’anonimizzazione dipende dalla struttura del dataset, dal contesto d’uso e dalla presenza di dati esterni che potrebbero essere incrociati per effettuare attacchi di re-identificazione.

In un’epoca dominata dai big data e dall’intelligenza artificiale, la corretta gestione dei dati personali è un dovere etico oltre che legale. L’anonimizzazione, se ben progettata e valutata, può essere uno strumento potente per abilitare l’innovazione nel rispetto dei diritti fondamentali.

L'articolo Anonimizzazione dei Dati: Proteggere la Privacy senza Perdere Utilità proviene da Red Hot Cyber.



HackerHood di RHC Rivela due nuovi 0day sui prodotti Zyxel


Il ricercatore di sicurezza Alessandro Sgreccia, membro del team HackerHood di Red Hot Cyber, ha segnalato a Zyxel due nuove vulnerabilità che interessano diversi dispositivi della famiglia ZLD (ATP / USG).

Alessandro Sgreccia (Ethical hacker di HackerHood conosciuto per l’emissione di varie CVE, come la RCE nvd.nist.gov/vuln/detail/CVE-2…CVE-2022-0342 da 9.8 su Zyxel), ha attivato una segnalazione responsabile a Zyxel che prontamente ha risposto risolvendo il problema.

Zyxel ha prontamente analizzato i report forniti e ha pubblicato un avviso ufficiale in cui conferma le falle e indica le versioni del firmware interessate e le release con le correzioni disponibili nel suo bollettino di sicurezza.

CVE-2025-9133 – Missing Authorization


Questa vulnerabilità, con un punteggio CVSS v3.1 di 8.1 (High), riguarda un problema di autorizzazione mancante nella gestione di alcune richieste inviate all’interfaccia web dei firewall Zyxel.

In determinate circostanze, un attaccante autenticato con privilegi limitati potrebbe riuscire ad accedere a informazioni sensibili o a funzioni non previste per il proprio livello di accesso.
Il problema è stato classificato anche come CWE-184 (Incomplete List of Disallowed Inputs), in quanto associato a una validazione parziale dei comandi accettati dal sistema.

CVE-2025-8078 – Improper Neutralization of Special Elements used in an OS Command


La seconda vulnerabilità, con punteggio CVSS v3.1 di 7.2 (High), riguarda una command injection individuata in un componente del firmware ZLD.

Un utente autenticato con privilegi elevati potrebbe, in condizioni specifiche, eseguire comandi arbitrari sul dispositivo compromettendo la sicurezza del sistema. Il bug è stato classificato come CWE-78, ossia una neutralizzazione impropria degli elementi speciali utilizzati nei comandi di sistema.

L’advisory ufficiale di Zyxel elenca i modelli e le release interessate e raccomanda l’aggiornamento alle versioni con patch (le informazioni sulle singole release e sulle build corrette sono contenute nell’avviso). Gli amministratori sono invitati a seguire le istruzioni fornite dal vendor. Zyxel

L’apertura di Zyxel alla community hacker


Negli ultimi anni, la cooperazione tra HackerHood e Zyxel è diventata una tappa fondamentale del programma di sicurezza del gruppo. Le segnalazioni effettuate da HackerHood – in particolare tramite il lavoro del ricercatore Alessandro Sgreccia – hanno portato all’attribuzione di 17 CVE nell’arco degli ultimi tre anni sugli apparati Zyxel. Questo risultato testimonia non solo la capacità tecnica del team, ma anche un rapporto di fiducia crescente con il vendor e l’apertura nei suoi confronti alla community hacker che di fatto diventa per i vendor un forte alleato.

Zyxel, da parte sua, ha riconosciuto pubblicamente il contributo di HackerHood e di Sgreccia anche nella propria Hall of Fame dedicata ai segnalatori (inclusa la CVE-2025-1731 / CVE-2025-1732). In sintesi: quella tra Zyxel e HackerHood non è una semplice segnalazione occasionale, ma una dinamica di collaborazione strutturata, che negli ultimi tre anni ha contribuito a rendere i dispositivi Zyxel più robusti contro le minacce.

Raccomandazioni operative


  1. Applicare le patch indicate da Zyxel appena possibile.
  2. Limitare l’accesso alle interfacce di management (IP ACL, VPN di gestione, accesso da rete di management isolata).
  3. Monitorare i log di management e le chiamate all’interfaccia web/CGI per attività anomale.
  4. Ruotare credenziali e chiavi qualora si sospetti che un dispositivo possa essere stato esposto.
  5. Contattare il vendor o il proprio fornitore di servizi per supporto nelle operazioni di aggiornamento e verifica.


Il ruolo di HackerHood nella scoperta


HackerHood, con circa 20 CVE emesse in tre anni di attività, è il collettivo di ethical hacker di Red Hot Cyber che si impegna nella ricerca di vulnerabilità non documentate per garantire una sicurezza informatica più robusta. Il gruppo si basa su un manifesto che promuove la condivisione della conoscenza e il miglioramento della sicurezza collettiva, identificando e segnalando vulnerabilità critiche per proteggere utenti e aziende.

Secondo quanto riportato nel manifesto di HackerHood, il collettivo valorizza l’etica nella sicurezza informatica e incentiva la collaborazione tra i professionisti del settore. Questo caso dimostra l’importanza della loro missione: mettere al servizio della comunità globale le competenze di hacker etici per individuare minacce ancora sconosciute.

Unisciti a HackerHood


Se sei un bug hunter o un ricercatore di sicurezza e vuoi contribuire a iniziative di questo tipo, HackerHood è sempre aperto a nuovi talenti. Il collettivo accoglie esperti motivati a lavorare su progetti concreti per migliorare la sicurezza informatica globale. Invia un’email con le tue esperienze e competenze a redazione@redhotcyber.com per unirti a questa squadra di professionisti.

La scoperta di queste due nuove CVE sono un ulteriore esempio del contributo di HackerHood al panorama della sicurezza informatica internazionale. È essenziale che aziende e utenti finali prestino attenzione a tali scoperte, adottando le misure necessarie per prevenire eventuali exploit. La collaborazione tra ethical hacker, aziende e comunità resta una pietra miliare nella lotta contro le minacce cibernetiche.

L'articolo HackerHood di RHC Rivela due nuovi 0day sui prodotti Zyxel proviene da Red Hot Cyber.



NIS2 e nuove linee guida ACN: cosa cambia per le aziende e come prepararsi


La direttiva europea NIS2 rappresenta un punto di svolta per la cybersecurity in Italia e in Europa, imponendo a organizzazioni pubbliche e private nuove responsabilità nella gestione dei rischi informatici. Per supportare il percorso di adeguamento in tutte le sue fasi, l’Agenzia per la Cybersicurezza Nazionale (ACN) ha recentemente pubblicato la guida alla lettura delle “Linee guida NIS – Specifiche di base”, un documento che chiarisce gli obblighi per i soggetti NIS essenziali e importanti coinvolti e definisce tempi e modalità di adozione delle misure minime di sicurezza e di notifica degli incidenti.

Il documento rappresenta un valido aiuto per aziende ed enti pubblici per capire come affrontare gli obblighi previsti dal decreto legislativo 138/2024, che ha recepito in Italia la direttiva europea NIS2.

In questo articolo analizzeremo nel dettaglio i due capitoli centrali delle linee guida ACN: da un lato le “Misure di sicurezza di base”, che vanno individuate con un approccio basato sul rischio e dunque calibrate sul contesto di ogni organizzazione; vengono poi passate in rassegna le tipologie di requisiti e le evidenze documentali richieste. Altro aspetto fondamentale riguarda gli “Incidenti significativi di base”, con particolare attenzione sulle tipologie individuate, sui criteri di evidenza e sui rischi legati all’abuso dei privilegi. Al tempo stesso, capiremo il valore di affidarsi a un partner esperto comeELMI per gestire rischi e adempimenti NIS2 in modo efficace e integrato.

Le linee guida NIS2 dell’ACN: misure di sicurezza di base


La prima parte del documento linee guida ACN riguarda le Misure di sicurezza di base, con un focus su:

  • struttura delle misure di sicurezza
  • approccio basato sul rischio secondo il quale sono state sviluppate le misure
  • tipologie di requisiti delle misure
  • principali evidenze documentali richieste.

I soggetti NIS devono adottare le misure di sicurezza entro 18 mesi (ottobre 2026) dalla data di ricezione della comunicazione di iscrizione nell’elenco nazionale NIS. Le misure di sicurezza si applicano ai sistemi informativi e di rete che i soggetti utilizzano nelle loro attività o nella fornitura dei loro servizi.

Queste misure, sviluppate in coerenza con il Framework Nazionale per la Cybersecurity, sono organizzate in funzioni, categorie e sottocategorie, ciascuna accompagnata da requisiti specifici. In termini pratici, ogni misura indica cosa deve essere implementato e quali evidenze documentali devono essere fornite a dimostrazione della conformità.

In totale, le linee guida ACN definiscono:

  • 37 misure di sicurezza e 87 requisiti per i soggetti importanti;
  • 43 misure di sicurezza e 116 requisiti per i soggetti essenziali.

La differenza riflette la maggiore esposizione al rischio e il ruolo critico dei soggetti essenziali;questi, infatti, devono rispettare un numero maggiore di misure e requisiti rispetto ai soggetti importanti, poiché la normativa tiene conto della loro maggiore esposizione ai rischi e del possibile impatto, sociale ed economico, di un possibile incidente.

In questo contesto, il supporto di un partner specializzato come ELMI consente alle organizzazioni di interpretare correttamente i requisiti ACN, tradurli in piani operativi concreti e predisporre la documentazione necessaria, riducendo i rischi di non conformità.

Misure di sicurezza di base: approccio basato sul rischio

Nella definizione delle misure di sicurezza, l’ACN ha applicato quanto previsto dall’articolo 31 della Decreto NIS2: gli obblighi non sono uguali per tutti, ma devono essere calibrati sul grado di esposizione al rischio dei sistemi informativi e di rete.

I requisiti più complessi sono modulati attraverso alcune clausole che ne guidano l’applicazione:

  • possono riguardare almeno i sistemi e le reti più rilevanti per l’organizzazione;
  • devono essere definiti sulla base della valutazione del rischio (misura ID.RA-05);
  • ammettono eccezioni solo in presenza di ragioni normative o tecniche documentate;
  • si applicano anche alle forniture che possono avere impatti diretti sulla sicurezza dei sistemi.


Tipologie di requisiti


Per tradurre le misure di sicurezza in azioni concrete, l’ACN definisce i requisiti specifici che i soggetti NIS devono rispettare per essere conformi. Questi requisiti si dividono in due principali categorie:

  • Organizzativi: riguardano principalmente la gestione, l’organizzazione, la documentazione e il controllo di processi e attività, come ad esempio l’adozione e l’approvazione di politiche o procedure, la definizione di processi interni e la redazione di documentazione ufficiale. Gran parte dei requisiti delle misure di sicurezza di base rientra in questa categoria, come ad esempio la misura GV.RR-02, che definisce l’organizzazione della sicurezza informatica e i relativi ruoli e responsabilità, o la misura GV.PO-01, relativa all’adozione e documentazione delle politiche di sicurezza.
  • Tecnologici: implicano l’adozione di strumenti e soluzioni tecnologiche per garantire la protezione dei sistemi informativi. Tra gli esempi vi sono la cifratura dei dati, l’aggiornamento dei software o l’uso di sistemi di autenticazione multifattore. Alcuni requisiti di tipo tecnologico sono legati, ad esempio, alla misura DE.CM-01, che richiede sistemi di rilevamento delle intrusioni e strumenti per l’analisi e il filtraggio del traffico in ingresso.

Questa distinzione permette di combinare controlli organizzativi e tecnologici, assicurando che le misure di sicurezza non siano solo formalmente adottate, ma realmente efficaci nel prevenire e mitigare i rischi informatici.

Documentazione a supporto delle misure di sicurezza


Per dimostrare l’effettiva implementazione delle misure di sicurezza, i soggetti NIS devono predisporre una serie di documenti chiave, strutturati in base alla propria organizzazione e al contesto operativo. Tra i principali troviamo:

  • Elenchi: personale dell’organizzazione di sicurezza informatica, configurazioni di riferimento e sistemi accessibili da remoto.
  • Inventari: apparati fisici, servizi, sistemi e applicazioni software, flussi di rete, servizi dei fornitori e relativi fornitori.
  • Piani: gestione dei rischi, business continuity e disaster recovery, trattamento dei rischi, gestione delle vulnerabilità, adeguamento e valutazione dell’efficacia delle misure, formazione in materia di sicurezza informatica, risposta agli incidenti.
  • Politiche di sicurezza informatica: definite in base ai requisiti previsti negli allegati 1 e 2 della determina 164179/2025, rispettivamente per soggetti importanti ed essenziali.
  • Procedure: sviluppate in relazione ai requisiti specifici per cui sono richieste.
  • Registri: esiti del riesame delle politiche, attività di formazione del personale, manutenzioni effettuate.

L’organizzazione può decidere come strutturare la documentazione, ad esempio concentrando più contenuti in un unico documento o distribuendoli su più file, purché i documenti siano facilmente accessibili e consultabili da chi ha necessità di verificarli.

ELMI supporta le organizzazioni con unapiattaforma documentale che consente di mappare i requisiti normativi, centralizzare e proteggere la documentazione, tracciare accessi e responsabilità e automatizzare processi approvativi. Inoltre, favorisce la gestione controllata di policy, piani e analisi dei rischi, garantendo aggiornamenti continui e supportando la formazione del personale.

Così, le aziende non solo rispettano gli obblighi della NIS2, ma trasformano la compliance in un processo semplice, sicuro e facilmente auditabile.

Gli Incidenti significativi di base


Le linee guida ACN definiscono anche le tipologie di incidenti significativi di base, ossia quegli eventi che possono avere un impatto rilevante sulla sicurezza dei dati o sulla continuità dei servizi dei soggetti NIS. Gli incidenti sono differenziati in base alla tipologia di soggetto: per i soggetti importanti sono stati identificati tre principali incidenti, mentre per i soggetti essenziali ve ne sono quattro, con l’aggiunta di un evento specifico legato all’abuso dei privilegi concessi.

In dettaglio, le principali tipologie di incidenti significativi di base sono:

  • IS-1: perdita di riservatezza di dati digitali di proprietà del soggetto o sotto il suo controllo;
  • IS-2: perdita di integrità dei dati, con impatto verso l’esterno;
  • IS-3: violazione dei livelli di servizio attesi dei servizi o delle attività del soggetto;
  • IS-4 (solo soggetti essenziali): accesso non autorizzato o abuso dei privilegi concessi su dati digitali, anche parziale.Si parla di abuso dei privilegi quando l’accesso è effettuato in violazione delle politiche interne dell’organizzazione o per finalità estranee alle necessità funzionali.

L’evidenza dell’incidente è il punto di partenza per l’adempimento degli obblighi di notifica: si considera incidente significativo solo quando il soggetto dispone di elementi oggettivi che confermano che l’evento si è effettivamente verificato. È proprio dal momento in cui l’evidenza viene acquisita che decorrono i termini per la pre-notifica (24 ore) e la notifica ufficiale (72 ore) al CSIRT Italia.

L’evidenza può essere raccolta attraverso diverse fonti, tra cui:

  • Segnalazioni esterne, ad esempio comunicazioni ricevute dal CSIRT Italia;
  • Segnalazioni interne, come richieste di supporto o malfunzionamenti riportati dagli utenti all’help desk;
  • Eventi rilevati dai sistemi di monitoraggio, quali log di sicurezza, alert o sistemi di rilevamento intrusioni.

In pratica, avere evidenza significa poter dimostrare con dati concreti che l’incidente si è verificato, rendendo possibile una risposta tempestiva e la corretta gestione degli adempimenti normativi.

Per molte organizzazioni, l’elemento critico non è solo individuazione dell’incidente, ma disporre di un presidio costante capace di monitorare e bloccare le minacce informatiche in real-time. In quest’ottica, ilSecurity Competence Center di ELMI fornisce un monitoraggio H24 e grazie a strumenti avanzati di Threat Hunting e Incident Response, permette di ridurre drasticamente il tempo necessario per confermare un evento e avviare la notifica secondo le linee guida NIS2.

Direttiva NIS2: obblighi e scadenze per le aziende


Chi rientra nell’elenco dei soggetti NIS deve rispettare precise deadline, senza margini di rinvio. I soggetti NIS devono organizzare gli adempimenti in modo proattivo e tempestivo per garantire la conformità alla NIS2 e ridurre i rischi informatici.

Il percorso normativo prevede una serie di tappe fondamentali:

  • entro gennaio 2026 i soggetti dovranno adempiere agli obblighi di base in materia di notifica di incidente;
  • entro aprile 2026 sarà l’ACN a definire e adottare il modello di categorizzazione delle attività e dei servizi, nonché a predisporre gli obblighi a lungo termine;
  • entro settembre 2026, è richiesto ai soggetti l’implementazione delle misure di sicurezza di base e la categorizzazione delle proprie attività e servizi;
  • dopo ottobre 2026, scatterà l’obbligo per i soggetti di dare piena attuazione agli adempimenti a lungo termine.

Parallelamente a questo calendario, le principali attività da pianificare includono:

  • Implementazione delle misure di sicurezza di base, calibrate sul rischio specifico dei sistemi e delle reti;
  • Predisposizione della documentazione chiave, come elenchi, inventari, piani, politiche, procedure e registri;
  • Monitoraggio e gestione degli incidenti significativi, con particolare attenzione all’acquisizione dell’evidenza e alle notifiche.

Per affrontare con efficacia queste scadenze, è consigliabile definire piani operativi chiari, assegnare responsabilità specifiche, attivare sistemi di monitoraggio continuo e integrare la compliance con la formazione del personale. In questo modo, le organizzazioni non solo rispettano la normativa, ma rafforzano la resilienza digitale e riducono l’impatto di eventuali incidenti.

ELMI accompagna i soggetti NIS in questa fase cruciale, supportandoli nella pianificazione degli adempimenti e nella predisposizione della documentazione richiesta. Attraverso assessment mirati e roadmap di compliance, l’azienda consente di rispettare le scadenze fissate dalla direttiva NIS2 senza frammentare i processi interni, garantendo al contempo continuità operativa e robustezza delle difese.

Come ELMI supporta le organizzazioni nella compliance NIS2


Affidarsi a un partner altamente qualificato come ELMI significa percorrere un percorso strutturato versol’adeguamento alla Direttiva NIS2, con soluzioni personalizzate, integrate e scalabili, progettate per ogni fase del processo di compliance. Grazie a una consolidata expertise in cybersecurity e consulenza, ELMI supporta le organizzazioni nell’implementazione delle misure di sicurezza, nella gestione degli incidenti e nella documentazione richiesta dalla normativa.

Assessment e analisi del perimetro NIS2


ELMI accompagna le aziende con un assessment strutturato, volto a valutare l’ambito di applicazione della direttiva: analisi dei servizi erogati, delle infrastrutture IT e dei vincoli normativi, identificazione dei ruoli e delle responsabilità in ambito cybersecurity, e valutazione del livello di sicurezza attuale.

Successivamente, viene condotta una Gap Analysis per identificare le aree di non conformità e le opportunità di miglioramento, valutando rischi, vulnerabilità e impatto operativo di eventuali incidenti. Su questa base viene definito un piano di intervento, che include contromisure tecniche e procedurali per rafforzare la sicurezza e garantire la conformità agli obblighi normativi.

Gestione proattiva degli eventi


IlSecurity Competence Center è il centro operativo di ELMI progettato per affrontare le sfide di cyber sicurezza con un approccio integrato e proattivo. Il Security Operation Center (SOC) e il Network Operation Center (NOC), garantiscono la protezione delle informazioni critiche, la conformità normativa, il monitoraggio continuo e la resilienza delle infrastrutture informatiche. In particolare:

  • Il Security Operation Center (SOC), è il centro operativo dotato di una control room dedicata al monitoraggio continuo, al triage e alla gestione degli eventi di sicurezza H24/7 che possono impattare l’infrastruttura aziendale.
  • Il Network Operation Center (NOC), è focalizzato sulla gestione e sul monitoraggio delle reti, per garantirne efficienza, disponibilità e resilienza.

Insieme, SOC e NOC rappresentano il cuore operativo per la protezione degli asset critici e la gestione degli incidenti.

Attraverso un servizio H24 e strumenti avanzati di threat intelligence e sistemi di allerta precoce, ELMI assicura una gestione completa degli incidenti, riducendo il time to detect e il time to respond, garantendo un controllo costante su reti, sistemi e applicazioni critiche, in linea con le prescrizioni della Direttiva NIS2.

Formazione e supporto normativo continuo


La compliance NIS2 non si esaurisce con l’implementazione tecnica e procedurale. ELMI affianca le organizzazioni con percorsi formativi mirati, orientati alla gestione degli incidenti, alla governance della sicurezza e alla diffusione della cultura cybersecurity a tutti i livelli aziendali.

Parallelamente, ELMI offre supporto normativo costante, con aggiornamenti su nuove disposizioni e linee guida, revisione periodica di policy e procedure e assistenza nell’interpretazione tecnica dei requisiti, assicurando un approccio sostenibile e integrato alla conformità NIS2.

La Direttiva europea NIS2 e le linee guida ACN stabiliscono uno standard chiaro per la gestione dei rischi informatici, dalle misure di sicurezza di base alla corretta gestione degli incidenti significativi. Per le organizzazioni, rispettare questi requisiti significa adottare un approccio risk-based, con controlli organizzativi e tecnologici integrati, monitoraggio costante e procedure documentate.

Affidarsi a un partner come ELMI e al suo team di specialisti certificati consente di trasformare la compliance NIS2 in un vero vantaggio competitivo. Grazie a servizi su misura di cybersecurity e programmi di formazione e supporto normativo, le aziende possono garantire robustezza dei sistemi informativi, tracciabilità degli eventi, riduzione del time to detect e del time to respond, e piena conformità agli obblighi di notifica.

L'articolo NIS2 e nuove linee guida ACN: cosa cambia per le aziende e come prepararsi proviene da Red Hot Cyber.



Lancelot: il sistema di apprendimento AI federato e sicuro


Un team di ricercatori di Hong Kong ha reso pubblico un sistema denominato Lancelot, che rappresenta la prima realizzazione pratica di apprendimento federato, risultando al contempo protetto da attacchi di manomissione dei dati e da violazioni della riservatezza.

L’apprendimento federato consente a più partecipanti (client) di addestrare congiuntamente un modello senza rivelare i dati di origine. Questo approccio è particolarmente importante in medicina e finanza, dove le informazioni personali sono strettamente regolamentate.

Tuttavia, questi sistemi sono vulnerabili al data poisoning : un aggressore può caricare aggiornamenti falsi e distorcere i risultati. I metodi di apprendimento federato hanno parzialmente risolto questo problema scartando gli aggiornamenti sospetti, ma non hanno protetto dal possibile recupero di dati crittografati dalla memoria della rete neurale.

Il team ha deciso di combinare sicurezza crittografica e resistenza agli attacchi. Lancelot utilizza la crittografia completamente omomorfica per garantire che tutti gli aggiornamenti del modello locale rimangano crittografati end-to-end.

Il sistema seleziona inoltre gli aggiornamenti client attendibili senza rivelare chi è attendibile. Ciò è possibile grazie a uno speciale meccanismo di “ordinamento mascherato”: un centro chiavi attendibile riceve i dati crittografati, ordina i client in base al livello di attendibilità e restituisce al server solo un elenco crittografato, oscurando i partecipanti alla formazione. In questo modo, il server aggrega solo i dati verificati senza rivelarne l’origine.

Per velocizzare i calcoli, gli sviluppatori hanno implementato due tecniche di ottimizzazione. La “rilinearizzazione lazy” posticipa i costosi passaggi crittografici alla fase finale, riducendo il carico sulla CPU. Il metodo “Dynamic hoisting” raggruppa le operazioni ripetitive e le esegue in parallelo, anche sulle GPU, riducendo significativamente i tempi di addestramento complessivi.

Il risultato è una soluzione che affronta due vulnerabilità dell’apprendimento federato: è resiliente agli attacchi di malintenzionati e al contempo garantisce la completa riservatezza dei dati. I test hanno dimostrato che Lancelot non solo previene fughe di dati e sabotaggi, ma riduce anche significativamente i tempi di addestramento dei modelli ottimizzando le operazioni crittografiche e sfruttando le GPU.

I ricercatori intendono espandere l’architettura Lancelot, rendendola adatta a scenari su larga scala. Le potenziali applicazioni includono l’addestramento di sistemi di intelligenza artificiale in ospedali, banche e altre organizzazioni che gestiscono dati sensibili. Il team sta attualmente testando nuove versioni con supporto per chiavi distribuite (CKKS a soglia e multi-chiave), integrazione di metodi di privacy differenziale e aggregazione asincrona, che consentiranno al sistema di funzionare in modo affidabile anche con connessioni di rete instabili e un’ampia varietà di dispositivi client.

L'articolo Lancelot: il sistema di apprendimento AI federato e sicuro proviene da Red Hot Cyber.



The Lambda Papers: When LISP Got Turned Into a Microprocessor



The physical layout of the SCHEME-78 LISP-based microprocessor by Steele and Sussman. (Source: ACM, Vol 23, Issue 11, 1980)The physical layout of the SCHEME-78 LISP-based microprocessor by Steele and Sussman. (Source: ACM, Vol 23, Issue 11, 1980)
During the AI research boom of the 1970s, the LISP language – from LISt Processor – saw a major surge in use and development, including many dialects being developed. One of these dialects was Scheme, developed by [Guy L. Steele] and [Gerald Jay Sussman], who wrote a number of articles that were published by the Massachusetts Institute of Technology (MIT) AI Lab as part of the AI Memos. This subset, called the Lambda Papers, cover the ideas from both men about lambda calculus, its application with LISP and ultimately the 1980 paper on the design of a LISP-based microprocessor.

Scheme is notable here because it influenced the development of what would be standardized in 1994 as Common Lisp, which is what can be called ‘modern Lisp’. The idea of creating dedicated LISP machines was not a new one, driven by the processing requirements of AI systems. The mismatch between the S-expressions of LISP and the typical way that assembly uses the CPUs of the era led to the development of CPUs with dedicated hardware support for LISP.

The design described by [Steele] and [Sussman] in their 1980 paper, as featured in the Communications of the ACM, features an instruction set architecture (ISA) that matches the LISP language more closely. As described, it is effectively a hardware-based LISP interpreter, implemented in a VLSI chip, called the SCHEME-78. By moving as much as possible into hardware, obviously performance is much improved. This is somewhat like how today’s AI boom is based around dedicated vector processors that excel at inference, unlike generic CPUs.

During the 1980s LISP machines began to integrate more and more hardware features, with the Symbolics and LMI systems featuring heavily. Later these systems also began to be marketed towards non-AI uses like 3D modelling and computer graphics. As however funding for AI research dried up and commodity hardware began to outpace specialized processors, so too did these systems vanish.

Top image: Symbolics 3620 and LMI Lambda Lisp machines (Credit: Jason Riedy)


hackaday.com/2025/10/20/the-la…



High Performance Motor Control With FOC From the Ground Up



Testing the FOC-based motor controller. (Credit: Excessive Overkill, YouTube)Testing the FOC-based motor controller. (Credit: Excessive Overkill, YouTube)
Vector Control, also known as Field Oriented Control or FOC is an AC motor control scheme that enables fine-grained control over a connected motor, through the precise control of its phases. In a recent video [Excessive Overkill] goes through the basics and then the finer details of how FOC works, as well as how to implement it. These controllers generally uses a proportional integral (PI) loop, capable of measuring and integrating the position of the connected motor, thus allowing for precise adjustments of the applied vector.

If this controller looks familiar, it is because we featured it previously in the context of reviving old industrial robotic arms. Whether you are driving the big motors on an industrial robot, or a much smaller permanent magnet AC (PMAC) motor, FOV is very likely the control mechanism that you want to use for the best results. Of note is that most BLDC motors are actually also PMACs with ESC to provide a DC interface.

The actual driving is done with two MOSFETs per phase, forming a half-bridge, switching between the two rails to create the requisite PWM signal for each phase. Picking the right type of MOSFET was somewhat hard, especially due to the high switching currents and the high frequency at 25 kHz. The latter was picked to prevent audible noise while driving a robot. Ultimately SiC MOSFETs were picked, specially the GeneSiC G3R30MT12K. Of note here are the four legs, with a fourth Kelvin Source pin added. This is to deal with potential gate drive issues that are explained in the video.

With the hardware in place, whether following the [Excessive Overkill] GitHub projects or not, what makes all of it work is the software. This is where the microcontroller aspect is essential, as it has to do all the heavy lifting of calculating the new optimal vector and thus the current levels per phase. In this controller an STM32F413 is used, which generates the PWM signals to drive the half-bridges, while reading the measurements from the motors with its ADC.

As can be seen in the resulting use of this controller with old industrial robots, the FOC controller works quite well, with quiet and smooth operation. This performance is why we’re likely to see FOC and PMAC motors used in applications like 3D printers in the future, though the rule of ‘good enough’ makes the cost of an FOC controller still a tough upsell over a simple open loop stepper-based system.

youtube.com/embed/ujofKWmGChw?…


hackaday.com/2025/10/20/high-p…



RFF20. Hedda, al cinema un Ibsen in chiave moderna


@Giornalismo e disordine informativo
articolo21.org/2025/10/rff20-h…
Il film Hedda (2025), presentato alla XX edizione della Festa del Cinema di Roma, diretto da Nia DaCosta e interpretato da una bravissima Tessa Thompson, è l’adattamento cinematografico del celebre dramma teatrale in quattro




Apple e Google sfidate dalla coalizione per i diritti dei genitori sulla tutela della privacy dei giovani

Se vuoi leggere altri nuovi aggiornamenti sulla #privacy poi seguire l'account @Privacy Pride

Il Digital Childhood Institute, che ha presentato un reclamo alla FTC, fa parte di una nuova generazione di gruppi per la sicurezza online, concentrati sulla definizione di politiche tecnologiche in base a convinzioni politiche conservatrici.

Organizzazioni no-profit come il Digital Childhood Institute fanno parte di una nuova generazione di gruppi di orientamento conservatore per la sicurezza e la privacy dei minori, emersi nell'ultimo decennio. Il loro lavoro critica spesso le aziende tecnologiche e dei social media per il loro contributo all'aumento dei problemi di salute mentale tra i giovani, tra cui depressione, ansia e autolesionismo, e le loro proposte politiche mirano a garantire a genitori e utenti tutele in materia di privacy dei dati e consenso.

cyberscoop.com/digital-childho…

reshared this



Trattare la comprensione delle azioni come un problema di sintesi di programmi può rendere i sistemi di IA più efficienti ed efficaci nel prevedere il comportamento umano nel mondo reale.

Se vuoi leggere altri nuovi aggiornamenti sull'intelligenza artificiale poi seguire l'account @Intelligenza Artificiale

ROTE (=Rappresentare le Traiettorie degli Altri come Eseguibili) è un nuovo algoritmo che combina due elementi: LLM per generare un insieme di ipotesi sul comportamento dell'agente e "Inferenza Probabilistica" per valutare l'incertezza su quale di questi programmi stia effettivamente seguendo l'agente.

Nei test, ROTE è stato in grado di prevedere i comportamenti umani e delle IA a partire da osservazioni limitate e sparse. Ha superato i metodi di base (come il behavior cloning o i metodi basati solo su LLM) con un miglioramento fino al 50% nell'accuratezza e nella capacità di generalizzare a nuove situazioni.

arxiv.org/html/2510.01272v1

reshared this



A Reggio Emilia il salario minimo comunale è finalmente realtà


Il salario minimo comunale è una vittoria per tutta la città, un simbolo forte di come a Reggio Emilia il lavoro — sicuro e di qualità - debba essere una priorità, e di come non debba esserci spazio per chi fa lavorare in condizioni non dignitose le persone. Uno strumento di tutela di tutte le lavoratrici e tutti i lavoratori, sia dipendenti diretti che impiegati nell’appalto e negli eventuali subappalti, qualsiasi sia la tipologia di contratto individuale di lavoro.”

Lo dichiara il capogruppo di Verdi e Possibile Alessandro Miglioli, primo firmatario della mozione per il salario minimo comunale approvata durante la seduta di oggi del Consiglio Comunale.

La mozione impegna il Sindaco e la Giunta a perseguire l’inserimento di clausole premiali negli appalti pubblici per chi garantisce migliori trattamenti economici per i lavoratori, pari ad almeno nove euro l’ora, ed è uno strumento di tutela di tutti i lavoratori, sia dipendenti diretti che impiegati nell’appalto e negli eventuali subappalti, qualsiasi sia la tipologia di contratto individuale di lavoro.

“Alleanza Verdi e Sinistra, REC e Possibile — continua Miglioli — chiedono da anni a gran voce che il salario minimo venga approvato a livello nazionale. Il primo momento di riflessione fatto a livello locale dal comitato di Possibile Reggio Emilia su questo tema risale al 2021, quando presentammo il libro di Davide Serafin sull’argomento. E continuiamo a chiedere con forza una legge nazionale, che metta una volta per tutte la parola fine a contratti che — pur essendo perfettamente legali — non consentono a lavoratrici e lavoratori di vivere in condizioni dignitose e arrivare alla fine del mese.

Un percorso politico condiviso con convinzione già durante la costruzione del programma elettorale della coalizione di centrosinistra e dalla maggioranza in consiglio comunale e che ha visto la partecipazione di varie figure, dal consigliere Martorana della lista Massari all’assessora regionale Elena Mazzoni dei 5 Stelle e Gianluca Cantergiani del PD.

Anche per mettere pressione per l’approvazione di una legge nazionale è importante che i comuni prendano posizione, come è stato fatto nei mesi scorsi a Napoli, Genova, Firenze, Livorno, Torino: un grande movimento di sindaci, amministratori e soprattutto di comunità che ribadiscono con forza che il lavoro si deve pagare, si deve pagare il giusto e quanto è necessario per coinvolgere l’individuo nelle sorti della società, per la dignità e il rispetto della persona.

Sono fiero — conclude Miglioli — del fatto che ora anche Reggio Emilia sia dalla parte giusta di questa battaglia, e che questo sia uno dei primi comuni in Italia in cui la mozione sul salario minimo abbia come prima firma quella di un consigliere che viene dalle forze politiche che rappresento.

Alessandro Miglioli

Capogruppo Verdi e Possibile al Consiglio Comunale di Reggio Emilia

L'articolo A Reggio Emilia il salario minimo comunale è finalmente realtà proviene da Possibile.



Druetti-Davide (Possibile): Regionali Campania, inaccettabili i commenti di Mieli su Souzan Fatayer, candidata AVS

“Tutta la nostra solidarietà a Souzan Fatayer”, dichiarano la Segretaria di Possibile Francesca Druetti e Andrea Davide della Segreteria Nazionale di Possibile e referente di Possibile in Campania, “che ha dovuto sopportare nelle ultime ore una serie di reazioni alla sua candidatura in Campania con AVS che vanno oltre la politica: dei vergognosi attacchi sessisti, che non dovrebbero trovare spazio nel dibattito sano di un paese civile”.

“Durante la trasmissione radiofonica 24 Mattino, Paolo Mieli ha definito Souzan Fatayer “una palestinese in leggerissimo sovrappeso”, che oltre a essere un volgare attacco al corpo di una candidata, è anche un insensato parallelismo con la carestia inflitta da Israele alla popolazione palestinese”, continua Andrea Davide.

“Intanto, la stampa stampa di destra ha iniziato una campagna ignobile sulle origini di Fatayer, a partire dalle insinuazioni de “Il giornale” che definisce il suo impegno per il popolo palestinese “un’esaltazione del terrorismo”: niente di nuovo, ma comunque un attacco becero e di cattivo gusto”, conclude Francesca Druetti.

“Solidarietà e vicinanza a Souzan Fatayer, un’amica, una compagna, una palestinese napoletana”.

L'articolo Druetti-Davide (Possibile): Regionali Campania, inaccettabili i commenti di Mieli su Souzan Fatayer, candidata AVS proviene da Possibile.



Blinking An LED With a Single Transistor


Let’s say you want to blink an LED. You might grab an Arduino and run the Blink sketch, or you might lace up a few components to a 555. But you needn’t go so fancy! [The Design Graveyard] explains how this same effect can be achieved with a single transistor.

The circuit in question is rather odd at first blush. The BC547 NPN transistor is hooked up between an LED and a resistor leading to a 12V DC line, with a capacitor across the emitter and collector. Meanwhile, the base is connected to… nothing! It’s just free-floating in the universe of its own accord. You might expect this circuit to do nothing at all, but if you power it up, the LED will actually start to flash.

The mechanism at play is relatively simple. The capacitor charges to 12 volts via the resistor. At this point, the transistor, which is effectively just acting as a poor diode in this case, undergoes avalanche breakdown at about 8.5 to 9 volts, and starts conducting. This causes the capacitor to discharge via the LED, until the voltage gets low enough that the transistor stops conducting once again. Then, the capacitor begins to charge back up, and the cycle begins again.

It’s a weird way to flash an LED, and it’s not really the normal way to use a transistor—you’re very much running it out of spec. Regardless, it does work for a time! We’ve looked at similar circuits before too. Video after the break.

youtube.com/embed/Yw6L5w4TDxw?…

[Thanks to Vik Olliver for the tip!]


hackaday.com/2025/10/20/blinki…



“Non si può lavorare bene senza pensare bene e avere un cuore ben disposto”. Il card. Mauro Gambetti, arciprete della basilica di San Pietro e presidente della Fabbrica di San Pietro, ha spiegato così il senso e lo spirito della Scuola delle arti e d…


Fail of the Week: Beaker to Benchy More Bothersome than Believed


Making nylon plastic from raw chemicals used to be a very common demo; depending where and when you grew up, you may well have done it in high school or even earlier. What’s not common is taking that nylon and doing something with it, like, say extruding it into filament to make a benchy. [Startup Chuck] shows us there might be a reason for that. (Video, embedded below.)

It starts out well enough: sebacoyl chloride and hexamethaline diamine mix up and do their polymerizing tango to make some nylon, just like we remember. (Some of us also got to play with mercury bare-handed; safety standards have changed and you’ll want to be very careful if you try this reaction at home). The string of nylon [Chuck] pulls from the beaker even looks a little bit like filament for a second, at least until it breaks and gets tossed into a blobby mess. We wonder if it would be possible to pull nylon directly into 1.75 mm filament with the proper technique, but quality control would be a big issue. Even if you could get a consistent diameter, there’d likely be too much solvent trapped inside to safely print.

Of course, melting the nylon with a blowtorch and trying to manually push the liquid through a die to create filament has its own quality control problems. That’s actually where this ends: no filament, and definitely no benchy. [Chuck] leaves the challenge open to anyone else who wants to take the crown. Perhaps one of you can show him how it’s done. We suspect it would be easiest to dry the homemade nylon and shred it into granules and only then extrude them, like was done with polypropylene in this mask-recycling project. Making filament from granules or pellets is something we’ve seen more than once over the years.

If you really want to make plastic from scratch, ordering monomers from Sigma-Aldrich might not cut it for ultimate bragging rights; other people are starting with pulling CO2 from the atmosphere.

Thanks to [Chaz] for the tip! Remember that the tips line isn’t just for your successes– anything interesting can find its home here.

youtube.com/embed/0DwcGJUcSyE?…


hackaday.com/2025/10/20/fail-o…



Word Processing: Heavy Metal Style


If you want to print, say, a book, you probably will type it into a word processor. Someone else will take your file and produce pages on a printer. Your words will directly turn on a laser beam or something to directly put words on paper. But for a long time, printing meant creating some physical representation of what you wanted to print that could stamp an imprint on a piece of paper.

The process of carving something out of wood or some other material to stamp out printing is very old. But the revolution was when the Chinese and, later, Europeans, realized it would be more flexible to make symbols that you could assemble texts from. Moveable type. The ability to mass-produce books and other written material had a huge influence on society.

But there is one problem. A book might have hundreds of pages, and each page has hundreds of letters. Someone has to find the right letters, put them together in the right order, and bind them together in a printing press’ chase so it can produce the page in question. Then you have to take it apart again to make more pages. Well, if you have enough type, you might not have to take it apart right away, but eventually you will.

Automation

A Linotype matrix for an upright or italic uppercase A.
That’s how it went, though, until around 1884. That’s when Ottmar Mergenthaler, a clockmaker from Germany who lived in the United States, had an idea. He had been asked for a quicker method of publishing legal briefs. He imagined a machine that would assemble molds for type instead of the actual type. Then the machine would cast molten metal to make a line of type ready to get locked into a printing press.

He called the molds matrices and built a promising prototype. He formed a company, and in 1886, the New York Tribune got the first commercial Linotype machine.

These machines would be in heavy use all through the early 20th century, although sometime in the 1970s, other methods started to displace them. Even so, there are still a few printing operations that use linotypes as late as 2022, as you can see in the video below. We don’t know for sure if The Crescent is still using the old machine, but we’d bet they are.

youtube.com/embed/FZvPFzXZy4o?…

Of course, there were imitators and the inevitable patent wars. There was the Typograph, which was an early entry into the field. The Intertype company produced machines in 1914. But just like Xerox became a common word for photocopy, machines like this were nearly always called Linotypes and, truth be told, were statistically likely to have been made by Mergenthaler’s company.

youtube.com/embed/5n5JQrN8qx4?…

Kind of Steampunk

Diagram from a 1904 book showing the parts of a Linotype.
For a machine that appeared in the 1800s, the Linotype looks both modern and steampunk. It had a 90-key keyboard, for one thing. Some even had paper tape readers so type could be “set” somewhere and sent to the press room via teletype.

The machine had a store of matrices in a magazine. Of course, you needed lots of common characters and perhaps fewer of the uncommon ones. Each matrix had a particular font and size, although for smaller fonts, the matrix could hold two characters that the operator could select from. One magazine would have one font at a particular size.

Unlike type, a Linotype matrix isn’t a mirror image, and it is set into the metal instead of rising out of it. That makes sense. It is a mold for the eventual type that will be raised and mirrored. The machine had 90 keys. Want to guess how many channels a magazine had? Yep. It was 90, although larger fonts might use fewer.

Different later models had extra capabilities. For example, some machines could hold four magazines in a stack so you could set multiple fonts or sizes at one time, with some limitations, depending on the machine. Spaces weren’t in the magazine. They were in a special spaceband box.

Each press of a key would drop a matrix from the magazine into the assembler at the bottom of the machine in a position for the primary or auxiliary letter. This was all a mechanical process, and a skilled operator could do about 30 words per minute, so the machines had to be cleaned and lubricated. There was also a special pi channel where you could put strange matrices you didn’t use very often.

Typecasting


When the line was done, you pressed the casting level, which would push the matrices out of the assembler and into a delivery channel. Then it moved into the casting section, which took about nine seconds. A motor moved the matrices to the right place, and a gas burner or electric heater kept a pot of metal (usually a lead/antimony/tin mix that is traditional for type) molten.

A properly made slug from a Linotype was good for 300,000 imprints. However, it did require periodic removal of the dross from the top of the hot metal. Of course, if you didn’t need it anymore, you just dropped it back in the pot.

Justification

A composed line with long space bands. (From a 1940 book by the Linotype Company). Note that each matrix has two letters.
You might wonder how type would be justified. The trick is in the space bands. They were larger than the other matrices and made so that the further they were pushed into the block, the more space they took. A mechanism pushed them up until the line of type exactly fit between the margins.

You can see why the space bands were in a special box. They are much longer than the typical type matrices.

How else could you even out the spaces with circa-1900 technology? Pretty clever.
The distributor bar (black) has teeth that engage teeth on each matrix.
If you have been paying attention, there’s one major drawback to this system. How do the matrix elements get back to the right place in the magazine? If you can’t automate that, you still have a lot of manual labor to do. This was the job of the distributor. First, the space bands were sorted out. Each matrix has teeth at the top that allow it to hang on a toothed distributor bar. Each letter has its own pattern of teeth that form a 7-bit code.

As the distributor bar carries them across the magazine channels, it will release those that have a particular set of teeth missing, because it also has some teeth missing. A diagram from a Linotype book makes it easier to understand than reading about it.

The Goldbergs


You have to wonder if Ottmar was related to Rube Goldberg. We don’t think we’d be audacious enough to propose a mechanical machine to do all this on top of an automated way to handle molten lead. But we admire anyone who does. Thomas Edison called the machine the eighth wonder of the world, and we don’t disagree. It revolutionized printing even though, now, it is just a historical footnote.

Can’t get enough info on the Linotype? There is a documentary that runs well over an hour, which you can watch below. If you’ve only got five minutes, try the short demo video at the very bottom.

Moveable type was to printing what 3D printing is to plastic manufacturing. Which might explain this project. Or this one, for that matter.

youtube.com/embed/VDM-EbDCiQg?…

youtube.com/embed/xFUITmzrgBM?…


hackaday.com/2025/10/20/word-p…



Classy Desk Simulates Beehive Activity


Beehives are impressive structures, an example of the epic building feats that are achievable by nature’s smaller creatures. [Full Stack Woodworking] was recently building a new work desk, and decided to make this piece of furniture a glowing tribute to the glorious engineering of the bee. (Video, embedded below.)

The piece is a conventional L-shaped desk, but with a honeycomb motif inlaid into the surface itself. [Full Stack Woodworking] started by iterating on various designs with stacked hexagons made out of laser cut plywood and Perspex, filled with epoxy. Producing enough hexagons to populate the entire desk was no mean feat, requiring a great deal of cutting, staining, and gluing—and all this before the electronics even got involved! Naturally, each cell has a custom built PCB covered in addressable LEDs, and they’re linked with smaller linear PCBs which create “paths” for bees to move between cells.

What’s cool about the display is that it’s not just running some random RGB animations. Instead, the desk has a Raspberry Pi 5 dedicated to running a beehive simulation, where algorithmic rules determine the status (and thus color) of each hexagonal cell based on the behavior of virtual bees loading the cells with honey. It creates an organic, changing display in a way that’s rather reminiscent of Conway’s Game of Life.

It was a huge build, but the final result is impressive. We’ve featured some other great custom desks over the years too. Video after the break.

youtube.com/embed/gZvzyCj3N_o?…

[Thanks to J. Peterson for the tip!]


hackaday.com/2025/10/20/classy…



Ask Hackaday: When Good Lithium Batteries Go Bad


Friends, I’ve gotten myself into a pickle and I need some help.

A few years back, I decided to get into solar power by building a complete PV system inside a mobile trailer. The rationale for this doesn’t matter for the current discussion, but for the curious, I wrote an article outlining the whole design and build process. Briefly, though, the system has two adjustable PV arrays mounted on the roof and side of a small cargo trailer, with an integrated solar inverter-charger and a 10-kWh LiFePO4 battery bank on the inside, along with all the usual switching and circuit protection stuff.

It’s pretty cool, if I do say so myself, and literally every word I’ve written for Hackaday since sometime in 2023 has been on a computer powered by that trailer. I must have built it pretty well, because it’s been largely hands-off since then, requiring very little maintenance. And therein lies the root of my current conundrum.

Spicy Pillows


I generally only go in the trailer once a month or so, just to check things over and make sure no critters — or squatters — have taken up residence. Apparently, my inspections had become somewhat cursory, because somehow I had managed to overlook a major problem brewing:
Chest burster much? I found this swollen mass of steel and lithium inside my trailer, ready to wreak havoc.
This is one of two homebrew server rack battery modules I used in the trailer’s first battery bank. The LG-branded modules were removed from service and sold second-hand by Battery Hookup; I stripped the proprietary management cards out of the packs and installed a 100-amp BMS, plus the comically oversized junction box for wiring. They worked pretty well for a couple of months, but I eventually got enough money together to buy a pair of larger, new-manufacture server-rack modules from Ruixu, and I disconnected the DIY batteries and put them aside in the trailer.

Glass Houses


While these batteries work fine for what they are, I have to admit that their homebrew nature gnawed at me.As for what happened to these batteries (while not as dramatic, the case on the other one is obviously swelling, too), I’m not sure. There was no chance for physical damage inside the trailer, and neither battery was dropped or penetrated. Whatever happened must have been caused by normal aging of the 28 pouch cells within, or possibly the thermal swings inside the trailer.

Either way, some of the pouches have obviously transformed into “spicy pillows” thanks to the chemical decomposition of their electrodes and electrolytes, creating CO2 and CO gas under enough pressure to deform the 14-gauge steel case of the modules. It’s a pretty impressive display of power when you think about it, and downright terrifying.

I know that posting this is likely going to open me up to considerable criticism in the comments, much of it deserved. I was clearly negligent here, at least in how I chose to store these batteries once I removed them from service. You can also ding me for trying to save a few bucks by buying second-hand batteries and modifying them myself, but let those of you who have never shaken hands with danger cast the first stone.

To my credit, I did mention in my original write-up that, “While these batteries work fine for what they are, I have to admit that their homebrew nature gnawed at me. The idea that a simple wiring mistake could result in a fire that would destroy years of hard work was hard to handle.” But really, the risk posed by these batteries, not just to the years of work I put into the trailer, but also the fire danger to my garage and my neighbor’s boat, camper, and truck, all of which are close to the trailer, makes me a little queasy when I think about it.

Your Turn


That’s all well and good, but the question remains: what do I do with these batteries now? To address the immediate safety concerns, I placed them at my local “Pole of Inaccessibility,” the point in my backyard that’s farthest from anything that might burn. This is a temporary move until I can figure out a way to recycle them. While my city does have battery recycling, I’m pretty sure they’d balk at accepting 90-pound server batteries even if they were brand new. With obvious deformities, they’ll probably at least tell me to get lost; at worst, they’d call the hazmat unit on me. The Environmental Protection Agency has a program for battery recycling, but that’s geared to consumers disposing of a few alkaline cells or maybe the dead pack from a Ryobi drill. Good luck getting them to accept these monsters.

How would you handle this? Bear in mind that I won’t entertain illegal options such as an unfortunate boating accident or “dig deep and shut up,” at least not publicly. But if you have any other ideas, we’d love to hear them. More generally, what’s your retirement plan for lithium batteries look like? With the increased availability of used batteries from wrecked EVs or even e-bike and scooter batteries, it’s a question that many of us will face eventually. If you’ve already run up against this problem, we’d love to hear how you handled it. Sound off in the comments below.


hackaday.com/2025/10/20/ask-ha…



Vulnerabilità F5 BIG-IP: 266.000 dispositivi a rischio nel mondo! 2500 in Italia


La Cybersecurity and Infrastructure Security Agency (CISA) e il Multi-State Information Sharing & Analysis Center (MS-ISAC) pubblicano questo avviso congiunto sulla sicurezza informatica (CSA) in risposta allo sfruttamento attivo di CVE-2022-1388.

Questa vulnerabilità, recentemente divulgata in alcune versioni di F5 Networks, Inc. (F5) BIG-IP, consente a un attore non autenticato di ottenere il controllo dei sistemi interessati tramite la porta di gestione o gli indirizzi IP personali. F5 ha rilasciato una patch per CVE-2022-1388 il 4 maggio 2022 e da allora sono stati resi pubblici exploit proof of concept (POC), consentendo ad attori meno sofisticati di sfruttare la vulnerabilità.

A causa del precedente sfruttamento di vulnerabilità di F5 BIG-IP , CISA e MS-ISAC ritengono che i dispositivi F5 BIG-IP non patchati siano un obiettivo interessante; le organizzazioni che non hanno applicato la patch sono vulnerabili ad attacchi che prendono il controllo dei loro sistemi.

L’organismo di controllo di Internet Shadowserver sta attualmente monitorando 266.978 indirizzi IP con una firma BIG-IP F5 dei quali circa 2500 sono in Italia. Oltre ai sistemi americani, ci sono circa 100.000 dispositivi in ​​Europa e Asia. Nello specifico, per i Paesi Bassi, si tratta di 3.800 sistemi esposti.

Queste cifre illustrano l’enorme portata dell’incidente di sicurezza F5 di cui si è avuta notizia all’inizio di questa settimana . L’azienda di sicurezza ha riferito che gli hacker statali avevano avuto accesso al loro ambiente di sviluppo del prodotto BIG-IP per mesi. I prodotti F5 BIG-IP sono presenti ovunque nelle reti aziendali. Forniscono bilanciamento del carico, firewall e controllo degli accessi per applicazioni critiche. Il fatto che centinaia di migliaia di questi sistemi siano ora visibili al pubblico li rende obiettivi interessanti per i criminali informatici.

Dettagli tecnici


nvd.nist.gov/vuln/detail/CVE-2…CVE-2022-1388 è una vulnerabilità critica di bypass dell’autenticazione REST di iControl che colpisce le seguenti versioni di F5 BIG-IP:[ 1 ]

  • Versioni 16.1.x precedenti alla 16.1.2.2
  • Versioni 15.1.x precedenti alla 15.1.5.1
  • Versioni 14.1.x precedenti alla 14.1.4.6
  • Versioni 13.1.x precedenti alla 13.1.5
  • Tutte le versioni 12.1.x e 11.6.x

Un attore non autenticato con accesso di rete al sistema BIG-IP tramite la porta di gestione o gli indirizzi IP personali potrebbe sfruttare la vulnerabilità per eseguire comandi di sistema arbitrari, creare o eliminare file o disabilitare servizi. F5 ha rilasciato una patch per CVE-2022-1388 per tutte le versioni interessate, ad eccezione delle versioni 12.1.x e 11.6.x, il 4 maggio 2022 (le versioni 12.1.x e 11.6.x sono a fine ciclo di vita [EOL] e F5 ha dichiarato che non rilascerà patch).[ 2 ]

Gli exploit POC per questa vulnerabilità sono stati resi pubblici e, l’11 maggio 2022, CISA ha aggiunto questa vulnerabilità al suo catalogo delle vulnerabilità note sfruttate , sulla base di prove di sfruttamento attivo. Grazie ai POC e alla facilità di sfruttamento, CISA e MS-ISAC prevedono uno sfruttamento diffuso di dispositivi F5 BIG-IP non patchati nelle reti governative e private.

Metodi di rilevamento


La CISA raccomanda agli amministratori, in particolare alle organizzazioni che non hanno applicato immediatamente la patch, di:

  • Per gli indicatori di compromissione, consultare l’avviso di sicurezza F5 K23605346 .
  • Se si sospetta una compromissione, consultare la guida F5 K11438344 .
  • Distribuisci la seguente firma Snort creata da CISA:

L'articolo Vulnerabilità F5 BIG-IP: 266.000 dispositivi a rischio nel mondo! 2500 in Italia proviene da Red Hot Cyber.



Lower The Top. La sfida alle piattaforme tra sovranità statuale e saperi sociali


La sovranità digitale è un concetto spigoloso. E però, una volta inventato, è diventato una realtà politica con cui fare i conti. Questa è una delle tesi cardine della rivista-libro “Lower The Top. La sfida alle piattaforme tra sovranità statuale e saperi sociali”, numero 25 delle pubblicazioni di Comunicazione punto doc, rivista semestrale di Fausto Lupetti Editore (2021).

Intanto è un ossimoro: il digitale, fluido per natura, si scontra con qualsiasi idea di sovranità. La sovranità appartiene per definizione a un territorio su cui l’autorità politica esercita il proprio potere, si tratti di un ammasso regionale come degli spazi prospicenti ad esso, ma anche delle infrastrutture umane che lo attraversano.

Lo sanno bene i regolatori che di fronte al processo di globalizzazione dei mercati favorito dagli scambi e dalle telecomunicazioni globali ne hanno scoperto in Internet l’elemento più destabilizzante. Ed è proprio all’infrastruttura Internet che negli ultimi 30 anni si è provato a cucire addosso un’idea di sovranità, solo per rendersi conto che si trattava di una sovranità interconnessa e pertanto da negoziare tra le autorità statuali.

Sovranità brandita da chi è stato in grado di proiettare la propria sfera di influenza su un territorio per definizione senza confini, il hashtag#cyberspace.

Usa, Cina e Russia, anche grazie ai loro proxy tecnologici, sono state infatti finora in grado di mantenere il controllo e i vantaggi del proprio esercizio del potere su questa fluidità immateriale mente l’Europa arrancava. Proprio in virtù di una sovranità politica e statuale ancora in costruzione.

Eppure l’Europa, come evidente nel richiamo fatto dalla presidente Von der Leyen in distinti discorsi sullo stato dell’unione (2020, 2021), ha provato a tracciare un «nomos del Erde» anche per il mondo digitale. A partire dal Regolamento europeo per la protezione dei dati, GDPR, e poi con una serie di iniziative volte a regolare lo strapotere di Big Tech, prima chiamati OTT, Over the top, l’Europa ha fatto sentire il peso della sua sovranità. Per stoppare il furto di dati, la sorveglianza dell’informazione e il controllo dei mercati praticata dagli stati di di origine degli OTT. Al GDPR sappiamo che sono succedute la Nis, la Dora e il CRA, l’AI Act e il DATA Act appena entrato in vigore il 12 settembre. Tutti tentativi di applicazione di quel Digital Constitutionalism che è il corollario della Lex Digitalis.

L’Europa, accusata di rappresentare il paradosso della «regolazione senza tecnologie» sta ora ripensando la sovranità digitale come sovranità tecnologica e, attraverso i suoi progetti di finanziamento industriale, dimostra, a dispetto dei suoi detrattori, di avere ancora voce in capitolo.

COMUNICAZIONEPUNTODOC – N. 25 – (AGOSTO-DICEMBRE 2021)


dicorinto.it/articoli/recensio…



È in programma per la mattinata di mercoledì 22 ottobre la cerimonia di inaugurazione dell’anno accademico 2025-2026 del Pontificio Istituto Teologico Giovanni Paolo II per le Scienze del matrimonio e della famiglia.


Si è conclusa con un appello al Venezuela la messa di ringraziamento, nella basilica di San Pietro, per la canonizzazione dei primi due santi del Paese latinoamericano, José Gregorio Hernández Cisneros e Maria Carmen Rendiles Martínez.


Si è concluso ieri, domenica 19 ottobre, con una celebrazione eucaristica al Santuario del Divino Amore, il Giubileo dei Rom, Sinti e Caminanti. A presiedere la liturgia il card.


Community Call: Psychosocial Support & Digital Safety


What does psychosocial support look like in the face of spyware attacks and digital security threats? It can mean adapting care to the context, listening without rushing, and building protocols that protect both dignity and data. But we want to hear what it means to you and to those already integrating psychosocial support into their accompaniments — such as Fundación Acceso in Latin America and Digital Society of Africa during our next community call.

The post Community Call: Psychosocial Support & Digital Safety appeared first on European Digital Rights (EDRi).




The Session Design Lab


During this lab, you will establish a strong foundation in designing participatory and interactive sessions for both online and face-to-face formats. This will enable you to facilitate sessions that foster co-empowering, learning, and knowledge sharing, thereby advancing your work and that of your participants.

The post The Session Design Lab appeared first on European Digital Rights (EDRi).




Il secolo dell’IA, capire l’intelligenza artificiale, decidere il futuro


Volevo ringraziare Marco Bani e Lorenzo Basso per avermi regalato il loro libro “Il secolo dell’IA, capire l’intelligenza artificiale, decidere il futuro” (Il Mulino -Arel, 2025).

Mi è piaciuto molto e mi sono segnato diversi passaggi interessanti.

Il motivo è che di libri sull’IA ne ho letti parecchi in italiano, meno in inglese, a cominciare da quando studiavo psicologia a Stanford e giochicchiavo con le reti neurali negli anni ’90.

Ho letto il bellissimo Vita 3.0 di Max Tegmark, ho letto i libri di Luciano Floridi come Etica dell’Intelligenza artificiale, il libro di Cingolani, L’altra Specie; ho letto i libri di Guido Scorza e Alessandro Longo, quelli del mio amico Massimo Chiriatti (hashtag#humanless, Incoscienza artificiale), di Fabio Lazzini, e Andrea Colamedici (L’algoritmo di Babele): ho letto Breve e universale storia degli algoritmi di Luigi Laura, Nel paese degli algoritmi di Aurélie JEAN, Ph.D., L’economia dell’intelligenza artificiale di Stefano da Empoli; la trilogia di Nello Cristianini (La Scorciatoia, Machina Sapiens, Sovrumano); AI Work di Sergio Bellucci; Intelligenza Artificiale e democrazia di Oreste Pollicino e Pietro Dunn, Human in the Loop di Paolo Benanti eccetera eccetera… scusate non vi cito tutti.

Il libro di Bani e Basso mi è piaciuto per essere chiaro, sintetico, diretto. Con un forte afflato etico e con una impronta politica ma non partigiana. Volendo essere un libro divulgativo, il loro libro mi pare una buona summa del dibattito pubblico in corso pure senza essere un libro accademico o rivelatore.

Ottimo entry level, insomma, ha il pregio di poter essere compreso da un liceale come da un politico. I riferimenti sono corretti, la bibliografia discreta. un bel lavoro.
Insomma, è da leggere. Funziona anche nei momenti di relax quando non hai voglia di studiare.


dicorinto.it/articoli/recensio…



Il Papa ha ricevuto oggi in udienza in Vaticano un gruppo di vittime di abusi, appartenente alla rete Ending Clergy Abuse (Eca Global), attiva soprattutto negli Stati Uniti.


SplinterCon in Paris


As national and regional efforts around digital sovereignty gain momentum, SplinterCon Paris will bring together technologists, researchers, and policymakers to consider what resilient, interconnected digital societies require today and in the future.

The post SplinterCon in Paris appeared first on European Digital Rights (EDRi).




Hacklab Cosenza - Linux Day Cosenza 2025


hlcs.it/2025/10/20/linux-day-c…
Segnalato da Linux Italia e pubblicato sulla comunità Lemmy @GNU/Linux Italia
Pubblicato il programma del Linux Day 2025 a Cosenza, parte della giornata nazionale dedicata a Linux, al software libero e open source, e alle tecnologie aperte, rispettose delle libertà digitali.

reshared this