Sicurezza sul lavoro. Dal decreto sicurezza sul lavoro poco o nulla di nuovo
@Giornalismo e disordine informativo
articolo21.org/2025/12/sicurez…
Con il decreto sicurezza sul lavoro, approvato definitivamente dal Parlamento, è stato fatto poco o nulla per cambiare e porre un freno a questo
Giornalismo e disordine informativo reshared this.
“Perché voterò No”. Articolo21 invita tutti ad esprimere le ragioni del no al referendum
@Giornalismo e disordine informativo
articolo21.org/2025/12/perche-…
Oggi al via il comitato nazionale per il referendum sulla giustizia, per contrastare il referendum contro i
Giornalismo e disordine informativo reshared this.
pagellapolitica.it/articoli/co…
RFanciola reshared this.
Come dico spesso, l'unica cosa comunista rimasta nella Russia odierna è la repressione del dissenso. Vengono comminati letteralmente anni di carcere per un post sui social. Il reato di "diffamazione dell'esercito", creato dopo l'invasione dell'Ucraina, è puro arbitrio.
simona likes this.
An exoplanet located 750 light years from Earth has an atmosphere unlike anything previously known.#TheAbstract
Retrocomputing: Simulacrum or the Real Deal?
The holidays are rapidly approaching, and you probably already have a topic or two to argue with your family about. But what about with your hacker friends? We came upon an old favorite the other day: whether it “counts” as retrocomputing if you’re running a simulated version of the system or if it “needs” to run on old iron.
This lovely C64esque laptop sparked the controversy. It’s an absolute looker, with a custom keyboard and a retro-reimagining-period-correct flaptop design, but the beauty is only skin deep: the guts are a Raspberry Pi 5 running VICE. An emulator! Horrors!
We’ll admit to being entirely torn. There’s something about the old computers that’s very nice to lay hands on, and we just don’t get the same feels from an emulator running on our desktop. But a physical reproduction like with many of the modern C64 recreations, or [Oscar Vermeulen]’s PiDP-8/I really floats our boat in a way that an in-the-browser emulation experience simply doesn’t.
Another example was the Voja 4, the Supercon 2022 badge based on a CPU that never existed. It’s not literally retro, because [Voja Antonics] designed it during the COVID quarantines, so there’s no “old iron” at all. Worse, it’s emulated; the whole thing exists as a virtual machine inside the onboard PIC.
But we’d argue that this badge brought more people something very much like the authentic PDP-8 experience, or whatever. We saw people teaching themselves to do something functional in an imaginary 4-bit machine language over a weekend, and we know folks who’ve kept at it in the intervening years. Part of the appeal was that it reflected nearly everything about the machine state in myriad blinking lights. Or rather, it reflected the VM running on the PIC, because remember, it’s all just a trick.
So we’ll fittingly close this newsletter with a holiday message of peace to the two retrocomputing camps: Maybe you’re both right. Maybe the physical device and its human interfaces do matter – emulation sucks – but maybe it’s not entirely relevant what’s on the inside of the box if the outside is convincing enough. After all, if we hadn’t done [Kevin Noki] dirty by showing the insides of his C64 laptop, maybe nobody would ever have known.
This article is part of the Hackaday.com newsletter, delivered every seven days for each of the last 200+ weeks. It also includes our favorite articles from the last seven days that you can see on the web version of the newsletter. Want this type of article to hit your inbox every Friday morning? You should sign up!
Testing 8 Solder Flux Pastes After Flux Killed a GeForce2 GTS
Riesba NC-559-ASM flux being applied. (Credit: Bits und Bolts, YouTube)
Flux is one of those things that you cannot really use too much of during soldering, as it is essential for cleaning the surface and keeping oxygen out, but as [Bits und Bolts] recently found, not all flux is made the same. After ordering the same fake Amtech flux from the same AliExpress store, he found that the latest batch didn’t work quite the same, resulting in a Geforce 2 GTS chip getting cooked while trying to reball the chip with uncooperative flux.
Although it’s easy to put this down to a ‘skill issue’, the subsequent test of eight different flux pastes ordered from both AliExpress and Amazon, including — presumably genuine — Mechanic flux pastes with reballing a section of a BGA chip, showed quite different flux characteristics, as you can see in the video below. Although all of these are fairly tacky flux pastes, with some, the solder balls snapped easily into place and gained a nice sheen afterwards, while others formed bridges and left a pockmarked surface that’s indicative of oxygen getting past the flux barrier.
Not all flux pastes are made the same, which also translates into how easy the flux remnants are to clean up. So-called ‘no clean’ flux pastes are popular, which take little more than some IPA to do the cleaning, rather than specialized PCB cleaners as with the used Mechanic flux. Although the results of these findings are up for debate, it can probably be said that ordering clearly faked brand flux paste is a terrible idea. While the top runner brand Riesba probably doesn’t ring any bells, it might be just a Chinese brand name that doesn’t have a Western presence.
As always, caveat emptor, and be sure to read those product datasheets. If your flux product doesn’t come with a datasheet, that would be your first major red flag. Why do we need flux? Find out.
youtube.com/embed/uAqofdpe744?…
Amazon contro gli hacker nordcoreani: sventati oltre 1800 attacchi
Quando si pensa ad Amazon, viene subito in mente il colosso dell’e-commerce e della tecnologia, ma anche un’impresa che sta combattendo una battaglia silenziosa contro i cyber-attacchi.
Ultimamente, Amazon ha alzato il velo su una questione piuttosto spinosa: gli hacker nordcoreani stanno usando le cosiddette “fattorie di laptop” in Arizona per infiltrarsi nelle aziende statunitensi. È una storia che ha dell’incredibile, ma purtroppo è vera.
Questi “cyber-criminali” si travestono da candidati lavoro, si assicurano posizioni remote e poi rubano dati sensibili per estorcere soldi. Amazon ha rivelato che da aprile 2024 ha bloccato oltre 1.800 tentativi di hacking, e la cifra è in rapido aumento; evidentemente il problema è più grande di quanto si immaginasse. Questa è una questione che richiede attenzione, e Amazon sta facendo la sua parte per arginare il fenomeno. È arrivato il momento di parlare di cybersecurity.
L’azienda stima che, trimestre dopo trimestre, i tentativi di penetrare nei sistemi di Amazon da parte di questi attori siano aumentati del 27%. Il tipico schema inizia con il pagamento di residenti negli Stati Uniti per gestire quelle che sembrano innocue attività secondarie: l’acquisto e la manutenzione di un gran numero di computer portatili connessi alle reti nazionali.
Dopo essere stati creati, questi computer finiscono per supportare dei curriculum fasulli, studiati ad hoc per sembrare professionali e attendibili, in modo che gli hacker possano proporsi come candidati per posizioni lavorative da remoto in grosse aziende tech. Una volta che sono stati assunti, si ritrovano ad avere carta bianca, senza che nessuno gli cada alle calcagna.
Solo nel 2025, gli hacker nordcoreani hanno utilizzato questo metodo per attaccare diverse aziende e piattaforme di criptovalute, causando perdite sostanziali. Sebbene gli attacchi al settore delle criptovalute siano principalmente mirati al furto di fondi, Amazon ritiene che i tentativi di infiltrazione contro la propria organizzazione siano stati probabilmente motivati dalla ricerca di dati interni sensibili.
In effetti, l’azienda ha confermato che alcuni aggressori sono riusciti a entrare in Amazon utilizzando credenziali contraffatte. All’inizio del 2025, il monitoraggio comportamentale sul laptop di un amministratore di sistema appena assunto ha attivato degli avvisi, innescando un’indagine di sicurezza interna .
I ricercatori, a seguito di un’analisi dettagliata, hanno riscontrato che i computer portatili dei lavoratori a distanza erano soggetti a controlli remoti, con una conseguente latenza dei tempi di battitura estremamente alta. Normalmente, le pause tra le battiture sui laptop collegati direttamente alle reti degli Stati Uniti sono di solito poche decine di millisecondi. Tuttavia, in questo caso specifico, la latenza ha raggiunto un valore di 110 millisecondi. Nonostante si sia trattato di un episodio isolato, esso ha messo in luce che spesso è possibile individuare tracce di tale attività.
Amazon ha inoltre condiviso ulteriori indicatori che monitora. Durante le interazioni, gli hacker spesso si tradiscono attraverso sottili errori linguistici – difficoltà nell’uso naturale di espressioni idiomatiche americane o incongruenze nell’inglese scritto – che riflettono il fatto che l’inglese non è la loro lingua madre. Questi segnali sono tra i segnali che Amazon considera prioritari nei suoi sforzi difensivi.
In precedenza, l’FBI (Federal Bureau of Investigation) degli Stati Uniti aveva smantellato diverse fabbriche di computer portatili che facilitavano le operazioni informatiche nordcoreane. Queste strutture ospitavano computer per l’uso remoto da parte di hacker, e i loro operatori erano stati successivamente condannati per il loro ruolo nelle attività illecite.
L'articolo Amazon contro gli hacker nordcoreani: sventati oltre 1800 attacchi proviene da Red Hot Cyber.
reshared this
Kimwolf, la botnet che ha trasformato smart TV e decoder in un’arma globale
Un nuovo e formidabile nemico è emerso nel panorama delle minacce informatiche: Kimwolf, una temibile botnet DDoS, sta avendo un impatto devastante sui dispositivi a livello mondiale. Le conseguenze di questa minaccia possono essere estremamente gravi e la sua portata è in costante aumento.
Per capire la reale entità di questo problema, è essenziale considerare che Kimwolf è una rete di dispositivi contaminati da malware, i quali possono essere controllati a distanza dagli aggressori. L’obiettivo principale di Kimwolf è quello di condurre attacchi DDoS, mirati a sovraccaricare e rendere inaccessibili sistemi o reti.
Secondo l’azienda cinese QiAnXin, Kimwolf è riuscita a compromettere almeno 1,8 milioni di dispositivi eterogenei, tra cui smart TV, decoder e tablet basati su Android. Questo numero è davvero impressionante e la varietà dei dispositivi colpiti rende la situazione ancora più preoccupante.
In definitiva, Kimwolf incarna un problema che non può essere ignorato. La sua capacità di propagarsi velocemente su dispositivi diversi e di effettuare attacchi DDoS. Considerando il numero elevato di dispositivi già coinvolti, Kimwolf rappresenta una minaccia significativa che richiede attenzione e azione.
Kimwolf è compilato utilizzando il Native Development Kit (NDK) e va oltre le funzionalità DDoS convenzionali. Oltre a lanciare attacchi denial-of-service su larga scala, integra funzionalità di proxy forwarding, reverse shell access e gestione dei file. Di conseguenza, gli aggressori possono non solo arruolare dispositivi come bot, ma anche sfruttarli per operazioni offensive più ampie.
Secondo le stime di QiAnXin, la botnet ha generato un totale di 1,7 miliardi di attacchi DDoS tra il 19 e il 22 novembre 2025. A causa dell’elevato volume di attività, il suo dominio di comando e controllo, 14emeliaterracewestroxburyma02132[.]su, si è posizionato al vertice della classifica DNS di Cloudflare.
I bersagli principali di questa botnet sono modelli come TV BOX, SuperBOX, HiDPTAndroid, P200, X96Q, XBOX, SmartTB, MX10 e vari altri. Sono state osservate infezioni in tutto il mondo, con concentrazioni particolarmente elevate in Brasile, India, Stati Uniti, Argentina, Sudafrica e Filippine. QiAnXin non ha ancora determinato come il malware iniziale sia stato distribuito a questi dispositivi.
In particolare, i domini di comando e controllo di Kimwolf sono stati disattivati con successo almeno tre volte a dicembre da soggetti non identificati, probabilmente attori rivali o ricercatori di sicurezza indipendenti . Questa interruzione ha costretto gli operatori della botnet a cambiare strategia e ad adottare l’Ethereum Name Service (ENS) per rafforzare la propria infrastruttura contro ulteriori rimozioni.
La botnet Kimwolf è anche collegata alla famigerata botnet AISURU. Gli investigatori hanno scoperto che gli aggressori hanno riutilizzato il codice di AISURU durante le prime fasi di sviluppo, prima di creare Kimwolf come successore più evasivo. QiAnXin sospetta che alcune campagne DDoS precedentemente attribuite ad AISURU possano aver coinvolto Kimwolf, o addirittura essere state orchestrate principalmente da quest’ultimo.
Si consiglia agli utenti di smart TV e decoder Android di verificare se i propri dispositivi utilizzano ancora le password predefinite e, in tal caso, di modificarle immediatamente. Se viene rilevato un comportamento anomalo, potrebbe essere necessario un ripristino completo del dispositivo.
Gli aggiornamenti del firmware o del sistema dovrebbero essere applicati tempestivamente non appena disponibili. Tuttavia, molti di questi dispositivi ricevono scarso o nessun supporto per gli aggiornamenti dopo il rilascio, rendendo difficile la correzione a lungo termine anche quando vengono identificate vulnerabilità .
L'articolo Kimwolf, la botnet che ha trasformato smart TV e decoder in un’arma globale proviene da Red Hot Cyber.
Perché tutti sembrano soffrire di deficit di attenzione e iperattività (ADHD)?
I motivi dietro all’aumento dei casi di disturbo da deficit di attenzione e iperattività negli ultimi decenni sono diversi, e sono spesso legati alle modalità con cui vengono effettuate le diagnosi di ADHD.Focus.it
Pakistan e Cirenaica stringono un accordo di cooperazione militare
@Notizie dall'Italia e dal mondo
Dopo il patto di mutua difesa con l'Arabia Saudita, il Pakistan ha sottoscritto un accordo di cooperazione militare con la regione della Libia orientale controllata da Khalifa Haftar
L'articolo Pakistan e Cirenaica stringono un accordo di cooperazione militare proviene da
Notizie dall'Italia e dal mondo reshared this.
I genitori che non fanno regali di Natale ai figli
È un modo estremo e poco praticabile di gestire un problema diffuso, sia economico che educativoIl Post
la vedo dura con una popolazione mondiale di 8 miliardi di tornare a una vita "nostalgica" old style, fattoria & orto, tutti quanti. vita che personalmente NON rimpiango, pur al limite amando gli animali. ma la vecchia civiltà contadina era tutto meno che ecosostenibile e rispettosa dell'ambiente. ma portando la popolazione a un livello massimo di 500 milioni forse sarebbe ancora possibile. però non credo che la questione regali di natale, compleanno o festività per un bambino sia questo.
nella vita non si sceglie comunque mai niente, credo questa regola valga praticamente per tutti. in realtà pure per i ricconi. ma il problema è solo cosa di fa con quello che si ha.
Trames reshared this.
ANALISI. Nello Yemen si ridisegna la mappa dell’Arabia meridionale
@Notizie dall'Italia e dal mondo
Dieci anni dopo, gli Houthi restano trincerati nel nord, mentre il sud è diventato una scacchiera per le ambizioni divergenti della coalizione saudita-emiratina
pagineesteri.it/2025/12/20/med…
Notizie dall'Italia e dal mondo reshared this.
ma in fondo ala fine la vita è una "cagata pazzesca"
La povertà ruba sempre più vita agli anziani, quasi 10 anni in meno dei più ricchi - Sanità - Ansa.it
Gli anziani con reddito basso muoiono fino a nove anni prima rispetto a quelli più abbienti. (ANSA)Agenzia ANSA
RFanciola reshared this.
Linux On A Floppy: Still (Just About) Possible
Back in the early days of Linux, there were multiple floppy disk distributions. They made handy rescue or tinkering environments, and they packed in a surprising amount of useful stuff. But a version 1.x kernel was not large in today’s context, so how does a floppy Linux fare in 2025? [Action Retro] is here to find out.
Following a guide from GitHub in the video below the break, he’s able to get a modern version 6.14 kernel compiled with minimal options, as well as just enough BusyBox to be useful. It boots on a gloriously minimalist 486 setup, and he spends a while trying to refine and add to it, but it’s evident from the errors he finds along the way that managing dependencies in such a small space is challenging. Even the floppy itself is problematic, as both the drive and the media are now long in the tooth; it takes him a while to find one that works. He promises us more in a future episode, but it’s clear this is more of an exercise in pushing the envelope than it is in making a useful distro. Floppy Linux was fun back in 1997, but we can tell it’s more of a curiosity in 2025.
Linux on a floppy has made it to these pages every few years during most of Hackaday’s existence, but perhaps instead of pointing you in that direction, it’s time to toss a wreath into the sea of abandonware with a reminder that the floppy drivers in Linux are now orphaned.
youtube.com/embed/SiHZbnFrHOY?…
Debby ⁂ ❤️🐧📎 likes this.
Gazzetta del Cadavere reshared this.
35 anni fa nasceva il World Wide Web: il primo sito web della storia
Ecco! Il 20 dicembre 1990, qualcosa di epocale successe al CERN di Ginevra.
Tim Berners-Lee, un genio dell’informatica britannico, diede vita al primo sito web della storia. Si tratta di info.cern.ch, creato con l’obiettivo di aiutare gli scienziati a condividere informazioni.
Era un progetto ambizioso, nato per facilitare la vita a ricercatori di tutto il mondo. Il suo obiettivo? Far dialogare scienziati e studiosi di paesi e istituzioni diverse. Inizialmente, solo gli addetti ai lavori del CERN potevano accedervi per poi aprire le porte al grande pubblico il successivo 6 agosto 1991.
Era un momento storico anche se molti all’interno del CERN non comprendevano fino a fondo tale innovazione!
Quel sito era essenzialmente una guida su come utilizzare il World Wide Web. In pratica, spiegava come consultare documenti remoti e configurare nuovi server. Una roba da nerd, ma che fece la storia! Oggi, quel sito e quella macchina sono pezzi da collezione, un vero e proprio tesoro del web. E pensare che tutto iniziò con una semplice idea: condividere informazioni. Che potenza non è vero?
L’aspetto grafico rifletteva la filosofia che guidava il progetto. Sfondo chiaro, testo scuro e collegamenti ipertestuali essenziali: nessun elemento decorativo, nessuna immagine. Nella proposta originaria del World Wide Web, Berners-Lee aveva chiarito che la priorità non era la grafica, ma la leggibilità universale del testo, ritenuta fondamentale per garantire l’accesso al maggior numero possibile di utenti.
Un contesto tecnologico frammentato e lo standard
Alla fine degli anni Ottanta, Internet esisteva già, ma era uno strumento riservato quasi esclusivamente a contesti accademici, militari e scientifici.
Le informazioni erano distribuite su sistemi eterogenei e spesso incompatibili tra loro: mainframe, computer personali e reti proprietarie. Tutto questo era complesso! Non essendo presente uno standard, questo non consentiva uno scambio dei dati fluido e flessibile.
Al CERN questo problema era particolarmente evidente.
Migliaia di ricercatori producevano e consultavano documentazione tecnica, ma i contenuti restavano spesso confinati su macchine specifiche o richiedevano software dedicati per essere letti. Esistevano soluzioni parziali, come ARPANET o Usenet, e sistemi di navigazione strutturata come Gopher, sviluppato dall’Università del Minnesota, ma mancava ancora un modello realmente universale per l’accesso ai documenti.
Diffusione di Arpanet all’interno degli Stati Uniti D’America nel 1980
Le tre tecnologie alla base del Web
La proposta presentata da Berners-Lee nel 1989, intitolata “Information Management”, partiva da un’idea semplice: collegare documenti distribuiti su computer diversi attraverso una rete di rimandi ipertestuali. Tra il 1990 e la fine di quell’anno, questa visione prese forma concreta grazie allo sviluppo di tre elementi fondamentali.
Documento di proposta creato da Berners lee dal titolo Information Management”, dove proponeva uno standard per le comunicazioni di documenti nel web
Erano tre le soluzioni proposte da Berners Lee:
- La prima era l’HTML, un linguaggio di markup pensato per strutturare i contenuti testuali tramite elementi semplici come titoli, paragrafi e link.
- La seconda era l’URL, un sistema di indirizzamento univoco che permetteva di identificare in modo coerente ogni risorsa disponibile sul Web.
- La terza era il protocollo HTTP, incaricato di gestire lo scambio di informazioni tra il computer dell’utente e il server che ospitava i contenuti.
Il primo sito della storia. La pagina così come si mostrava all’interno del sotto dominio info.cern.ch messo online il 20 dicembre del 1990
Queste tecnologie, ancora oggi risultano alla base della navigazione online, vennero sviluppate su un computer NeXT, una workstation prodotta dall’azienda fondata da Steve Jobs dopo l’uscita da Apple. Su quella macchina Berners-Lee realizzò anche il primo browser della storia, inizialmente chiamato WorldWideWeb e successivamente rinominato Nexus.
Computer NEXT dove venne sviluppato il primo sito della storia (fonte CERN)
Il primo browser e il primo server
Il browser originario aveva una caratteristica oggi quasi scomparsa: non serviva solo a visualizzare le pagine, ma consentiva anche di modificarle e crearne di nuove.
Il concetto di Web che si delineava era quello di un ambiente interattivo, dove gli utenti avevano la possibilità di partecipare attivamente alla creazione dei contenuti. Tuttavia, con l’avvento degli interessi commerciali, questa visione iniziale del web venne gradualmente accantonata, man mano che il business prese il sopravvento.
Lo stesso computer NeXT svolgeva anche il ruolo di primo server web al mondo. Per evitare spegnimenti accidentali, sulla macchina era stato apposto un avviso scritto a mano che invitava esplicitamente a non interromperne l’alimentazione, poiché farlo avrebbe significato rendere irraggiungibile l’intero World Wide Web.
Targhetta adesiva sul primo server web della storia che riportava di non spegnere la macchina
Dal CERN al pubblico globale
Per alcuni anni il Web rimase uno strumento utilizzato prevalentemente da fisici e ricercatori.
La svolta arrivò il 30 aprile 1993, quando il CERN decise di rendere il World Wide Web una tecnologia di pubblico dominio, rinunciando a qualsiasi diritto di sfruttamento commerciale. Questa scelta impedì la nascita di monopoli e favorì la diffusione libera degli standard.
Nello stesso periodo comparvero i primi browser grafici destinati a un pubblico più ampio. Tra questi, Mosaic, sviluppato nel 1993 dal National Center for Supercomputing Applications dell’Università dell’Illinois, introdusse la possibilità di visualizzare immagini integrate nel testo, trasformando il Web in un ambiente più accessibile e visivamente coinvolgente.
Come si mostrava il browser Mosaic nel 1993. Rispetto al browser di berners Lee introduceva la visualizzazione delle immagini all’interno dell’ipertesto.
Dalle prime pagine al Web moderno
Oggi il Web conta miliardi di pagine e centinaia di milioni di domini, ma le sue origini restano legate a quell’insieme di documenti essenziali pubblicati al CERN, oltre che a delle intuizioni che veniva qualche anno prima dal prodigio della tecnologia di Douglas Engelbart (inventore appunto dell’ipertesto e del mouse).
Nel corso degli anni Novanta la tecnologia era pronta per tutto questo, e iniziarono ad apparire i primi servizi e siti di rilievo: nel 1993 nacque Aliweb, considerato il primo motore di ricerca, mentre nel 1994 organizzazioni come Amnesty International e aziende come Pizza Hut avviarono le loro prime presenze online.
Nel 2013 il CERN ha ripristinato l’indirizzo originale del primo sito web, rendendolo nuovamente accessibile in una versione semplificata. Un archivio che non rappresenta solo un documento storico, ma la testimonianza concreta dell’inizio di una trasformazione tecnologica che ha ridefinito il modo in cui l’umanità produce, condivide e accede alle informazioni.
Tutto nasce dalla “Mothers Of All Demos”
Le fondamenta concettuali del World Wide Web affondano le radici ben prima del lavoro di Tim Berners-Lee al CERN. Un passaggio chiave risale al 9 dicembre 1968, quando Douglas Engelbart presentò a San Francisco la celebre “Mother of All Demos”. In quella dimostrazione pubblica, Engelbart mostrò una visione dell’informatica radicalmente nuova, incentrata sull’interazione uomo-macchina e sulla possibilità di usare i computer come strumenti per amplificare l’intelligenza collettiva.
Douglas Engelbart durante la “Mothers of all demos” mentre sta mostrando l’invenzione del mouse. Era il 9 dicembre 1968 al San Francisco’s Civic Auditorium.
Durante quella dimostrazione, Engelbart introdusse il suo oN-Line System (NLS), un ambiente di lavoro che integrava funzioni allora rivoluzionarie: collegamenti ipertestuali tra documenti, editing collaborativo in tempo reale, navigazione non lineare delle informazioni, finestre su schermo e comunicazione a distanza. Concetti che oggi appaiono scontati vennero presentati quando i computer erano ancora strumenti chiusi, utilizzati principalmente per il calcolo e riservati a pochi specialisti.
Douglas Engelbart’s oN-Line System (NLS): la workstation mostrata durante la Mother of All Demos del 1968, con tastiera, mouse e line processor, che introdusse concetti rivoluzionari come ipertesto, interazione grafica e collaborazione uomo-macchina.
Il genio di Engelbart non si limitò all’intuizione tecnica. La sua forza fu soprattutto la capacità di immaginare un sistema complesso, aperto e interconnesso, che richiedeva necessariamente il contributo di una comunità di ingegneri, ricercatori e sviluppatori per diventare realtà. Le idee mostrate nella Mother of All Demos non erano prodotti finiti, ma visioni operative che aprirono la strada a decenni di lavoro collettivo per essere tradotte in tecnologie concrete, scalabili e utilizzabili su larga scala.
In questa prospettiva si inserisce il contributo di Tim Berners-Lee, che tra la fine degli anni Ottanta e l’inizio dei Novanta riuscì a portare “a terra” molte di quelle intuizioni, adattandole a una rete globale come Internet. Il World Wide Web può essere letto come la sintesi pragmatica di quelle idee pionieristiche: l’ipertesto, la navigazione associativa e l’accesso distribuito all’informazione, trasformati in standard semplici, aperti e universali. Una continuità storica che collega direttamente la visione di Engelbart al Web che conosciamo oggi.
Corridoio del CERN di Ginevra, dove è presente la targa storica di dove il web è nato.
L'articolo 35 anni fa nasceva il World Wide Web: il primo sito web della storia proviene da Red Hot Cyber.
Matteo Brunati reshared this.
ATM sotto tiro! 54 arresti in una gang che svuotava i bancomat con i malware
Una giuria federale del Distretto del Nebraska ha incriminato complessivamente 54 persone accusate di aver preso parte a una vasta operazione criminale basata sull’uso di malware per sottrarre milioni di dollari dagli sportelli automatici statunitensi. L’indagine riguarda attività di cosiddetto “ATM jackpotting”, una tecnica che consente di forzare l’erogazione di contante dagli sportelli bancomat senza l’uso di carte o codici legittimi.
L’annuncio è stato diffuso giovedì 18 dicembre 2025 dall’Ufficio del Procuratore degli Stati Uniti per il Distretto del Nebraska. Secondo quanto riferito, le attività contestate sarebbero riconducibili al Tren de Aragua (TdA), organizzazione criminale transnazionale di origine venezuelana, designata come organizzazione terroristica straniera.
Un primo atto di accusa, emesso il 9 dicembre 2025, coinvolge 22 imputati e comprende capi d’imputazione per cospirazione finalizzata al sostegno materiale a un’organizzazione terroristica, frode bancaria, furto con scasso, reati informatici e riciclaggio di denaro. Le autorità ritengono che i proventi ottenuti attraverso il jackpotting siano stati redistribuiti tra membri e affiliati del gruppo per occultarne l’origine illecita.
Tra le persone citate figura Jimena Romina Araya Navarro, artista venezuelana indicata come esponente di vertice del Tren de Aragua e già sanzionata dall’Office of Foreign Assets Control (OFAC) del Dipartimento del Tesoro statunitense. Secondo le informazioni diffuse dall’OFAC, Araya Navarro avrebbe agevolato nel 2012 la fuga dal carcere di Tocorón di Hector Rusthenford Guerrero Flores, noto come “Niño Guerrero”, ritenuto il leader storico del gruppo. L’imputata è stata formalmente accusata di sostegno materiale al Tren de Aragua in relazione al sistema di jackpotting, che avrebbe colpito anche numerosi sportelli automatici situati nello Stato del Nebraska. In più occasioni, Araya Navarro sarebbe stata fotografata in contesti pubblici insieme a Guerrero Flores.
Un secondo atto di accusa, depositato il 21 ottobre 2025, riguarda ulteriori 32 persone e comprende 56 capi d’imputazione complessivi. Tra questi figurano accuse di frode bancaria, furto con scasso, danneggiamento di sistemi informatici e frode informatica, con numerosi episodi contestati su scala nazionale.
In caso di condanna, le pene detentive previste per gli imputati variano da un minimo di 20 anni fino a un massimo complessivo di 335 anni di reclusione, a seconda delle responsabilità individuali.
Secondo il Dipartimento di Giustizia, i gruppi coinvolti avrebbero operato con modalità strutturate e ripetute. Le squadre si spostavano in più veicoli, effettuavano sopralluoghi presso banche e cooperative di credito, analizzavano i sistemi di sicurezza e, dopo essersi assicurate di non aver attivato allarmi, procedevano alla manomissione fisica degli sportelli automatici. Il malware veniva installato rimuovendo o sostituendo il disco rigido del bancomat, oppure collegando dispositivi esterni come chiavette USB.
La variante utilizzata, identificata come Ploutus, consentiva l’invio di comandi non autorizzati al modulo di erogazione del contante, forzando l’uscita di denaro. Il software era inoltre progettato per cancellare le tracce della propria presenza, con l’obiettivo di ritardare l’individuazione dell’attacco da parte degli istituti finanziari. I profitti ottenuti venivano successivamente suddivisi secondo percentuali prestabilite.
Le indagini hanno documentato episodi di jackpotting in numerosi Stati americani. Le autorità hanno inoltre ricostruito una mappa geografica degli attacchi e stimato, aggiornando i dati ad agosto 2025, perdite complessive per diversi milioni di dollari.
Il Tren de Aragua, secondo i documenti giudiziari, nasce come banda carceraria in Venezuela a metà degli anni Duemila e si è progressivamente trasformato in un’organizzazione criminale transnazionale con ramificazioni in tutto l’emisfero occidentale. Le attività attribuite al gruppo spaziano dal traffico di droga e armi al sequestro di persona, dallo sfruttamento sessuale alle estorsioni, fino a omicidi e aggressioni. Negli ultimi anni, le autorità statunitensi ritengono che il gruppo abbia intensificato anche i reati finanziari, individuando nel jackpotting una fonte di entrate particolarmente redditizia.
Nel solo 2025, il Distretto del Nebraska ha incriminato complessivamente 67 membri e dirigenti del Tren de Aragua per una vasta gamma di reati federali, tra cui sostegno a organizzazione terroristica straniera, traffico sessuale di minori, frode bancaria, riciclaggio di denaro e accesso non autorizzato a sistemi informatici protetti.
L’operazione rientra nelle attività della Homeland Security Task Force (HSTF), istituita in base all’Ordine Esecutivo 14159, con l’obiettivo di contrastare cartelli criminali, bande straniere e reti di traffico di esseri umani attive negli Stati Uniti e all’estero. La task force opera attraverso una cooperazione interagenzia che coinvolge numerosi uffici federali, statali e locali.
Le indagini sono state coordinate dall’FBI e dalla Homeland Security Investigations di Omaha, con il supporto di numerosi uffici dell’FBI sul territorio nazionale, del Dipartimento di Giustizia e di un ampio numero di agenzie di polizia e autorità investigative statunitensi.
Come previsto dalla legge, tutte le persone incriminate sono da considerarsi presunte innocenti fino a eventuale condanna definitiva da parte di un tribunale.
L'articolo ATM sotto tiro! 54 arresti in una gang che svuotava i bancomat con i malware proviene da Red Hot Cyber.
Curtis Yarvin: quando il problema non è la democrazia, ma l’ipocrisia del potere digitale
Curtis Yarvin non è un hacker, non è un criminale informatico e non è nemmeno, in senso stretto, un esperto di cybersecurity. Eppure il suo pensiero dovrebbe interessare molto più di quanto faccia oggi chi si occupa di sicurezza, governance digitale e resilienza dei sistemi complessi. Perché Yarvin non parla di firewall o ransomware, ma di chi comanda davvero. E soprattutto di perché il sistema che difendiamo ogni giorno potrebbe essere già rotto alla radice.
Conosciuto online con lo pseudonimo di Mencius Moldbug, Yarvin è un ex programmatore, imprenditore tech e autore del blog Unqualified Reservations, una lettura che definire indigesta è un complimento.
Il suo assunto di partenza è semplice, brutale e per questo pericoloso: la democrazia liberale occidentale non governa più nulla. O meglio, governa solo in apparenza. Il potere reale, secondo Yarvin, non risiede nei parlamenti, ma in una struttura informale e autoreferenziale composta da media, accademia, burocrazia e apparati tecnici. Una rete che lui chiama “la Cattedrale”.
La Cattedrale non impone leggi, ma definisce il perimetro del pensabile. Decide quali idee sono legittime, quali sono “pericolose”, quali vanno silenziate. Non serve la censura esplicita quando il controllo è culturale. Un concetto che, a chi lavora nel mondo cyber, suona tremendamente familiare: controllo senza visibilità, governance senza accountability, potere senza responsabilità.
Da qui Yarvin fa un salto che molti considerano inaccettabile, ma che lui reputa semplicemente logico. Se la democrazia è una finzione e il potere è già concentrato, allora tanto vale smettere di fingere. Meglio un potere esplicito, centralizzato, responsabile, dichiarato. Meglio un sistema autoritario efficiente che una democrazia inefficiente e ipocrita. Nasce così la sua idea più controversa: il neo-cameralismo, ovvero Stati gestiti come aziende, con un CEO al comando e cittadini ridotti ad azionisti o utenti.
Qui il lettore medio si ferma, inorridito. Ma chi lavora nella sicurezza dovrebbe andare avanti. Perché, tolta la provocazione politica, Yarvin sta descrivendo esattamente il modello operativo delle big tech. Piattaforme private che governano spazi pubblici, prendono decisioni sovrane, applicano regole, sanzioni e algoritmi senza alcun processo democratico. Meta, Google, Amazon, Microsoft: non votiamo i loro board, ma subiamo le loro policy. Non eleggiamo i loro CEO, ma le loro scelte impattano diritti, economia, informazione e sicurezza nazionale.
La domanda scomoda non è se Yarvin abbia ragione nelle soluzioni. La domanda vera è se non abbia già ragione nella diagnosi.
Nel mondo cyber parliamo ossessivamente di attacchi, ma molto meno di chi controlla l’infrastruttura che difendiamo. Parliamo di sovranità digitale mentre deleghiamo tutto al cloud. Parliamo di resilienza mentre concentriamo il potere tecnologico in pochissime mani. Parliamo di democrazia digitale mentre accettiamo sistemi opachi, algoritmici, non auditabili. In questo contesto, Yarvin non è un profeta, è uno specchio che non vogliamo guardare.
Ovviamente le sue idee sono pericolose. Lo sono perché giustificano l’autoritarismo, riducono i diritti a variabili di sistema e trattano l’essere umano come una componente sacrificabile dell’efficienza. Ma sarebbe un errore liquidarlo come un pazzo o un reazionario nostalgico. Yarvin è figlio diretto della cultura tech, non il suo opposto. È il pensiero di Silicon Valley portato alle estreme conseguenze, senza marketing e senza storytelling etico.
Ed è qui che il mondo della cybersecurity dovrebbe fermarsi un attimo. Perché se la sicurezza serve a proteggere sistemi, dati e persone, allora dobbiamo chiederci quale sistema stiamo davvero proteggendo. Una democrazia formale svuotata? Un’infrastruttura governata da privati? Un modello in cui il controllo è già centralizzato, ma senza le responsabilità che Yarvin, paradossalmente, pretende?
Yarvin non offre soluzioni accettabili. Ma pone una domanda che nel nostro settore è diventata urgente: la sicurezza senza governance è solo manutenzione del potere altrui. E forse il vero rischio non è che le sue idee vengano applicate, ma che stiamo già vivendo in un mondo che funziona come lui descrive, fingendo che sia ancora una democrazia.
E questo, per chi fa cybersecurity, dovrebbe far molto più paura di qualsiasi ransomware.
L'articolo Curtis Yarvin: quando il problema non è la democrazia, ma l’ipocrisia del potere digitale proviene da Red Hot Cyber.
ASSURDO. IL GARANTE. L’ARTICOLO 11. BELGRADO.
Il Presidente della Repubblica ci spiega che le spese militari sono “poco popolari ma MAI COSÌ NECESSARIE”.
Ce lo dice dal Quirinale, con tono grave, parlando di “deterrenza”, “difesa collettiva”, “sicurezza europea indivisibile”.
Peccato che a dirlo sia il CUSTODE della Costituzione.
Quella che all’Art. 11 dice una cosa chiarissima: L’ITALIA RIPUDIA LA GUERRA.
Non la “gestisce meglio”. Non la “deterrentizza”. La RIPUDIA.
E qui il corto circuito è totale.
Perché se la democrazia è “sfidata da involuzioni autoritarie”, come dice Mattarella, allora qualcuno dovrebbe spiegare perché la risposta automatica è SEMPRE PIÙ ARMI, SEMPRE PIÙ SPESA MILITARE, SEMPRE MENO POLITICA.
Belgrado, 1999.
Bombardata per 78 giorni senza mandato ONU.
Anche allora si parlava di “difesa dei valori”, “diritti”, “sicurezza”.
Anche allora la democrazia veniva “salvata” a colpi di missili.
Il punto non è la dialettica politica.
Il punto è che qui si sta NORMALIZZANDO l’idea che la guerra sia uno STRUMENTO ORDINARIO di governo del mondo.
E che chi lo dice non è un generale, ma il GARANTE della Carta che dovrebbe impedirlo.
Quando la Costituzione diventa un orpello retorico da citare solo il 2 giugno,
e l’Articolo 11 un fastidio da reinterpretare,
non è la democrazia a essere “sfidata”.
È GIÀ STATA PIEGATA.
Ma tranquilli.
È per il nostro bene.
E se non capiamo, è perché siamo “poco popolari”.
Don Chisciotte 😉
(putinista, ovviamente)
Dipiazza, sindaco di Treviso di Forza Italia, ad una consigliera dell'opposizione:
«Non mi sono mai fatto comandare da una donna»
E per difendersi dalle accuse di sessismo:
Dipiazza ci ha anche tenuto a precisare che «le donne sono il più bel regalo che il buon Dio ci ha dato. Sono un estimatore e ho sempre avuto grande successo».
Questi giocano proprio in un altro campionato c'è poco da fare...
Poliversity - Università ricerca e giornalismo reshared this.
Reverse-Engineering the Intel 8087 Stack Circuitry
Although something that’s taken for granted these days, the ability to perform floating-point operations in hardware was, for the longest time, something reserved for people with big wallets. This began to change around the time that Intel released the 8087 FPU coprocessor in 1980, featuring hardware support for floating-point arithmetic at a blistering 50 KFLOPS. Notably, the 8087 uses a stack-based architecture, a major departure from existing FPUs. Recently [Ken Shirriff] took a literal closer look at this stack circuitry to see what it looks like and how it works.
Nearly half of the 8087’s die is taken up by the microcode frontend and bus controller, with a block containing constants like π alongside the FP calculation-processing datapath section taking up much of the rest. Nestled along the side are the eight registers and the stack controller. At 80 bits per FP number, the required registers and related were pretty sizeable for the era, especially when you consider that the roughly 60,000 transistors in the 8087 were paired alongside the 29,000 transistors in the 16-bit 8086.
Each of the 8087’s registers is selected by the decoded instructions via a lot of wiring that can still be fairly easily traced despite the FPU’s die being larger than the CPU it accompanied. As for the unique stack-based register approach, this turned out to be mostly a hindrance, and the reason why the x87 FP instructions in the x86 ISA are still quite maligned today. Yet with careful use, providing a big boost over traditional code, this made it a success by that benchmark, even if MMX, SSE, and others reverted to a stackless design.
Sachsen: Sogar dem Koalitionspartner ist dieses Polizeigesetz zu hart
Improving the Cloud Chamber
Want to visualize radioactive particles? You don’t need a boatload of lab equipment. Just a cloud chamber. And [Curious Scientist] is showing off an improved miniature cloud chamber that is easy to replicate using a 3D printer and common components.
The build uses a Peltier module, a CPU cooler, an aluminum plate, thermal paste, and headlight film. The high voltage comes from a sacrificed mosquito swatter. The power input for the whole system is any 12V supply.
The cloud chamber was high tech back in 1911 when physicist Charles T. R. Wilson made ionizing radiation visible by creating trails of tiny liquid droplets in a supersaturated vapor of alcohol or water. Charged particles pass through, leaving visible condensation trails.
According to the post, the cost of everything is under $100. He hasn’t made the 3D printed parts freely available, but there are enough pictures that you can probably work it out yourself. Besides, you’d almost certainly have to rework it for your particular jar, anyway.
After all, a cloud chamber’s construction isn’t a state secret. We’ve seen some fancy Peltier-based designs. If you manage your expectations, you can build one for even less using a plastic bottle and ingenuity.
915 MHz Forecast: Rolling Your Own Offline Weather Station
There are a lot of options for local weather stations; most of them, however, are sensors tied to a base station, often requiring an internet connection to access all features. [Vinnie] over at vinthewrench has published his exploration into an off-grid weather station revolving around a Raspberry Pi and an RTL-SDR for communications.
The weather station has several aspects to it. The main sensor package [Vinnie] settled on was the Ecowitt WS90, capable of measuring wind speed, wind direction, temperature, humidity, light, UVI, and rain amount. The WS90 communicates at 915 MHz, which can be read using the rtl_433 project. The WS90 is also available for purchase as a standalone sensor, allowing [Vinnie] to implement his own base station.
For the base station, [Vinnie] uses a weatherproof enclosure that houses a 12V battery with charger to act as a local UPS. This powers the brains of the operation: a Raspberry Pi. Hooked to the Pi is an RTL-SDR with a 915 MHz antenna. The Pi receives an update from the WS90 roughly every 5 seconds, which it can decode using the rtl_433 library. The Pi then turns that packet into structured JSON.
The JSON is fed into a weather model backend that handles keeping track of trends in the sensor data, as well as the health of the sensor station. The backend has an API that allows for a dashboard weather site for [Vinnie], no internet required.
Thanks, [Vinnie], for sending in your off-grid weather station project. Check out his site to read more about his process, and head over to the GitHub page to check out the technical details of his implementation. This is a great addition to some of the other DIY weather stations we’ve featured here.
Florida prosecutor agrees: Photography is not a crime
FOR IMMEDIATE RELEASE:
New York, Dec. 18, 2025 — Photojournalist Dave Decker was arrested in November while documenting a protest in Miami, Florida. A coalition of 23 press organizations spoke out against the charges — and this week the prosecutor agreed.
The following statement can be attributed to Adam Rose, deputy director of advocacy for Freedom of the Press Foundation (FPF):
“Journalists have a distinct role at protests. They are not participants, merely observers. A broad local and national coalition said this in unison, and we were glad to see all charges dropped against Dave Decker. Hats off to his attorneys, lawyers for the Florida State Attorney’s Office and the Miami-Dade Sheriff’s Office, and all the community groups who rallied to his side.“At the same time, that’s a lot of people who had to work on something entirely preventable. I hope law enforcement officers take this to heart: Swearing an oath to protect the community means protecting everyone — including press. This is an opportunity for agencies like the sheriff’s office and Florida Highway Patrol to take proactive steps and review training approaches. Freedom of the Press Foundation is happy to help.
“And of course, it would be nice to see an apology to Dave and an offer to fix any of his equipment they damaged.”
Read the coalition’s letter:
freedom.press/static/pdf.js/we…
Please contact us if you would like further comment.
Cheap 3D Printer Becomes CNC Wood Engraver
3D printers are built for additive manufacturing. However, at heart, they are really just simple CNC motion platforms, and can be readily repurposed to other tasks. As [Arseniy] demonstrates, it’s not that hard to take a cheap 3D printer and turn it into a viable wood engraver.
The first attempt involved a simple experiment—heating the 3D printer nozzle, and moving it into contact with a piece of wood to see if it could successfully leave a mark. This worked well, producing results very similar to a cheap laser engraving machine. From there, [Arseniy] set about fixing the wood with some simple 3D-printed clamps so it wouldn’t move during more complex burning/engraving tasks. He also figured out a neat trick to simply calibrate the right Z height for wood burning by using the built in calibration routines. Further experiments involved developing a tool for creating quality G-Code for these engraving tasks, and even using the same techniques on leather with great success.
If you need to mark some patterns on wood and you already have a 3D printer, this could be a great way to go. [Arseniy] used it to great effect in the production of a plywood dance pad. We’ve featured some other great engraver builds over the years, too, including this innovative laser-based project. Video after the break.
youtube.com/embed/WcHOnkO5-Sg?…
Decapsulating a PIC12F683 to Examine Its CMOS Implementation
In a recent video, [Andrew Zonenberg] takes us through the process of decapsulating a PIC12F683 to take a peak at its CMOS implementation.
This is a multipart series with five parts done and more to come. The PIC12F683 is an 8-pin flash-based, 8-bit microcontroller from Microchip. [Andrew] picked the PIC12F683 for decapsulation because back in 2011 it was the first microcontroller he broke read-protection on and he wanted to go back and revisit this chip, given particularly that his resources and skills had advanced in the intervening period.
The five videos are a tour de force. He begins by taking a package cross section, then decapsulating and delayering. He collects high-resolution photos as he goes along. In the process, he takes some time to explain the dangers of working with acid and the risk mitigations he has in place. Then he does what he calls a “floorplan analysis” which takes stock of the entire chip before taking a close look at the SRAM implementation.
If you’re interested in decapsulating integrated circuits you might want to take a look at Laser Fault Injection, Now With Optional Decapping, A Particularly Festive Chip Decapping, or even read through the transcript of the Decapping Components Hack Chat With John McMaster.
youtube.com/embed/videoseries?…
Thanks to [Peter Monta] for the tip.
Un bambino, una mutazione, un algoritmo: così l’AI ha sconfitto una malattia mortale
Solo un anno fa, i medici non potevano dire con certezza se KJ Muldoon sarebbe sopravvissuto al suo primo anno di vita. Oggi sta muovendo i primi passi a casa, con la sua famiglia al suo fianco.
Questa svolta è stata resa possibile da una soluzione medica che fino a poco tempo fa era solo teorica: la terapia genica personalizzata basata sulla tecnologia CRISPR, sviluppata specificamente per ogni paziente.
E tutto quanto si basa su modelli di intelligenza artificiale che consentono di effettuare quello che si chiama “Editing Genetico”.
Editing Genetico Personalizzato. L’AI che ci piace
Prima di parlare di questa storia, vogliamo spiegare cos’è il CRISPR, acronimo di Clustered Regularly Interspaced Short Palindromic Repeats: una tecnologia di editing genetico derivata da un meccanismo di difesa naturale dei batteri contro i virus. In pratica, CRISPR funziona come un sistema di taglio e correzione del DNA: una proteina (come Cas9) viene guidata verso un punto preciso del genoma, dove può tagliare una sequenza difettosa e permettere alla cellula di ripararla o sostituirla con una versione corretta. Questo approccio consente di intervenire direttamente sulla causa genetica di una malattia, rendendo possibile una medicina di precisione che non si limita a curare i sintomi, ma modifica l’origine stessa del problema.
L’intelligenza artificiale è uno degli elementi chiave che rende possibile l’editing genetico personalizzato. Prima ancora che CRISPR venga utilizzato, l’AI analizza enormi quantità di dati genomici per identificare con precisione la mutazione responsabile della malattia, distinguendo gli errori critici da variazioni genetiche innocue. In tempi estremamente ridotti, gli algoritmi confrontano il DNA del paziente con database globali, simulano gli effetti delle modifiche e aiutano a progettare le sequenze guida di CRISPR più efficaci, riducendo al minimo il rischio di interventi fuori bersaglio. Senza questo livello di analisi automatizzata, una terapia costruita su misura per un singolo bambino sarebbe semplicemente impraticabile.
Il contributo dell’AI non si ferma alla progettazione della terapia. I modelli predittivi vengono utilizzati per stimare la sicurezza dell’intervento, definire il dosaggio più appropriato e prevedere come l’organismo potrebbe reagire nel tempo. Dopo il trattamento, l’AI supporta il monitoraggio clinico continuo, aiutando i medici a interpretare i dati biologici e a individuare precocemente eventuali segnali di rischio. In questo contesto, l’intelligenza artificiale non sostituisce i medici, ma diventa uno strumento decisivo per trasformare una cura sperimentale in una reale possibilità di vita.
L’Editing genetico e la malattia di KJ
All’inizio dell’anno, i medici del Children’s Hospital di Philadelphia hanno somministrato un trattamento che all’epoca non aveva equivalenti clinici. Hanno creato un editing genomico personalizzato per KJ, mirato a una rara malattia metabolica congenita. Tali disturbi derivano da difetti nei geni responsabili di processi biochimici chiave. Nei neonati, spesso portano a gravi complicazioni e, in alcuni casi, sono fatali nei primi mesi di vita.
KJ è stata la prima persona a ricevere una terapia genica progettata non per un gruppo di pazienti, ma per una mutazione specifica in un singolo bambino. Prima del trattamento, la sua vita veniva trascorsa quasi interamente nei reparti ospedalieri, sotto costante osservazione e monitoraggio 24 ore su 24. Dopo l’intervento, le condizioni del bambino si sono stabilizzate al punto che i medici sono stati in grado di interrompere gradualmente il monitoraggio continuo e prepararlo alle dimissioni.
KJ ha trascorso i primi dieci mesi di vita in ospedale. Solo a giugno è tornato a casa per la prima volta. Da quel momento in poi, il suo sviluppo ha preso una direzione che in precedenza sembrava improbabile. Ha iniziato ad aumentare di peso, ad acquisire competenze appropriate all’età e a raggiungere gradualmente traguardi precoci dello sviluppo che in precedenza erano rimasti incerti.
I cambiamenti non si sono limitati alle condizioni mediche. Per la famiglia, questo ha significato un ritorno a una vita quotidiana che prima potevano solo sognare. Ad agosto, KJ ha festeggiato il suo primo compleanno fuori dall’ospedale, in netto contrasto con l’anno precedente, quando ogni giorno trascorreva sotto la supervisione di medici e attrezzature. Ora sta imparando a camminare, continuando ad acquisire nuove competenze e si avvicina il suo primo Natale a casa. Un anno fa, quella festa si è svolta in una stanza d’ospedale.
Una vita salvata e un futuro promettente per la medicina
I medici sottolineano che l’obiettivo della terapia andava ben oltre la sopravvivenza. Non si trattava solo di stabilizzare le condizioni del bambino, ma anche di dargli la possibilità di vivere un’infanzia senza la costante dipendenza da procedure e apparecchiature mediche.
Il lavoro su questo approccio non si è fermato a un solo caso. Il Programma di Terapia Genica per le Malattie Metaboliche Ereditarie presso il Children’s Hospital di Philadelphia è guidato da Rebecca Ahrens-Niklas. Continua a collaborare con Kiran Musunuru dell’Università della Pennsylvania. Insieme, stanno lavorando per adattare il metodo utilizzato nel caso di KJ ad altri bambini con diagnosi simili.
Il programma si concentra sui difetti congeniti del metabolismo, un gruppo di malattie in cui difetti genetici interrompono il funzionamento di vie chimiche vitali nell’organismo. Per molte di queste patologie non esiste un trattamento efficace e la cura è limitata alla gestione per tutta la vita. I ricercatori stanno studiando, in particolare, i disturbi del ciclo dell’urea, le acidemie organiche e i disturbi dell’ossidazione degli acidi grassi. Ognuna di queste condizioni ha le sue caratteristiche genetiche e biochimiche, quindi non esiste una soluzione unica per tutti.
L’esperienza di trattamento di KJ è servita da punto di partenza per i team di ricerca. La sua risposta alla terapia ha fornito dati importanti sul dosaggio, sulla sicurezza dell’intervento e sulla necessità di un monitoraggio a lungo termine. Queste informazioni sono già utilizzate per sviluppare futuri programmi di trattamento individualizzati.
Regolamentazione delle AI e dei trattamenti personalizzati
Il caso di KJ ha sollevato anche una questione più ampia: come regolamentare i trattamenti progettati per un singolo paziente. Tali interventi non rientrano nei tipici percorsi di approvazione dei farmaci, che si basano su studi clinici su larga scala. In questo caso, la terapia è stata sviluppata, testata e implementata in tempi brevi, sulla base di una situazione medica unica.
Per le famiglie affette da malattie metaboliche rare , la storia di KJ è diventata una cauta fonte di speranza. Dimostra che gli sforzi coordinati tra medici, scienziati e autorità di regolamentazione possono cambiare i risultati anche in casi in cui in precedenza non esistevano soluzioni.
L'articolo Un bambino, una mutazione, un algoritmo: così l’AI ha sconfitto una malattia mortale proviene da Red Hot Cyber.
reshared this
Covering protests is a dangerous job for journalists
Dear Friend of Press Freedom,
Rümeysa Öztürk has been facing deportation for 268 days for co-writing an op-ed the government didn’t like, and journalist Ya’akub Vijandre remains locked up by Immigration and Customs Enforcement over social media posts about issues he reported on.
Join us today and Dec. 21 in New York City for two special screenings of the Oscar-shortlisted film “Cover-Up” by Laura Poitras — an FPF founding board member — and Mark Obenhaus.
Read on for more on what we’re working on this week. We’ll be back in the new year.
Covering protests is a dangerous job for journalists
As of Dec. 15, the U.S. Press Freedom Tracker has documented 32 detainments or charges against journalists in the U.S. — 28 of those at immigration-related protests — according to a new report released by the Freedom of Press Foundation (FPF) project this week.
The report notes how, unlike most years, the majority of journalists were released without charges or had them soon dropped, with law enforcement instead focusing on deterring news gathering rather than pursuing charges.
Stop the deportation of Heng Guan
Use our action center to tell lawmakers to stop the Trump administration from deporting Heng Guan, who helped journalists expose the horrors of Uyghur prison camps in Xinjiang, China. He’s exactly the kind of person asylum laws are intended to protect.
The next hearing in Guan’s case is Jan. 12. He could be sent to Uganda, placing him at risk of being shipped back to China, where, according to his mother, he’d likely be killed.
Sign Up. Take Action.
Join our email list to stay up to date on the issues and learn how you can help protect journalists and sources everywhere.
Full Name Email Address Subscribe See all newsletters Go to mailing list subscription page
Thanks for signing up for our newsletter. You are not yet subscribed! Please check your email for a message asking you to confirm your subscription.
The FCC’s declaration of dependence
Federal Communications Commission Chair Brendan Carr admitted at a Senate hearing on Wednesday that there had been a political “sea change” and he no longer viewed the FCC as an independent agency.
FPF Director of Advocacy Seth Stern wrote for The Guardian that Carr’s admission proves the danger of letting a self-proclaimed partisan weaponize the FCC’s public interest standard to grant himself amorphous censorship powers. “Carr avoids ever articulating his vision of public-interest news, forcing anyone seeking to avoid his ire to play ‘Whac-A-Mole.’ … The only discernible rule of Carr’s FCC is ’don’t piss off Trump’.”
Trump’s BBC lawsuit is nonsense, like his others
President Donald Trump on Monday followed through on his threats to sue the BBC over its editing of his remarks on Jan. 6, 2021, for a documentary.
“If any ordinary person filed as many frivolous multibillion-dollar lawsuits as Donald Trump, they’d be sanctioned and placed on a restricted filers list,” FPF said in a statement, noting that Trump has demanded a total of $65 billion in damages from media outlets since taking office.
Under First Amendment, Diddy ‘can’t stop, won’t stop’ Netflix documentary
Sean “Diddy” Combs is threatening to sue Netflix for airing a docuseries that is, to say the least, unflattering to him. The disgraced music mogul’s cease-and-desist letter claims the series, “Sean Combs: The Reckoning,” uses “stolen footage.”
Stern wrote for Rolling Stone about why Diddy’s threatened lawsuit would be a non-starter: the right to publish content that sources obtain illegally is well established. But a series of recent cases nonetheless puts that right under unprecedented attack.
Body camera footage is for the public
The town of Hamburg, New York, claims its police body camera footage is copyrighted despite being a public record. It’s telling people who request footage under New York’s Freedom of Information Law that they can’t share the footage with others.
That’s ridiculous, and we wrote a letter to the police chief telling him to stop the nonsense and tell anyone who has received these frivolous warnings that they’re free to share body camera footage as they see fit.
Ask Lauren anything
FPF Daniel Ellsberg Chair on Government Secrecy Lauren Harper joined fellow Freedom of Information Act experts Jason Leopold, Liz Hempowicz, and Kevin Bell to take questions about FOIA and the numerous ways that it’s broken. They teamed up for a Reddit “ask me anything” discussion this week.
Free screening of “Cover-Up”
To our New York audiences and documentary film buffs: FPF is proud to host a special screening tonight of the Oscar-shortlisted film “Cover-Up” by award-winning directors Laura Poitras and Mark Obenhaus, followed by a Q&A moderated by our executive director, Trevor Timm. The film chronicles the career of legendary investigative journalist Seymour Hersh.
What we're reading
The Pentagon and the press
NPR
It’s shameful the Department of Defense is curtailing press access five decades after the Supreme Court’s Pentagon Papers ruling, Harper told NPR’s “1A.” Harper also joined “1A” to discuss how the Trump administration is enhancing its surveillance capabilities.
The US supreme court’s TikTok ruling is a scandal
The Guardian
That TikTok remains available “makes a mockery” of the government’s earlier national security claims that the platform was “an urgent national security risk – and of the court that deferred to those claims.”
How an AM radio station in California weathered the Trump administration’s assault on media
Associated Press
“‘Chilling effect’ does not begin to describe the neutering of our political coverage,” said one former KCBS journalist about the aftermath of Carr’s threats.
Defend the press: Brendan Carr has gone too far with attacks on media
Courier
Read the op-ed we co-wrote with partner organizations demanding the FCC recommit to the First Amendment.
Paramount’s Warner Bros Discovery bid faces conflict of interest concerns
Al Jazeera
Stern explained, “Throwing out the credibility of CNN and other Warner Bros Discovery holdings might benefit the Ellisons in their efforts to curry favour with Trump, but it’s not going to benefit anyone else, including shareholders.”
Europe’s Next Digital Frontier: Balancing Web 3.0 Innovation with Fundamental Rights
Evolution Of the Internet
Comparing the internet’s growth to Darwin’s theory of evolution helps explain how it has changed over time, with each stage adapting to the needs, behaviours, and technologies of its time.
The initial phase, known as Web 1 (spanning the 1990s to the early 2000s), was characterised by the internet’s primary function as an information dissemination tool. During this period, only site owners managed content, resulting in a read-only experience for users and a unidirectional flow of information similar to a digital brochure.
Tim O’Reilly introduced the term “Web 2.0” in 2004, marking a new era as mobile services expanded, broadband connectivity improved, and technologies such as AJAX and HTML5 emerged. The internet became interactive, enabling users to create, share, and engage with content without needing special skills. This change opened new ways for people to communicate and connect worldwide.
But as Web 2.0 grew, a few big companies gained significant power and control over data. They decided how information was shared, which voices were heard, and how personal data was handled. Algorithms control every piece of information and opinion. At the same time, many of these platforms rely on business models that depend on extensive data collection, with user behaviour fueling targeted advertising. While these services often appear free, the trade-off is a gradual loss of privacy, autonomy, and control over one’s digital presence.
Concerns about this central control, privacy, and reliance on these platforms led to the idea of a new kind of internet, now called Web 3.0.
What is Web 3.0?
The internet is now moving toward a more user-focused phase, where data ownership is decentralised. Web 3.0 uses technologies such as blockchain and the Semantic Web to return control of data and digital assets to users rather than large technology companies. This change aims to enhance the transparency, security, and personalisation of online experiences.
Key Characteristics of Web 3.0
1. Decentralisation
Control is shared across networks rather than held by a single company or authority. This means that people need not rely on centralised platforms as much.
2. User control over data and identity
Users have more control over their digital identities and personal data, rather than giving that control to platforms by default.
3. Reduced intermediaries
Web 3.0 aims to cut out intermediaries by enabling people to interact, share, and make transactions directly, without needing a central platform to manage these actions.
4. Transparency by design
Many Web 3.0 systems are designed to make rules, transactions, and changes open and verifiable, rather than hidden within private systems.
5. Permissionless participation
Anyone can participate without approval from a central authority, provided they comply with the network’s rules.
6. Resilience and censorship resistance
The distribution of data and services increases the difficulty for any single entity to shut down platforms or completely silence users.
People often use the term Web 3.0 to refer to technologies such as cryptocurrencies, tokens, or blockchain-based finance. However, the main features listed above also make Web 3.0 useful in many areas, including supply chain management, gaming and the metaverse, healthcare, content creation and social media, intellectual property, and digital identity.
How Does Web 3.0 Work – A Brief Sneak Peek
At its core, Web 3.0 changes how information is stored and managed. Instead of storing data on servers owned by a single company, information is distributed across networks. The action is cryptographically signed by the user, verified by multiple participants, and recorded in a shared ledger that is difficult to alter. This structure reduces reliance on central intermediaries and makes manipulation or data abuse more difficult, while shifting greater control and responsibility to users. Although the technology driving Web 3.0 is complex, the primary goal is simple: to give users greater control and responsibility.
Web 3.0: An Emerging, Yet Unsettled, Part of the EU’s Digital Vision
Freedom, Democracy, and Respect for human rights have been the core pillars of the European Union since its inception. These principles have been a centre of discussion whenever policies are framed, and the digital space is no exception. The European Union has signalled a clear willingness to invest in the development of Web 3.0-relevant technologies through official strategies, infrastructure development, and research funding. The European Union is actively shaping the digital world by protecting users, ensuring fair competition, and defending fundamental rights.
A Few Examples:
- The Commission’s blockchain and Web3 strategy outlines policy support, funding programmes, and legal frameworks to foster innovation in decentralised systems.
- Web 3.0-aligned technologies are being evaluated for identity and credential management and secure data exchange.
- EU funding programmes support projects on decentralised data, privacy-preserving technologies, and interoperability. (In recent times, 2016-2019, the EU invested 180 million Euros in a project called Horizon Europe, with grants expected to flow in the future as well)
Web 3.0 Is Still A probability, Not A Concrete Solution Yet.
However, the EU also values legal certainty, accountability, and consumer protection, which can be challenging to achieve in decentralised systems. As a result, the relationship between Web 3.0 and EU policy is still developing, reflecting both a willingness to innovate and a careful approach to potential risks. In this light, it is imperative to understand the complications and challenges associated with Web 3.0.
Challenges of Web 3.0:
- Still in its nascent stage, the technology underlying Web 3.0 is complex and not widely known. Concepts such as private keys, smart contracts, wallets, and decentralised storage are still largely unfamiliar and challenging for non-tech-savvy users.
- Centralised platforms outperform Web 3.0 due to easier user navigation. Influencing users to shift from a seamless platform to a complex option would require substantial investment in digital education and community building, as well as time.
- Beneath the layers of immutable privacy structures, due to a decentralised mechanism for data sharing and storage, technologies such as Web 3.0 lack accountability systems. In the absence of a centralised moderation mechanism, addressing harmful or illegal content, misinformation, and responding to abuse becomes challenging. Once the content is stored, its removal becomes nearly impossible.
- Protocols may be decentralised in theory, but small groups of developers or influential participants still influence many major decisions. This can recreate power imbalances similar to centralised platforms, undermining ideals of shared governance.
- Although Web 3.0 may be emerging as a technical solution to censorship, it is critical to understand that technology alone cannot address deeper social and political issues. Issues such as governance, community norms, power dynamics, and regulatory compliance require broader approaches beyond code.
- For less experienced users, the sole onus for online security, privacy, and data management, owing to greater control, could be overwhelming.
Looking ahead: between regulation and re-imagining
As Europe debates the future of its digital space, organisations such as European Digital Rights reiterate that technology alone does not secure freedom or fairness online. ERDi firmly believes that human rights, data protection, and democratic accountability should be the core of any discussion of new digital systems. From this perspective, Web 3.0 is neither a solution nor a threat in itself, but offers a new avenue of technological experimentation that must operate within existing legal frameworks and fundamental rights.
In the current political landscape, EU initiatives such as the Digital Services Act, the Digital Markets Act, and ongoing discussions around chat control and the Digital Omnibus reflect growing concern about platform dominance, surveillance, and the limits of the Web 2.0 model. These laws aim to correct structural harms through regulation, but also raise deeper questions about how digital infrastructures are designed and who ultimately holds power over them.
In this context, Web 3.0 can be seen as part of a broader conversation about decentralisation and user agency rather than a finished alternative. While its principles resonate with long-standing European Pirate values around privacy, autonomy, and resistance to excessive central control, decentralised technologies also risk creating new concentrations of power if left unchecked. EDRI’s cautious approach emphasises the need for civic interest control, civil society involvement, and robust safeguards.
The interaction between regulation and experimentation will likely shape Europe’s digital future. If approached critically and inclusively, discussions around Web 3.0 can help imagine an internet where innovation supports user rights, rather than undermining them.
This week, we discuss history repeating itself, a phone wipe scandal, Meta's relationship with links and more.
This week, we discuss history repeating itself, a phone wipe scandal, Metax27;s relationship with links and more.#BehindTheBlog
LaVi
in reply to Antonella Ferrari • • •Giornalismo e disordine informativo reshared this.