Wayland’s Never-Ending Opposition to Multi-Window Positioning
There are many applications out there that use more than one window, with every modern-day platform and GUI toolkit offering the means for said application to position each of its windows exactly where it wants, and to restore these exactly in the configuration and location where the user saved it for that particular session. All toolkits but one, that is, for the Wayland project keeps shooting down proposals. Most recently merge request #264 for the ext-zones protocol by [Matthias Klumpp] as it descended into a 600+ comments spree.
This follows on an attempt two years prior with MR#247, which was rejected despite laying out sound reasons why the session protocol of Wayland does not cover many situations. In the breakdown video of the new ext-zones protocol discussion by [Brodie Robertson] the sheer absurdity of this whole situation becomes apparent, especially since KDE and others are already working around the Wayland project with their own extensions such as via KWin, which is being used commercially in e.g. the automotive world.
In a January 2024 blog post [Matthias] lays out many of his reasonings and views regarding the topic, with a focus on Linux desktop application usage from a scientific application perspective. When porting a Windows-, X11- or MacOS application to Wayland runs into compatibility issues that may necessitate a complete rewrite or dropping of features, the developer is more likely to stick to X11, to not port to Linux at all, or to use what eventually will amount to Wayland forks that patch around these missing API features.
Meanwhile X11 is definitely getting very long in the tooth, yet without it being a clean drop-in replacement it leaves many developers and end-users less than impressed. Perhaps the Wayland project should focus more on the needs of developers and end-users, and less about what it deems to be the One True Way?
youtube.com/embed/_MS8pSj-DLo?…
Emulating a 74LS48 BCD-to-7-Segment Decoder/Driver with an Altera MAX 7000 “S” Series Complex Programmable Logic Device
Over on the [Behind The Code with Gerry] YouTube channel our hacker [Gerry] shows us how to emulate a 74LS48 BCD-to-7-segment decoder/driver using an Altera CPLD Logic Chip From 1998.
This is very much a das blinkenlights kind of project. The goal is to get a 7-segment display to count from 0 to 9, and that’s it. [Gerry] has a 74LS193 Up/Down Binary Counter, a 74LS42 BCD to Decimal Decoder, and some 74LS00 NAND gates, but he “doesn’t have” an 74LS48 to drive the 7-segment display so he emulates one with an old Altera CPLD model EPM7064SLC44 which dates back to the late nineties. A CPLD is a Complex Programmable Logic Device which is a kind of precursor to FPGA technology.
This fun video runs for nearly one hour and there are all sorts of twists and turns. The clock is made from a 555 timer. The Altera USB Blaster is used to program the CPLD via JTAG. But before he can do that he has to re-enable JTAG on his CPLD because JTAG LOCKOUT has been used on his secondhand chip. JTAG LOCKOUT is something you can do so that you can use the various JTAG pins for other purposes in your design, at the cost of no longer being about to access via JTAG! Fortunately [Gerry] has the right equipment to do a full reset of his chip and thus reinstate JTAG support.
Just as he’s nearly finished his project he manages to short out and destroy his CPLD by dropping a wire into the wall power socket! Talk about unlucky! He has to go back to the drawing board with a similar model. And in the end he realizes he used the the 7447 (common anode) but actually needed the 7448 (common cathode), so he has to fix that up too. All in all it’s fun to see what was state-of-the-art back in 1998. If you’re interested in such things you might like to read Not Ready For FPGAs? Try A CPLD.
youtube.com/embed/0WAaH37rmEk?…
Have a Slice of Bumble Berry Pi
[Samcervantes] wanted a cyberdeck. Specifically, he wanted a Clockwork Pi uConsole, but didn’t want to wait three months for it. There are plenty of DIY options, but many of them are difficult to build. So [Sam] did the logical thing: he designed his own. The Bumble Berry Pi is the result.
The design criteria? A tactile keyboard was a big item. Small enough to fit in a pants pocket, but big enough to be useful. What’s more is he wanted to recycle some old Pi 3Bs instead of buying new hardware.
The result looks good. There’s a 4.3″ touch screen, a nice keyboard, and enough battery to run all day. If you already have the Pi, you are looking at about $60 and two 3D-printed parts. There is some soldering, but nothing that should put off the average Hackaday reader.
Does it run Doom? From the photo on the GitHub repo, yes, yes, it does. This would be a fun build, although we have to admit, the beauty of doing a build like this is making it your own. Maybe your pants have differently shaped pockets, we don’t know.
Either way, though, you can get some ideas from [Sam] or just clone his already good-looking deck. If we’re being honest, we are addicted to multiple screens. Plus, we want a built-in radio.
2025 Component Abuse Challenge: The Slip Ring In Your Parts Bin
If you’re familiar with electrical slip rings as found in motors and the like you’ll know them as robust assemblies using carefully chosen alloys and sintered brushes, able to take the load at high RPM for a long time. But not all slip ring applications need this performance. For something requiring a lot less rotational ability, [Luke J. Barker] has something from his parts bin, and probably yours too. It’s an audio jack.
On the face of it, a 1/4″ jack might seem unsuitable for this task, being largely a small-signal audio connector. But when you consider its origins in the world of telephones it becomes apparent that perhaps it could do so much more. It works for him, but we’d suggest if you’d like to follow his example, to use decent quality plugs and sockets.
This is an entry in our 2025 Component Abuse Challenge, and we like it for thinking in terms of the physical rather than the electrical. The entry period for this contest will have just closed by the time you read this, so keep an eye out for the official results soon.
There are reports that Europol seized the Rhadamantys Stealer infrastructure
reshared this
securityaffairs.com/184500/sec…
#securityaffairs #hacking
SAP fixed a maximum severity flaw in SQL Anywhere Monitor
SAP fixed 19 flaws, including a critical issue in SQL Anywhere Monitor with hardcoded credentials that could enable remote code execution.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
Obsolescenza tecnologica e cyber security: un rischio che pesa sui bilanci aziendali
@Informatica (Italy e non Italy 😁)
L’84% delle imprese italiane utilizza sistemi obsoleti, aumentando rischi e costi delle violazioni. Dati e strategie mostrano perché l’obsolescenza tecnologica va considerata priorità nei budget 2025 tra sicurezza, ROI e continuità operativa
reshared this
Gene Therapy Aims To Slow Huntington’s Disease To A Crawl
Despite the best efforts of modern medicine, Huntington’s disease is a condition that still comes with a tragic prognosis. Primarily an inherited disease, its main symptoms concern degeneration of the brain, leading to issues with motor control, mood disturbance, with continued degradation eventually proving fatal.
Researchers have recently made progress in finding a potential treatment for the disease. A new study has indicated that an innovative genetic therapy could hold promise for slowing the progression of the disease, greatly improving patient outcomes.
Treatment
Huntington’s disease stems from a mutation in the huntingtin gene, which is responsible for coding for the huntingtin protein. This gene contains a repeated sequence referred to as a trinucleotide repeat, where the same three DNA bases repeat multiple times. The repeat count varies between individuals, and can change from generation to generation due to genetic mutation. If the number of repeats becomes too long, the gene no longer codes for huntingtin protein, and produces mutant huntingtin protein instead. The mutated protein eventually leads to neural degeneration. This genetic basis is key to the heritability of Huntington’s disease. If one parent carries a faulty gene, their children have a fifty percent chance of inheriting it and eventually developing the disease themselves. Over generations, the number of repeats can increase and lead to symptoms appearing at an earlier age.Excessive repeats in a critical gene are the root cause of Huntington’s disease. Credit: NIST, public domain
The new treatment relies on advanced genetic techniques to slow the disease in its tracks. It involves the use of a custom designed virus, which is inserted into the brain itself in specific key areas. It’s a delicate surgical process that takes anywhere from 12 to 18 hours, using real-time scanning to ensure the viral payload is placed exactly where it needs to go. The virus carries a DNA sequence and delivers it to brain cells, which begin processing the DNA to produce small fragments of genetic material called microRNA. These fragments intercept the messenger RNA that is produced from the body’s own DNA instructions, which is responsible for producing the mutant huntingtin protein which causes the degenerative disease. In this way, mutant huntingtin levels are reduced, drastically slowing the progression of the disease.
The effects of the treatment are potentially game changing, with progression of the disease slowed by 75% in study patients. Results indicate that with effective treatment, the decline expected over one year would instead take a full four years. In more qualitative areas, some patients in the trial have managed to maintain the ability to walk at a point when they would typically be expected to require wheel chairs. In typical Huntington’s cases, the onset occurs between 30 to 50 years old, with a life expectancy of just 15 to 20 years after diagnosis. The hope is that by delaying the progression of the disease, affected patients could have a greater quality of life for much longer, without suffering the worst impacts of the condition.A microscopic image of a neuron damaged by mutated Huntingtin (mHtt) protein inclusion, visible via orange stain. Credit: Dr Steven Finkbeiner, CC BY-SA 3.0
The initial trial involved just twenty-nine patients, but results were promising. Data indicated consistent benefit to patients three years after the initial surgery. Crucially, the treatment isn’t just slowing symptoms, but there is also evidence it helped to preserve brain tissue. Markers of neuronal death in spinal fluid, which would typically increase as Huntington’s disease progresses, were actually lower than before treatment in study patients.
The therapy isn’t without complications. Beyond the complicated and highly invasive brain surgery required to get the virus where it needs to go, some patients developed inflammation from the virus causing some side effects like headaches and confusion. There’s also the expense — advanced gene therapies don’t come cheap. However, on the positive side, it’s believed the treatment could potentially be a one-off matter, as the brain cells that produce the critical microRNA fragments are not replaced regularly like other more disposable cells in the body. While it’s a new and radical treatment, pharmaceutical company UniQure has plans to bring it to market as soon as late 2026 in the US, with the European market to follow.
It’s not every day that scientists discover a new viable cure for a disease that has long proven fatal. However, through genetic techniques and a strong understanding of the causative factors of the disease, it appears scientists have made progress in tackling the spectre that is Huntington’s disease. For the many thousands of patients grappling with the disease, and the many descendents who struggle with potentially having inherited the condition, news of a potential treatment is a very good thing indeed.
Featured image: “Huntington” by Frank Gaillard.
Real-Time BART in a Box Smaller Than Your Coffee Mug
Ever get to the train station on time, find your platform, and then stare at the board showing your train is 20 minutes late? Bay Area Rapid Transit (BART) may run like clockwork most days, but a heads-up before you leave the house is always nice. That’s exactly what [filbot] built: a real-time arrival display that looks like it was stolen from the platform itself.
The mini replica nails the official vibe — distinctive red text glowing inside a sheet-metal-style enclosure. The case is 3D printed, painted, and dressed up with tiny stickers to match the real deal. For that signature red glow, [filbot] chose a 20×4 character OLED. Since the display wants 5 V logic, a tiny level-shifter sits alongside an ESP32-C6 that runs the show. A lightweight middleware API [filbot] wrote simplifies grabbing just the data he needs from the official BART API and pushes it to the little screen.
We love how much effort went into shrinking a full-size transit sign into a desk-friendly package that only shows the info you actually care about. If you’re looking for more of an overview, we’re quite fond of PCB metro maps as well.
Smettetela di sopravvalutare l’intelligenza artificiale, dicono gli studiosi a von der Leyen
Lettera aperta critica la Presidente della Commissione per le osservazioni fatte all’inizio di quest’anno, quando aveva previsto che l’intelligenza artificiale si sarebbe “avvicinata al ragionamento umano” nel 2026
reshared this
Moving From Windows to FreeBSD as the Linux Chaos Alternative
Back in the innocent days of Windows 98 SE, I nearly switched to Linux on account of how satisfied I was with my Windows experience. This started with the Year of the Linux Desktop in 1999 that started with me purchasing a boxed copy of SuSE Linux and ended with me switching to Windows 2000. After this I continued tinkering with non-Windows OSes including QNX, BeOS, various BSDs, as well as Linux distributions that promised a ‘Windows-like’ desktop experience, such as Lindows.
Now that Windows 2000’s proud legacy has seen itself reduced to a rusting wreck resting on cinderblocks on Microsoft’s dying front lawn, the quiet discomfort that many Windows users have felt since Windows 7 was forcefully End-Of-Life-d has only increased. With it comes the uncomfortable notion that Windows as a viable desktop OS may be nearing its demise. Yet where to from here?
Although the recommendations from the peanut gallery seem to coalesce around Linux or Apple’s MacOS (formerly OS X), there are a few dissenting voices extolling the virtues of FreeBSD over both. There are definitely compelling reasons to pick FreeBSD over Linux, in addition to it being effectively MacOS’s cousin. Best of all is not having to deal with the Chaos Vortex that spawns whenever you dare to utter the question of ‘which Linux distro?’. Within the world of FreeBSD there is just FreeBSD, which makes for a remarkably coherent experience.
Ghosting The Subject
The GhostBSD logo.
Although FreeBSD doesn’t have distributions the way that Linux does due to it being a singular codebase rather than a duct-taped patchwork, you do get a choice as far as difficulty settings go. You can always pick plain FreeBSD with its functional but barebones installer, which dumps you into a command line shell and expects you to jump through some hoops to set up things like a desktop environment. This is generally fine if you’re an advanced user, or just want to set up a headless server system.
In case you’re more into the ‘just add water’ level of a desktop OS installation process, the GhostBSD project provides the ready to go option for a zero fuss installation like you would see with Linux Mint, Manjaro Linux and kin. Although I have done the hard mode path previously with FreeBSD virtual machines, to save myself the time and bother I opted for the GhostBSD experience here.
For this experiment I have two older-but-quite-usable systems at my disposal: one is a 2013-era Ivy Bridge Intel-based gaming laptop that’s a rebranded Clevo W370ET, the other a late-2015 Skylake PC with a Core i7 6700K, GTX 980 Ti and 32 GB of DDR4. To give both the best chance possible I also installed a brand new SATA SSD in both systems to run the OS from.
Down To Bare Metal
GhostBSD offers two images: the official Mate desktop version and the community XFCE version. Since I have always had a soft spot for XFCE, that’s the version I went with. After fetching the image, I used Rufus to create a bootable USB stick and made sure that the target system was set to boot from USB media. First I wanted to focus on the laptop, but this is where I ran into the first issue when the installer froze on me.
After a few hours of trying various things, including trying a known good Manjaro Linux installer which flunked out with a complaint about the USB medium, I figured I might as well give a Windows 10 installer a shot for fun. This actually got me a useful error code: 0x8007025D. While it broadly indicates ‘something’ being wrong along the USB-RAM-HDD/SSD path, it led me to a post about USB 3.0 being a potential issue as it changed some things compared to USB 2.0. The solution? Use a USB 2.0 port instead, obviously.Creating a new ZFS system partition for the GhostBSD installation. (Credit: Maya Posch)
Long story short, this sort of worked: the GhostBSD installer still froze up once it entered the graphical section, but the Manjaro installer was happy as a clam, so now that laptop runs Manjaro, I guess.
A subsequent attempt to boot the GhostBSD installer on the 6700K system went much better, even while daringly using a USB 3.0 port on the case. Before I knew it GhostBSD was purring along with the XFCE desktop sparkling along at 1080p.
I’m not sure what GhostBSD’s issue was with the laptop. It’s possible that it found the NVidia Optimus configuration disagreeable, but now I have two rather capable gaming systems to directly compare Linux and FreeBSD with. There are no mistakes, just happy little accidents.
Gaming The System
Since any open source software of note that runs on Linux tends to have a native FreeBSD build, the experience here is rather same-ish. Where things can get interesting is with things related to the GPU, especially gaming. These days that of course means getting Steam and ideally the GoG Galaxy client running, which cracks open a pretty big can of proprietary worms.Playing the Windows GoG version of Firewatch on GhostBSD. (Credit: Maya Posch)
Annoyingly, Valve has only released a Steam client for Windows, MacOS and Linux, with the latter even only officially supporting some versions of Ubuntu Linux. This is no real concern for Manjaro Linux, just with the disclaimer that if anything breaks, you’re SOL and better start praying that it’ll magically start working again.
Unfortunately, for FreeBSD the userland Linux ABI compatibility isn’t quite enough as the Steam DRM means that it goes far beyond basic binary compatibility.
The two available options here are to either try one’s chances with the linuxulator-steam-utils workarounds that tries to stuff the Linux client into a chroot, or to go Wine all the way with the Windows Steam client and add more Windows to your OSS.
Neither approach is ideal, but the main question is whether or not it allows you to play your games. After initially getting the Linux tools setup and ready to bootstrap Steam, I got thrown a curveball by the 32-bit Wine and dependencies not being available, leading to a corresponding issue thread on the GhostBSD forums. After Eric over at the GhostBSD project resolved the build issue for these dependencies, I thought that now I would be able to play some games, but I was initially sorely disappointed.
For some reason I was now getting a ‘permission denied’ error for the chdir command in the lsu-bootstrap script, so after some fruitless debugging I had to give up on this approach and went full Wine. I probably could have figured out what the problem here was, but considering the limitations of the LSU Steam approach and me just wanting to play games instead of debug-the-FOSS-project, it felt like time to move on.
Watery Wine
The Windows Steam client running on GhostBSD. (Credit: Maya Posch)
As it turns out, the low-fuss method to get Steam and GoG Galaxy working is via the the Mizutamari Wine GUI frontend. Simply install it with pkg install mizuma or via the package center, open it from the Games folder in the start menu, then select the desired application’s name and then the Install button. Within minutes I had both Steam and the ‘classic’ GoG Galaxy clients installed and running. The only glitch was that the current GoG Galaxy client didn’t want to work, but that might have been a temporary issue. Since I only ever use the GoG Galaxy 1.x client on Windows, this was fine for me.
After logging into both clients and escaping from Steam’s ‘Big Picture Mode’, I was able to install a few games and play them, which went completely smoothly, except for the elevator scene in Firewatch where I couldn’t look around using the mouse despite it working fine in the menu, but that game is notoriously buggy, so that’s a question mark on the exact cause. Between buggy games, Wine, and the OS, there definitely are sufficient parties to assign blame to.
Similarly, while the Steam client was a bit graphically glitchy with flickering on the Store page, and trying to access the Settings menu resulted in it restarting, I was able to install and play Windows games like Nightmare Kart, so that’s a win in my book. That said, I can’t say that I’m not jealous of just punching in sudo pacman -S steam on the Manjaro rig to get the Steam client up in a minute or so. Someone please convince Gabe to compile the Steam client for FreeBSD, and the CD Projekt folk to compile the Galaxy client for FreeBSD and Linux.
It should be noted here that although it is possible to use alternative frontends for GoG instead of its Galaxy client, you need it for things like cloud saves. Hence me choosing this path to get everything as close to on par with the Windows experience and feature set.
Next Steps
Aside from gaming, there are many possible qualifications for what might make a ‘Windows desktop replacement’. As far as FreeBSD goes, the primary annoyance is having to constantly lean on the Linux or Windows versions of software. This is also true for things like DaVinci Resolve for video editing, where since there’s no official FreeBSD version, you have to stuff the Linux version into a chroot once again to run it via the Linux compatibility layer.
Although following the requisite steps isn’t rocket science for advanced users, it would simply be nice if a native version existed and you could just install the package. Based on my own experiences porting a non-trivial application like the FFmpeg- and SDL-based NymphCast to FreeBSD – among other OSes – such porting isn’t complicated at all, assuming your code doesn’t insist on going around POSIX and doing pretty wild Linux-specific things.
Ranting on software development aside, for my next steps on my FreeBSD/GhostBSD journey I’ll likely be giving approaches like this running of Linux software on FreeBSD another shot, barring finding that native video editors work well enough for my purposes.
Feel free to sound off in the comments on how to improve my experiences so far, as well as warn me and others who are embarking on a similar BSD journey of certain pitfalls.
securityaffairs.com/184488/cyb…
#securityaffairs #hacking #malware
Fantasy Hub: Russian-sold Android RAT boasts full device espionage as MaaS
Researchers found Fantasy Hub, a Russian MaaS Android RAT that lets attackers spy, steal data, and control devices via Telegram.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
Intel sues former employee for allegedly stealing confidential data
-allegedly stole 18k files
-was laid off on July 3, given until end of month
-tried to steal files using an external HDD 8 days before layoff
-succeeded with a NAS 3 days before end of contract
mercurynews.com/2025/11/06/top…
'Top Secret' files among those allegedly misappropriated by software engineer losing job at Santa Clara chip giant Intel
At first he did not succeed in making off with a trove of Silicon Valley computer chip giant’s trade secrets, but then he tried again.ebaron@bayareanewsgroup.com (The Mercury News)
reshared this
Altro che Marketing! Le VPN si vendono da sole ogni volta che un governo blocca i siti per adulti
Centinaia di milioni di utenti di smartphone hanno dovuto affrontare il blocco dei siti web pornografici e l’obbligo di verifica dell’età. Nel Regno Unito è in vigore la verifica obbligatoria dell’identità sui siti web per adulti e leggi simili stanno per essere introdotte in alcuni stati degli Stati Uniti e in Italia.
In risposta a tutto questo, le VPN, servizi che consentono agli utenti di nascondere la propria posizione reale e aggirare le restrizioni, hanno registrato una crescita esponenziale.
Le vendite dei servizi VPN sono alle stelle
Come sottolinea la BBC, dall’entrata in vigore dell’Online Safety Act nel Regno Unito, le registrazioni a Proton VPN sono aumentate di oltre il 1.400%, mentre NordVPN ha registrato un aumento del 1.000% negli abbonamenti. Secondo TechRadar nel Regno Unito sono stati scaricati 10,7 milioni di app VPN nella prima metà del 2025.
Ora, le autorità britanniche stanno discutendo la possibilità di vietare completamente le VPN. Iniziative simili sono emerse negli Stati Uniti: in particolare, nel Wisconsin è stata proposta una proposta di legge che renderebbe illegale l’accesso a “contenuti per adulti” tramite VPN.
Progetti simili sono allo studio anche nel Michigan, dove i rappresentanti di Proton si sono espressi contro tali misure.
Gli esperti ritengono che tali restrizioni minaccino la libertà di Internet. Le VPN rimangono uno strumento essenziale nei paesi sottoposti a censura, consentendo alle persone di leggere notizie, utilizzare i social media e le app di messaggistica.
Dietro le VPN gratuite si nascondono gravi rischi
Nel frattempo, Google ha emesso un nuovo avviso, sottolineando che i truffatori stanno mascherando app dannose come VPN legittime. L’azienda consiglia di scaricare tali servizi solo da fonti ufficiali e di prestare attenzione alle autorizzazioni: una VPN non dovrebbe richiedere l’accesso a contatti o messaggi personali.
Secondo Google, le app dannose possono distribuire spyware e rubare password, dati bancari e wallet di criptovalute. L’azienda ha anche osservato che scaricare VPN gratuite o discutibili aumenta il rischio di infezione del dispositivo e di perdita di dati.
Red Hot Cyber raccomanda di non scaricare mai app VPN da siti non ufficiali o da link trovati casualmente su internet, poiché molti di questi pacchetti possono contenere codice malevolo (come infostealer, RAT, spayware e malware in generale). Prima di installare un’app, è buona pratica verificare lo sviluppatore, leggere le recensioni reali, e controllare che le autorizzazioni richieste siano coerenti con le funzioni di una VPN. Un’app che chiede accesso a fotocamera, microfono o contatti è un chiaro segnale di pericolo.
Gli esperti avvertono inoltre che, se i governi dovessero vietare l’uso delle VPN, molti utenti finirebbero per rivolgersi a versioni illegali o modificate, creando un vero e proprio “paradiso per gli hacker” e rendendo di fatto impossibile mantenere buoni standard di sicurezza online.
L'articolo Altro che Marketing! Le VPN si vendono da sole ogni volta che un governo blocca i siti per adulti proviene da Red Hot Cyber.
Nest Thermostat: Now 100% Less Evil
If you have a Nest thermostat of the first or second generation, you probably noticed it recently became dumber. Google decided to pull the plug on the servers that operate these devices, turning them into — well — ordinary thermostats. Lucky for us [codykociemba] has been keeping up with various exploits for hacking the thermostat, and he started the NoLongerEvil-Thermostat project.
If you want to smarten up your thermostat again, you’ll need a Linux computer or, with some extra work, a Mac. The thermostat has a DFU-enabled OMAP loader. To access it, you have to plug it into USB and then reboot it. There is a narrow window for the loader to grab it, so you have to be running the software before you reboot or you’ll miss it.You can control your thermostat again!
After that, the flash is relatively fast, but the Nest will look dead for a brief time. Then the No Longer Evil logo will show, and you are in business. We wish the hack simply replaced the Google software with a local website, but it doesn’t. It redirects all the network traffic to a custom URL. Then you can control your thermostat from the nolongerevil.com website. So we don’t know what will happen if they decide to stop hosting the remote server that powers this.
Then again, don’t look a gift horse in the mouth. If you get another year out of your trusty thermostat, that’s a year you wouldn’t have had otherwise. We do worry a bit about putting an odd device on your network. In theory, the project is open source, but all the important bits are in a binary U-Boot image file, so it would take some work to validate it. To get you started, the command to dump the content is probably: dumpimage -T kernel -p 0 -o kernel uImage. Or, you could watch it with Wireshark for a bit.
We were happy to get some more use out of our Nest.
reshared this
RE: techhub.social/@Techmeme/11553…
Portugal, a country famous for its abundance in water... LOL.... EXTRA BIG FAT LOL!!!
reshared this
reshared this
securityaffairs.com/184474/int…
#securityaffairs #hacking
North Korea-linked Konni APT used Google Find Hub to erase data and spy on defectors
North Korea-linked APT Konni posed as counselors to steal data and wipe Android phones via Google Find Hub in Sept 2025.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
A new OWASP Top 10 is close to being released, with supply chain risks entering the ranking at #3 directly
reshared this
Microsoft says that:
-99.6% of all employees and their devices are now using phishing-resistant multi-factor authentication (MFA)
-35k+ engineers are now working "full time on security" [big doubt!!!]
microsoft.com/en-us/security/b…
Latest progress update on Microsoft’s Secure Future Initiative | Microsoft Security Blog
Read more about the key updates and milestones of Microsoft's Secure Future Initiative in the November 2025 SFI progress report.Charlie Bell (Microsoft Security Blog)
reshared this
2. Count me as about half an engineer here and I don’t even work on a product with meaningful security boundaries inside; the fountain of compliance overhead is eternal. A lot of it is “defending against auditors not attackers” but I’m still net happy about it.
Sicurezza Wi-Fi: Evoluzione da WEP a WPA3 e Reti Autodifensive
Dalle fragilità del WEP ai progressi del WPA3, la sicurezza delle reti Wi-Fi ha compiuto un lungo percorso. Oggi, le reti autodifensive rappresentano la nuova frontiera: sistemi intelligenti capaci di rilevare, bloccare e adattarsi alle minacce in tempo reale. Scopri come la difesa adattiva può rendere la connettività più sicura, resiliente e consapevole.
Introduzione
Dopo aver analizzato nella prima parte “La Sfida della Sicurezza nelle Reti Wi-Fi e una Soluzione Adattiva” i rischi legati alla vulnerabilità delle reti wireless, questo nuovo approfondimento esamina l’evoluzione degli standard di sicurezza, dal fragile WEP fino al moderno WPA3. L’articolo ripercorre le principali tappe che hanno segnato il progresso della crittografia Wi-Fi e introduce il concetto di rete autodifensiva, un modello capace di riconoscere le minacce in tempo reale, adattarsi al contesto e reagire autonomamente.
Attraverso esempi pratici e casi di test, viene mostrato come la difesa adattiva rappresenti oggi il futuro della cybersecurity wireless: un approccio dinamico, intelligente e indispensabile per proteggere le comunicazioni in un mondo sempre più connesso.
Per affrontare le nuove sfide della sicurezza Wi-Fi, un recente studio propone un modello di rete autodifensiva in grado di riconoscere rapidamente gli aggressori, bloccare i danni in corso e adattarsi dinamicamente al comportamento delle minacce.
L’approccio si basa su un meccanismo di rilevamento pre-connessione, una fase preliminare durante la quale vengono analizzati i pacchetti di dati per individuare eventuali attività sospette prima ancora che l’attacco venga portato a termine.
Per dimostrarne l’efficacia, gli autori dello studio hanno simulato diversi scenari di violazione, prendendo di mira protocolli di sicurezza ormai noti come Wired Equivalent Privacy (WEP) e Wi-Fi Protected Access (WPA/WPA2), utilizzando un comune adattatore wireless per testare la capacità della rete di reagire e difendersi.
Indice dei contenuti (clicca per aprire/chiudere)
- Evoluzione della Sicurezza Wi-Fi: Confronto WEP, WPA, WPA2 e WPA3
- WEP: il primo tentativo di protezione
- WPA: un passo avanti
- WPA2: il consolidamento
- WPA3: il futuro della sicurezza wireless
- Attacchi alle reti WPA/WPA2 e metodi di violazione
- Perché servono reti autodifensive
- Dispositivi in rete e difesa adattiva
- Come lavora una rete autodifensiva
- La necessità di una rete autodifensiva
- Fasi di un attacco alle reti Wi-Fi
- La strategia di difesa adattiva
- Il test di penetrazione della rete
- Bande Wi-Fi e limiti degli adattatori
- Conclusione
Evoluzione della Sicurezza Wi-Fi: Confronto WEP, WPA, WPA2 e WPA3
La sicurezza delle reti wireless ha attraversato un’evoluzione profonda, spinta dalla necessità di contrastare minacce informatiche sempre più sofisticate. Dal fragile Wired Equivalent Privacy (WEP) al più avanzato Wi-Fi Protected Access III (WPA3), ogni standard ha rappresentato un passo avanti nella protezione delle connessioni senza fili, nel tentativo di risolvere vulnerabilità critiche e migliorare l’affidabilità complessiva delle reti.
WEP: il primo tentativo di protezione, ma con gravi vulnerabilità
Introdotto nel 1997, il WEP fu il primo protocollo concepito per garantire un livello minimo di sicurezza nelle comunicazioni wireless, attraverso la crittografia e alcune restrizioni di accesso. Tuttavia, l’uso dell’algoritmo RC4 e di chiavi statiche condivise si rivelò presto un limite serio.
Il sistema soffriva di debolezze strutturali: le chiavi di crittografia, non variando nel tempo, facilitavano la decifratura del traffico; il vettore di inizializzazione di soli 24 bit veniva trasmesso in chiaro, consentendo agli aggressori di intercettarlo con facilità; e la ripetizione degli stessi IV in reti molto trafficate apriva la strada a manipolazioni dei pacchetti senza che venissero rilevate.
Strumenti come airodump-ng e aircrack-ng permisero di dimostrare quanto fosse semplice violare una rete WEP in pochi minuti, rendendolo di fatto obsoleto. Da qui la necessità di sviluppare una nuova generazione di protocolli più sicuri, come il Wi-Fi Protected Access (WPA).
WPA: un passo avanti, ma ancora una soluzione temporanea
Nel 2003 nacque il WPA, pensato come un’evoluzione transitoria del WEP in attesa di uno standard definitivo. Introdusse il Temporal Key Integrity Protocol (TKIP), un sistema più efficace nella gestione delle chiavi e nell’integrità dei dati.
Il WPA poteva operare in due modalità: la versione Personal (PSK), basata su una passphrase condivisa, adatta agli ambienti domestici, e la versione Enterprise (EAP), che utilizzava un server RADIUS per l’autenticazione centralizzata in contesti aziendali. Anche la crittografia, portata a 128 bit, rappresentava un miglioramento rispetto al WEP.
Nonostante i progressi, il WPA ereditava alcune debolezze, in particolare la retrocompatibilità con l’hardware più datato e la vulnerabilità intrinseca del TKIP, che nel tempo lo resero vulnerabile ad attacchi mirati. Era ormai chiaro che serviva una revisione profonda del modello di sicurezza.
WPA2: il consolidamento della sicurezza Wi-Fi
Con il 2004 arrivò WPA2, lo standard che segnò una svolta decisiva. La sua principale innovazione fu l’introduzione della crittografia AES (Advanced Encryption Standard), molto più robusta rispetto a TKIP. Questo miglioramento rese il WPA2 la scelta di riferimento per la maggior parte delle reti domestiche e aziendali per oltre un decennio.
Il nuovo standard garantiva un’autenticazione più solida e una gestione più efficiente delle connessioni, mantenendo al tempo stesso un’ampia compatibilità con i dispositivi moderni. Tuttavia, nemmeno il WPA2 era immune da vulnerabilità: nel 2017 la scoperta dell’attacco KRACK (Key Reinstallation Attack) mise in luce una falla nell’handshake a quattro vie, dimostrando che anche le reti meglio configurate potevano essere esposte a rischi di intrusione.
Fu questo evento a spingere verso un ulteriore passo evolutivo: la nascita del WPA3.
WPA3: il futuro della sicurezza wireless
Introdotto nel 2018, il WPA3 rappresenta il livello più avanzato della sicurezza Wi-Fi, progettato per affrontare le minacce moderne con una struttura più solida e intelligente. La novità principale è il Simultaneous Authentication of Equals (SAE), che sostituisce il vecchio sistema PSK e offre una protezione molto più efficace contro gli attacchi a dizionario e di forza bruta.
Il WPA3 integra inoltre la crittografia individuale per ogni sessione e introduce Wi-Fi Easy Connect, una funzione pensata per semplificare la connessione sicura dei dispositivi IoT, spesso più vulnerabili.
Lo standard si presenta in tre varianti: WPA3-Personal, pensato per ambienti domestici; WPA3-Enterprise, destinato al mondo professionale con un livello di crittografia ancora più elevato; e Wi-Fi Enhanced Open, progettato per migliorare la sicurezza delle reti pubbliche prive di password.
Nonostante le sue potenzialità, l’adozione di WPA3 procede lentamente, ostacolata da problemi di compatibilità con dispositivi più datati e dai costi legati alla transizione. Tuttavia, rappresenta il punto di riferimento verso cui tutte le reti wireless dovranno evolversi
Attacchi alle reti WPA/WPA2 e metodi di violazione
Anche protocolli ritenuti robusti come WPA e WPA2 non sono invulnerabili se non vengono configurati e gestiti correttamente. Molti attacchi si basano su due passaggi fondamentali: prima la cattura dell’handshake di autenticazione e poi il tentativo di decifrare la chiave attraverso attacchi di forza bruta o dizionario. Nel primo caso, strumenti di sniffing permettono di catturare i pacchetti scambiati durante il four-way handshake che avviene quando un client si associa a un access point; nel secondo, l’attaccante utilizza dizionari o potenti motori di cracking per provare milioni di combinazioni fino a trovare la password corretta.
La sequenza cattura e cracking, mette in evidenza due punti deboli ricorrenti: password deboli e aggiornamenti mancanti. Anche reti ben impostate possono essere compromesse se la passphrase è prevedibile o se il firmware dell’hardware non è aggiornato. Per questo motivo le contromisure non devono limitarsi alla scelta del protocollo, ma includere politiche di gestione delle credenziali, hardening dei dispositivi e controlli continui sul comportamento della rete.
Perché servono reti autodifensive
La storia delle vulnerabilità Wi-Fi insegna che la sicurezza non è mai statica: ciò che funziona oggi può essere aggirato domani. Per questo motivo, oltre alla migrazione verso standard più sicuri come WPA3, è necessario adottare un approccio soggettivo alla difesa: reti che non solo rilevano anomalie, ma reagiscono e si adattano. Le reti autodifensive si propongono proprio questo: monitorano continuamente il traffico e i comportamenti, riconoscono pattern di attacco e applicano contromisure automatiche per contenere l’incidente e ridurre l’impatto operativo.
In pratica, una rete autodifensiva non sostituisce i controlli tradizionali ,aggiornamenti, segmentazione, autenticazione forte, ma li integra, offrendo capacità di rilevamento più rapide e risposte immediate che riducono la finestra temporale in cui un aggressore può operare.
Dispositivi in rete e difesa adattiva
I dispositivi collegati si scambiano dati sia tramite collegamenti fisici sia attraverso radiofrequenze; il punto di accesso (router) è l’hub che media queste comunicazioni e, perciò, il punto critico da proteggere. La difesa adattiva è un paradigma che osserva costantemente lo stato della rete — quali dispositivi si connettono, con quale frequenza, quali volumi di traffico generano e quali pattern di comunicazione seguono — per identificare rapidamente anomalie che possono preludere a un attacco.
Questo approccio combina tecniche preventive (come policy di accesso e segmentazione), investigative (analisi del traffico e raccolta di indicatori di compromissione), retrospettive (lezioni apprese dagli incidenti) e predittive (modelli che stimano il rischio futuro). Il risultato è una difesa multilivello che si aggiorna nel tempo, riducendo la necessità di interventi manuali e accelerando le azioni di mitigazione.
Come lavora una rete autodifensiva
Una rete autodifensiva lavora come un organismo in stato di allerta costante. Ogni nodo, ogni pacchetto e ogni flusso di dati diventa parte di un sistema nervoso digitale capace di percepire, reagire e adattarsi.
Il suo funzionamento si articola lungo tre direttrici fondamentali: rilevamento, contenimento e adattamento.
Nel rilevamento, la rete osserva se stessa in tempo reale, analizzando il traffico non solo dopo la connessione, ma già nella fase pre-connessione, quando un dispositivo tenta il primo contatto. Qui entra in gioco l’intelligenza del sistema: sensori distribuiti identificano comportamenti anomali, pacchetti fuori standard o schemi di comunicazione sospetti. L’obiettivo è riconoscere l’attacco prima che diventi una minaccia effettiva.
Il contenimento rappresenta la risposta immediata. Se viene individuato un tentativo d’intrusione, il sistema può isolare il dispositivo sospetto, modificare le policy di accesso o ridurre temporaneamente i privilegi di rete. È un meccanismo automatico, simile a una risposta immunitaria, che evita la propagazione del danno e preserva la continuità operativa.
Infine, l’adattamento. Qui la rete apprende dall’esperienza: registra gli eventi, aggiorna i modelli di comportamento, affina le regole di rilevamento. Ogni incidente, analizzato a posteriori, diventa un tassello nella costruzione di una difesa più efficace.
In questo modo, la rete evolve da sistema statico a infrastruttura dinamica, in grado di migliorarsi con il tempo e di anticipare strategie d’attacco sempre più sofisticate.
In sintesi, una rete autodifensiva non si limita a “suonare l’allarme”. Reagisce, corregge, si adatta. Blocca l’accesso dell’aggressore, ridefinisce le rotte interne del traffico dati e mantiene il controllo dell’ambiente digitale. È un modello che coniuga automazione e consapevolezza, portando la sicurezza informatica a un livello di reattività e precisione fino a pochi anni fa impensabile.
La necessità di una rete autodifensiva
Nel contesto digitale attuale, le reti non possono più limitarsi a essere semplici infrastrutture di trasmissione. Sono l’ossatura di ogni attività economica, pubblica o privata, e la loro compromissione può paralizzare interi sistemi. A rendere il quadro più complesso è la natura delle minacce: non più attacchi isolati, ma campagne coordinate, automatizzate e spesso invisibili fino al momento dell’impatto.
Una rete moderna deve quindi saper reagire in tempo reale, con una velocità che superi quella dell’attaccante. L’approccio tradizionale, basato su firewall statici e intervento umano post-evento, non è più sufficiente.
Oggi servono architetture capaci di riconoscere un’anomalia, contenerla e adattarsi senza interruzioni di servizio. Le reti autodifensive nascono da questa esigenza. Integrano tecniche di analisi comportamentale, intelligenza artificiale e automazione per proteggere l’infrastruttura nel momento stesso in cui viene minacciata.
L’obiettivo non è solo difendersi, ma preservare la continuità operativa, garantendo che i flussi informativi vitali non si interrompano nemmeno durante un attacco. In ambito aziendale e istituzionale, questa capacità di resilienza diventa un requisito strategico. Non si tratta più di “se” un attacco arriverà, ma di “come” la rete saprà rispondere. Le infrastrutture critiche, i sistemi di difesa e le reti civili interconnesse devono essere in grado di auto-diagnosticarsi e correggersi in modo autonomo, senza attendere l’intervento umano.
In definitiva, la sicurezza di rete sta evolvendo da funzione passiva a sistema adattivo. Le reti autodifensive incarnano questa trasformazione: osservano, imparano e reagiscono come entità vive, garantendo che la connessione resti sicura anche quando tutto intorno diventa incerto.
Fasi di un attacco alle reti Wi-Fi
Ogni attacco informatico contro una rete Wi-Fi segue, con sorprendente regolarità, una sequenza di fasi. Comprenderle significa saper riconoscere i segnali precoci di un’intrusione e intervenire prima che il danno sia fatto.
Gli attacchi non iniziano quasi mai con un’invasione diretta: cominciano con l’osservazione silenziosa, un’attività di ricognizione che mira a raccogliere informazioni invisibili all’utente comune.
1⃣ Fase di pre-connessione
Tutto parte qui. L’aggressore analizza il campo, scansiona le reti disponibili, identifica i punti di accesso, la tipologia di crittografia e gli indirizzi MAC dei dispositivi connessi.
Questa attività, apparentemente innocua, consente di individuare i bersagli più vulnerabili.
Molti strumenti open source come airodump-ng o Kismet vengono usati proprio per questa fase, che precede qualsiasi tentativo di accesso.
Schermata simulata in modalità monitor che mostra l’elenco delle reti rilevate (BSSID, CH, PWR, ESSID), con dettagli sensibili sfocati per la privacy.
2⃣ Fase di accesso
Una volta raccolte le informazioni, l’attaccante tenta la violazione.
Può utilizzare dizionari di password, attacchi brute force o sfruttare vulnerabilità note nei protocolli di autenticazione (come accadeva con WEP o con handshake mal gestiti in WPA2).
In questa fase il bersaglio è la chiave di accesso, il punto più debole del sistema di difesa.
Fase di accesso: simulazione di cattura handshake e tentativo di decrittazione in ambiente di test controllato.
3⃣ Fase di post-connessione
Se l’attacco va a buon fine, l’aggressore entra nella rete. Da qui può muoversi con discrezione: intercettare pacchetti, esfiltrare dati, manipolare comunicazioni o trasformare il dispositivo compromesso in un punto d’appoggio per ulteriori intrusioni.
È la fase più insidiosa, perché spesso non lascia tracce immediate: il traffico malevolo si confonde con quello legittimo.
grafico o diagramma che mostra il flusso dati all’interno di una rete compromessa, evidenziando il nodo “attaccante”.
Le tre fasi mostrano quanto sia sottile il confine tra normale attività di rete e aggressione digitale.
È qui che entra in gioco la difesa adattiva, capace di monitorare il traffico in tempo reale e distinguere un comportamento legittimo da un’azione ostile.
Solo anticipando queste mosse — e trasformando la rete in un sistema consapevole delle proprie dinamiche — è possibile bloccare l’attacco prima che raggiunga la fase finale.
La Strategia di Difesa Adattiva
La difesa adattiva rappresenta l’evoluzione naturale dei sistemi di sicurezza informatica tradizionali.
Non si limita a rilevare un’anomalia: la interpreta, reagisce e apprende.
In un contesto dove gli attacchi cambiano in tempo reale, anche la risposta deve essere dinamica.
Questa strategia integra quattro componenti operative:
- Prevenzione: bloccare i comportamenti potenzialmente pericolosi ancora prima che si trasformino in minacce reali.
- Indagine: analizzare i dati raccolti per individuare pattern sospetti e comprendere le tecniche impiegate dagli aggressori.
- Risposta: attuare contromisure automatiche — isolamento del nodo, limitazione del traffico, aggiornamento delle regole firewall.
- Predizione: grazie ai dati storici e all’intelligenza comportamentale, prevedere scenari futuri di attacco e rinforzare i punti vulnerabili.
Nel modello di rete autodifensiva, questi quattro elementi non sono compartimenti stagni, ma flussi interconnessi che dialogano tra loro in tempo reale.
Quando un sensore rileva un’anomalia, il sistema avvia un ciclo completo: identificazione → azione → apprendimento → aggiornamento.
In questo modo, ogni incidente diventa un’occasione di addestramento per la rete stessa.
Dinamica del ciclo adattivo
Il comportamento di una rete autodifensiva può essere rappresentato come un ciclo continuo:
- Osservazione: la rete raccoglie eventi e metriche di traffico;
- Analisi: un motore di correlazione confronta i dati con i modelli comportamentali noti;
- Decisione: se emerge una deviazione significativa, il sistema valuta la gravità e la natura della minaccia;
- Azione: vengono applicate contromisure automatiche o semi-automatiche (quarantena, re-autenticazione, blocco).
- Apprendimento: i dati dell’incidente vengono integrati nel modello predittivo per migliorare la precisione futura.
Questo approccio porta l’automazione a un livello superiore: la rete non è più solo protetta, ma consapevole del proprio stato di sicurezza.
Esempio operativo: risposta automatica a un’anomalia
In un ambiente aziendale, un dispositivo inizia a generare un traffico anomalo verso un dominio sconosciuto.
Il sistema di difesa adattiva:
- Rileva l’evento in tempo reale tramite un sensore di comportamento;
- Confronta l’indirizzo di destinazione con le blacklist dinamiche;
- Isola temporaneamente il dispositivo dal resto della rete;
- Notifica l’amministratore e registra l’evento nel database di apprendimento.
Se in futuro un dispositivo presenta un comportamento simile, la rete reagisce ancora più velocemente, avendo già “visto” quel tipo di minaccia.
Il vantaggio competitivo della difesa adattiva
L’obiettivo non è solo ridurre i tempi di risposta, ma mantenere la continuità operativa.
Una rete che si autodifende non interrompe il servizio per reagire a un attacco: lo circoscrive, lo neutralizza e continua a funzionare.
Questo equilibrio tra sicurezza e disponibilità rappresenta oggi la vera sfida della cybersecurity moderna.
Il test di penetrazione della rete: obiettivi, metodo e limiti
Un test di penetrazione non è “fare un attacco”: è un’attività controllata, pianificata e autorizzata che ha lo scopo di valutare la robustezza di una rete, identificare le vulnerabilità reali e fornire indicazioni pratiche per la mitigazione. In contesti di sicurezza professionale il pen test fornisce al legittimo proprietario della rete la fotografia del livello di rischio e una roadmap di intervento.
Obiettivi principali
Il pen test deve rispondere a domande precise: quali componenti della rete sono esposti? Quali dati possono essere intercettati o manipolati? Quanto velocemente la rete può rilevare e contenere un’anomalia? L’esito non è un “voto” ma una base oggettiva per migliorare la resilienza.
Principi etici e legali (indispensabili)
Un test di penetrazione deve essere sempre:
- Autorizzato: eseguito solo con un mandato scritto del proprietario dell’infrastruttura.
- Limitato: definire chiaramente portata, sistemi inclusi/esclusi, finestre operative e modalità di disconnessione in caso di impatto.
- Tracciabile: mantenere log e registri di tutte le attività di test.
- Responsabile: prevedere canali di escalation e contatti di emergenza per interrompere subito il test in caso di effetti collaterali inattesi.
Questi vincoli non sono burocrazia: proteggono l’azienda, il team di test e gli utenti finali.
Fasi del test (metodologia di alto livello)
Il processo di pen test è un flusso iterativo e documentato. Le fasi tipiche sono:
- Preparazione e scoping Definire obiettivi, asset critici, orari consentiti, risorse coinvolte, criteri di successo e limiti operativi. Stabilire chi autorizza, chi monitora e come verranno comunicati i risultati.
- Ricognizione (passiva e attiva, senza dettagli tecnici) Raccolta di informazioni pubblicamente disponibili e osservazione della superficie di attacco per identificare punti di esposizione. Questa fase aiuta a definire ipotesi di rischio senza interferire con il servizio.
- Valutazione delle vulnerabilità (non esploitazione distruttiva) Uso di strumenti e tecniche per individuare configurazioni errate, patch mancanti o servizi esposti. L’obiettivo è mappare le debolezze potenziali, non compromettere i sistemi oltre il necessario per la verifica.
- Test controllati di sfruttamento (solo se autorizzati) Quando previsto dal mandato, si eseguono verifiche di sfruttamento in modalità limitata per confermare l’effettiva esposizione. Anche in questa fase devono essere stabilite regole chiare per evitare impatti.
- Analisi post-test e correlazione Valutare gli esiti, correlare gli eventi con i log di rete, misurare il tempo di rilevamento e la qualità degli alert generati dai sistemi di sicurezza.
- Reporting operativo Fornire un rapporto strutturato che contenga: descrizione delle vulnerabilità, livelli di rischio, priorità di intervento, prove non sensibili per la riproduzione controllata e raccomandazioni pratiche per la mitigazione.
- Remediation e verifica L’organizzazione applica patch e correttivi; il pen tester verifica la chiusura delle problematiche e misura nuovamente l’efficacia delle contromisure.
- Follow-up e testing continuo La sicurezza non è un evento one-shot: il pen test è parte di una strategia continua che prevede test periodici, vulnerabilità disclosure e integrazione con il ciclo di miglioramento della difesa.
Metodologie e approcci (a grandi linee)
- Black box: il tester opera con conoscenza minima dell’ambiente, simulando un attaccante esterno.
- White box: il tester ha accesso a documentazione e configurazioni per testare a fondo (utile per auditing interno).
- Gray box: combinazione che riflette scenari realistici con conoscenza parziale.
Scegliere l’approccio giusto dipende dagli obiettivi: difesa dagli attacchi esterni, resilienza interna, o verifica approfondita di un’architettura.
Cosa misurare: metriche utili al management
Per rendere operativo il risultato del test è importante misurare e comunicare:
- Tempo medio di rilevamento di un’attività anomala.
- Tempo medio di risposta (automatica o umana) dall’identificazione all’azione di containment.
- Numero di vettori esposti per gravità.
- Impatto potenziale sui dati sensibili (classificazione). Queste metriche trasformano il pen test da esercizio tecnico a leva decisionale per il management.
Reporting: struttura pratica e utile
Un buon report deve essere leggibile in due chiavi: una executive summary per i decisori e una sezione tecnica per gli operatori. Elementi chiave:
- Sintesi esecutiva con rischio residuo e priorità.
- Elenco delle vulnerabilità critiche con impatto e raccomandazioni concrete.
- Timeline degli eventi osservati e grado di evidenza.
- Indicazioni su mitigazioni rapide (remediation immediata) e piani di medio termine.
- Allegati con log rilevanti, ma sanitizzati per non esporre dati sensibili.
Rischi e limitazioni
Un test non copre tutte le minacce: esistono vettori esterni, supply-chain o attacchi mirati che richiedono approcci diversi. Inoltre, la qualità del test dipende dall’accuratezza dello scope e dall’esperienza del team: per infrastrutture critiche conviene affidarsi a provider certificati e con comprovata esperienza.
Linee guida pratiche per le organizzazioni
- Definire periodi regolari di pen testing (annuale/trimestrale a seconda del rischio).
- Integrare pen test con vulnerability management continuo e sistemi di monitoraggio.
- Fornire al team di sicurezza budget e tempo per implementare le mitigazioni suggerite.
- Trattare i report come asset sensibili: accesso ristretto e misure di protezione.
Esempio di packet sniffing con Wireshark
Wireshark è uno degli strumenti di analisi del traffico più diffusi e potenti. Consente di osservare, in tempo reale, i pacchetti che attraversano una rete e di comprendere come i dispositivi comunicano tra loro.
È impiegato quotidianamente dagli analisti di sicurezza per individuare anomalie, verificare connessioni sospette o diagnosticare problemi di rete.
Un test di sniffing simulato può iniziare in modo semplice:
- Si avvia Wireshark e si seleziona l’interfaccia di rete da monitorare (ad esempio Wi-Fi o Ethernet).
- Si clicca su Start Capture per iniziare a raccogliere i pacchetti.
- Dopo alcuni secondi di navigazione o di attività in rete, si interrompe la cattura con Stop.
A questo punto, l’interfaccia mostra migliaia di pacchetti con dettagli come il protocollo, l’indirizzo IP di origine e destinazione e lo stato della connessione.
L’utente può applicare filtri per analizzare solo un certo tipo di traffico — ad esempio http, dns, o tcp.port == 80 — e isolare ciò che interessa.
Quando il traffico non è crittografato, è possibile leggere informazioni sensibili come cookie, parametri di login o dati di sessione.
Per questo motivo, Wireshark è anche uno strumento chiave per dimostrare l’importanza dell’uso del protocollo HTTPS e della cifratura end-to-end.
Esempio pratico:
Un analista cattura una sessione HTTP su una rete aperta. In chiaro, compaiono parametri di accesso come username=admin&password=1234.
Questo esperimento dimostra quanto sia facile intercettare dati non protetti e sottolinea la necessità di connessioni cifrate.
Packet sniffing con airodump-ng
Mentre Wireshark analizza il traffico a connessione stabilita, airodump-ng lavora nella fase precedente: la pre-connessione.
È lo strumento più usato nei test di sicurezza wireless per visualizzare tutte le reti presenti in un’area e monitorare i dispositivi connessi.
Il suo scopo non è “attaccare”, ma osservare.
Attivando la modalità monitor, un adattatore compatibile può intercettare pacchetti trasmessi nell’etere, anche se non destinati al computer in uso.
Questa funzione è utile per verificare la robustezza di una rete Wi-Fi e identificare configurazioni deboli.
Esempio simulato:
Un analista attiva la modalità monitor sull’adattatore (wlan0mon) e lancia il comando:
sudo airodump-ng wlan0mon
Dopo pochi secondi, compare una tabella con le reti disponibili:
- BSSID: indirizzo del router (sfocato per privacy)
- CH: canale di trasmissione
- PWR: potenza del segnale
- ENC: tipo di crittografia (WEP, WPA, WPA2, WPA3)
- ESSID: nome della rete
Se si vuole concentrare l’analisi su una rete specifica, basta aggiungere il canale e il BSSID:
sudo airodump-ng -c 6 –bssid AA:BB:CC:DD:EE:FF -w cattura wlan0mon
Il comando genera un file .cap contenente i pacchetti catturati, utile per test successivi o analisi in laboratorio.
È importante ricordare che l’utilizzo di questi strumenti è eticamente e legalmente ammesso solo per reti di cui si possiede l’autorizzazione o a fini di ricerca controllata.
Bande Wi-Fi e limiti degli adattatori
Le reti Wi-Fi operano su due principali bande di frequenza: 2,4 GHz e 5 GHz. Entrambe trasportano dati attraverso onde radio, ma con differenze significative in termini di prestazioni, copertura e compatibilità.
La banda a 2,4 GHz: copertura ampia, interferenze elevate
La frequenza a 2,4 GHz è la più utilizzata e garantisce una copertura più ampia, rendendola ideale per ambienti domestici e spazi con ostacoli fisici. Tuttavia, la sua ampia diffusione comporta anche un maggior rischio di interferenze, poiché molti dispositivi comuni — come microonde, baby monitor o router economici — operano sulla stessa banda.
Dal punto di vista della sicurezza, questa banda è anche la più frequentemente sfruttata dagli aggressori per attività di sniffing o spoofing, proprio per la sua accessibilità. Strumenti di analisi come airodump-ng tendono infatti a rilevare quasi esclusivamente reti a 2,4 GHz, a meno che l’adattatore non supporti esplicitamente frequenze più elevate.
La banda a 5 GHz: velocità e precisione
La banda a 5 GHz offre maggiore velocità di trasmissione e minore congestione rispetto ai 2,4 GHz, ma a scapito della portata. Le onde più corte si attenuano rapidamente con muri e ostacoli, rendendola più adatta per uffici moderni e ambienti aperti. In cambio, garantisce canali più larghi e una latenza ridotta, caratteristiche essenziali per applicazioni in tempo reale come streaming, gaming o reti aziendali sicure.
Dal punto di vista della sicurezza, la 5 GHz riduce il rischio di interferenze casuali e limita la superficie d’attacco, ma solo se l’hardware è aggiornato e compatibile con gli standard WPA2 o WPA3.
Limiti tecnici degli adattatori di rete
Molti adattatori wireless integrati nei laptop non supportano la modalità monitor, indispensabile per test di sicurezza o attività di analisi. Questa modalità consente di catturare pacchetti non destinati al dispositivo stesso, una funzionalità necessaria per verificare la robustezza della rete ma anche un potenziale vettore di abuso.
Gli adattatori di rete professionali, invece, permettono non solo il monitoraggio passivo ma anche la selezione di canali multipli e il rilevamento di reti a 5 GHz, garantendo così analisi più complete e affidabili.
In un contesto di sicurezza, la scelta dell’adattatore incide direttamente sulla qualità del monitoraggio e sulla capacità di risposta. Utilizzare strumenti non compatibili con le nuove frequenze o privi di supporto alle modalità avanzate significa ridurre la visibilità e quindi l’efficacia della difesa.
In sintesi
La corretta gestione delle bande Wi-Fi e la scelta di adattatori compatibili sono elementi fondamentali per una rete realmente sicura. Le analisi condotte esclusivamente a 2,4 GHz rischiano di lasciare zone d’ombra in cui un attaccante potrebbe operare indisturbato. L’obiettivo, anche in un’ottica autodifensiva, è ottenere una copertura completa e dinamica dello spettro, integrando la velocità della 5 GHz con la resilienza della 2,4 GHz.
Conclusione
Dalla nascita del protocollo WEP nel 1997 alla diffusione di WPA3, la sicurezza delle reti Wi-Fi ha attraversato più di vent’anni di trasformazioni e vulnerabilità. Ogni evoluzione è nata come risposta a una nuova minaccia: un ciclo continuo di attacco, scoperta e difesa che ha reso la cybersecurity una disciplina viva e in costante mutamento.
Oggi la sfida non è più soltanto cifrare i dati, ma rendere le reti capaci di proteggersi da sole.
Le reti autodifensive rappresentano questa nuova frontiera: sistemi che analizzano il traffico, imparano dai comportamenti anomali e reagiscono in modo autonomo. Invece di aspettare un alert, intervengono in tempo reale, isolano il rischio e adattano le proprie regole di sicurezza per affrontare minacce sempre più sofisticate.
Il test di penetrazione, in questo contesto, non è un semplice esercizio tecnico: è il modo in cui si misura la maturità di una rete. Serve a capire quanto il sistema riesca a individuare, bloccare e mitigare un attacco prima che questo comprometta i dati o la continuità del servizio.
La transizione verso WPA3 e verso modelli di difesa adattiva non è quindi un punto d’arrivo, ma un passo verso la sicurezza cognitiva: infrastrutture che non solo reagiscono, ma apprendono, migliorano e si evolvono insieme alle minacce.
In un mondo connesso in cui ogni dispositivo può essere un potenziale punto d’ingresso, la vera protezione non sta solo nella tecnologia, ma nella capacità di anticipare il pericolo.
La cybersecurity moderna è, in definitiva, una corsa a due velocità: quella dell’attaccante e quella della rete che impara a difendersi.
Chi saprà farle coincidere garantirà la stabilità del futuro digitale.
L'articolo Sicurezza Wi-Fi: Evoluzione da WEP a WPA3 e Reti Autodifensive proviene da Red Hot Cyber.
Sicurezza Wi-Fi: Evoluzione da WEP a WPA3 e Reti Autodifensive
📌 Link all'articolo : redhotcyber.com/post/sicurezza…
#redhotcyber #news #retewifi #sicurezzainformatica #wpa3 #retiautodifensive #sistemintelligenti #cybersecurity #minacceinformatica #connettivita #difesaadattiva #futurodellrete #sicurezzadellereti #wifisicuro
Sicurezza Wi-Fi: Evoluzione da WEP a WPA3 e Reti Autodifensive
Dalla crittografia WEP a WPA3, la sicurezza Wi-Fi evolve verso reti autodifensive: sistemi che imparano, reagiscono e si proteggono da soli.Francesco Demarcus (Red Hot Cyber)
Cybersecurity & cyberwarfare reshared this.
Another Thermal Printer, Conquered
The arrival of cheap thermal printer mechanisms over the last few years has led to a burst of printer hacking in our community, and we’re sure many of you will like us have one knocking around somewhere. There are a variety of different models on the market, and since they often appear in discount stores we frequently see new ones requiring their own reverse engineering effort. [Mel] has done some work on just such a model, the Core Innovation CTP-500, which can be found at Walmart.
The write-up is a tale of Bluetooth reverse engineering as much as it is one about the device itself, as he sniffs the protocol it uses, and finds inspiration from the work of others on similar peripherals. The resulting Python app can be found in his GitHub repository, and includes a TK GUI for ease of use. We like this work and since there’s an analogous printer from a European store sitting on the Hackaday bench as we write this, it’s likely we’ll be giving it a very close look.
Meanwhile if [Mel] sounds a little familiar it might be because of their print-in-place PCB holder we featured recently.
securityaffairs.com/184452/hac…
#securityaffairs #hacking
U.S. CISA adds Samsung mobile devices flaw to its Known Exploited Vulnerabilities catalog
U.S. Cybersecurity and Infrastructure Security Agency (CISA) adds Samsung mobile devices flaw to its Known Exploited Vulnerabilities catalog.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
Inside Out: perché la Tristezza è il tuo miglior firewall
Siamo ossessionati da firewall e crittografia. Investiamo miliardi in fortezze digitali, ma le statistiche sono inesorabili: la maggior parte degli attacchi cyber non inizia con un difetto nel codice, ma con un difetto nel carattere umano.
La verità è questa: l’unica vulnerabilità che conta davvero è quella psicologica.
Faremo un viaggio radicale. Prenderemo il manuale di istruzioni più efficace che esista per la nostra difesa personale: il capolavoro animato della Pixar, Inside Out (2015).
Come psicologo, filosofo e coach, mostrerò come le dinamiche interiori del film non siano solo una metafora della mente, ma una dottrina di resilienza cibernetica che affonda le radici in Aristotele, Freud e nelle scienze cognitive.
La nostra mente è la nostra ultima e più complessa linea di difesa.
La Console Emotiva: il quartier generale
Nel film, le cinque emozioni (Gioia, Tristezza, Rabbia, Paura, Disgusto) sono gli operatori che lottano per il controllo della console, il nostro interfaccia decisionale.
In termini psicoanalitici, questo quartier generale corrisponde all’Io (Ego) di Sigmund Freud, l’istanza che media tra gli impulsi dell’Es e le richieste del Super-Io e della realtà esterna.
Il social engineering è il tentativo di hackerare questo Ego digitale, sfruttando le sue debolezze.
La console è il luogo della Phronesis (Prudenza) aristotelica, la virtù intellettuale che ci permette di deliberare bene su ciò che è buono e vantaggioso non solo in generale, ma in situazioni specifiche.
Quando le emozioni prendono il sopravvento, la Phronesis viene bypassata.
L’arma a doppio taglio delle emozioni (Paura, Rabbia, Gioia)
I cybercriminali non disattivano le nostre difese emotive; le manipolano per creare un cortocircuito cognitivo.
1. La Paura (IDS)
È il nostro Sistema di Rilevamento delle Intrusioni (IDS).
La sua funzione, riconosciuta anche da Aristotele come elemento essenziale della prudenza (eulabeia), è la prevenzione del danno. Tuttavia, quando i phishing attivano la paura della perdita (“Il tuo account verrà bloccato!”), essa paralizza il giudizio critico.
La Paura è un ottimo sensore, ma un pessimo decisore.
Strategia del Coach: eseguire il “Protocollo 3 Secondi”.
Mettiamo in pausa e respiriamo: inspiriamo lentamente, espiriamo lentamente. Questo attiva la corteccia prefrontale, l’area del cervello responsabile del ragionamento esecutivo, e disinnesca l’amigdala, il centro della paura. Riconoscere l’emozione ci aiuta a prendere le distanze.
2. Rabbia e Gioia (Impulso)
Queste emozioni sono i driver dell’impulsività.
La promessa esagerata di un guadagno facile (sfruttando la Gioia e la FOMO – Fear of Missing Out) o la comunicazione aggressiva che innesca la rabbia (il “breve delirio” condannato da Seneca) bypassano il filtro critico.
In termini di scienze cognitive, il cyberattacco mira a costringere la mente a operare in Sistema 1 (pensiero veloce, intuitivo, emotivo), eludendo il Sistema 2 (pensiero lento, logico, analitico).
Strategia del Coach: allenare il nostro “disgusto cognitivo”.
Ogni volta che proviamo un picco emotivo intenso (Gioia eccessiva, Rabbia improvvisa, Paura paralizzante) in risposta a un’interazione digitale, rifiutiamo di ingerire l’informazione o l’offerta sospetta e sospendiamo l’azione analizzando il contesto.
Nel momento in cui ci costringiamo a fare la verifica (Sistema 2) su un’informazione sospetta, stiamo rafforzando la nostra disciplina mentale contro la manipolazione.
L’Integrazione Emotiva: la potenza della Tristezza
La crisi di Riley inizia quando Gioia tenta di escludere la Tristezza.
Questo tentativo di negazione emotiva è, nel mondo digitale, il rifiuto della vulnerabilità.
- La Tristezza: non è un bug, ma una feature. Segnala la necessità di supporto dopo un errore. L’utente che, per negazione della Tristezza (paura del giudizio), non ammette l’errore digitale (“Ho cliccato sul link sbagliato”), mette a rischio l’intero sistema.
- Resilienza: l’accettazione della Tristezza è l’accettazione della vulnerabilità. La sicurezza, deriva dall’integrazione sinergica di tutte le emozioni: trasformare l’errore (Tristezza) in apprendimento (la complessa Memoria Centrale di Riley).
L’integrazione delle emozioni è la chiave per la maturità emotiva!
In conclusione
La nostra missione finale, come professionisti e individui, è superare la “tirannia della Gioia”: la convinzione ossessiva che si debba essere sempre impeccabili, sempre on-line e mai in errore.
La sicurezza non è perfezione; è resilienza!
L’autenticità emotiva, la capacità di sentire e integrare la Tristezza (l’errore) e la Paura (il rischio) è la nostra forma di self-ware più avanzata.
Solo imparando a fare debugging delle nostre reazioni emotive possiamo raggiungere l’eudaimonia digitale: uno stato di benessere in cui tutte le emozioni coesistono, producendo una vera armonia psicofisica.
La maturità cibernetica, proprio come per Riley, sta nell’integrare la Tristezza (l’ammissione dell’errore) per trasformare ogni fallimento in apprendimento e resilienza.
Il Cyber Coaching in 3 Passi
- Mappiamo la nostra Console Emotiva: dopo un’interazione digitale stressante o sospetta (un’email di phishing, un messaggio aggressivo), chiediamoci: “Chi è al comando della console in questo momento?” (Gioia, Paura, Rabbia, Disgusto?). La consapevolezza è la prima linea di difesa contro la manipolazione.
- Trasformiamoci in Supervisori: insegniamo al nostro Ego (l’Io) a non agire immediatamente quando una singola emozione urla. Il nostro ruolo non è eliminare Paura o Rabbia, ma dare loro un posto al tavolo decisionale, gestito dalla Phronesis (Prudenza).
- Abbracciamo il Growth Mindset: quando si verifica un errore (abbiamo cliccato, siamo stati truffati, abbiamo dubbi), non neghiamo la Tristezza o la Vergogna. Riconosciamole e trasformiamo la memoria centrale da “errore inconfessabile” a “lezione appresa e condivisa”. Il nostro errore diventa un firewall per gli altri!
Coach’s Challenge
- Chi è al comando della nostra Console Emotiva in questo momento?”
- In che modo la Paura e il Disgusto possono essere re-ingegnerizzati dopo un data breach oppure dopo un phishing ?
- In che modo il raggiungimento della “maturità emotiva” di Riley si traduce concretamente in un comportamento digitale più sicuro e resiliente?
L'articolo Inside Out: perché la Tristezza è il tuo miglior firewall proviene da Red Hot Cyber.
securityaffairs.com/184439/hac…
#securityaffairs #hacking
Critical Triofox bug exploited to run malicious payloads via AV configuration
Hackers exploited Triofox flaw CVE-2025-12480 to bypass auth and install remote access tools via the platform’s antivirus feature.Pierluigi Paganini (Security Affairs)
Cybersecurity & cyberwarfare reshared this.
Inside Out: perché la Tristezza è il tuo miglior firewall
📌 Link all'articolo : redhotcyber.com/post/inside-ou…
#redhotcyber #news #cybersecurity #hacking #resilienzacibernetica #sicurezzainformatica #difesacibernetica #emozioniecontrollo
Inside Out: perché la Tristezza è il tuo miglior firewall
Siamo ossessionati da firewall e crittografia. Investiamo miliardi in fortezze digitali, ma le statistiche sono inesorabili: la maggior parte degli attacchi cyber non inizia con un difetto nel codice, ma con un difetto nel carattere umano.Daniela Farina (Red Hot Cyber)
Cybersecurity & cyberwarfare reshared this.
Programming the 6581 Sound Interface Device (SID) with the 6502
Over on YouTube, [Ben Eater] pursues that classic 8-bit sound. In this video, [Ben] integrates the MOS Technology 6581 Sound Interface Device (SID) with his homegrown 6502. The 6581 SID was famously used in the Commodore line of computers, perhaps most notably in the Commodore 64.
The 6581 SID supports three independent voices, each consisting of a tone oscillator/waveform generator, an envelope generator, and an amplitude modulator. These voices are combined into an output filter along with a volume control. [Ben] goes into detail concerning how to configure each of these voices using the available facilities on the available pins, referencing the datasheet for the details.
[Ben]’s video finishes with an 8-bit hit from all the way back in October 1985: Monty on the Run by Rob Hubbard. We first heard about [Ben’s] musical explorations back in June. If you missed it, be sure to check it out. It seems hard to imagine that demand for these chips has been strong for decades and shows little sign of subsiding.
youtube.com/embed/LSMQ3U1Thzw?…
La schermata blu della morte di Windows 98 che cambiò i piani di Microsoft
Era il 20 aprile 1998. Microsoft rimase così imbarazzata dall’iconica schermata blu di errore di Windows 98 sul palco decise di cambiare i piani per la costruzione di una nuova sede nel suo campus di Redmond. L’obiettivo era garantire che un incidente del genere non si ripeta mai più durante le presentazioni pubbliche.
Questo momento memorabile si verificò alla grande fiera COMDEX, diversi mesi prima del rilascio ufficiale di Windows 98. Bill Gates stava tenendo la presentazione principale e il dipendente Microsoft Chris Caposselastava illustrando una nuova funzionalità: il supporto plug-and-play per i dispositivi USB.
Mentre collegava uno scanner, che avrebbe dovuto scaricare automaticamente i driver, il sistema mostrò una schermata blu della morte BSOD (Blue Screen Of Death), proprio di fronte al pubblico. Gates reagì con umorismo, scherzando sul fatto che questo spiegasse perché Windows 98 non fosse ancora stato rilasciato, ma all’interno dell’azienda l’incidente ebbe un impatto molto più grave.
Il veterano di Microsoft Raymond Chen ha recentemente scritto sul suo blog che i Microsoft Production Studios dedicati “erano stati progettati proprio all’epoca della schermata blu che compariva quando si collegava un cavo USB a Windows 98“.
In seguito all’incidente, la planimetria dell’edificio è stata modificata, aggiungendo una stanza accanto allo studio principale per preparare e testare tutte le apparecchiature informatiche prima delle trasmissioni in diretta. Le apparecchiature sono state quindi configurate e testate prima di essere consegnate ai conduttori del programma.
Chen ha anche spiegato la ragione tecnica del problema. Il team di sviluppo di Windows aveva testato lo scanner in laboratorio e ne aveva confermato la funzionalità, ma il team che preparava la demo utilizzava un dispositivo diverso: aveva semplicemente acquistato lo scanner in un negozio di elettronica locale.
Questo particolare scanner tentava di assorbire più energia dalla porta USB di quanto consentito dalle specifiche e il team di sviluppo non aveva ancora gestito questo errore. Il risultato è stata una schermata blu di errore di fronte all’intero pubblico.
L’aggiunta di una sala prove ai Microsoft Production Studios fu una conseguenza diretta di questo incidente.
L’azienda non voleva che si ripetesse il disastro della schermata blu durante una diretta streaming e, secondo Chen, la strategia funzionò: incidenti del genere non si sono mai più verificati. Per quanto riguarda lo sfortunato scanner, secondo un ex dipendente Microsoft, il dispositivo venne poi collegato a un elmetto da fante della Seconda Guerra Mondiale, indossato da Brad Carpenter nelle sale operative di Windows per il resto del ciclo di sviluppo del prodotto.
L'articolo La schermata blu della morte di Windows 98 che cambiò i piani di Microsoft proviene da Red Hot Cyber.
Alla scoperta dell’HTTP Request Smuggling: cos’è e come difendersi
Immaginiamo una metropolitana notturna in cui le richieste sono vagoni che scorrono uno dopo l’altro. Il front end fa da bigliettaio e smista i vagoni, il back end è il deposito che li riceve e li lavora. Se il bigliettaio e il deposito non sono d’accordo su dove finisce un vagone e inizia quello successivo, si apre una fessura che qualcuno può sfruttare per infilare un vagone nascosto. Quel vagone nascosto è il contrabbando di richieste HTTP.
Nel mondo reale la cosa prende forma quando componenti diversi della catena di comunicazione interpretano in modo diverso la lunghezza del corpo di una richiesta. In HTTP versione uno ci sono due modi per dichiarare la lunghezza del corpo, uno è il content length e l’altro è la transfer encoding in modalità chunked. Quando i nodi intermedi o i server finali non concordano su quale metodo utilizzare, la stessa sequenza di byte può essere letta da un elemento come parte della richiesta corrente e da un altro come l’inizio della richiesta successiva.
Questo disaccordo non è una sottigliezza teorica ma una vera leva d’attacco. Le varianti che si incontrano più spesso sono quelle in cui il front end prende come riferimento il valore di lunghezza mentre il back end interpreta la codifica a blocchi, oppure il contrario, oppure ancora situazioni in cui entrambi supportano la codifica a blocchi ma uno dei due ignora l’intestazione perché leggermente deformata con spazi, tabulazioni o formattazioni non standard. In tutti i casi il risultato effettivo è lo stesso, una parte di dati che si ritrova dove non doveva essere e che può alterare il comportamento di richieste legittime successive.
Le conseguenze pratiche possono diventare molto serie. Una richiesta prepended può cambiare il contesto di una transazione e far credere al server che una chiamata autenticata appartenga a un utente diverso. Si possono rubare sessioni, bypassare filtri, avvelenare cache o inserire comandi nella sequenza di richieste che colpisce utenti successivi sulla stessa connessione. In ambienti moderni il rischio aumenta quando c’è il downgrade da HTTP due a HTTP uno perché la riscrittura o la traduzione dei messaggi introduce ulteriori punti di ambiguità, e quando le connessioni backend vengono riutilizzate per inviare più richieste una dopo l’altra perché il riuso moltiplica le possibilità che dati residui vengano interpretati come nuova richiesta.
Per capire dove guardare basta osservare i comportamenti divergenti tra front end e back end, le intestazioni duplicate o non conformi che emergono nei log e i casi in cui i log mostrano mismatch tra la lunghezza dichiarata e il contenuto reale. Questi segnali non sono la prova definitiva di una vulnerabilità ma sono la traccia che indica che la catena di elaborazione non è allineata e che vale la pena investigare. Dal punto di vista di chi progetta e mantiene l’infrastruttura la soluzione più robusta è eliminare l’ambiguità alla fonte.
La comunicazione end to end su HTTP due risolve il problema alla radice perché quel protocollo fornisce un unico, solido meccanismo per definire le dimensioni delle richieste. Quando non è possibile mantenere HTTP due su tutta la filiera la fase di traduzione verso HTTP uno deve essere trattata come un punto critico: la richiesta riscritta va verificata rispetto alla specifica e gli elementi della catena non devono tollerare deviazioni formattative che possano essere interpretate in modo diverso. Nei pezzi dell’infrastruttura che si occupano di accettare e inoltrare traffico è utile normalizzare le richieste e rilevare le ambiguità invece di tentare di correggerle in modo silente. Il back end, di norma, dovrebbe chiudere la connessione quando non è possibile risolvere un’ambiguità in modo certo, perché mantenere aperte connessioni impure è ciò che permette al contrabbando di propagarsi.
Limitare o controllare il riutilizzo delle connessioni backend riduce la finestra d’attacco anche se non la elimina del tutto. È importante anche uniformare la gestione delle intestazioni che determinano la lunghezza del corpo e non accettare varianti non standard che possono essere sfruttate per mascherare la codifica. A complemento di queste scelte architetturali, test specifici che replicano scenari di desincronizzazione e monitoraggio attento dei log aiutano a individuare regressioni e incidenti reali.
Da ultimo, vale la pena ricordare che le tecniche che permettono di generare desincronizzazione sono potenti e pericolose se usate senza autorizzazione, quindi la loro esplorazione va sempre confinata ad ambienti controllati e autorizzati e qualsiasi scoperta in sistemi di terzi va gestita con responsabilità e disclosure appropriata. Capire il meccanismo del contrabbando di richieste significa riconoscere che non stiamo parlando di bug isolati ma di disallineamenti di protocollo che emergono nelle catene complesse di servizi, ed è proprio per questo che la difesa efficace nasce dall’allineamento dei protocolli, dalla standardizzazione dei comportamenti e dalla capacità di osservare e reagire quando le cose non tornano.
L'articolo Alla scoperta dell’HTTP Request Smuggling: cos’è e come difendersi proviene da Red Hot Cyber.
Roblox: la piattaforma che mette a rischio la sicurezza dei bambini
Con oltre 100 milioni di utenti attivi al giorno, Roblox attrae innumerevoli bambini in tutto il mondo. Quasi la metà del suo pubblico ha meno di 13 anni e, in Australia, i giovani giocatori trascorrono in media 137 minuti al giorno nel mondo virtuale. Tuttavia, dietro l’immagine vibrante di avatar squadrati e milioni di giochi generati dagli utenti si nasconde una realtà inquietante, come rivelato da una giornalista del Guardian che ha deciso di immergersi in questo mondo per una settimana, fingendosi una bambina di otto anni.
L’esperimento è iniziato con la registrazione, che si è rivelata estremamente semplice: bastava un nome utente, la data di nascita e una casella di controllo che indicava che i miei genitori mi avevano dato il permesso di creare un account.
Non è stata richiesta alcuna verifica aggiuntiva. La prima tappa è stata Dress to Impress, uno dei giochi più popolari, che ha ricevuto oltre sei miliardi di visite dal suo lancio nel novembre 2023. Vogue ha persino riferito che gli appassionati di moda adulti si sono uniti al pubblico dei bambini e che il gioco stesso viene promosso come un marchio di moda.
Tuttavia, dietro la facciata del gioco di moda, emersero elementi inquietanti. Gli avatar assomigliano a bambole Barbie grigie con proporzioni innaturali e corpi avvolti in abiti succinti. Il gioco presenta una “stanza della carne” nel seminterrato che ricorda le viscere umane, stanze segrete che alludono a una donna scomparsa e uno degli aggiornamenti precedenti includeva un dungeon con una donna in gabbia. Un aggiornamento recente permetteva ai giocatori di colpire altri giocatori con pomodori o escrementi virtuali, in cambio di denaro reale.
Nel corso di una settimana, la bambina virtuale ha subito cyberbullismo, diffamazioni aggressive, molestie sessuali e insulti, il tutto con i controlli parentali attivati.
In un gioco, un altro utente si è seduto sul volto dell’avatar di un giornalista e ha iniziato a fare movimenti inappropriati, ignorando le richieste di fermarlo. In un altro, un gruppo di giocatori ha insultato il personaggio, definendolo una “ragazza brutta e sporca”. L’accesso a casinò, giochi horror, dungeon e innumerevoli giochi di ruolo con interazioni libere con sconosciuti è rimasto aperto all’account della bambina.
Il professor Marcus Carter dell’Università di Sydney paragona gli acquisti in-game sulla piattaforma al “gioco d’azzardo infantile“. Sottolinea la crescente tendenza delle funzionalità “pay to troll” che monetizzano il desiderio dei giocatori di molestare gli altri. Roblox, un’azienda da 92 miliardi di dollari, ricava almeno il 30% di tutte le transazioni sulla piattaforma, basando di fatto il suo business sui giochi creati dagli utenti, molti dei quali sono bambini. Carter definisce questo fenomeno come sfruttamento del lavoro minorile attraverso il gaming.
Particolarmente preoccupante è il fatto che molti giochi popolari siano gestiti da adolescenti. La creatrice di Dress to Impress, conosciuta come Gigi, afferma di aver iniziato a sviluppare il gioco a 14 anni e di averlo lanciato a 16.
L’anno scorso, ha ammesso di aver fatto battute inappropriate sulla violenza e di aver gestito un server di contenuti per adulti su Discord quando era minorenne. Uno degli amministratori del gioco, ventenne, è stato licenziato dopo essere stato accusato di aver adescato una sedicenne.
La piattaforma è stata a lungo accusata di essere pericolosa per i bambini. Diverse cause legali sono state intentate contro l’azienda negli Stati Uniti , descrivendo casi di minori adescati online e poi abusati. Il Procuratore Generale della Louisiana ha dichiarato che le falle di sicurezza di Roblox hanno creato un terreno fertile per pedofili e terroristi .
La Commissaria australiana per la sicurezza informatica, Julie Inman Grant, è in trattativa con l’azienda per nuove misure di sicurezza.
Roblox si è impegnata a rendere privati per impostazione predefinita gli account degli utenti di età inferiore ai 16 anni e a introdurre strumenti per impedire agli adulti di contattare i minori senza il consenso dei genitori entro la fine dell’anno. Un portavoce dell’azienda ha dichiarato l’impegno per la sicurezza e oltre 100 miglioramenti in questo ambito quest’anno. Tuttavia, Carter, la cui carriera professionale riguarda i videogiochi, ammette di non avere intenzione di permettere al figlio di quattro anni di giocare a Roblox.
L'articolo Roblox: la piattaforma che mette a rischio la sicurezza dei bambini proviene da Red Hot Cyber.
132 - Facebook guadagna sulle truffe - Marco Camisani Calzolari
Facebook guadagna sulle truffe! Scoperti documenti interni che lo dimostrano. Avete presente quando segnalate post truffa su Facebook e vi rispondono “non viola le policy”? Ecco, non è un caso.Web Staff MCC (Marco Camisani Calzolari)
Cybersecurity & cyberwarfare reshared this.
La schermata blu della morte di Windows 98 che cambiò i piani di Microsoft
📌 Link all'articolo : redhotcyber.com/post/la-scherm…
#redhotcyber #hacking #cti #ai #online #it #cybercrime #cybersecurity #technology #news #cyberthreatintelligence #innovation #privacy
La schermata blu della morte di Windows 98 che cambiò i piani di Microsoft
La famosa schermata blu di Windows 98 durante una presentazione spinse Microsoft a cambiare i piani per il suo nuovo campus e a creare una sala prove.Redazione RHC (Red Hot Cyber)
Ricardo Antonio Piana likes this.
reshared this
Alla scoperta dell’HTTP Request Smuggling: cos’è e come difendersi
📌 Link all'articolo : redhotcyber.com/post/alla-scop…
Immaginiamo una metropolitana notturna in cui le richieste sono vagoni che scorrono uno dopo l’altro. Il front end fa da bigliettaio e smista i vagoni, il back end è il deposito che li riceve e li lavora.
Se il bigliettaio e il deposito non sono d’accordo su dove finisce un vagone e inizia quello successivo, si apre una fessura che qualcuno può sfruttare per infilare un vagone nascosto. Quel vagone nascosto è il contrabbando di richieste HTTP.
A cura di Diego Bentivoglio
#redhotcyber #news #frontend #backend #sisteminformatici #architetturadisistemi #metropolitana #analogiedigitali #svilupposoftware #ingegneriadellinformazione #informatica #tecnologieinformatiche #sistemidigestione #datielaborazione
Alla scoperta dell'HTTP Request Smuggling: cos'è e come difendersi
Scopri cos'è l'HTTP Request Smuggling come proteggerti da questa vulnerabilità. Impara a identificare e risolvere i disaccordi tra front-end e back-end.Diego Bentivoglio (Red Hot Cyber)
Cybersecurity & cyberwarfare reshared this.
Roblox: la piattaforma che mette a rischio la sicurezza dei bambini
📌 Link all'articolo : redhotcyber.com/post/roblox-la…
#redhotcyber #news #roblox #sicurezzainformatica #minori #online #cybersecurity #hacking #malware #privacy #verificaeta #sicurezzaonline #datipersonali #protezioneminori
Roblox: la piattaforma che mette a rischio la sicurezza dei bambini
La piattaforma di gioco Roblox è stata accusata di essere pericolosa per i bambini a causa della mancanza di controlli sulla sicurezza e della presenza di contenuti inappropriati.Redazione RHC (Red Hot Cyber)
Ricardo Antonio Piana likes this.
Cybersecurity & cyberwarfare reshared this.
The Sanskrit Square Root Algorithm
Years ago, no math education was complete without understanding how to compute a square root. Today, you are probably just reaching for a calculator, or if you are writing a program, you’ll probably just guess and iterate. [MindYourDecisions] was curious how people did square roots before they had such aids. Don’t remember? Never learned? Watch the video below and learn a new skill.
The process is straightforward, but if you are a product of a traditional math education, you might find his terminology a bit confusing. He will refer to something like 18b meaning “a three-digit number where the last digit is b,” not “18 times b,” as you might expect.
If you think the first few examples are a little convenient, don’t worry. The video gets harder as you go along. By the end, you’ll be working with numbers that have fractional parts and whose square roots are not integers.
Speaking of the last part, stay tuned for the end, where you’ll learn the origin of the algorithm and why it works. Oddly, its origin is a Sanskrit poem. Who knew? He also talks about other ways the ancients computed square roots. As for us, we’ll stick with our slide rule.
youtube.com/embed/6evC4klO_lI?…
Investigating Soldering Iron Phantom Voltage
Just because you are paranoid doesn’t mean people aren’t out to get you. Do you think your soldering iron is after you? Well, [nanofix] asks (and answers): Is My Soldering Iron Dangerous?
He has a look at his cheap FNIRSI soldering station and measures a “phantom voltage” of nearly 50 volts AC across the tip of his iron and earth ground. He explains that this phantom voltage is a very weak power source able to provide only negligible measures of current; indeed, he measures the short circuit current as 0.041 milliamps, or 41 microamps, which is negligible and certainly not damaging to people or components.
He pops open his soldering iron power supply (being careful to discharge the high voltage capacitor) and has a look at the switched mode power supply, with a close look at the optocoupler and Y-class capacitor, which bridge the high voltage and low voltage sides of the circuit board. The Y-class capacitor is a special type of safety capacitor designed to fail open rather than fail short. The Y-class capacitor is there to remove high-frequency noise. Indeed, it is this capacitor that is the cause of the phantom voltage on the iron tip.
He continues by explaining that you can install a 1M resistor across some pads on the high-voltage side of the board if you really want to get rid of the phantom voltage on your iron, but he emphasizes that this isn’t really necessary. And to finish, he demonstrates that a sensitive MOSFET isn’t damaged at all when it’s connected to the phantom voltage.
It is perhaps worth noting that there is a difference between phantom voltage (as seen above with negligible power) and phantom power. Phantom power can deliver non-negligible amounts of power and is often used in microphones.
youtube.com/embed/_GCIccA5e5U?…

Il caso Francesco Nicodemo, vediamo come funziona Paragon Graphite
@Informatica (Italy e non Italy 😁)
Si dice che nel mondo dello spionaggio digitale commerciale, i nomi cambino ma la musica resti la stessa. L’ultima prova arriva da casa nostra, dove Francesco Nicodemo, un consulente politico, si è trovato nel mirino di Graphite, il spyware prodotto dall’israeliana Paragon
Informatica (Italy e non Italy 😁) reshared this.
Parade du Grotesque 💀
in reply to Catalin Cimpanu • • •Block and report.
Mastodon.social is quickly becoming the cesspit of the Fediverse.
Space Invader
in reply to Catalin Cimpanu • • •