Salta al contenuto principale



This Plotter Knows No Boundaries


If your school in the 1980s was lucky enough to have a well-equipped computer lab, the chances are that alongside the 8-bit machines you might have found a little two-wheeled robot. These machines and the Logo programming language that allowed them to draw simple vector graphics were a popular teaching tool at the time. They’re long-forgotten now, but not in the workshop of [Niklas Roy], who has created a modern-day take on their trundling.

His two-wheeled robots form simple but effective vector plotters, calculating the paths between coordinates with a consistency that surprised him. They’re used for artwork rather than functional plotting, but we’re guessing they could be used for either. We particularly like the drawing battle between a pair of drawing bots and an eraser bot, as it reminds us of a pixelflood screen.

The parts are all straightforward, its brain is an Arduino Nano, and the files can be downloaded for you to build your own. If you’re falling down the Logo rabbit hole as he did, then it’s not the first time we’ve been there.


hackaday.com/2025/09/02/this-p…



Applying Thermal Lining to Rocket Tubes Requires a Monstrous DIY Spin-caster


[BPS.space] takes model rocketry seriously, and their rockets tend to get bigger and bigger. If there’s one thing that comes with the territory in DIY rocketry, it’s the constant need to solve new problems.
Coating the inside of a tube evenly with a thick, goopy layer before it cures isn’t easy.
One such problem is how to coat the inside of a rocket motor tube with a thermal liner, and their solution is a machine they made and called the Limb Remover 6000 on account of its ability to spin an 18 kg metal tube at up to 1,000 rpm which is certainly enough to, well, you know.

One problem is that the mixture for the thermal liner is extremely thick and goopy, and doesn’t pour very well. To get an even layer inside a tube requires spin-casting, which is a process of putting the goop inside, then spinning the tube at high speed to evenly distribute the goop before it cures. While conceptually straightforward, this particular spin-casting job has a few troublesome difficulties.

For one thing, the uncured thermal liner is so thick and flows so poorly that it can’t simply be poured in to let the spinning do all the work of spreading it out. It needs to be distributed as evenly as possible up front, and [BPS.space] achieves that with what is essentially a giant syringe that is moved the length of the tube while extruding the uncured liner while the clock is ticking. If that sounds like a cumbersome job, that’s because it is.

The first attempt ended up scrapped but helped identify a number of shortcomings. After making various improvements the second went much better and was successfully tested with a 12 second burn that left the tube not only un-melted, but cool enough to briefly touch after a few minutes. There are still improvements to be made, but overall it’s one less problem to solve.

We’re always happy to see progress from [BPS.space], especially milestones like successfully (and propulsively) landing a model rocket, and we look forward to many more.

youtube.com/embed/ivz5_1Og5II?…

Thanks to [Keith] for the tip!


hackaday.com/2025/09/02/applyi…



Phonenstien Flips Broken Samsung Into QWERTY Slider


The phone ecosystem these days is horribly boring compared to the innovation of a couple decades back. Your options include flat rectangles, and flat rectangles that fold in half and then break. [Marcin Plaza] wanted to think outside the slab, without reinventing the wheel. In an inspired bout of hacking, he flipped a broken Samsung zFlip 5 into a “new” phone.

There’s really nothing new in it; the guts all come from the donor phone. That screen? It’s the front screen that was on the top half of the zFlip, as you might have guessed from the cameras. Normally that screen is only used for notifications, but with the Samsung’s fancy folding OLED dead as Disco that needed to change. Luckily for [Marcin] Samsung has an app called Good Lock that already takes care of that. A little digging about in the menus is all it takes to get a launcher and apps on the small screen.

Because this is a modern phone, the whole thing is glued together, but that’s not important since [Marcin] is only keeping the screen and internals from the Samsung. The new case with its chunky four-bar linkage is a custom design fabbed out in CNC’d aluminum. (After a number of 3D Printed prototypes, of course. Rapid prototyping FTW!)

The bottom half of the slider contains a Blackberry Q10 keyboard, along with a battery and Magsafe connector. The Q10 keyboard is connected to a custom flex PCB with an Arduino Micro Pro that is moonlighting as a Human Input Device. Sure, that means the phone’s USB port is used by the keyboard, but this unit has wireless charging,so that’s not a great sacrifice. We particularly like the use of magnets to create a satisfying “snap” when the slider opens and closes.

Unfortunately, as much as we might love this concept, [Marcin] doesn’t feel the design is solid enough to share the files. While that’s disappointing, we can certainly relate to his desire to change it up in an era of endless flat rectangles. This project is a lot more work than just turning a broken phone into a server, but it also seems like a lot more fun.

youtube.com/embed/qy_9w_c2ub0?…


hackaday.com/2025/09/02/phonen…



No Need For Inserts If You’re Prepared To Use Self-Tappers


As the art of 3D printing has refined itself over the years, a few accessories have emerged to take prints to the next level. One of them is the threaded insert, a a piece of machined brass designed to be heat-set into a printed hole in the part. They can be placed by hand with a soldering iron, or for the really cool kids, with a purpose-built press. They look great and they can certainly make assembly of a 3D printed structure very easy, but I’m here to tell you they are not as necessary as they might seem. There’s an alternative I have been using for years which does essentially the same job without the drama.

Enter The Self-Tapper

A 3d-printed module featuring three M12 lenses on a rotatable turret.This turret camera project features both inserts on the M12 lens holders, and self-tappers for the centre boss and the mounting screws.
When we think of screws or other fastenings, if we’re not a woodworker, the chances are that it’s a machine screw which comes to mind. A high-precision machined parallel thread, intended to screw into a similarly machined receptacle. Where this is being written they’re mostly metric, in fact I have a small pile of M3 bolts on my desk as I write this, for mounting a Raspberry Pi LCD screen. These are what you would use with those heat-set inserts, and they are generally a very good way to attach parts to each other.

However good an M3 bolt is though, I don’t use them for most of my 3D printing work. Instead, I use self-tapping screws. A self-tapper is a screw with a wide tapering pitch, designed to cut its own thread into a soft material. Most wood screws are self-tappers, as are many screws used for example with aluminium sheet. The material is soft enough for a reliable enough coupling to be made, even if repeated use or over-tightening can destroy it. It’s easy to make 3D prints that can take self-tapping screws in this way, I find it reliable enough for my purposes, and I think it can save you a bunch of time with heat inserts.

How To Make It All Happen


Designing for a self-tapping connection in a 3D print is simplicity itself: a suitable hole for the screw thread to pass through is placed in the upper side, while the lower side has a smaller hole for the thread to bite into. The size of the smaller hole can vary significantly without penalty, but I normally make it the diameter of the shaft of the screw without the thread. A simple example for a 3mm self-tapper in OpenSCAD is shown below, along with a render of the result.
//Screw head end
translate([0,0,20]){ //Move upwards to see both parts
difference(){
cube([20,20,4]);
//screw thread
translate([10,10,0]) cylinder(10,1.5,1.5);
//screw head
translate([10,10,2]) cylinder(10,3,3);
}
}

//Screw thread end
difference(){
cube([20,20,10]);
translate([10,10,0]) cylinder(10,1,1); // For the screw to bite into
}

Assembly follows construction in its simplicity; simply line up both holes and screw the self-tapping screw into them. It should be obvious when the screw is tight enough. Mashing upon it, just like with any other self tapper, risks stripping the thread.

Everyone makes things in their own manner, and it’s likely that among you will be people who might decry the use of self-tappers in a 3D print. But I have found this technique to be a simple and cheap time saver for as many years as I’ve been 3D printing. I hope by sharing it with you, I’ve given you a useful tool in your work.


hackaday.com/2025/09/02/no-nee…




Checking Out a TV Pattern Generator from 1981


The picture on a TV set used to be the combined product of multiple analog systems, and since TVs had no internal diagnostics, the only way to know things were adjusted properly was to see for yourself. While many people were more or less satisfied if their TV picture was reasonably recognizable and clear, meaningful diagnostic work or calibration required specialized tools. [Thomas Scherrer] provides a close look at one such tool, the Philips PM 5519 GX Color TV Pattern Generator from 1981.
This Casio handheld TV even picked up the test pattern once the cable was disconnected, the pattern generator acting like a miniature TV station.
The Philips PM 5519 was a serious piece of professional equipment for its time, and [Thomas] walks through how the unit works and even opens it up for a peek inside, before hooking it up to both an oscilloscope and a TV in order to demonstrate the different functions.

Tools like this were important because they could provide known-good test patterns that were useful not just for troubleshooting and repair, but also for tasks like fine-tuning TV settings, or verifying the quality of broadcast signals. Because TVs were complex analog systems, these different test patterns would help troubleshoot and isolate problems by revealing what a TV did (and didn’t) have trouble reproducing.

As mentioned, televisions at the time had no self-diagnostics nor any means of producing test patterns of their own, so a way to produce known-good reference patterns was deeply important.

TV stations used to broadcast test patterns after the day’s programming was at an end, and some dedicated folks have even reproduced the hardware that generated these patterns from scratch.

youtube.com/embed/jZtGrG6HhS4?…


hackaday.com/2025/09/02/checki…



Build Your Own Pip-Boy Styled Watch


[Arnov Sharma]’s latest PIP-WATCH version is an homage to Pip-Boys, the multi-function wrist-mounted personal computers of Fallout.
We like the magnetic clasp on the back end.
[Arnov] has created a really clean wearable design with great build instructions, so anyone who wants to make their own should have an easy time. Prefer to put your own spin on it, or feel inspired by the wrist-mounted enclosure? He’s thoughtfully provided the CAD files as well.

Inside the PIP-WATCH is a neat piece of hardware, the Lilygo T-Display-S3 Long. It’s an ESP32-based board with a wide, touch-enabled, color 180 x 640 display attached. That makes it a perfect fit for a project like this, at least in theory. In practice, [Arnov] found the documentation extremely lacking which made the hardware difficult to use, but he provides code and instructions so there’s no need to go through the same hassles he did.

In addition to the Hackaday.io project page, there’s an Instructables walkthrough.

If you put your own spin on a Pip-boy (whether just a project inspired by one, or a no-detail-spared build of dizzying detail) we want to hear about it, so be sure to drop us a tip!

youtube.com/embed/jQH54g_L25s?…


hackaday.com/2025/09/02/build-…



The Sense and Nonsense of Virtual Power Plants


Over the past decades power grids have undergone a transformation towards smaller and more intermittent generators – primarily in the form of wind and solar generators – as well as smaller grid-connected batteries. This poses a significant problem when it comes to grid management, as this relies on careful management of supply and demand. Quite recently the term Virtual Power Plant (VPP) was coined to describe these aggregations of disparate resources into something that at least superficially can be treated more or less as a regular dispatchable power plant, capable of increasing and reducing output as required.

Although not actual singular power plants, by purportedly making a VPP act like one, the claim is that this provides the benefits of large plants such as gas-fired turbines at a fraction of a cost, and with significant more redundancy as the failure of a singular generator or battery is easily compensated for within the system.

The question is thus whether this premise truly holds up, or whether there are hidden costs that the marketing glosses over.

Reactive Power

The power triangle, showing the relationship between real, apparent and reactive power. (Source: Wikimedia)The power triangle, showing the relationship between real, apparent and reactive power. (Source: Wikimedia)
The alternating current (AC) based electrical grid is a delicate system that requires constant and very careful balancing to ensure that its current current and voltage don’t go too far out of phase, lest grid frequency and voltage start following it well beyond tolerances. The consequence of getting this wrong has been readily demonstrated over the decades through large-scale blackouts, not the least of which being the 2025 Iberian Peninsula blackout event that plummeted all of Spain and Portugal into darkness. This occurred after attempts to reduce the amount of reactive power in the system failed and safeties began to kick in throughout these national grids.

This is also the point where the idea of a VPP runs into a bit of a reality check, as the recommendation by the grid operators (transmission system operators, or TSOs) is that all significant generators on the grid should be capable of grid-forming. What this means is that unlike the average invertor on a wind- or PV solar installation that just follows the local grid frequency and voltage, it should instead be able to both absorb and produce reactive power.

Effectively this involves adding local energy storage, which is where the idea seems to be that you can sort of fudge this with distributed dumb inverters and grid-connected batteries in the form of people’s whole house batteries and whatever Vehicle-to-Grid (V2G) capable BEV is currently plugged in within that subsection of the grid.

Theoretically with enough of these scattered generators and storage elements around, along with a few grid-forming converters and remotely controlled loads like EV chargers and airconditioning units, you could simulate the effect of a regular thermal- or hydropower plant. The question is whether you can make it work well enough, and as a logical follow-up question, there are those who would like to know who is really footing the bill in the end.

Battery Rental

Electricity generation by type, 2001-2024. (Credit: California Energy Commission)Electricity generation by type, 2001-2024. (Credit: California Energy Commission)
An example of such a VPP in action can be found in California, where PG&E and others have recently been running tests. A big focus here is on these home batteries, which are also used for peak-shaving in these tests, with the battery owner compensated for withdrawn power. In a report sponsored by Sunrun and Tesla Energy, the Brattle Group describes this system in which the Demand Side Grid Support (DSGS) program aspect is hailed as a major revolution.
Fire at the Moss Landing Power Plant. (Credit: Guy Churchward)Fire at the Moss Landing Power Plant. (Credit: Guy Churchward)
The idea here is that regular grid-connected consumers install batteries which the grid operator can then tap into, which can compensate for California’s increasing amount of non-dispatchable, non-grid forming generation sources. Of note here is that grid-scale energy storage can never provide enough capacity to bridge significant spans of time, ergo the proposal here is primarily to provide an alternative to expensive peaker plants, of which California already has a significant number.

With a predicted 4 GW of home battery capacity by 2040, this could then save the grid operators a lot of cash if they can use these batteries instead of running special peaker plants, or installing more large batteries as at the (PG&E-operated) Moss Landing battery storage facility.

Incidentally, said Moss Landing battery storage facility has repeatedly caught fire, which highlights another potentially major savings for grid operators, as the fallout of such events are instead borne by the operator of the battery, which for the DSGS would be the home owner. So far, remote adjustment of air-conditioning doesn’t seem to be a big part of the discussion yet, but this would seem to be only a matter of time, considering the significant power savings that way, even if it relies just on paid volunteers like with the DSGS.

Signs Of Market Failure


Although it can seem tempting to imagine making money off that expensive home battery or electric car by letting the local grid operator tap into it, the same general issues apply as with the much older V2G discussion. Not only is there the question of battery wear, but as mentioned there are also insurance considerations, and the problem that home batteries and BEVs tend to be sited far from where they are likely needed. While a site like Moss Landing is directly plugged into the big transmission lines, home batteries are stuck on some local distribution grid, making dispatching their power a bit of a nightmare.

This is also the impression one gets when reading certain articles on VPPs over at the US Department of Energy, with a VPP plan in Illinois targeting larger commercial and community solar generators rather than residential, giving them a rebate if they want to foot the bill for installing a grid-following converter, which presumably would involve some level of on-site storage. A major problem with distributed resources is their distributed nature, which precludes any planning or siting considerations that directly address demand in the form of building a power plant or pumped hydro plant with a direct transmission line to where it’s needed.
Projected electricity generation pathways by 2040. (Credit: S&P Global Inc.)Projected electricity generation pathways by 2040. (Credit: S&P Global Inc.)
Meanwhile a recent study commissioned by the American Clean Power Association (ACP) concludes that in the US alone, electricity demand by 2040 is likely to surge 35-40% compared to today, requiring an extremely fast buildout of additional generating resources involving mostly the same kind of power mix as today. At a projected 5.5 – 6 TWh by 2024 compared to about 4 TWh today with a significant boost in non-dispatchable generators, it seems fair to question how far home batteries and a handful of V2G-enabled EV cars can support this effort in some kind of national VPP system.

Asking The Basic Questions


Although it’s often said that ‘distributed electricity generation’ is the future, it’s rarely quantified why exactly this would be the case. Simply looking at how AC power grids work, along with the tracing of the kilometers of required transmission lines across a map in order to connect all disparate generators should give one plenty of pause. It seems obvious enough that an abundance of distributed, non-dispatchable, non-grid-forming generators on a grid would also prove to be problematic, especially in the wake of the Iberian blackout this year.

Patching around this by making end-users foot the bill for battery storage and grid-forming converters and calling it VPPs then feels disingenuous. Here a more reasonable model – that has also been repeatedly suggested and occasionally implemented – involves homes and businesses equipped with local storage that only serves to reduce demand on the grid. These batteries can be charged from the grid when the ¢/kWh rate is very low, providing a balancing influence on the grid without remote control by TSOs or similar levels of complexity.

Ultimately it would seem that the European TSOs (ENTSO-E) with their focus on eradicating dumb converters and requiring grid-forming ones are on the right track. After all, if every wind and solar generator installation acts for all intents and purposes as a dispatchable generator with the ability to absorb and generate reactive power, then the whole VPP debate and much of the grid-storage debate is instantly irrelevant. It just means that the investors for these variable generators will have to spend significantly more instead of palming these costs off on end-users as some kind of grand deal.


hackaday.com/2025/09/02/the-se…



Open Data e Big Data: gestione del dato e confronto tra Hadoop vs Spark


Oggi, per tutte le grandi aziende, i dati rappresentano una risorsa strategica di primaria importanza. Grazie alle informazioni ricavate, è possibile fondare strategie decisionali che, in ogni settore, possono implementare le attività e i profitti di un’azienda. Analoghe considerazioni possono essere rivolte all’interno della Pubblica Amministrazione, dove i dati non solo rappresentano uno strumento per migliorare l’efficienza interna e i processi decisionali, ma, se resi disponibili alla collettività, possono generare valore sociale ed economico.

Seppur con modalità e finalità differenti, in questo contesto si inseriscono due fenomeni fondamentali, accomunati dalla necessità di gestire grandi quantità di informazioni; stiamo parlando di Open Data e Big Data. Come tutte le tecnologie che devono gestire una grosse molte e varietà di dati, dovranno garantire sicurezza, integrità e disponibilità delle informazioni. Di base, quando parliamo di Open Data, ci riferiamo a informazioni pubbliche, dove i dati presentano un formato aperto, standardizzato e liberamente disponibile, privi di copyright.

Data la natura open dei dati, saranno compatibili con tecnologie differenti e presenteranno formati di dati aperti e interoperabili, quali ad esempio il CSV o JSON, sfruttando l’utilizzo di API per accedere ai dataset o l’utilizzo di Linked Open Data. Facciamo una parentesi sui Linked Open Data, i quali sfruttano tecnologie semantiche per strutturare i dati, permettendo così una comprensione più profonda del significato e del contesto delle informazioni. Fondamentalmente, questo approccio si basa su principi fondamentali. L’utilizzo di URI (Uniform Resource Identifier) identifica ogni risorsa in modo univoco, e i dati devono interconnettersi tramite link, consentendo la navigazione tra di essi.

Affinché le informazioni possano essere interpretate correttamente, vengono utilizzati diversi standard, tra i quali ricordiamo, senza scendere nel dettaglio, il RDF (Resource Description Framework), che consente la rappresentazione di informazioni sul web in modo strutturato, e il OWL (Web Ontology Language), che definisce le relazioni tra i dati, facilitandone la comprensione.

Gli Open Data dovranno affrontare diverse problematiche, in primis la qualità dei dati, che molto spesso risulta incompleta o obsoleta. Inoltre, la mera pubblicazione dei dati (nel caso dei servizi offerti dalla Pubblica Amministrazione) non garantisce necessariamente il loro utilizzo da parte del cittadino. Inoltre data la natura del dato saranno, spesso dati riferibili a soggetti fisici, dovranno quindi rispettare e tutelare la privacy dei soggetti. Di base, tuttavia, la formazione e la sensibilizzazione dei cittadini sull’importanza e sull’uso dei dati aperti possono contribuire a un maggiore coinvolgimento e a un utilizzo più efficace delle informazioni disponibili.

Quando i dati non sono necessariamente pubblici e necessitano di una tecnologia in grado di gestire grandi quantità, molto spesso in formato grezzo, possiamo parlare di Big Data. Comunemente, si fa riferimento alle 5V: volume (grosso volume di dati), velocità (elevata velocità operativa), varietà (varietà del dato), veridicità (veridicità della fonte fornitrice del dato) e valore (valore del dato, legato all’interesse del soggetto).

Tra le tecnologie più importanti nel contesto dell’infrastruttura dei Big Data, troviamo:

  • Database NoSQL
  • Hadoop
  • Apache Spark

Senza avere la pretesa di esaurire gli argomenti trattati, tentiamo di fornire alcuni cenni per far comprendere la differenza tra le varie tecnologie. Da un punto di vista dell’efficienza, i NoSQL, a differenza dei database relazionali, non presentano una natura strutturata. All’interno di questi sistemi, si barattano i pesanti vincoli della struttura relazionale con operazioni più rapide e dinamiche. Questi database sono basati sul concetto di tecnologia distribuita, dove i dati possono essere archiviati su più nodi di elaborazione. Non avremo più un modello basato sulle transazioni, ma sulla flessibilità dei dati.

La memorizzazione dei dati all’interno di queste tecnologie può essere sviluppata attraverso diversi modelli. Tra i modelli utilizzati, abbiamo quello Chiave/Valore, secondo il quale gli oggetti vengono memorizzati in strutture denominate bucket sotto forma di un elenco chiave-valore. Un altro modello utilizzato è quello dei documenti, attraverso il quale gli oggetti vengono salvati all’interno di documenti aventi una struttura che ricalca quella della programmazione orientata agli oggetti (O.O.).

Il principale vantaggio del modello documentale è l’elevata compatibilità con i sistemi odierni, tra i quali troviamo MongoDB. Un ultimo modello è quello a colonna, nel quale i dati, anziché essere orientati per righe, vengono organizzati in colonne. Praticamente, sebbene il concetto presenti un cambiamento che può sembrare solo formale, migliora la distribuzione all’interno dello spazio di archiviazione.

Abbiamo accennato a MongoDB, un database basato sul modello orientato ai documenti, progettato per gestire grandi volumi di dati non strutturati o semistrutturati. MongoDB sfrutta la rappresentazione binaria BSON (Binary JSON), la quale permette di avere all’interno dati provenienti da collezioni omogenee oppure che non possiedono la stessa natura. Tali documenti, a loro volta, vengono organizzati all’interno di collezioni, all’interno delle quali è possibile implementare indici per migliorarne le prestazioni.

Ricordiamo che, ad oggi, tra i framework maggiormente utilizzati per la gestione e l’archiviazione di grosse quantità di dati, abbiamo Apache Hadoop, la cui caratteristica principale è quella di scomporre grandi problemi in elementi più piccoli, dividendo la grossa quantità di dati in parti più piccole, gestibili parallelamente. Da un punto di vista architetturale, Hadoop sfrutta il principio che eventuali errori devono essere gestiti a livello applicativo e utilizza cluster di server o server virtuali per la sua implementazione.

Hadoop è principalmente costituito da due componenti fondamentali:

  • Hadoop Distributed File System (HDFS): un file system distribuito progettato per archiviare grandi quantità di dati in modo affidabile e per fornire accesso ad alta velocità.
  • MapReduce: un modello di programmazione per l’elaborazione di grandi set di dati in parallelo su un cluster di computer.

Il primo modulo è Hadoop Distributed File System (HDFS), un filesystem distribuito che memorizza i dati su commodity hardware, fornendo una banda aggregata molto alta. È necessario utilizzare un filesystem distribuito quando la quantità di dati da memorizzare può eccedere quella memorizzabile in una singola macchina. È quindi necessario partizionare i dati su più macchine, fornendo meccanismi di recupero nel caso in cui una macchina si rompa. Rispetto ai normali filesystem, quelli distribuiti richiedono comunicazione di rete e sono più complessi da sviluppare.

HDFS possiede un’architettura master/slave. All’interno di un cluster vi sarà un singolo nodo master (NomeNode), un server che regola il namespace del file system e gestisce l’accesso dal client. I file sono memorizzati separatamente nei DataNode, di cui solitamente ce n’è uno per nodo del cluster. Internamente, un file è spezzato in uno o più blocchi, e questi blocchi sono memorizzati in un insieme di DataNode.

Il secondo modulo è MapReduce, un modello di programmazione per l’elaborazione di grandi quantità di dati, realizzato per far sì che i calcoli siano sviluppati in parallelo. Esso si basa sul principio “divide et impera”, nel quale un problema corposo viene suddiviso in problemi indipendenti che possono essere risolti parallelamente. Fondamentalmente, vengono generate diverse coppie chiave-valore dal componente Map, mentre il componente Reduce le aggrega in varie coppie.

Oltre ai due moduli appena descritti, possiamo indicare la presenza del modulo YARN e COMMON. YARN è il gestore delle risorse del cluster e organizza i job sui dati, mentre COMMON contiene le librerie necessarie al funzionamento dei moduli.

Nato da Hadoop, Apache Spark presenta funzionalità specifiche progettate per offrire velocità computazionale, scalabilità e programmabilità necessarie per i big data, in particolare per lo streaming di dati, dati grafici, analisi e machine learning. A differenza di Hadoop, Spark permette di effettuare query rapide e ottimizzate sfruttando la sua elaborazione all’interno della cache. La scalabilità è ottenuta dividendo i workflow di elaborazione su grandi cluster di computer.

Spark presenta un’architettura gerarchica primaria/secondaria. Il nodo primario, definito driver, controlla i nodi secondari, gestisce il cluster e fornisce i dati al client applicativo. Nel programma principale di un’applicazione Spark (il programma driver) è presente un oggetto di tipo SparkContext, la cui istanza comunica con il gestore di risorse del cluster per richiedere un insieme di risorse (RAM, core, ecc.) per gli executor.

Un punto fondamentale tra i compiti svolti da Spark è la creazione di set di dati distribuiti, noti come RDD (Resilient Distributed Dataset). Gli RDD sono resilienti (quindi ricostruibili in caso di guasti), immutabili (ogni operazione crea un nuovo RDD) e partizionabili per permettere l’elaborazione in parallelo. Spark carica i dati facendo riferimento a un’origine dati o parallelizzando una raccolta esistente con il metodo di parallelizzazione di SparkContext per la memorizzazione dei dati in un RDD per l’elaborazione. Una volta caricati i dati in un RDD, Spark esegue trasformazioni e azioni su di essi in memoria, che è la chiave della velocità di Spark. Spark memorizza inoltre i dati in memoria, a meno che il sistema non esaurisca la memoria o l’utente non decida di scrivere i dati su disco per conservarli.

Ogni set di dati in un RDD è suddiviso in partizioni logiche, che possono essere calcolate su diversi nodi del cluster. Gli utenti possono eseguire due tipi di operazioni sugli RDD: le trasformazioni e le azioni. Le trasformazioni sono operazioni applicate per creare un nuovo RDD, mentre le azioni vengono utilizzate per istruire Apache Spark ad applicare il calcolo e restituire il risultato al driver.

Una caratteristica operativa di Spark è il Grafo Aciclico Diretto (DAG). A differenza del processo di esecuzione a due parti di MapReduce di Hadoop, viene creato un grafo per orchestrare e pianificare i nodi worker all’interno del cluster. Questa caratteristica è interessante poiché eventuali guasti o errori possono essere risolti considerando le operazioni sui dati registrate in uno stato precedente. Alla base del trattamento dei dati in parallelo, abbiamo il modulo Spark Core, che gestisce la pianificazione e l’ottimizzazione. Fornisce le principali funzionalità per le librerie di Spark e il trattamento dei dati grafici di GraphX.

“Spark vs. Hadoop” è un termine frequentemente cercato sul web, ma, come notato sopra, Spark è più un miglioramento di Hadoop e, più specificamente, del componente di trattamento dei dati nativo di Hadoop, MapReduce. Infatti, Spark è basato sul framework MapReduce e oggi la maggior parte delle distribuzioni di Hadoop supporta Spark. Come MapReduce, Spark consente ai programmatori di scrivere applicazioni che elaborano enormi set di dati più velocemente, elaborando porzioni del set di dati in parallelo su grandi cluster di computer. Tuttavia, mentre MapReduce elabora i dati su disco, aggiungendo tempi di lettura e scrittura che rallentano l’elaborazione, Spark esegue calcoli in memoria. Di conseguenza, Spark può elaborare i dati fino a 100 volte più velocemente di MapReduce.

Possiamo affermare che, sebbene Open Data e Big Data siano concettualmente distinti, la loro integrazione può generare sinergie significative. L’unione di dati provenienti da dataset pubblici, accessibili a tutti, con informazioni eterogenee raccolte da fonti diverse, offre opportunità uniche per l’analisi e l’innovazione. Questa combinazione non solo arricchisce il panorama informativo, ma consente anche di sviluppare soluzioni più efficaci e mirate, in grado di rispondere a esigenze specifiche della società e del mercato. In un’epoca in cui la quantità di dati cresce esponenzialmente, la capacità di integrare e analizzare queste risorse diventa fondamentale per prendere decisioni informate e promuovere un progresso sostenibile.

L'articolo Open Data e Big Data: gestione del dato e confronto tra Hadoop vs Spark proviene da il blog della sicurezza informatica.



Evento precongressuale a Roma: “PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA)”


In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica, l’Associazione Luca Coscioni presenta l’evento

PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA) per donne single e coppie di donne.

PROGRAMMA

Saluti istituzionali:
Mariolina Castellone, vice presidente del Senato
Modera: Senio Bonini, vice direttore TG1

Intervengono:
Alessandra Maiorino, senatrice M5S
Filomena Gallo, Segretaria nazionale dell’Associazione Luca Coscioni per la libertà di ricerca scientifica APS
Francesca Re, coordinatrice della campagna PMA per tutte e consigliera generale dell’associazione Luca Coscioni per la libertà di ricerca scientifica

Con le testimonianze di:
Barbara Zoina,
Veronica Biancardi,
Maria Giulia D’amico
Fabrizia Caradonna
Valeria Manieri

L’appuntamento è per il 18 settembre 2025, presso laSala “Caduti di Nassiriya”, Palazzo Madama, Piazza Madama, a Roma. L’evento è accessibile su prenotazione fino ad esaurimento posti, inviando una mail a info@associazionelucacoscioni entro il 12 settembre e per gli uomini con obbligo di giacca e cravatta.


L’evento sarà registrato e poi reso disponibile sul canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.

L'articolo Evento precongressuale a Roma: “PMA per tutte: il diritto alla procreazione medicalmente assistita (PMA)” proviene da Associazione Luca Coscioni.



Sarà il card. Pietro Parolin, Segretario di Stato vaticano, d aprire i lavori del seminario internazionale “Creato, natura, ambiente per un mondo di pace”, in programma giovedì 11 e venerdì 12 settembre nella Casina Pio IV in Vaticano.


La battaglia tra OnlyFans e Google: pirateria, IA e il caos del copyright automatizzato


Il massiccio scontro tra creatori di contenuti per adulti e pirati, trasferito oggi ai sistemi automatizzati di protezione del copyright, sta iniziando a modificare radicalmente il volto di Internet. Ogni giorno diventa sempre più difficile navigare online, e il motivo non è soltanto la censura, ma anche il funzionamento impreciso degli algoritmi. Questo fenomeno è particolarmente evidente su piattaforme come OnlyFans, dove gli autori indipendenti stanno cercando in massa di proteggere i propri materiali da fughe e distribuzioni non autorizzate.

La pirateria pornografica è presente sul web fin dagli albori, ma con l’esplosione dei guadagni legati agli abbonamenti, sempre più creatori hanno iniziato ad affidarsi a società specializzate per presentare reclami DMCA (Digital Millennium Copyright Act) contro i siti che sottraggono i loro contenuti. Oggi però, l’automazione di questo processo sta generando enormi errori: le reti neurali segnalano contenuti che nulla hanno a che fare con i creatori, e Google arriva a rimuovere dai risultati di ricerca pagine del tutto innocenti.

Un caso emblematico riguarda un articolo sui terapisti virtuali di Instagram, sparito da Google a causa di una denuncia DMCA presentata da Takedowns AI per conto della modella Marie Temara. Tra i 68 link contestati, figurava un collage di immagini generate da reti neurali senza alcun legame con Temara. E i falsi positivi non si fermano qui: nella stessa richiesta di rimozione comparivano persino screenshot di GTA V, immagini sportive, poster cinematografici e materiali provenienti da siti di informazione come Wccftech e Bloody-Disgusting.

Il problema deriva da un sistema che registra centinaia di reclami ogni giorno. Dal 2022, Takedowns AI ha inviato quasi 12 milioni di segnalazioni a Google. Sebbene molte siano legittime, il livello di falsi positivi mette in pericolo risorse accademiche, giornalistiche e artistiche. È accaduto persino a un articolo dell’Università del Missouri sulle api, rimosso solo perché il nome dell’autore coincideva con quello di una modella.

Altre aziende, come Cam Model Protection, sostengono di ridurre drasticamente gli errori grazie a whitelist e controlli manuali, ribadendo che la semplice menzione di un nome o una notizia non costituiscono violazione di copyright. Tuttavia, la pressione sui creatori li spinge sempre più spesso a chiedere la rimozione di qualsiasi riferimento al proprio nome, anche quando del tutto neutrale.

Molti autori, come la modella Elaina St. James, hanno confermato l’utilità dei servizi anti-pirateria per combattere copie illegali e account falsi, pur ammettendo che i risultati migliori si ottengono con segnalazioni manuali. Le piattaforme, inoltre, non sempre collaborano: TikTok e numerosi siti esteri ignorano i reclami.

Il ricorso massiccio a sistemi automatizzati non è nuovo: basti pensare ai limiti storici del Content ID di YouTube. Ma con la crescita dei creatori indipendenti e l’affidamento all’IA, gli errori aumentano e Internet si trasforma in un campo di battaglia tra reclami automatizzati, piattaforme che li processano meccanicamente e siti innocenti travolti nel fuoco incrociato.

Gli esperti legali sottolineano che il DMCA resta un’arma potente, capace di censurare contenuti legittimi senza reali verifiche. Con lo sviluppo dell’intelligenza artificiale, i falsi positivi diventeranno sempre più frequenti, alimentati da malizia, incompetenza o semplici errori algoritmici.

Nonostante ciò, aziende come Takedowns AI scaricano parte della responsabilità sui creatori stessi, che spesso pretendono la rimozione indiscriminata di link e citazioni. Google, da parte sua, afferma di mantenere controlli automatici e manuali, con la possibilità di presentare contro-reclami.

La realtà, però, è che le vulnerabilità sono sistemiche: il monopolio di Google, i limiti dell’automazione, le falle del DMCA e l’incapacità delle piattaforme di distinguere tra violazioni reali e coincidenze. Il risultato? Un web sempre più fragile, dove siti innocenti scompaiono e i pirati continuano a prosperare.

L'articolo La battaglia tra OnlyFans e Google: pirateria, IA e il caos del copyright automatizzato proviene da il blog della sicurezza informatica.



Michigan just became the 48th state to enact a law addressing deepfakes, imposing jail time and penalties up to the felony level for people who make AI-generated nonconsensual abuse imagery of a real person.#Deepfakes


Almost Every State Has Its Own Deepfakes Law Now


It’s now illegal in Michigan to make AI-generated sexual imagery of someone without their written consent. Michigan joins 47 other states in the U.S. that have enacted their own deepfake laws.

Michigan Governor Gretchen Whitmer signed the bipartisan-sponsored House Bills 4047 and its companion bill 4048 on August 26. In a press release, Whitmer specifically called out the sexual uses for deepfakes. “These videos can ruin someone’s reputation, career, and personal life. As such, these bills prohibit the creation of deep fakes that depict individuals in sexual situations and creates sentencing guidelines for the crime,” the press release states. That’s something we’ve seen time and time again with victims of deepfake harassment, who’ve told us over the course of the six years since consumer-level deepfakes first hit the internet that the most popular application of this technology has been carelessness and vindictiveness against the women its users target—and that sexual harassment using AI has always been its most popular use.

Making a deepfake of someone is now a misdemeanor in Michigan, punishable by imprisonment of up to one year and fines up to $3,000 if they “knew or reasonably should have known that the creation, distribution, dissemination, or reproduction of the deep fake would cause physical, emotional, reputational, or economic harm to an individual falsely depicted,” and if the deepfake depicts the target engaging in a sexual act and is identifiable “by a reasonable individual viewing or listening to the deep fake,” the law states.

‘I Want to Make You Immortal:’ How One Woman Confronted Her Deepfakes Harasser
“After discovering this content, I’m not going to lie… there are times it made me not want to be around any more either,” she said. “I literally felt buried.”
404 MediaSamantha Cole


This is all before the deepfake’s creator posts it online. It escalates to a felony if the person depicted suffers financial loss, the person making the deepfake intended to profit off of it, if that person maintains a website or app for the purposes of creating deepfakes or if they posted it to any website at all, if they intended to “harass, extort, threaten, or cause physical, emotional, reputational, or economic harm to the depicted individual,” or if they have a previous conviction.

💡
Have you been targeted by deepfake harassment, or have you made deepfakes of real people? Using a non-work device, you can message me securely on Signal at sam.404. Otherwise, send me an email at sam@404media.co.

The law specifically says that this isn’t to be construed to make platforms liable, but the person making the deepfakes. But we already have federal law in place that makes platforms liable: the Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks, or TAKE IT DOWN Act, introduced by Ted Cruz in June 2024 and signed into law in May this year, made platforms liable for not moderating deepfakes and imposes extremely short timelines for acting on AI-generated abuse imagery reports from users. That law’s drawn a lot of criticism from civil liberties and online speech activists for being too overbroad; As the Verge pointed out before it became law, because the Trump administration’s FTC is in charge of enforcing it, it could easily become a weapon against all sorts of speech, including constitutionally-protected free speech.

"Platforms that feel confident that they are unlikely to be targeted by the FTC (for example, platforms that are closely aligned with the current administration) may feel emboldened to simply ignore reports of NCII,” the Cyber Civil Rights Initiative told the Verge in April. “Platforms attempting to identify authentic complaints may encounter a sea of false reports that could overwhelm their efforts and jeopardize their ability to operate at all."

A Deepfake Nightmare: Stalker Allegedly Made Sexual AI Images of Ex-Girlfriends and Their Families
An Ohio man is accused of making violent, graphic deepfakes of women with their fathers, and of their children. Device searches revealed he searched for “undress” apps and “ai porn.”
404 MediaSamantha Cole


“If you do not have perfect technology to identify whatever it is we're calling a deepfake, you are going to get a lot of guessing being done by the social media companies, and you're going to get disproportionate amounts of censorship,” especially for marginalized groups, Kate Ruane, an attorney and director of the Center for Democracy and Technology’s Free Expression Project, told me in June 2024. “For a social media company, it is not rational for them to open themselves up to that risk, right? It's simply not. And so my concern is that any video with any amount of editing, which is like every single TikTok video, is then banned for distribution on those social media sites.”

On top of the TAKE IT DOWN Act, at the state level, deepfakes laws are either pending or enacted in every state except New Mexico and Missouri. In some states, like Wisconsin, the law only protects minors from deepfakes by expanding child sexual abuse imagery laws.

Even as deepfakes legislation seems to finally catch up to the notion that AI-generated sexual abuse imagery is abusive, reporting this kind of harassment to authorities or pursing civil action against one’s own abuser is still difficult, expensive, and re-traumatizing in most cases.
playlist.megaphone.fm?p=TBIEA2…




Evento precongressuale a Genova: “Coltiviamo un futuro più etico: scienza e politica dietro la carne coltivata”


In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica, l’Associazione Luca Coscioni presenta l’evento

Coltiviamo un futuro più etico: scienza e politica dietro la carne coltivata

Appuntamento precongressuale sul tema della Carne Coltivata, co-organizzato con la Cellula Coscioni di Genova ed Eumans. Ne discuteranno:

Bruna Anzà – Relatrice scientifica – Dottoranda in Ingegneria Chimica, Politecnico di Torino
Luca Lo Sapio – Esperto di bioetica e sostenibilità ambientale: Luca Lo Sapio – Professore Associato di Filosofia Morale, Università di Torino
Vitalba Azzolini – Esperta di legislazione e diritto alimentare, Giurista ed editorialista del quotidiano Domani
Stefano Lattanzi – Imprenditore del settore, CEO di Bruno Cell S.r.l., prima startup di carne coltivata in Italia
Marco Cappato – Promotore di politiche per la libertà di ricerca e la partecipazione civica

Modera l’incontro Andrea Andolfi – Ricercatore postdoc presso l’Università degli Studi di Genova e rappresentante in Consiglio della cellula di Genova dell’Associazione Luca Coscioni

L’appuntamento è per il 24 settembre 2025 alle ore 17.00, presso la Sala Conferenze 322, Università degli Studi di Genova, via Dodecaneso 35, a Genova.

L’evento, ad accesso libero, sarà registrato e poi reso disponibile sullo canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.

L'articolo Evento precongressuale a Genova: “Coltiviamo un futuro più etico: scienza e politica dietro la carne coltivata” proviene da Associazione Luca Coscioni.




Terrore nel volo di Ursula von der Leyen? Facciamo chiarezza!


Il 31 agosto 2025 il volo AAB53G, operato con un Dassault Falcon 900LX immatricolato OO-GPE e con a bordo la presidente della Commissione Europea Ursula von der Leyen, è decollato da Varsavia ed è atterrato regolarmente all’aeroporto di Plovdiv (Bulgaria).

Il Financial Times, in un articolo di Henry Foy, ha parlato di un presunto jamming GPS mirato che avrebbe “accecato” il velivolo, costringendo i piloti a un atterraggio manuale con mappe cartacee dopo un’ora di attesa. Una ricostruzione suggestiva, ma tecnicamente insostenibile.
FT.com

Condizioni meteo e pista: tutto regolare


A Plovdiv, il 31 agosto, le condizioni erano favorevoli: temperature tra 12 °C e 28 °C, venti moderati da Ovest-Nordovest e visibilità superiore a 10 km. I METAR confermano:

LBPD 311400Z AUTO 28006KT 240V010 9999 FEW059/// 28/13 Q1009 NOSIG
LBPD 311430Z AUTO 30016KT 9999 FEW059/// BKN110/// 26/12 Q1009 NOSIG

Nessun fenomeno meteo rilevante, nessuna variazione significativa (NOSIG).
La pista 30 dispone inoltre di ILS CAT I, operativo e non segnalato come indisponibile.

Strumentazione di bordo e ausili a terra: il GPS è solo un supporto


Il Dassault Falcon 900LX, con avionica EASy II Flight Deck basata sul Honeywell Primus Epic System, dispone di numerosi sistemi avanzati per l’assistenza alla navigazione, approccio ed atterraggio, per garantire sicurezza e precisione… tra cui:

  • IRS (Inertial Reference System): navigazione indipendente da segnali esterni.
  • VOR/ILS Receiver: consente la navigazione basata su radioaiuti tradizionali e avvicinamenti strumentali.
  • ILS (Instrument Landing System): per atterraggi di precisione in condizioni strumentali, operativo sulla pista 30.
  • DME (Distance Measuring Equipment): misura la distanza dalla stazione radio, utile per avvicinamenti e gestione della rotta.
  • FMS (Flight Management System): gestisce rotte, prestazioni e ottimizzazione dei voli.
  • ADF (Automatic Direction Finder): ricezione segnali NDB per navigazione complementare.
  • Autothrottle e Autopilot integrati: ottimizzano velocità e traiettoria, supportando fasi critiche come avvicinamento e atterraggio.
  • RNP/AR (Required Navigation Performance/Authorization Required): consente procedure di precisione con margini ridotti, utile in aeroporti complessi o in condizioni di visibilità ridotta.
  • GPS: supporto alla navigazione, non fondamentale per il funzionamento del sistema.

Questi sistemi lavorano in sinergia, assicurando che il velivolo possa operare con elevata affidabilità in scenari complessi, riducendo al minimo i rischi legati a condizioni meteorologiche avverse o interferenze esterne.
Dassault Falcon 900LX – Flight Deck

La pista dell’aeroporto di Plovdiv fornisce inoltre un set completo di ausili alla navigazione, tutti attivi:

  • ILS CAT I sulla pista 30
    • Localizer (IPD) 109,9 MHz
    • Glideslope 333,8 MHz (3°)
    • Marker MM/OM 75 MHz


  • DME PDV (ch. 96x) co-locato con DVOR 114,9 MHz
  • Locator Middle PD 537 KHz

Questi sistemi, operativi e senza NOTAM di indisponibilità, garantivano un avvicinamento sicuro anche in caso di disturbo GPS. Quanto alle “mappe cartacee” citate dal FT: oggi i piloti utilizzano EFB (Electronic Flight Bag) e chart digitali su tablet o avionica integrata. Parlare di carte fisiche analogiche è pura drammatizzazione.

Quota e traiettoria: niente “ora di attesa”


Dati ADS-B e FlightAware mostrano che il Falcon 900LX si è presentato al primo avvicinamento a circa 2000 m sopra il livello della pista, circa 1700 m più alto del normale sentiero ILS seguito con l’avvicinamento definitivo.
Invece di tentare un atterraggio impossibile, l’aereo ha proseguito in sorvolo, effettuando un passaggio di circa 4 minuti (14:18-14:22 UTC) sorvolando l’area dell’aeroporto. Successivamente si è riallineato sulla stessa rotta 11 minuti dopo, ma alla quota corretta completando l’atterraggio alle 14:35 UTC.
Il presunto “giro di un’ora” citato dal FT è smentito dai dati oggettivi: il ritardo complessivo non ha superato i 15 minuti, del tutto compatibile con un sorvolo pianificato o una procedura operativa standard.
fonte: FlightAware

Jamming GPS: fenomeno diffuso, non mirato


Nella regione del Mar Nero si registrano da tempo disturbi ciclici del segnale GPS, con picchi a orari e giorni variabili, proprio a causa dello scenario geopolitico della zona, noto a tutti. Anche altri traffici aerei hanno riportato anomalie simili, indipendentemente dal tipo di velivolo o dalla natura del volo, civile, VIP o militare.

Distinguere un disturbo diffuso da un attacco mirato richiede apparecchiature elettroniche avanzate, tipiche di assetti militari di guerra elettronica, di cui un Falcon civile normalmente non dispone, né di cui vi sia evidenza o comunicazione.

Gli assetti EW presenti nella zona, soprattutto se in volo nelle vicinanze, avrebbero potuto identificare con precisione l’evento e la sua fonte o fonti. Tuttavia, comunicare l’evidenza di un attacco mirato, di matrice russa o di qualsiasi altro attore, senza prove tecniche concrete, localizzabili e correlabili, risulta estremamente problematico, e ancora meno fattibile per un giornalista.
STARKOM – Esempio di sistemi d’arma per guerra elettronica

I dati reali contro la narrativa della notizia virale


  • Nessun ritardo di un’ora: l’atterraggio sulla pista 30 sarebbe stato possibile già appena 15 minuti prima e non 60.
  • Nessun atterraggio “al buio”: ILS e IRS erano disponibili e operativi, il meteo era eccellente.
  • Nessuna mappa cartacea: oggi si usano EFB e chart digitali.
  • Nessun blackout totale del tracciamento della posizione: i tracciati ADS-B sono continui e completi.
  • Jamming GPS? Possibile fenomeno diffuso, ma nessuna prova di attacco mirato.


Le evidenze e le riflessioni


L’atterraggio del volo che trasportava Ursula von der Leyen da Varsavia a Plovdiv, dai dati pubblici consultabili da chiunque, si è svolto con ragionevole certezza in totale sicurezza, in condizioni meteorologiche ottimali e con ausili alla navigazione pienamente operativi.

L’articolo del Financial Times sembra aver ignorato totalmente i dati tecnici pubblicamente disponibili, ma trasforma un normale sorvolo operativo, in un’area di confine notoriamente complicata, in un presunto e deliberato atto ostile.
È un esempio di sensazionalismo che, nel campo della sicurezza aeronautica e cibernetica, rischia di minare la fiducia dei cittadini, dei passeggeri delle compagnie aeree ed alimentare ulteriormente le tensioni geopolitiche.

In questo caso, le supposizioni e i rumors possono essere smentiti dai dati pubblici, che parlano chiaro: nessuna emergenza in volo, nessun atto mirato di guerra elettronica e, al massimo, un effetto diffuso di interferenze elettroniche su quell’area geografica. Purtroppo, ancora una volta, la cronaca distorta annebbia la situazione, impedendo di far emergere lo scenario per quello che è realmente.

Un dettaglio che potrebbe sembrare pignolo, insignificante, banale, ma che in realtà non lo è affatto: rischia anzi di diventare il punto centrale per costruire un “fantoccio di carta” utile a giustificare, in modo strumentale, un presunto attacco a copertura di un ritardo anomalo per l’atterraggio. Per questo motivo è stato lasciato per in fondo, per i lettori più attenti ed interessati.

Il decollo da Varsavia era infatti programmato alle 11:01 UTC, ma è avvenuto solo alle 12:37 UTC, con un ritardo di circa un’ora e mezza. Di conseguenza, anche l’atterraggio a Plovdiv, schedulato per le 12:58 UTC, non poteva che subire lo stesso slittamento, avvenendo infatti alle 14:35 UTC.
In altre parole, il ritardo registrato all’arrivo è perfettamente coerente e prevedibile rispetto al ritardo accumulato in partenza.

E davvero sarebbe troppo malizioso ipotizzare che un normale ritardo operativo possa essere trasformato, comunicativamente e ad arte, nell’evidenza di un presunto attacco mirato, proprio a quel volo, e soprattutto a quella persona?

L'articolo Terrore nel volo di Ursula von der Leyen? Facciamo chiarezza! proviene da il blog della sicurezza informatica.




Evento precongressuale a Brescia: “DATti voce! Testamento biologico: scegliere oggi può cambiare il domani”


In occasione del XXII Congresso dell’Associazione Luca Coscioni per la libertà di ricerca scientifica, la Cellula Coscioni di Brescia presenta l’evento

DATti voce! Testamento biologico: scegliere oggi può cambiare il domani.

L’appuntamento precongressuale sul tema del testamento biologico, è co-organizzato con il Festival del Rinascimento Culturale e l’associazione Luca Coscioni e prevederà gli interventi di Marzio Remus (avvocato e coordinatore della cellula), Elisabetta Dal Gal (coordinatrice della cellula), Luca Paladini (Consigliere Regione Lombardia), Francesco Tomasini (avvocato e consigliere del comune di Brescia) e Marco Cappato (Tesoriere ALC).

L’appuntamento è per il 13 settembre 2025, alle ore 10.30 la Cascina Parco Gallo, via Corfù 100, Brescia. L’ingresso è gratuito ed è fortemente consigliata la prenotazione a questo link eventibrite.


L’evento, sarà registrato e poi reso disponibile sul canale YouTube dell’Associazione Luca Coscioni all’interno della playlist “Eventi precongressuali 2025”.

L'articolo Evento precongressuale a Brescia: “DATti voce! Testamento biologico: scegliere oggi può cambiare il domani” proviene da Associazione Luca Coscioni.



Un ritratto di Pier Giorgio Frassati (1901-1925), opera del pittore Alberto Falchetti (1878-1951), di proprietà della famiglia Frassati, e uno scatto fotografico di Carlo Acutis (1991-2006), durante una delle sue ultime gite scolastiche prima della s…


Videosorveglianza sotto attacco: Un bug in Hikvision consente accesso admin senza login


Alla fine di agosto 2025 è stata resa pubblica una vulnerabilità ad alto impatto che riguarda HikCentral Professional, la piattaforma di Hikvision usata per gestire in modo centralizzato videosorveglianza e controllo accessi. La falla, catalogata come CVE-2025-39247, ha un punteggio CVSS di 8.6 (High) e permette a un attaccante remoto di ottenere accesso amministrativo senza autenticazione. In altre parole: chiunque, via rete, può entrare nel cuore del sistema di gestione della sicurezza.

Perché è importante


Gli ambienti che adottano HikCentral spesso lo considerano parte della “sicurezza fisica”, ma in realtà è un software esposto come qualsiasi altro servizio IT. Questo lo rende un bersaglio interessante: se compromesso, può fornire accesso non solo alle telecamere, ma anche a dati sensibili, configurazioni e potenzialmente all’intera rete aziendale.

In uno scenario reale, un attaccante potrebbe:

  • visualizzare e manipolare i flussi video;
  • modificare impostazioni e utenti;
  • sfruttare il server come punto di ingresso per movimenti laterali.


Dove sta il problema


La vulnerabilità è di tipoImproper Access Control (CWE-284). In pratica, alcuni endpoint web/API di HikCentral non gestiscono correttamente i controlli di accesso. Il risultato è che richieste inviate senza credenziali vengono comunque trattate come privilegiate, permettendo l’escalation diretta a livello amministrativo.

Questo rende l’attacco estremamente semplice: non serve conoscenza approfondita del sistema, non servono credenziali rubate, non è necessaria interazione da parte dell’utente. È sufficiente essere in grado di raggiungere la porta del servizio.

Versioni coinvolte e fix


Le versioni vulnerabili vanno dallaV2.3.1 alla V2.6.2, oltre allaV3.0.0. Hikvision ha già rilasciato aggiornamenti correttivi:

  • V2.6.3
  • V3.0.1

Chiunque utilizzi release precedenti dovrebbe aggiornare immediatamente.

Mitigazioni pratiche

Oltre all’aggiornamento, che resta la misura più efficace, ci sono alcune azioni di hardening consigliate:

  • Segmentare la rete: isolare i server HikCentral in VLAN dedicate, accessibili solo da subnet fidate.
  • Limitare l’accesso: filtrare via firewall gli indirizzi che possono connettersi al servizio.
  • Implementare un WAF: utile per intercettare richieste anomale agli endpoint.
  • Monitorare i log: attivare alert per tentativi di accesso sospetti o non autorizzati.
  • Applicare il principio del minimo privilegio: ridurre al minimo i diritti degli account interni.


Checklist operativa rapida


Per facilitare il lavoro dei team IT e sicurezza, ecco i5 step essenziali per mitigare CVE-2025-39247:

  1. Aggiornare subito aV2.6.3 o V3.0.1.
  2. Controllare la rete: isolare i server HikCentral in segmenti dedicati.
  3. Limitare gli accessi esterni tramite firewall e VPN.
  4. Abilitare logging avanzato e monitoraggio per individuare attività anomale.
  5. Verificare i privilegi degli account ed eliminare eventuali utenze superflue.


Conclusione


Il caso diCVE-2025-39247 dimostra quanto sia rischioso sottovalutare i sistemi di sicurezza fisica. Non sono “black box” isolate, ma applicazioni IT esposte che meritano lo stesso livello di protezione dei sistemi core. Un exploit come questo può trasformare un sistema nato per proteggere in una porta d’ingresso per attacchi molto più gravi.

La priorità è quindi chiara:aggiornare subito, e contestualmente rafforzare i controlli di rete e monitoraggio. Solo così si riduce al minimo la finestra di esposizione e si garantisce che un sistema progettato per difendere non diventi la causa della compromissione.

L'articolo Videosorveglianza sotto attacco: Un bug in Hikvision consente accesso admin senza login proviene da il blog della sicurezza informatica.



“Profondamente rattristato nell’apprendere della devastazione causata dalla frana nel villaggio di Tarasin, nella regione centrale del Darfur”, il Papa “assicura a tutti coloro che sono colpiti da tale disastro la sua spirituale vicinanza”.


Quasi un terzo del traffico web è generato da bot! L’era dell’AI invasiva è ora


Ieri il sito di Red Hot Cyber è stato inaccessibile per circa un’ora. Ma cosa sta succedendo ci siamo chiesti? Dopo una serie di analisi ecco il riscontro: internet sta cambiando rapidamente sotto la pressione dell’intelligenza artificiale.

Se in precedenza i siti soffrivano dei classici robot di ricerca, oggi una quota crescente di traffico è generata da nuovi scanner aggressivi che operano nell’interesse di grandi modelli linguistici. Secondo Cloudflare, quasi un terzo di tutto il traffico web globale proviene da bot, e tra questi i crawler AI sono quelli in più rapida crescita. Le analisi di Fastly specificano che l’80% di tale traffico è generato da programmi creati per la raccolta di massa dei dati necessari per l’addestramento dell’IA.

Formalmente, la storia degli scanner automatici è iniziata nel 1993, con la comparsa di Web Wanderer, che registrava le nuove pagine web. Ma gli esperti sottolineano: la differenza tra quei primi strumenti e i sistemi odierni è enorme. Gli algoritmi moderni non si limitano a indicizzare le pagine, ma sovraccaricano l’infrastruttura, creando costi elevati per i proprietari dei siti. Fastly registra numerosi casi in cui improvvisi picchi di richieste da parte di bot di intelligenza artificiale hanno aumentato il carico sui server di dieci, e talvolta venti volte, nel giro di pochi minuti, con conseguenti inevitabili cali di produttività e interruzioni del servizio.

I provider di hosting sottolineano che tali crawler non tengono quasi mai conto delle limitazioni relative alla frequenza di scansione e alle regole di risparmio del traffico. Scaricano il testo completo delle pagine, seguono link dinamici e script eseguibili, ignorando completamente le impostazioni dei proprietari delle risorse. Di conseguenza, anche i siti non direttamente presi di mira ne risentono indirettamente: se diversi progetti condividono un server e un canale di comunicazione comune, un attacco ai siti vicini ne compromette istantaneamente la velocità.

Per i siti di piccole dimensioni, ciò si traduce in una completa inaccessibilità. I proprietari di risorse notano che i consueti meccanismi di protezione DDoS offerti da Cloudflare e da altre società di rete affrontano efficacemente ondate di attacchi distribuiti, ma sono inutili contro l’assalto dei bot AI. Di fatto, stiamo parlando delle stesse conseguenze distruttive, sebbene formalmente il traffico non sia classificato come dannoso.

La situazione è difficile anche per i principali operatori. Per resistere a tali flussi, è necessario aumentare la quantità di RAM, le risorse del processore e la larghezza di banda della rete. In caso contrario, la velocità di caricamento delle pagine diminuisce, il che si traduce in un aumento del bounce rate. Le ricerche di hosting dimostrano che se un sito rimane aperto per più di tre secondi, più della metà dei visitatori chiude la scheda. Ogni secondo in più non fa che peggiorare il problema e l’azienda perde il suo pubblico.

Anche le più grandi aziende di intelligenza artificiale sono comparse nelle statistiche. Meta rappresenta il volume maggiore di traffico di ricerca , circa il 52%. Google ne rappresenta il 23% e OpenAI un altro 20%. I loro sistemi sono in grado di generare picchi fino a 30 terabit al secondo, il che causa guasti anche per le organizzazioni con un’infrastruttura potente. Allo stesso tempo, i proprietari di siti web non guadagnano nulla da tale interesse: se in precedenza una visita del robot di ricerca Googlebot offriva la possibilità di arrivare alla prima pagina dei risultati di ricerca e attrarre lettori o clienti, ora i crawler di intelligenza artificiale non riportano gli utenti alle fonti originali. I contenuti vengono utilizzati per addestrare i modelli e il traffico non genera profitto.

I tentativi di proteggersi con metodi classici – password, accesso a pagamento, CAPTCHA e filtri specializzati – raramente danno risultati. L’intelligenza artificiale riesce a superare queste barriere abbastanza bene. Anche il vecchio meccanismo robots.txt, che per decenni è stato utilizzato come metodo standard per indicare le regole di indicizzazione, perde il suo significato: molti bot semplicemente lo ignorano. Cloudflare ha quindi accusato Perplexity di aver aggirato queste impostazioni, e Perplexity, a sua volta, ha negato tutto. Ma i proprietari di siti web registrano regolarmente ondate di richieste automatiche da vari servizi, il che conferma l’impotenza degli strumenti esistenti.

Esistono iniziative per integrare robots.txt con un nuovo formato, llms.txt. Dovrebbe consentire ai modelli linguistici di trasmettere contenuti appositamente preparati senza compromettere il funzionamento del sito. Tuttavia, l’idea è percepita in modo ambiguo e non è chiaro se diventerà uno standard. Parallelamente, aziende di infrastrutture come Cloudflare stanno lanciando i propri servizi per bloccare i bot AI. Esistono anche soluzioni indipendenti come Anubis AI Crawler Blocker, un progetto aperto e gratuito che non impedisce la scansione, ma la rallenta a tal punto da non essere più distruttiva.

Si sta quindi delineando una nuova corsa agli armamenti su Internet. Da una parte ci sono i proprietari di siti web che vogliono mantenere le proprie risorse accessibili e redditizie. Dall’altra ci sono gli sviluppatori di intelligenza artificiale che sfruttano il flusso infinito di dati come carburante. Un equilibrio verrà probabilmente trovato nel tempo, ma il prezzo sarà alto: la rete diventerà più chiusa, le informazioni saranno frammentate e molti materiali finiranno dietro le quinte dei servizi a pagamento o scompariranno del tutto dall’accesso libero. I ricordi di un’Internet libera stanno gradualmente diventando storia e la prospettiva di una rete frammentata sta diventando sempre più concreta.

L'articolo Quasi un terzo del traffico web è generato da bot! L’era dell’AI invasiva è ora proviene da il blog della sicurezza informatica.

reshared this



Giovedì prossimo, 4 settembre, alle 10 nel Palazzo apostolico, il Papa riceverà in udienza il presidente dello Stato d'Israele, Isaac Herzog. Lo rende noto la Sala Stampa della Santa Sede, inserendo l'appuntamento tra le attività papali.


Lazarus APT: 3 RAT avanzati per organizzazioni finanziarie di criptovalute


Di recente, un sottogruppo avanzato legato al noto autore della minaccia Lazarus è stato individuato, mentre distribuiva tre diversi trojan di accesso remoto (RAT) all’interno di organizzazioni operanti nel settore finanziario e delle criptovalute che erano state compromesse. L’accesso iniziale è stato realizzato prevalentemente attraverso campagne di ingegneria sociale condotte su Telegram, dove gli attaccanti fingevano di essere dipendenti legittimi di importanti società commerciali.

Siti web di incontri contraffatti, tra cui falsi portali come Calendly e Picktime, attirano le vittime, che vengono raggiunte tramite un exploit zero-day di Chrome che consente l’esecuzione silenziosa di codice sul loro computer. Gli aggressori, una volta dentro la rete, impiegano PondRAT come prima fase, mentre in seguito utilizzano ThemeForestRAT, più difficile da rilevare, che viene eseguito solo in memoria.
Catena di attacco di lazarus (Fonte Fox-it)
L’uso di nuove famiglie di malware e di sospetti exploit zero-day ha colto di sorpresa molti difensori. A rendere il tutto ancora più urgente, la raffinata sicurezza operativa del gruppo che dimostra la capacità di combinare loader personalizzati con il dirottamento di DLL di Windows e la crittografia DPAPI.

A seguito di mesi di esplorazione e movimenti strategici, Lazarus ottimizza l’accesso precedente eliminando gli artefatti superflui, e procede con l’installazione di un avanzato RemotePE RAT al fine di assicurare un controllo prolungato.

Di seguito i 3 RAT (Remote Access Trojan) utilizzati nella campagna:

  • ThemeForestRAT
  • PondRAT
  • RemotePE

Gli analisti di Fox-IT e NCC Group hanno osservato che la velocità e la precisione di questa catena di infezioni evidenziano le capacità avanzate dell’autore e la sua profonda familiarità con gli strumenti personalizzati e disponibili al pubblico.

E’ stato notato dagli analisti che il servizio SessionEnv viene sfruttato da PerfhLoader attraverso il caricamento di DLL fasulle al fine di eseguire in modo continuativo PondRAT oppure il suo predecessore POOLRAT. Un file di payload non trasparente (come ad esempio perfh011.dat) viene decodificato dal loader utilizzando un algoritmo di cifratura XOR prima di essere eseguito nella memoria.

Dopo la decrittazione, PerfhLoader sfrutta un caricatore DLL manuale open source per iniettare PondRAT nella memoria senza scrivere file eseguibili sul disco, consentendo operazioni di ricognizione furtiva e di esfiltrazione dei dati..

L'articolo Lazarus APT: 3 RAT avanzati per organizzazioni finanziarie di criptovalute proviene da il blog della sicurezza informatica.



Cybersecurity Open Day


L’Agenzia per la Cybersicurezza Nazionale ti apre le porte

Martedì 16 settembre 2025
Casa delle Tecnologie Emergenti (CTE), Stazione Tiburtina – Roma

ore 9:30–18:30

L’Agenzia per la Cybersicurezza Nazionale (ACN) partecipa alla Rome Future Week con un’intera giornata dedicata alla cultura della sicurezza digitale.

Talk, incontri, workshop e momenti di confronto ti porteranno dentro il mondo della cybersecurity: dai sistemi di difesa cyber più avanzati, al monitoraggio in tempo reale delle minacce, fino alle nuove professioni e ai percorsi formativi del settore.

Sarà anche un’occasione unica per incontrare chi lavora ogni giorno per proteggere le nostre infrastrutture digitali e scoprire come entrare in questo mondo.

Mattina
Focus Istituzionale ACN

9:30–10:15
La cybersicurezza: una sfida per il presente, una professione per il futuro. Parteciperanno i vertici dell’Agenzia per la Cybersicurezza Nazionale.

Apertura istituzionale ACN con overview su:

  • Analisi di contesto
  • dati aggiornati sul panorama delle minacce
  • overview sul futuro delle professioni (Risorse umane)


10:15–11:00
Servizio Operazioni e gestione delle crisi cyber
“Il cuore operativo dell’ACN: rilevamento e gestione della minaccia cyber“. Relatori del Servizio.


11:00–11:15
Coffee break


11:15–12:00
Servizio Certificazione e Vigilanza
Presentazione del Centro di Valutazione e Certificazione Nazionale (CVCN): analisi delle vulnerabilità nei sistemi ICT. Focus su casi e metodologie. Relatori del Servizio


12:00–13:15
Servizio Programmi Industriali tecnologici e di Ricerca
“Il futuro della cybersicurezza: progetti nazionali ed europei”
Relatori del Servizio

Pomeriggio
Open Day & incontri pubblici

Servizio Certificazione e Vigilanza

15:00–16:00
Dimostrazione pratica di PT ( Penetration test )

Divisioni Formazione e Consapevolezza

16:00-16:30
L’ACN e il mondo degli ITS Academy

16:30-17:30
Capture the flag in collaborazione con ITS Academy

17:30–18:00
Donne della Cybersecurity: esperienze a confronto (squadra cyber femminile delle scuole superiori – women4cyber)

18:15-19:15
Matching libero e networking
I partecipanti potranno avvicinare aziende e enti formativi, distribuire CV, fare domande, conoscere opportunità

Pubblico invitato:
Studenti delle scuole superiori, Studenti universitari, Giovani professionisti. Appassionati di tecnologia, Cittadini e cittadine curiosi/e, Aziende e startup, Enti di formazione


I lavori della giornata saranno moderati dal dott. Arturo Di Corinto


dicorinto.it/formazione/cybers…



“Viviamo in un mondo complesso, che ci crea grosse preoccupazioni e va spesso in direzione contraria a quelli che sono i nostri sogni. La realtà è che dobbiamo educarci alla complessità. Non ci sono soluzioni semplici per un mondo complesso.











Ecco come Fincantieri ammodernerà la flotta polacca

@Notizie dall'Italia e dal mondo

In un contesto in cui i Paesi della Nato rafforzano le proprie capacità militari, Fincantieri amplia i suoi impegni internazionali, tra progetti già avviati, navi ibride per il settore energetico offshore e sottomarini per partner strategici. Il programma Constellation, già avviato da tempo con la Marina



L’Europa arma la sua difesa. Piano Safe al completo e bilanci militari ai massimi storici

@Notizie dall'Italia e dal mondo

Il piano Security action for europe (Safe) dell’Unione europea ha raggiunto il suo primo obiettivo: i 150 miliardi di euro in prestiti messi a disposizione per sostenere la produzione militare e la capacità industriale europea sono stati



La cravatta di Trump si stringe al collo dell’Africa


@Giornalismo e disordine informativo
articolo21.org/2025/09/la-crav…
È nota l’idiosincrasia che i presidenti statunitensi (in particolare repubblicani) nutrono verso la geografia. George Bush jr. ci ha donato preziose perle ma Donald Trump sta facendo di meglio amalgamando sapientemente



Tokyo mette sul piatto 60 miliardi per la Difesa. Caccia e satelliti tra le priorità

@Notizie dall'Italia e dal mondo

Il governo giapponese ha presentato per il 2026 una richiesta di bilancio per la Difesa da 8,8 trilioni di yen, corrispondenti a circa 60 miliardi di dollari. Una cifra record per il Paese del Sol Levante, che conferma la traiettoria intrapresa negli ultimi anni che punta a rafforzare




Putin: 'La Russia non intende attaccare l'Europa, Ucraina nell'Ue? mai stati contrari'

ok... ma il promo problema è che l'ucraina è in europa. almeno credo. è uno stato europeo.

e poi la seconda questione: "putin non intende attaccare l'europa".

Sono sicura che in questo momento di difficoltà non abbia convenienza ad allargare il fronte. ma domani? cosa diceva dell'ucraina fino a 1 mese prima dell'invasione? che gli europei erano isterici e che mai avrebbe invaso l'ucraina

ci si può fidare? ho qualche dubbio. conviene essere credibili nella capacità di difesa? si.