No, la solidarietà non basta
@Giornalismo e disordine informativo
articolo21.org/2025/10/no-la-s…
Un Paese in cui chi cerca la verità viene lasciato sempre più solo
L'articolo No, la solidarietà non basta proviene da Articolo21.
Alfonso reshared this.
Libera: “Vicini a Ranucci, attacco al cuore della democrazia”
@Giornalismo e disordine informativo
articolo21.org/2025/10/libera-…
“Preoccupazione, vicinanza e corresponsabilità. Chi prova a zittire una voce libera attacca il cuore stesso della democrazia. Esprimiamo preoccupazione, vicinanza e corresponsabilità a Sigfrido
Una ferita grave alla democrazia
@Giornalismo e disordine informativo
articolo21.org/2025/10/una-fer…
Le auto esplose, la voce di Sigfrido piena di tremore, la preoccupazione dei suoi familiari. Quanto accaduto la scorsa notte é una ferita grave alla democrazia del nostro Paese, ancora una volta turbata da un grave attentato. Le bombe sono un segnale terrificante che, di
Mtv chiude dopo 40 anni. Finisce l’epoca dei videoclip in televisione, vincono i social
Il canale musicale in onda ventiquattr’ore su ventiquattro chiude definitivamente. A annunciarlo è la Paramount
L'articolo Mtv chiude dopo 40 anni. Finisce l’epoca dei videoclip in televisione, vincono i social su Lumsanews.
Quel “segnale” nel giorno dell’anniversario dell’agguato a Daphne Caruana Galizia!
@Giornalismo e disordine informativo
articolo21.org/2025/10/quel-se…
Mentre a Malta si ricordava l’assassinio di Daphne Caruana Galizia, odiata da mafia e politica corrotta, a Roma saltavano le auto di
Hamas a Israele: “Restituiremo i corpi, ma ci vorrà tempo”. Trump avverte i terroristi: “Se continuate, dovremo farvi fuori”
[quote]GERUSALEMME – “Vogliamo restituire i corpi ma potrebbe volerci tempo. Tuttavia, rispetteremo l’accordo”. Nel suo ultimo messaggio, Hamas ha garantito a Israele che le condizioni per il mantenimento della
After Trucking Them Home, Old Solar Panels Keep On Trucking
The fact that there exist in our world flat rocks that make lightning when you point them at the sun is one of the most unappreciated bits of wizardry in this modern age. As hackers, we love all this of techno-wizardry–but some of us abhor paying full price for it. Like cars, one way to get a great discount is to buy used. [Backyard Solar Project] helped a friend analyze some 14-year-old panels to see just how they’d held up over the years, and it was actually better than we might have expected.
The big polycrystalline panels were rated at 235 W when new, and they got 6 of them for the low, low price of “get this junk off my property”. Big panels are a bit of a pain to move, but that’s still a great deal. Especially considering that after cleaning they averaged 180 W, a capacity factor of 77%. Before cleaning 14 years worth of accumulated grime cost about eight watts, on average, an argument for cleaning your panels. Under the same lighting conditions, the modern panel (rated to 200 W) was giving 82% of rated output.
That implies that after 14 years, the panels are still at about 94% of their original factory output, assuming the factory wasn’t being overoptimistic about the numbers to begin with. Still, assuming you can trust the marketing, a half a percent power drop per year isn’t too bad. It’s also believable, since the US National Renewably Energy Laboratory (yes, they have one) has done tests that put that better than the average of 0.75 %/yr. Of course the average American solar panel lives in a hotter climate than [Backyard Solar Project], which helps explain the slower degradation.
Now, we’re not your Dad or your accountant, so we’re not going to tell you if used solar panels are worth the effort. On the one hand, they still work, but on the other hand, the density is quite a bit lower. Just look at that sleek, modern 200 W panel next to the old 235 W unit. If you’re area-limited, you might want to spring for new, or at least the more energy-dense monocrystalline panels that have become standard the last 5 years or so, which aren’t likely to be given away just yet. On the gripping hand, free is free, and most of us are much more constrained by budget than by area. If nothing else, you might have a fence to stick old panels against; the vertical orientation is surprisingly effective at higher latitudes.
youtube.com/embed/3AKq6nlvP3E?…
L’indagine sull’attentato passa alla Direzione Distrettuale antimafia
@Giornalismo e disordine informativo
articolo21.org/2025/10/lindagi…
Un chilo di esplosivo non ce lo hanno tutti. La qualità criminale dell’attentato ai danni di Sigfrido Ranucci ha fato scattare, giustamente, l’allarme rosso
Alfonso reshared this.
2025 Component Abuse Challenge: An LED as a Light Dependent Capacitor
The function of an LED is to emit light when the device is forward biased within its operating range, and it’s known by most people that an LED can also operate as a photodiode. Perhaps some readers are also aware that a reverse biased LED also has a significant capacitance, to the extent that they can be used in some RF circuits in the place of a varicap diode. But how do those two unintentional properties of an LED collide? As it turns out, an LED can also behave as a light dependent capacitor. [Bornach] has done just that, and created a light dependent sawtooth oscillator.
The idea is simple enough, there is a capacitance between the two sides of the depletion zone in a reverse biased diode, and since an LED is designed such that its junction is exposed to the external light, any photons which hit it will change the charge on the junction. Since the size of the depletion zone and thus the capacitance is dependent on the voltage and thus the charge, incoming light can thus change the capacitance.
The circuit is a straightforward enough sawtooth oscillator using an op-amp with a diode in its feedback loop, but where we might expect to find a capacitor to ground on the input, we find our reverse biased LED. The video below the break shows it in operation, and it certainly works. There’s an interesting point here in that and LED in this mode is suggested as an alternative to a cadmium sulphide LDR, and it’s certainly quicker responding. We feel duty bound to remind readers that using the LED as a photodiode instead is likely to be a bit simpler.
This project is part of the Hackaday Component Abuse Challenge, in which competitors take humble parts and push them into applications they were never intended for. You still have time to submit your own work, so give it a go!
youtube.com/embed/lFQo_J6E04k?…
Dalla macchina alla mente: perché servono nuovi sistemi operativi per l’Intelligenza Artificiale
Ogni rivoluzione digitale è nata da un cambio di linguaggio, sempre accompagnato da un nuovo approccio al sistema operativo. Se osserviamo bene, negli anni ’70, Unix portò ordine e gerarchia dove era necessario costruire il futuro su solide basi. Negli anni ’90, era il tempo del PC per tutti e Windows rese la tecnologia universale e accessibile a tutti, anche ai non tecnici.
Quando poi ci si rese conto che un Sistema Operativo era anche un modo di pensare, Linux, con la sua etica della libertà, aprì la via all’open-source. Ognuno di questi sistemi ha tradotto un modo di pensare nel rapporto fra uomo e macchina. Ma oggi, qualcosa è cambiato in modo radicale: nuovi sistemi, nuovi paradigmi e, come sempre, nuove necessità da affrontare.
L’Intelligenza Artificiale non è più un programma qualunque che gira sopra un sistema operativo: è diventata essa stessa un sistema “vivente di processi cognitivi”. Modelli che apprendono, comunicano, decidono (in modo sempre più autonomo) e si adattano alle condizioni esterne e al contesto.
Un’AI moderna non “esegue istruzioni”, ma genera inferenze, strategie, relazioni e nessun OS tradizionale — progettato per gestire file, memoria e input utente e dispositivi hardware — è in grado di sostenere questa nuova complessità relazionale.
Abbiamo quindi bisogno di nuovi sistemi operativi1: non più piattaforme per computer, ma habitat cognitivi per intelligenze. Spazi dove il calcolo si intreccia con la percezione, dove la decisione è un processo distribuito e dinamico, dove l’etica e la memoria diventano parti strutturali del kernel stesso.
Le quattro linee di evoluzione
In questo scenario, che poi non è altro che lo specchio tecnologico della società attuale, emergono quattro grandi famiglie di sistemi operativi che potremo definire “per l’Intelligenza”, ognuna portatrice di una visione diversa del rapporto tra tecnica e coscienza.
1️. Neuro-OS e Cognitive Kernel
I primi embrioni di questa nuova famiglia di OS nascono nei laboratori di ricerca: da Singularity OS di Microsoft Research ai recenti esperimenti di AIOS (2024), progettati per gestire stati cognitivi invece di semplici processi. Il kernel non assegna più cicli di CPU, ma compiti cognitivi: inferenze, ragionamenti, interazioni semantiche. È un cervello distribuito, capace di memorizzare contesti, tracciare intenzioni e orchestrare modelli neurali in tempo reale.
2️. Swarm OS e Autonomy Stack
Nell’ambito militare, industriale e robotico, emergono sistemi pensati per governare sciami intelligenti di droni o agenti digitali.
Soluzioni come Anduril Lattice OS o Shield AI Hivemind EdgeOS5 gestiscono flotte autonome con logiche di cooperazione e adattamento continuo.
In questi sistemi l’intelligenza è distribuita: ogni unità comunica, apprende e reagisce in rete, senza un centro di comando fisso.
È la versione operativa di quella che potremmo definire una ‘mente distribuita’: un ecosistema dove ogni nodo contribuisce alla decisione collettiva.
3️. Agent-Centric OS
Nel mondo cloud e dell’automazione cognitiva, giganti come Google, AWS e Microsoft stanno costruendo ambienti dove l’agente è l’utente.
Vertex AI Agent Engine, Bedrock Agents e il nuovo Microsoft Agent Framework non sono esclusivamente al servizio dello sviluppatore umano ma coordinano intelligenze artificiali che collaborano tra loro, pianificano e ricordano.
Questi sistemi incarnano un nuovo paradigma operativo, in cui ogni AI ha la propria memoria, il proprio obiettivo, la propria etica. Non eseguono comandi: dialogano.
4️. Edge & Real-Time OS per l’Intelligenza Fisica
Infine, il confine tra digitale e materia si assottiglia, ed ecco allora i sistemi operativi di confine: ROS 2, NVIDIA Holoscan, QNX o VxWorks sono le fondamenta su cui si muovono robot, auto autonome e infrastrutture critiche.
Qui la sfida è il tempo reale: la decisione e azione quasi contemporanee.
Questi OS sono lo scheletro della nuova intelligenza fisica, dove l’AI lascia il cloud e scende nel mondo sensoriale.
Tutti questi percorsi convergono verso un’idea comune: un sistema operativo capace non solo di calcolare, ma di comprendere il perché del calcolo e soprattutto le conseguenze di una decisione.
Un OS che integri logiche di fiducia, memoria contestuale, responsabilità.
Un tale sistema operativo sarà dotato di una sorta di ‘registro etico’ inscritto nel codice, in cui ogni azione è tracciata non solo per efficienza, ma anche per garantire trasparenza e responsabilità.
La domanda iniziale, dunque, trova la sua risposta nella trasformazione stessa: non abbiamo più bisogno di un sistema operativo per le macchine, ma di un sistema operativo per le menti artificiali.
Uno spazio dove la tecnologia e la coscienza possano finalmente coabitare, come due processi che imparano, insieme, a condividere la stessa memoria.
Nei prossimi paragrafi esploreremo alcuni di questi nuovi sistemi operativi dell’Intelligenza Artificiale, osservando come la tecnica, ancora una volta, si stia evolvendo in direzioni non ancora del tutto prevedibili, ma senza dubbio affascinanti.
1. Neuro-OS e Cognitive Kernel
Le architetture operative che conosciamo oggi — da Windows a Linux — si fondano tutte sullo stesso principio: il sistema operativo gestisce risorse fisiche e logiche, come CPU, memoria e processi.
Ma quando i “processi” diventano “neuroni digitali“, quel modello inizia a scricchiolare.
Un Neuro-OS nasce esattamente per questo: sostituire la logica della gestione delle risorse con quella della gestione dell’intelligenza.
Il suo compito non è più assegnare tempo di calcolo a un thread, ma coordinare attività di ragionamento, inferenza, memoria contestuale e adattamento continuo.
In un certo senso, il kernel — il cuore del sistema operativo — si trasforma da direttore d’orchestra di istruzioni a coordinatore di reti neurali.
Da Singularity a AIOS: le origini del kernel cognitivo
L’idea non è nuova. Già nel 2004 Microsoft Research sperimentò Singularity OS, un progetto pensato per creare un sistema operativo completamente scritto in codice gestito2, con processi isolati ma comunicanti attraverso canali di memoria sicuri.
L’obiettivo era semplice e ambizioso: garantire affidabilità e auto-controllo a ogni processo.
Non era ancora un OS “intelligente”, ma introduceva per la prima volta un concetto fondamentale per l’AI moderna: processi autonomi che conoscono il proprio stato.
Anni dopo, nel 2015, nacque il Neurokernel Project della Columbia University — avviato da Aurel A. Lazar — piattaforma open-source per emulare il cervello della Drosophila su GPU: il “kernel” coordina moduli neurali e interfacce tra neuropili, anticipando OS che orchestrano reti neurali in tempo reale. Nel progetto il kernel non gestiva file o driver, ma “sinapsi digitali”, con funzioni dedicate alla comunicazione tra moduli neuronali.
Un esperimento che, pur confinato alla ricerca, ha aperto la strada all’idea di un sistema operativo capace di orchestrare reti neurali in tempo reale.
Nel 2024, la Rutgers University (USA) ha presentato AIOS — LLM Agent Operating System —, probabilmente il primo tentativo reale di costruire un sistema operativo progettato nativamente per agenti di intelligenza artificiale.
AIOS introduce un concetto che potremmo chiamare “cognitive scheduling”: il kernel decide non solo quale processo eseguire, ma quale obiettivo prioritario perseguire, bilanciando memoria, contesto e risorse semantiche. Un passo avanti rispetto ai runtime classici, che trattano i modelli come semplici applicazioni.
Dal calcolo al comportamento.
In un sistema operativo tradizionale, le risorse sono assegnate in base a criteri di efficienza; in un Neuro-OS, le risorse sono gestite in base al significato delle operazioni.
Se un modello linguistico deve analizzare un contesto complesso o rispondere in tempo reale, il kernel può allocare priorità cognitive, non solo computazionali.
Questa visione apre la strada a un nuovo modo di intendere l’operatività dell’AI:
- memoria persistente dei contesti conversazionali,
- coordinamento tra agenti che condividono conoscenza,
- autotutela dei processi per evitare comportamenti anomali o conflittuali.
In termini pratici, significa costruire un’infrastruttura dove le AI non vengono eseguite, ma vivono in esecuzione continua, mantenendo uno stato, un obiettivo e un grado di autonomia misurabile.
Le sfide aperte
La nascita di questi sistemi porta con sé sfide tecniche e strategiche.
In primo luogo consideriamo l’aspetto della sicurezza: un kernel che gestisce reti neurali deve impedire che un modello compromesso influenzi l’intero sistema. In secondo luogo occorre approfondire gli aspetti di governance: chi controlla le priorità di calcolo, gli aggiornamenti dei modelli e la persistenza della memoria?
Infine non possiamo certo trascurare la trasparenza: il kernel dovrà registrare decisioni e motivazioni, creando un log leggibile e auditabile — una sorta di “registro etico” integrato — questo perchè vi sarà sempre più la necessità di capire cosa è successo e il perchè di una determinata decisione.
Il Neuro-OS è quindi la base della prossima generazione di infrastrutture cognitive: non un sistema che ospita l’AI, ma un sistema pensato, progettato e realizzato per l’AI.
2. Swarm OS e Autonomy Stack
Quando la “macchina” non è più un singolo sistema ma decine o centinaia di unità che cooperano — droni, sensori, veicoli, nodi edge — serve uno strato operativo capace di tenere insieme missione, percezione e decisione anche quando i collegamenti si degradano. È qui che entra in gioco lo Swarm OS: non un semplice middleware, ma un’architettura che coordina obiettivi, comunicazioni e ruoli sul campo, mantenendo l’operatore all’interno del ciclo decisionale (on-the-loop) e permettendo nel contempo all’autonomia locale (uno o più elementi periferici) di reggere l’urto della realtà.
L’immagine più chiara arriva da Lattice, la piattaforma di Anduril descritta dall’azienda come un “open operating system for defense”: un livello software che unifica comando e controllo, autonomia e fusione dati su asset eterogenei e multi-dominio, con un’attenzione esplicita alla scalabilità JADC23. In pratica, è un OS che “vede” e governa sciami e famiglie di sistemi diversi come un’unica capacità operativa, dalla periferia al centro decisionale.
Sul fronte delle missioni autonome, Shield AI ha sviluppato Hivemind, un autonomy stack4 che consente a velivoli e droni di pianificare e volare in modo collaborativo. Il passo successivo è EdgeOS, un software che porta quella stessa autonomia su piattaforme differenti: un middleware pensato per la periferia, con hard real-time dove serve e con capacità di recupero quando il link si interrompe. Le dimostrazioni più recenti includono l’integrazione su Do-DT255 con Airbus e il volo autonomo in ambienti degradati: un caso concreto di come l’autonomia di sciame possa spostarsi rapidamente da un vettore all’altro senza riscrivere tutto daccapo.
Nel mondo open/dual-use, Auterion parte da AuterionOS e introduce Nemyx, un motore che abilita sciami coordinati anche su più produttori: l’idea è trasformare singoli droni in un sistema cooperante tramite upgrade software, sincronizzando targeting, ingressi ed uscite di più unità in uno scenario complesso.
Sotto la linea dell’autonomia di sciame, spesso vive l’“OS di volo” PX4, il progetto open-source che fornisce controllo, driver e middleware di base per Unmanned Vehicles6 aerei e non solo. Non è uno Swarm OS, ma è la base tecnica su cui molte soluzioni di sciame appoggiano i comandi di basso livello, accelerando la portabilità del comportamento cooperativo su piattaforme diverse.
Il quadro, in prospettiva, è stato accelerato anche dai programmi pubblici come DARPA OFFSET, che hanno codificato interfacce, tattiche e toolchain per sciami fino a 250 unità in ambienti urbani: un banco di prova che ha reso più matura la relazione tra autonomia distribuita e teaming con l’operatore.
Ciò che distingue davvero uno Swarm OS da un normale stack di controllo è la percezione condivisa come risorsa di sistema (mappe, minacce, target che “circolano” tra i nodi), la pianificazione distribuita (chi fa cosa, dove e quando, senza un singolo punto di comando), e la resilienza by design: se il link salta, il gruppo non si ferma, ma degrada in modo controllato, rispettando regole e priorità definite in partenza. A questo si aggiungono audit e tracciabilità: log leggibili post-missione che permettono di ricostruire decisioni e prestazioni, requisito essenziale in difesa ma utile anche nei settori industriali più sensibili.
In sintesi, lo Swarm OS è il passaggio dal “pilotare cose” al “governare capacità”. Apre la porta a flotte che si comportano come un solo sistema, senza rinunciare al controllo umano e con una base tecnica che, quando possibile, resta aperta e portabile.
Nel prossimo passo guarderemo al lato speculare nel cloud: gli Agent-Centric OS, dove l’“utente” non è più una persona alla tastiera, ma un insieme di agenti che cooperano per obiettivi.
3. Agent-Centric OS
Se nello Swarm OS l’unità di base è il veicolo o il nodo edge, qui l’unità di base è l’agente: un sistema intelligente capace di ragionare su obiettivi, usare strumenti, collaborare con altri agenti e con l’operatore umano quando serve. Un Agent-Centric OS è lo strato che li fa nascere, li fa parlare tra loro e li governa come un sistema unico, dal cloud fino ai servizi aziendali. In questo modello “l’utente” non è più necessariamente una persona davanti alla tastiera: è un insieme di agenti coordinati che svolgono compiti, prendono decisioni operative e passano il testimone l’uno all’altro.
L’esempio più netto è Vertex AI Agent Engine: Google lo presenta come runtime gestito per costruire e far girare agenti che integrano modelli, azioni e dati. Per chi lavora in produzione significa avere un motore unico che incapsula orchestrazione, stato e accesso alle risorse senza inventarsi infrastrutture ad hoc ogni volta.
Sul lato AWS, la direzione è simile: Bedrock Agents introduce la collaborazione multi-agente come funzione di piattaforma. Significa poter progettare reti di agenti che si dividono flussi complessi di operazioni, con gestione centralizzata delle risorse e dei permessi, dentro la stessa cornice di sicurezza e dati dell’account AWS. È il passo che porta dai “bot isolati” a squadre di agenti che operano nel rispetto di ben definiti criteri e ruoli.
Nel mondo Microsoft, la traiettoria converge: l’Agent Framework unifica l’esperienza di Semantic Kernel e AutoGen7 in un kit open-source per agenti e flussi multi-agente. È una base unica su cui costruire agenti conversazionali, agenti “tool-use”, orchestrazioni a eventi e scenari ibridi (man-in-the-loop), con un’attenzione esplicita alla componibilità del sistema. Per chi ha usato AutoGen, è il naturale “ponte” verso una piattaforma più organica.
Fuori dai grandi cloud, l’ecosistema open si muove veloce. CrewAI spinge verso un modello “snello” in cui si progettano agenti con ruoli e obiettivi chiari, memoria e guardrail integrati, e si orchestrano crew di agent che cooperano su compiti end-to-end. È il laboratorio ideale per capire in piccolo ciò che i grandi stanno industrializzando.
Sul fronte enterprise, Palantir AIP si posiziona come strato operativo per azioni e agenti collegati ai dati e ai processi: la tesi è che “dati + modelli + operazioni” formino un vero sistema operativo aziendale per flussi decisionali e automazioni governabili. È un approccio top-down che parla il linguaggio del mondo IT: policy, auditing, deployment ed infine integrazione con i sistemi esistenti.
In breve, gli Agent-Centric OS sono importanti perchè, in primo luogo, riducono l’attrito d’integrazione. Un agente non è solo un prompt, è gestione di contesto, tool, credenziali, memoria e ruolo, e farlo bene per decine di agenti richiede un sistema che standardizzi tutto questo.
Secondo: abilitano la collaborazione. Le piattaforme nate per un singolo “assistant” ora orchestrano squadre di agenti che si passano sottocompiti e verifiche reciproche, alzando l’asticella della qualità. Terzo: portano governance. Audit, policy, controllo degli accessi e dei confini dei dati non sono più un’aggiunta ma parti del “kernel” applicativo che fa girare gli agenti.
C’è poi il tema delle interfacce con il mondo reale: un Agent-Centric OS efficace non vive solo nel dialogo testuale ma espone “azioni” verso API, database, strumenti e — quando serve — verso l’edge. È qui che il cerchio si chiude con il capitolo precedente: squadre di agenti nel cloud che coordinano sciami di sensori/attuatori edge, ciascuno padrone nel proprio ambiente ma con un linguaggio comune per obiettivi, stato e risultati.
In controluce si vede la stessa trasformazione che abbiamo descritto all’inizio dell’articolo: dal programma al comportamento. Gli Agent-Centric OS prendono ciò che prima era un insieme di script e microservizi e lo elevano a sistema di obiettivi, con strumenti per farlo collaborare, ricordare e rendere conto delle sue azioni. Non è filosofia, è ingegneria dell’operatività: meno attrito, più coordinamento, più controllo.
4. Edge & Real-Time OS per l’Intelligenza Fisica
Quando l’AI esce dal datacenter e incontra il mondo – una linea di produzione, un veicolo, una sala operatoria, un cantiere – la regola cambia: non conta soltanto “quanto calcoli”, conta quando lo fai. È la differenza tra un sistema che “ragiona” bene e uno che agisce in tempo, senza sbagliare. Qui vivono gli Edge & Real-Time OS: sistemi operativi e stack che portano l’AI vicino al sensore, con latenza prevedibile, determinismo e sicurezza funzionale.
Il cuore del problema è semplice da dire e complesso da realizzare: in molti casi non basta essere veloci in media, bisogna essere puntuali sempre. Un robot che afferra un oggetto, un UAV che evita un ostacolo, un braccio che coopera con un essere umano non possono permettersi ritardi, devono agire quando è necessario, né prima né dopo. Da qui la distinzione tra soft real-time (qualche scostamento è tollerato) e hard real-time (lo scostamento non è accettabile). Gli OS per l’intelligenza fisica combinano quindi tre ingredienti: uno strato real-time affidabile, una pipeline di percezione-pianificazione-controllo ottimizzata per l’ambiente di lavoro e un perimetro di safety che definisce cosa succede quando qualcosa va storto.
Sul piano del middleware, il riferimento è ROS 2: non è “un OS” in senso stretto ma lo strato operativo standard della robotica moderna, ROS infatti significa “Robot Operating System”. ROS 2 è il “tessuto di messaggi” che permette alle varie componenti del robot — sensori, motori e software — di parlarsi automaticamente e in modo affidabile, regolando tempi e certezza dei messaggi, così componenti anche di marche diverse funzionano insieme senza reinventare tutto. Intorno a ROS 2 ruotano acceleratori come Isaac/Isaac ROS e gli SDK Jetson/JetPack che portano l’inferenza8 vicino alla camera o al LIDAR9, ottimizzando memoria e throughput senza perdere controllo su tempi e priorità. Quando serve streaming deterministico su flussi ad alta banda – immagini, video, segnali medici – entrano in gioco runtime “a grafo” che schedulano gli operatori come fossero stadi di una catena di montaggio, così ogni frame attraversa la pipeline con latenza nota in anticipo.
Quando il requisito non è solo prestazionale ma di sicurezza entra in scena la scuola RTOS10: microkernel, partizionamento rigoroso, certificazioni di safety. QNX e VxWorks sono i nomi storici: architetture pensate per gestire l’errore critico in modo sicuro e isolato, con canali di comunicazione analizzati a priori e con strumenti che costruiscono passo dopo passo un “fascicolo di sicurezza” (safety case) verificabile, raccolgono requisiti, progetto, test ed evidenze in un unico dossier che dimostra in modo tracciabile che il sistema è sicuro. Sono ambienti dove la prevedibilità del comportamento conta più della performance e in cui l’AI va controllata con modalità di degradazione predisposte.
Ancora più in profondità, su microcontrollori e sensori intelligenti, vive l’ecosistema Zephyr11 + TensorFlow Lite Micro: potenza e latenza bassissima e logiche di pre-filtraggio che alleggeriscono il carico computazionale.
Il punto cruciale è l’integrazione perchè un Edge OS efficace non vive da solo: deve parlare con lo Swarm OS che coordina più unità e con l’Agent-Centric OS che guida la missione dal cloud. Significa esporre stato, obiettivi, eventi con la stessa semantica su tutti i livelli. Un alert generato da un dispositivo periferico deve essere immediatamente “comprensibile” dagli agenti in cloud, una variazione di piano decisa dal coordinatore deve propagarsi come vincolo real-time fino al controllore di bordo. In mezzo, c’è il lavoro sporco ma decisivo: schedulare GPU e CPU senza jitter12 e senza conflitti tra percezione e controllo; gestire la memoria perché i buffer dei sensori non affoghino i planner; chiudere i cicli di controllo nel tempo assegnato; registrare ciò che è accaduto con log leggibili a prova di audit.
Infine, c’è la safety by design. L’AI all’edge non è mai sola: attorno ci sono guardrail che definiscono limiti fisici, geofence, piani di arresto, fallback automatici. Se la rete cade, si passa al piano B locale; se l’inferenza degrada oltre soglia, si riduce la manovra; se il sensore impazzisce, si isola il modulo e si porta il sistema in stato sicuro. È una mentalità da ingegneria dei sistemi: entusiasmo sì, ma con strumenti di verifica, prove di resilienza e un perimetro di responsabilità chiaro.
In breve, l’Edge & Real-Time è il luogo dove l’AI diventa comportamento fisico. Qui si misurano non solo i parametri di accuratezza, ma quelli di affidabilità: quante volte rispetti la scadenza, quanto prevedibile è la latenza, quanto bene degradi quando il mondo non collabora. È il banco di prova che separa la demo dal prodotto.
In chiusura, se volessimo riassumere il nostro viaggio in poche righe potremmo dire che abbiamo seguito quattro traiettorie che in realtà sono un’unica architettura: il Neuro-OS che organizza compiti intelligenti, lo Swarm OS che coordina flotte e capacità, l’Agent-Centric OS che governa squadre di agenti nel cloud e l’Edge & Real-Time OS che porta le decisioni nel mondo fisico con tempi garantiti. A volte sono veri sistemi operativi, altre volte runtime o stack, ma l’effetto complessivo è lo stesso: un livello operativo per l’intelligenza.
L’idea di fondo è pratica: spostare il baricentro dal calcolo al comportamento. Non basta avere un modello che “sa”, serve un sistema che coordina, registra, risponde e se occorre decide, con i vincoli del contesto applicativo in cui è immerso. Per questo parliamo di “habitat” per AI: luoghi software dove obiettivi e risorse si incontrano, con memoria, auditing e regole chiare.
Nel prossimo futuro la differenza non la faranno i singoli record di benchmark ma la capacità di orchestrare. Chi saprà unire questi quattro strati — dal kernel cognitivo al bordo — avrà sistemi che non solo funzionano, ma si comportano bene: prevedibili quando serve, flessibili quando possibile, trasparenti quando è necessario. È qui che la macchina incontra la mente e “vive” il mondo.
L'articolo Dalla macchina alla mente: perché servono nuovi sistemi operativi per l’Intelligenza Artificiale proviene da Red Hot Cyber.
Errore umano e data breach: la sanzione scatta se manca una capacità di gestione.
Nel momento in cui una violazione di sicurezza che coinvolge dati personali (anche detta: data breach) è riconducibile al comportamento degli operatori, gli scenari che troviamo sul podio sono in seconda posizione l’azione dolosa e, al primo posto, quel famigerato errore umano. Mentre il primo scenario però giustamente allarma le organizzazioni quel che basta per far rivedere la propria postura di sicurezza, dal momento che sono ben motivate a svolgere azioni di rimedio affinché tale evento non si ripresenti, il secondo viene sottovalutato il più delle volte. Normalizzato, persino. Anche perché all’interno del termine ombrello dell’errore umano annoveriamo una serie di fattori scatenanti fra cui, ad esempio, incuria, inconsapevolezza, distrazione, overburn la cui individuazione ed analisi è particolarmente dispendiosa dal punto di vista mentale. E si preferisce così preferir ridurre il tutto ad un è capitato.
Ma il costo di questa economia mentale viene messo in conto con le conseguenze sanzionatorie.
Infatti, né il GDPR né il Garante Privacy considerano in alcun modo l’errore umano come una scusante. Anzi, l’organizzazione deve essere in grado di dimostrare l’adozione di ogni misura di sicurezza adeguata a prevenire questa specifica categoria di minacce. Ovviamente, questa responsabilità generale dell’organizzazione non deve indurre a ritenere come inevitabile un automatismo sanzionatorio.
Insomma, è importante trovare il giusto mezzo fra l’errore umano come scenario di game over e qualcosa di cui potersene allegramente fregare perché tanto è qualcosa che capita. Questo non lo dice esplicitamente il GDPR, ma emerge sia da una lettura sistematica della norma sia dai provvedimenti adottati da parte del Garante Privacy.
Ciò che può evitare una sanzione, infatti, è l’esito positivo di una valutazione delle misure adottate prima e dopo l’incidente.
Una questione di misure, ma quali?
Nell’analisi delle misure di sicurezza predisposte, ovviamente, c’è il forte rischio di un condizionamento della valutazione per il post hoc, ergo propter hoc dal momento che se c’è stato un errore significa che dette misure hanno fallito. Questo però non è un assioma ragionevole, dal momento che quanto rileva è l’idoneità in astratto di dette misure a mitigare i rischi fino ad un livello accettabile. Ricordandosi che non esiste alcuno scenario di rischio 0.
Quello che il ragionamento sul what if deve considerare è sia l’efficacia delle misure predisposte nel ridurre la probabilità di occorrenza di un errore umano sia l’eventuale “piano B” che scatta nel caso in cui l’operatore incorra in un errore. Questo comporta necessariamente l’aver svolto un’analisi dei rischi e di averla mantenuta aggiornata nel tempo.
Per quanto riguarda invece le misure predisposte in reazione all’evento di violazione occorso, queste sono quelle volte ad attenuare gli impatti negativi andando a ridurre le conseguenze del data breach e quelle per impedire il ripetersi di un evento dello stesso tipo. Insomma: contenimento e lesson learning.
Fra le misure comunemente adottate per intervenire sull’errore umano ci sono istruzioni e procedure, ivi inclusa loro diffusione e comprensione, nonché formazione e sensibilizzazione. Ovviamente, da dover riferire al contesto operativo altrimenti il rischio è che siano solo l’ennesima opera interna di paper compliance.
Cosa comprovare nell’istruttoria del Garante Privacy.
Nel momento in cui il Garante Privacy apre un’istruttoria su una violazione cagionata da un errore umano, quel che l’organizzazione deve essere in grado di comprovare in sede di memorie difensive (o anche prima, alla richiesta di informazioni) è quindi la propria capacità di gestione della sicurezza pre e post incidente. Questo significa tempestività nell’azione, individuazione delle criticità e rimozione delle cause scatenanti delle stesse.
Nel caso in cui però emergano chiari indizi di una gestione inadeguata della sicurezza o dell’incidente, sia perché mancante sia perché fin troppo fuzzy…beh, allora sì che la sanzione diventa inevitabile.
Ma il conto che si paga non è quello dell’errore umano, bensì quello di una gestione disumana.
L'articolo Errore umano e data breach: la sanzione scatta se manca una capacità di gestione. proviene da Red Hot Cyber.
Tutela minori, la precisazione della Cei. Card. Zuppi: “Struttura solida e cammino inarrestabile in tutte le diocesi italiane” - AgenSIR
“In tutte le Chiese locali c’è la ferma consapevolezza che questo sia un cammino inarrestabile”. Con queste parole il card.Riccardo Benotti (AgenSIR)
E ora tutti in via Teulada. Alle 16 sit in di solidarietà a Sigfrido Ranucci e alla redazione di Report
@Giornalismo e disordine informativo
articolo21.org/2025/10/e-ora-t…
Oggi pomeriggio (alle 16) in via Teulada sotto la sede della Rai
Midnight in the War Room: un documentario per raccontare il volto umano del conflitto cibernetico
@Informatica (Italy e non Italy 😁)
Quando Semperis, azienda ben nota per le sue soluzioni di sicurezza delle identità e resilienza informatica potenziate dall’intelligenza artificiale, decide di produrre un documentario, non lo fa in piccolo. Nasce così
Il Venezuela chiede all’Onu di dichiarare illegali i raid statunitensi
@Notizie dall'Italia e dal mondo
Le operazioni degli Stati Uniti, che colpiscono imbarcazioni in acque internazionali senza prove di attività illecite, hanno causato già 27 morti. Intanto, Washington dà mandato alla CIA di compiere attività sul suolo del Venezuela
L'articolo Il Venezuela chiede
Quelli che “in fondo se l’è cercata”
@Giornalismo e disordine informativo
articolo21.org/2025/10/quelli-…
I più moderati diranno che se l’è cercata; quelli che non lo sopportano per le sue inchieste saranno contenti. Io invece voglio esprimere piena solidarietà a Sigfrido Ranucci, per la bomba che ha distrutto la sua auto e danneggiato quella della figlia. Ranucci è un
Gaza, governo pronto alla ricostruzione e all’invio di militari
[quote]ROMA – Mettere in sicurezza la Striscia di Gaza, segnando la fine della prima fase emergenziale e l’inizio della vera e propria ricostruzione. Sono questi i due momenti di una…
L'articolo Gaza, governo pronto alla lumsanews.it/gaza-governo-pron…
Perché il campo larghissimo allargato al centro non è una buona idea (di R. Parodi)
@Politica interna, europea e internazionale
L’entusiasmo vagamente infantile con il quale Elly Schelin ha salutato la vittoria del campo progressista in Toscana – un risultato ampiamente scontato – mi ha provocato un soprassalto di tenerezza. Ci vuole davvero poco, a volte, per capovolgere il sentimento di chi aveva incassato con
fanpage.it/esteri/cisgiordania…
direi che la questione palestinese è ben lungi dall'essere risolta. solito trump superficiale a essere carini.
Merlin Sheldrake - L'ordine nascosto. La vita segreta dei funghi.
Possono alterare la nostra mente, guarirci dalle malattie e persino aiutarci a evitare catastrofi ambientali. Hanno un metabolismo straordinario, contribuiscono alla rigenerazione del suolo e sono protagonisti di tantissimi processi naturali. I funghi sono ovunque, ma è facile non notarli. Sono dentro e fuori di noi. Anche mentre leggete questo libro, stanno modificando il flusso della vita, come fanno da milioni di anni. Merlin Sheldrake ci accompagna in un percorso che sconvolgerà tutte le nostre percezioni e da cui si esce con una visione completamente stravolta del pianeta e della vita stessa. Questa nuova edizione, rielaborata dall’autore a partire dal testo originale, è arricchita da più di cento spettacolari immagini a colori in grado di mostrare la straordinaria varietà, le bizzarrie e la bellezza dei funghi come mai prima d’ora.
Editore: Marsilio
Formato: Copertina rigida con sovvracopertina
Anno edizione: 2023
Condizioni: Nuovo
Pagine: 240
Per info, dettagli e acquisti scriveteci o venite a trovarci in libreria o su www.semidinchiostro.com (link in bio).
Libreria Semi d'inchiostro
Via Serraloggia 24, Fabriano
più o meno quello che dico io e la salas, almeno in parte
GAZA. Israele continua i raid e limita gli aiuti umanitari
@Notizie dall'Italia e dal mondo
Gli Stati Uniti respingono le accuse di violazione dei termini del cessate il fuoco mosse da Tel Aviv ad Hamas. I corpi degli ostaggi sono stati consegnati secondo i termini, mentre Israele continua a uccidere palestinesi e tiene chiuso il valico di Rafah
L'articolo GAZA. Israele continua
freezonemagazine.com/articoli/…
Alba ha 26 anni ed è già morta e rinata. Alba è morta il 31 dicembre 1999 e rinata il 1 gennaio 2000, perché quella notte sono passati nel suo piccolo villaggio algerino i barbuti, i terroristi della Jihad e hanno sgozzato più di mille persone tra cui tutta la sua famiglia, padre, madre e […]
L'articolo Kamel Daoud – Urì proviene da FREE ZONE MAGAZINE.
Alba ha 26 anni ed è già morta e rinata. Alba è morta il 31
AI-generated Reddit Answers are giving bad advice in medical subreddits and moderators can’t opt out.#News
The plaintiffs claim that without the payment processors, which include CCBill, Epoch, and several others that process "high-risk" merchant payments, GirlsDoPorn would not have been a commercial enterprise to begin with.#girlsdoporn #payments #porn
Three Years in, JawnCon Continues to Grow and Impress
Make no mistake, just getting a hacker con off the ground is a considerable challenge. But the really hard part comes after. To be more than a one-off success story, you’ve got to expand the event year after year in a manageable way. Go too slow, and attendees might lose interest. Move too fast, and you run the risk of going broke if your ticket sales don’t keep up with your ambitions.
Luckily for hackers living in the Philadelphia area, the folks behind JawnCon have once again demonstrated they’re able to thread the needle. While the ticket price remained the same as in 2024, this year an additional track of talks was introduced as well as expanded activities throughout the con. Even though it only wrapped this past weekend, there’s already buzz about what the event will look like in 2026.
Until then, let’s take a look at some of the projects that were on display at this year’s JawnCon. If it’s the talks you’re after, they’ll be edited and uploaded to the event’s YouTube page in the near future. In the meantime, the Friday and Saturday live streams are still available.
Meshtastic Spreads its Web
While it wasn’t officially part of JawnCon’s considerable network infrastructure playground, Meshtastic ended up being a big part of the two-day event. Members of Philly Mesh had a table where they were showing off a wide array of commercial and DIY nodes, the crew behind the Hacker Pager were offering up a special edition of the faux-retro portable communicator, and it seemed like every other attendee had brought their own mesh-capable gadget with them.
The end result was easily the most active Meshtastic environment I’ve ever personally found myself in. Wandering the con venue you could expect to see more than 100 individual nodes in the area, with the majority of them happily chattering away. Even during the off-hours on Friday and Saturday night, there was still plenty of mesh activity between the two main hotels where many of the attendees were staying.
Having a relatively active mesh added a new dynamic to the con. Occasionally, pieces of real-time information would make its way through the net, such as what time the nearby cafe was opening, or which talk was currently taking place. A few times it allowed for quick response to semi-emergencies, such as when some hackers which shall remain nameless ended up causing a minor spill, and found themselves in need of cleaning supplies.
It also provided even more data to pore over — since the con wrapped, an SQLite database containing every packet that went through the mesh has been floating around for anyone who wants to analyze it. Hope nobody said anything they’ll regret…
Wardrive All the Things
This year, [BusySignal] returned with another big box of radio hardware. Unlike the impressive wardriving rig he showed off during the first JawnCon, this new build isn’t limited to just WiFi and Bluetooth. The concept has now evolved to include other wireless signals thanks to a bank of software-defined radios (SDRs), ranging from a handful of RTL-SDRs for the easy stuff like 433 MHz wireless sensors, and a HackRF for when things get a bit more serious.
The rig, enclosed in a rugged orange case and powered by batteries, exists at least in part so that [BusySignal] can show off the considerable capabilities of Kismet. He argues that the open source wireless sniffing suite is capable of much more than casual users may realize, and wants to inspire developers and hackers to add new protocols to the already impressive array of signals that it’s able to ingest and display.
This exploration of Kismet’s capabilities was the subject of his Saturday talk, Get More Radio Frequency Curious. Definitely one to keep an eye out for when the edited talks start hitting the JawnCon YouTube channel.
GameTank Comes Out to Play
Tucked away in one corner of the chill out area was an 8-bit game system that the passerby might have thought was a relic from the 1980s. But on closer inspection, its 3D printed shell quickly gives away the fact that is no classic machine.
The GameTank is an open source hardware retroconsole designed around the 6502, more specifically, the modern W65C02S variant. Clyde Shaffer created the system in the spirit of other fantasy consoles like the Pico-8, with the key difference being that he started from the physical console and worked his way forward from there. It features a modernized development and debugging environment for both C and Rust, including an emulator that will run on Windows, Linux, Mac OS. In fact, if you can take a hit to the performance, the emulator can even run right in the web browser — making it easy to check out the GameTank’s library of games.
We’ve actually covered the GameTank here on Hackaday in the past, but seeing it in person, you really appreciate all the little details. The cartridges specifically are a very nice touch. Of course, we know that a single modern SPI flash chip could allow the GameTank to hold hundreds (if not thousands) of games internally. Yet there’s just something so nostalgic about rummaging through pile of cartridges, searching for a particular game, and then slamming it home into the console.
But is it any fun to play? To that end, I’m happy to say it passed the test with a few of the kids that ended up coming to JawnCon with their parents. I overheard someone at the lock picking table saying that their son had abandoned his expensive Nintendo Switch on the table in favor of pulling up a chair to the GameTank and basking in its CRT glory. Maybe the kids will be alright after all.
The Next Jawneration
It’s obviously very early to predict what the next JawnCon will look like. After all, a lot can happen in the next 359 days.
But having had the good fortune to attend all three of these events and see its trajectory, I can say in my mumble opinion that JawnCon is approaching an inflection point of sorts. While the area of Arcadia University that’s been made available for the con since its inception has never been particularly large, this was the first year it actually started to feel small. It’s no exaggeration to say that on several occasions, I struggled to find a surface flat enough to put my laptop down — whether it was lock picks, stickers, payphones, or even just cabling — literally every table in the room had something on it.
Of course, this isn’t necessarily a bad thing. If the worst that can be said about a hacker con was that it had a lot of people and so much interesting stuff on display that you couldn’t find a place to sit down, count me in. But in the same way keeping a plant in a pot that’s too small can stunt its growth, I think JawnCon will need to find a way to stretch its legs if it’s to remain healthy over the long term.
That being said, I plan on being there in 2026, and if you’re in the Philadelphia area, so you should you. Even if it means we might have to take turns sitting in each other’s laps.
Live Coding Techno With Strudel
The super talented [Switch Angel] is an electronic music artist, with a few cool YouTube videos to show off their absolute nailing of how to live code with Strudel. For us mere mortals, Strudel is a JavaScript port of TidalCycles, which is an algorithmic music generator which supports live coding, i.e. the music that is passed down to the synthesizer changes on-the-fly as you manipulate the code. It’s magical to watch (and listen!) to how you can adapt and distort the music to your whims just by tweaking a few lines of code: no compilation steps, hardly any debugging and instant results.
The traditional view of music generators like this is to create lists of note/instrument pairs with appropriate modifiers. Each sound is specified in sequence — adding a sound extends the sequence a little. Strudel / Tidalcycles works a little differently and is based on the idea of repeating patterns over a fixed time. Adding an extra sound or breaking down one sound slot into multiple sounds squeezes all the remaining slots down, causing the whole pattern to repeat in the same period, with the sounds individually taking up less space. This simple change makes it really easy to add layer upon layer of interest within a sequence with a few extra characters, without recalculating everything else to fit. On top of this base, multiple effects can be layered—more than we can mention here—and all can be adjusted with pop-in sliders directly in the code.
You see, the code is also the visualizer. As the sequence runs, the notes and time periods are highlighted, with piano rolls and oscilloscope views adding to the visuals to help guide you. Tweaking the various components of the sound composition in real time with embedded sliders is a quick and easy way to smoothly hear the impact of settings. It just makes sense. Additionally, since Strudel is written in JavaScript, you can pull in external libraries of customized functions to make your code more straightforward to read, like this short library from [Switch Angel].
On the back end, the built-in web-based synthesizer is basic but functional for roughing out. Still, for absolute control, you’re going to want to send the notes over to something like SuperCollider or Sonic Pi. This is easy because Strudel supports OSC, making it a simple, configurable item.
If you were thinking that you’ve seen a JavaScript-based generative music thing before, you’d be right. Whilst we’re thinking about generative music and generative art in general, what about having a look at this neat sound-and-light sculpture?
youtube.com/embed/GWXCCBsOMSg?…
youtube.com/embed/aPsq5nqvhxg?…
Thanks to [JohnU] for sending this in!
A Tale of Two Car Design Philosophies
As a classic car enthusiast, my passion revolves around cars with a Made in West Germany stamp somewhere on them, partially because that phrase generally implied a reputation for mechanical honesty and engineering sanity. Air-cooled Volkswagens are my favorites, and in fact I wrote about these, and my own ’72 Super Beetle, almost a decade ago. The platform is incredibly versatile and hackable, not to mention inexpensive and repairable thanks to its design as a practical, affordable car originally meant for German families in the post-war era and which eventually spread worldwide. My other soft-spot is a car that might seem almost diametrically opposed to early VWs in its design philosophy: the Mercedes 300D. While it was a luxury vehicle, expensive and overbuilt in comparison to classic Volkswagens, the engineers’ design choices ultimately earned it a reputation as one of the most reliable cars ever made.
As much as I appreciate these classics, though, there’s almost nothing that could compel me to purchase a modern vehicle from either of these brands. The core reason is that both have essentially abandoned the design philosophies that made them famous in the first place. And while it’s no longer possible to buy anything stamped Made in West Germany for obvious reasons, even a modern car with a VIN starting with a W doesn’t carry that same weight anymore. It more likely marks a vehicle destined for a lease term rather than one meant to be repaired and driven for decades, like my Beetle or my 300D.
Punch Buggy Blue
Vintage Beetles also make excellent show cars and beach buggies. Photo courtesy of Bryan Cockfield
Starting with the downfall of Volkswagen, whose Beetle is perhaps the most iconic car ever made, their original stated design intent was to make something affordable and easily repairable with simple tools. The vehicles that came out of this era, including the Beetle, Bus, and Karmann Ghia, omitted many parts we’d think were absolutely essential on a modern car such as a radiator, air conditioner, ABS brakes, a computer, or safety features of any sort. But in exchange the vehicles are easily wrenched on for a very low cost.
For example, removing the valve covers only requires a flat screwdriver and takes about five seconds, and completing a valve adjustment from that point only requires a 13 mm wrench and maybe an additional half hour. The engines can famously be removed in a similar amount of time, and the entire bodies can be lifted off the chassis without much more effort. And some earlier models of Beetle will run just fine even without a battery, assuming you can get a push. As a result of cost and simplicity the Beetle and the other vehicles based on it were incredibly popular for almost an entire century and drove VW to worldwide fame.
This design philosophy didn’t survive the 80s and 90s, however, and this era saw VW abandon nearly everything that made it successful in the first place. Attempting any of the maintenance procedures listed above on a modern Jetta or Golf will have one scratching one’s head, wondering if there’s anything left of the soul of the Volkswagen from the 50s and 60s. Things like having to remove the bumper and grille to change a headlight assembly or removing the intake manifold to change a thermostat are commonplace now. They’ve also abandoned their low-cost roots as well, with their new retro-styled Bus many multiples of even the inflation-adjusted price of a Bus from the 1960s, well beyond what modern safety standards and technology would have added to the cost of the vehicle alone. Let’s also not forget that even when completely ignoring emissions standards, modern VWs have still remained overpriced and difficult to repair.Besides design cues, there are virtually no similarities between these two cars. Photo courtesy of Bryan Cockfield
VW Is Not Alone
The story of Mercedes ends up in almost exactly the same place but from a completely opposite starting point. Mercedes of the 60s and 70s was known for building mostly indestructible tanks for those with means who wanted to feel like they were riding in the peak of luxury. And that’s what Mercedes mostly delivered: leather seats, power windows, climate control, a comfortable ride, and in a package that would easily go hundreds of thousands of miles with basic maintenance. In the case of the W123 platform, this number often extended to a million miles, a number absolutely unheard of for modern vehicles.
This is the platform my 1984 300D was based on, and mine was well over 300,000 miles before we eventually parted ways. Mercedes of this era also made some ultra-luxury vehicles that could be argued to be the ancestors of modern Mercedes-Maybach like the Mercedes 600, a car with all of the power electronics replaced with hydraulics like the windows, power reclining rear seat, and automatic trunk.Nothing lets you blend into the Palm Beach crowd as seamlessly as driving a Mercedes. Photo courtesy of Bryan Cockfield
While the Mercedes 600 isn’t exactly known for being a hobbyist car nowadays, the W123s certainly are. My 300D was simple by modern Mercedes standards with a mechanical fuel injected diesel engine that was excessively overbuilt. The mechanical climate control systems made out of springs, plastic, and hope might not be working anymore but I’d be truly surprised if the engine from this car isn’t still running today.
Even plenty of gas-powered Mercedes of that era are wrenchable (as long as you bought one from before Chrysler poisoned the company) and also deliver the luxury that Mercedes was known for and is still coasting on. And this ability to repair or work on a car at a minimum of cost didn’t mean Mercedes sacrificed luxury, either. These cars were known for comfort as well as reliability, something rarely combined in modern cars.
Indeed, like Volkswagen, it seems as though a modern Mercedes will make it just as far as the end of the first lease before it turns into an expensive maintenance nightmare. Mercedes at least has the excuse that it never recovered from infecting itself with Chrysler in the 90s, but Volkswagen has no corporate baggage as severe, instead making a conscious choice to regress towards the mean without the anchor of a lackluster American brand tied around its neck. But a few other other less-obvious things have happened that have crushed the souls of my favorite vintage auto makers as well.
Toyota
Japanese automakers disrupted everything in the 70s and 80s with cars that had everything Volkswagen used to be: simple, inexpensive, repairable, and arguably even more reliable. And, with the advent of Lexus in the 80s and their first model, the LS400, they showed that they could master the Mercedes traits of bulletproof luxury as well. They didn’t need nostalgia or marketing mythology; they just quietly built what Volkswagen and Mercedes once promised, and Volkswagen, Mercedes, and almost every other legacy automaker at the time were simply unable to compete on any of these terms. Many people will blame increasing safety and emissions requirements on the changes seen in the last three decades, but fail to account for the fact that Japanese brands had these same requirements but were able to succeed despite them.
Marketing
Photo courtesy of Bryan Cockfield
Without being able to build reliable vehicles at a competitive price to Toyota, or Honda, or others, these companies turned to their marketing departments and away from their engineers. Many car makers, not just Mercedes and VW, chase gadgetry and features today rather than any underlying engineering principles. They also hope to sell buyers on a lifestyle rather than on the vehicle itself. With Mercedes it’s the image of luxury rather than luxury itself, and for Volkswagen especially it’s often nostalgia rather than repairability or reliability.
This isn’t limited to car companies, either. The 80s and 90s also ushered in a more general time of prioritizing stock holders and quarterly earnings rather than customers, long-term thinking, and quality. Companies like Boeing, GE, Craftsman, Sony, and Nokia all have fallen to victim to the short-term trend at the expense of what once made them great.
Designing for Assembly Rather than Repair
And, if customers are only spending money on a lease term it doesn’t really matter if the cars last longer than that. So, it follows that the easiest way to trim costs when not designing for longevity is to design in ways that minimize assembly cost rather than costs of ownership. That’s partially how we get the classic “remove the bumper to replace the headlight” predicament of many modern vehicles: these cars are designed to please robots on the assembly line, not humans with wrenches.
Dealerships
The way that we’ve structured car buying as a society bears some of this burden as well. Dealerships, especially in North America, are protected by law and skew the car ownership experience significantly, generally to the detriment of car owners. Without these legal protections the dealership model would effectively disappear overnight, and their lobbying groups have fought tooth-and-nail to stop newer companies from shipping cars directly to owners. Not only do dealerships drive up the cost of purchasing a vehicle compared to if it were legally possible to buy direct from a manufacturer, they often make the bulk of their profits on service. That means their incentives are also aligned so that the more unreliable and complex vehicles become, the more the dealerships will benefit and entrench themselves further. This wasn’t as true when VW and Mercedes were making the vehicles that made them famous, but has slowly eroded what made these classics possible in the modern world.
Hope? Probably Not.
There’s no sign that any of these trends are slowing down, and to me it seems to be part of a broader trend that others like [Maya] have pointed out that goes beyond cars. And it’s a shame too as there’s a brand new frontier of electric vehicles that could (in theory) bring us back to a world where we could have reliable, repairable vehicles again. EVs are simpler machines at heart, and they could be the perfect platform for open-source software, accessible schematics, and owner repair. But manufacturers and dealers aren’t incentivized to build anything like the Volkswagens or Mercedes of old, electric or otherwise, even though they easily could. I also won’t hold my breath hoping for [Jeff Bezos] to save us, either, but I’d be happy to be proven wrong.Buick Park Avenue: the last repairable luxury car? Photo courtesy of Bryan Cockfield
And I also don’t fault anyone for appreciating these legacy brands. I’ve picked on VW and Merc here because I’ve owned them and appreciate them too, or at least what they used to represent. The problem is that somewhere along the way, loyalty to engineering and design ideals got replaced by loyalty to the logo itself. If we really care about what made cars like the Beetle and 300D special in the first place, we should be demanding that the companies that built them live up to those values again, not making excuses when they don’t.
So for now, I’ll keep gravitating toward the vehicles that came closest to those ideals. Others at Hackaday have as well, notably [Lewin] and his Miata which certainly fits this bill. Although I don’t have my VW or Mercedes anymore, I currently have a ’19 Toyota pickup, largely designed in the early 2000s, which isn’t glamorous but it’s refreshingly honest by modern standards and is perhaps a last gasp from this company’s soul, as Toyota now risks following the same path that hollowed out Volkswagen and Mercedes: swapping durability and practicality for complexity, flashy features, and short-term profits. I was also gifted an old Buick with an engine I once heard described as “the time GM accidentally made a Toyota engine.” The rubber bits may be dry-rotting away, but it’s a perfect blend of my Beetle and my 300D because it’s cheap, comfortable, reliable, and fixable (and the climate control actually works). The only thing missing is that little stamp: Made in West Germany.
Un autobus diventa un museo itinerante di computer retrò nel Regno Unito
Nel Regno Unito, Jason e Luke Stoner, padre e figlio, hanno trasformato un vecchio scuolabus in un museo itinerante dedicato ai computer e alle console di gioco retrò. L’ispirazione è nata quando Luke ha visitato il celebre Computer Museum di Cambridge, decidendo di rendere la tecnologia vintage accessibile a un pubblico più ampio.
Così è nata Retro Reset, un’organizzazione no-profit che dall’autunno 2024 ha avviato il restauro completo del mezzo. Il progetto è stato portato a termine in appena un anno, con il museo di Cambridge tra i principali sponsor dell’iniziativa.
Attualmente, l’autobus percorre l’East Sussex facendo tappa in scuole, college e centri giovanili, con l’obiettivo di far conoscere a bambini e adolescenti la storia dell’informatica.
All’interno, gli spazi ospitano non solo console di varie epoche, ma anche una vasta gamma di componenti informatici: vecchi server, moduli di memoria, schede video, hard disk, floppy disk e altri dispositivi che permettono di osservare l’evoluzione dei PC nel tempo.
La mostra, compatta a causa delle dimensioni del mezzo, presenta circa dieci sistemi attivi contemporaneamente, aggiornati periodicamente.
Tra gli oggetti più pregiati vi è un computer utilizzato in passato per il montaggio di film di Hollywood. I visitatori hanno l’opportunità di interagire direttamente con le console, smontare PC e studiare i singoli componenti, partecipando ad attività pratiche di ingegneria.
Retro Reset non si limita a esporre oggetti storici: si tratta di una piattaforma interattiva che consente di vivere la storia del mondo digitale in prima persona. L’iniziativa potrebbe ispirare nuovi progetti simili, diffondendo la passione per i computer retrò e mantenendo viva la memoria tecnologica per le generazioni future.
Vi lasciamo con le parole dell’iniziativa:
“La nostra missione è far rivivere ai giovani l’affascinante storia dei computer e dei videogiochi. I nostri laboratori mobili, ospitati in un autobus splendidamente ristrutturato, offrono un viaggio pratico nel mondo della tecnologia retrò, esplorando l’evoluzione del gaming e dell’informatica dagli anni ’70 a oggi. Cosa ci rende unici? Non solo offriamo l’opportunità di giocare con le console classiche e di esplorare gadget vintage, ma diamo anche ai giovani la possibilità di maneggiare, smontare e sperimentare da vicino la tecnologia d’epoca. Dai computer retrò alle console di gioco iconiche, i ragazzi potranno comprendere appieno il funzionamento di queste macchine e come hanno contribuito a plasmare il mondo digitale che conosciamo oggi.”
L'articolo Un autobus diventa un museo itinerante di computer retrò nel Regno Unito proviene da Red Hot Cyber.
La laurea in informatica non è più una garanzia di lavoro. l’AI ruba i posti (e i colloqui)
Un tempo, una laurea in informatica rappresentava una garanzia di successo. Stipendi competitivi, benefit generosi e possibilità di impiego immediato erano la norma. Oggi, però, per molti giovani laureati nel 2025 la realtà si è rivelata ben diversa.
Azka Azmi, neolaureata in primavera, ha raccontato al Toronto Star di aver inviato centinaia di candidature senza ottenere nemmeno una risposta. «È come parlare con una macchina», ha spiegato, descrivendo un processo di selezione sempre più impersonale e frustrante.
Le statistiche confermano questa tendenza. In Ontario, le opportunità di lavoro nel settore dello sviluppo software e della programmazione sono diminuite del 25% tra il 2020 e il 2024. Le posizioni entry-level – tradizionalmente il primo passo nel mondo IT – stanno scomparendo, schiacciate da una combinazione di fattori: l’automazione spinta dall’intelligenza artificiale, l’incertezza economica e la crescita esponenziale dei laureati in informatica.
Alla Toronto Metropolitan University, ad esempio, il numero di studenti iscritti a corsi di informatica è passato da circa 690 nel 2016 a oltre 2.000 nel 2024. Incrementi simili si sono registrati anche in altri atenei canadesi come Waterloo, York e Wilfrid Laurier.
Eric Alexander, direttore senior dell’agenzia di reclutamento tecnologico Arcadia, ha sottolineato che negli ultimi dieci anni i giovani sono stati fortemente incoraggiati a scegliere la carriera informatica. Tuttavia, oggi il mercato è saturo: ci sono troppi candidati e troppo poche posizioni disponibili.
A complicare ulteriormente la ricerca di lavoro interviene l’intelligenza artificiale, impiegata dalle aziende per filtrare i curriculum e persino per redigere le risposte ai candidati. Alcune imprese inseriscono dettagli specifici o “trappole” nei propri annunci per smascherare le candidature generate automaticamente: una presentazione a tema golfistico o la ricetta di un dolce francese, per esempio, diventano test nascosti per verificare l’autenticità delle candidature.
Nel frattempo, cresce la pressione tra gli studenti. Un dottorando dell’Università di Toronto ha raccontato che molti colleghi vivono in uno stato di ansia costante, tanto da rischiare il burnout. La competizione accesa e l’ambiente accademico estremamente competitivo stanno incidendo sulla salute mentale di molti giovani.
Chrisee Zhu, studentessa della stessa università, ha deciso di ridurre la propria specializzazione in informatica a un semplice corso minore, sopraffatta dallo stress legato agli stage e alla preparazione continua per i colloqui di lavoro. «Durante i lavori di gruppo nessuno riusciva a concentrarsi», ha raccontato, «tutti pensavano solo a come esercitarsi per le selezioni o candidarsi per un nuovo tirocinio».
Anche Elliot Chen, laureato in informatica, ha vissuto difficoltà simili: dopo aver inviato centinaia di curriculum e ricevuto solo rifiuti per la scarsa esperienza, ha scelto di iscriversi a un master. Tuttavia, ha ricevuto ancora meno risposte dai datori di lavoro rispetto a quando era studente universitario.
Eyal de Lar, presidente del Dipartimento di Informatica dell’Università di Toronto, offre però una visione più ottimistica. Secondo lui, l’intelligenza artificiale non ridurrà drasticamente i posti di lavoro nel settore, ma potrebbe anzi generarne di nuovi. Ricorda che dopo la crisi delle dot-com, circa 15 anni fa, le iscrizioni ai corsi di informatica erano crollate, ma il mercato si è poi ripreso, superando in seguito la domanda di competenze.
«Questo è solo un momento di transizione, non la fine di un’era», ha dichiarato, invitando i giovani a non perdere di vista l’importanza dei rapporti umani e della comunicazione diretta.
Tuttavia, per molti neolaureati, la realtà resta dura. Oggi l’intelligenza artificiale non solo sostituisce il lavoro umano in azienda, ma sembra anche aver preso il posto dell’umanità stessa nei processi di selezione. Quando il destino professionale di un candidato viene deciso da un algoritmo e le offerte richiedono “un anno di esperienza” a chi ancora non ha avuto occasione di lavorare, il mito dorato dell’informatica sembra dissolversi.
L'articolo La laurea in informatica non è più una garanzia di lavoro. l’AI ruba i posti (e i colloqui) proviene da Red Hot Cyber.
Colpire l’informazione al cuore
@Giornalismo e disordine informativo
articolo21.org/2025/10/colpire…
L’attentato di questa notte contro Sigfrido Ranucci è un salto di qualità. Dalle informazioni disponibili, hanno fatto esplodere un ordigno rudimentale davanti alla sua casa di Pomezia: distrutte 2 sue auto. È successo nel giorno dell’anniversario dell’assassinio di Daphne Caruana
IL SUONO DELLA DISTANZA
«Il suono della distanza» rappresenta un viaggio in cui si esplora un tema vivo, che ha profondamente coinvolto, con la sua poetica, la cantautrice Martina Lupi e il pianista Alessandro Gwis.
Ogni brano di questo progetto racconta storie dense di vita, dall’isolamento forzato all’obbligo di lasciare il proprio Paese per andare a combattere, dalle pandemie agli amori impossibili, dalle lontananze alla convivenza con la disabilità in molteplici forme, alle reclusioni e coinvolge emotivamente l’ascoltatore conducendolo a immedesimarsi in vissuti ispiratori.
La musica di Alessandro Gwis, con le sue innumerevoli sfumature, si fonde con la voce di Martina Lupi, che ama esprimersi interpretando testi e melodie dal sapore mediterraneo, talvolta con timbri e colori di sonorità extraeuropee, attraverso l’uso di strumenti, di tecniche e lingue di diverse parti del mondo.
Introduce P. Claudio Zonta S.I., scrittore de La Civiltà Cattolica
- Alessandro Gwis, pianoforte
- Martina Lupi, voce e strumenti dal mondo
Ingresso libero fino a esaurimento posti
No Parking
The post IL SUONO DELLA DISTANZA first appeared on La Civiltà Cattolica.
RFanciola
in reply to simona • • •simona
in reply to simona • — (Livorno) •