Peter Samson, pioniere della cultura Hacker, ci fa ascoltare “Boards of Canada” su PDP-1
In un mondo in cui la musica è da tempo migrata verso lo streaming e le piattaforme digitali, un appassionato ha deciso di tornare indietro di sei decenni, a un’epoca in cui le melodie potevano ancora prendere vita attraverso il bagliore delle lampade e del nastro perforato.
Il più vecchio computer PDP-1, famoso per essere stato la culla di uno dei primi videogiochi, improvvisamente parlò con la voce dei Boards of Canada, eseguendo la loro composizione “Olson” utilizzando nastro di carta e luci lampeggianti.
Il progetto è stato implementato da Peter Samson, pioniere della cultura hacker presso il TMRC e ingegnere e volontario presso il Computer History Museum nell’ambito dell’iniziativa PDP-1.music, lanciata da Joe Lynch.
L’obiettivo era quello di adattare una breve traccia ai limiti tecnici del PDP-1, che utilizzava nastri di carta perforati per l’inserimento dei dati. Ogni sequenza sonora veniva codificata manualmente e registrata su nastro, che doveva essere caricato nel dispositivo passo dopo passo.
L’elemento chiave della riproduzione era l'”Harmony Compiler“, un compilatore sviluppato dallo stesso Samson negli anni ’60, mentre era studente al MIT. Questo strumento era stato progettato per consentire al PDP-1 di riprodurre brani classici utilizzando quattro valvole di segnale.
Originariamente, queste valvole dovevano indicare lo stato del programma, ma furono riadattate come oscillatori in quadratura, diventando essenzialmente convertitori digitale-analogico a bit singolo. Lampeggiando rapidamente alle frequenze audio, ogni valvola veniva trasformata in una sorgente sonora.
Per riprodurre la composizione, i segnali luminosi provenienti dalle valvole venivano combinati in canali stereo e poi assemblati in un’unica traccia utilizzando un emulatore. Il file risultante veniva convertito manualmente in codice adatto al nastro perforato, che veniva poi caricato nel PDP-1.
Nonostante la complessità del processo, i creatori del progetto ritengono che lo sforzo ne sia valsa la pena: la musica dei Boards of Canada, intrisa di nostalgia per il passato analogico, suona piuttosto naturale su una macchina del genere.
Peter Samson. Uno dei primi hacker del Tech Model Railroad Club
Peter R. Samson è un informatico statunitense noto per il suo ruolo pionieristico nel campo della programmazione e per le sue influenti opere nel contesto della cultura hacker. Nato nel 1941 a Fitchburg, Massachusetts, ha studiato al Massachusetts Institute of Technology (MIT) dal 1958 al 1963. Durante il suo periodo universitario, è stato membro del Tech Model Railroad Club (TMRC) di MIT, dove ha svolto un ruolo significativo nel plasmare il linguaggio e la filosofia della cultura hacker.
Nel 1959, Samson ha compilato la prima edizione del “Tech Model Railroad Club Dictionary”, un glossario che ha introdotto termini come “foo”, “mung” e “frob”, molti dei quali sono diventati parte integrante del vocabolario della cultura hacker. Inoltre, ha definito il termine “hacker” come “colui che hackera, o crea”, contribuendo a consolidare l’uso di questo termine nel contesto informatico.
Oltre al suo coinvolgimento nel TMRC, Samson ha contribuito allo sviluppo di software pionieristici per i computer TX-0 e PDP-1, tra cui la sintesi musicale digitale in tempo reale e la creazione di “Spacewar!”, uno dei primi giochi interattivi per compute
L'articolo Peter Samson, pioniere della cultura Hacker, ci fa ascoltare “Boards of Canada” su PDP-1 proviene da il blog della sicurezza informatica.
La Cina rafforza la sua presenza nel settore dei cavi sottomarini
Il Segretario generale Xi Jinping ha ribadito che la costruzione di una nazione marittima forte rappresenta un compito strategico fondamentale per il ringiovanimento della Cina. In questo scenario, le tecnologie ottiche marine avanzate assumono un ruolo chiave, poiché la profondità del progresso scientifico determina lo sviluppo delle risorse oceaniche e delle attività offshore.
Le fibre ottiche sottomarine, che trasportano oltre il 95% delle comunicazioni internazionali, costituiscono l’infrastruttura principale della digitalizzazione globale. A Wuhan, una tra le basi di produzione mondiale di fibre e cavi ottici, diverse aziende hanno sviluppato tecnologie capaci di rafforzare la frontiera digitale marittima della Cina, estendendo connessioni fino alle profondità oceaniche pur trovandosi lontano dal mare.
Il settore dei cavi sottomarini ha una portata internazionale enorme, con 1,4 milioni di chilometri di linee attive che trasportano dati finanziari per migliaia di miliardi di dollari al giorno. Storicamente dominato da Stati Uniti, Francia e Giappone, è diventato negli ultimi anni un campo di competizione tecnologica globale. In risposta alle barriere imposte contro la Cina, le aziende di Wuhan hanno accelerato innovazioni e applicazioni per consolidare la propria presenza.
YOFC, leader mondiale nel settore da nove anni, ha posato il primo cavo sottomarino di prova a sette conduttori al mondo nella Greater Bay Area, introducendo soluzioni capaci di ampliare la capacità senza aumentarne lo spessore. Parallelamente, FiberHome ha raggiunto un traguardo di trasmissione a 254,7 Tb/s su 200 chilometri di fibra standard, grazie all’uso di algoritmi di intelligenza artificiale, rafforzando la competitività della tecnologia cinese in scenari transoceanici.
Anche Accelink Technologies ha segnato progressi significativi, superando per la prima volta i 1.000 chilometri di trasmissione ottica a singolo raggio. Questi sviluppi hanno mostrato il valore strategico dei cavi ottici sottomarini, descritti come l'”aorta” della rete globale. La loro assenza rallenterebbe trasmissioni vitali per settori come energia, comunicazioni quantistiche, telemedicina e logistica internazionale, compromettendo sicurezza e sincronizzazione globale.
Gli investimenti hanno reso FiberHome un punto di riferimento mondiale, con un parco industriale capace di produrre 10.000 chilometri di cavi sottomarini all’anno e una catena tecnologica che copre ogni fase, dai dispositivi a chip fino all’ingegneria navale. Anche YOFC ha rafforzato la propria presenza acquisendo una piattaforma per la produzione di cavi marittimi, consolidando così un ecosistema che integra materiali, componenti e sistemi.
La Wuhan Optics Valley si è affermata come centro di innovazione “atipico” in acque profonde, grazie alla collaborazione tra aziende, università e laboratori di ricerca. Questa sinergia ha permesso di trasformare rapidamente le scoperte tecnologiche in capacità industriali, dando vita a un ecosistema completo che sostiene l’autonomia scientifica e tecnologica cinese e rafforza la leadership nel settore delle comunicazioni marine.
L'articolo La Cina rafforza la sua presenza nel settore dei cavi sottomarini proviene da il blog della sicurezza informatica.
Festival del giornalismo culturale, il Master in Giornalismo della Lumsa vince il FgCult25
[quote]URBINO – Nella cornice della tredicesima edizione del Festival del giornalismo culturale di Urbino, l’allieva praticante del Master in Giornalismo della Lumsa Irene Di Castelnuovo ha vinto con il suo…
L'articolo Festival del giornalismo culturale, il
In 200mila da Perugia ad Assisi per dire no a tutte le guerre
@Giornalismo e disordine informativo
articolo21.org/2025/10/in-200m…
Tanti, tantissimi. “In più di 200 mila” dicono gli organizzatori, come non si vedeva dal 2001, hanno marciato da Perugia ad Assisi. A mettersi in cammino sotto lo slogan “Imagine alla the
Trovato un dinosauro intrappolato nell’ambra per 99 milioni di anni
Dinosauro nell’ambra, la scoperta da 99 milioni di anni fa: una coda piumata intatta che svela nuovi dettagli sull’evoluzione verso gli uccelli.redazione.studenti (Studenti)
Trames reshared this.
PVC Pipe Structure Design That Skips Additional Hardware
[Baptiste Marx] shares his take on designing emergency structures using PVC pipe in a way that requires an absolute minimum of added parts. CINTRE (French, English coverage article here) is his collection of joint designs, with examples of how they can be worked into a variety of structures.Basic joints have many different applications.
PVC pipe is inexpensive, widely available, and can often be salvaged in useful quantities even in disaster areas because of its wide use in plumbing and as conduits in construction. It can be cut with simple tools, and once softened with heat, it can be re-formed easily.
What is really clever about [Baptiste]’s designs is that there is little need for external fasteners or hardware. Cable ties are all that’s required to provide the structural element of many things. Two sawhorse-like assemblies, combined with a flat surface, make up a table, for example.
Soda bottles made from polyethylene terephthalate (PET) are also common salvage and can be used as surprisingly sturdy heat-shrink and even turned into twine or rope; perhaps that could be an option if one doesn’t even have access to cable ties.
FBI sequestra BreachForums e i post degli hacker che minacciavano la Quantas
Gli hacker dell‘FBI (Federal Bureau of Investigation) degli Stati Uniti ha sequestrato e distrutto un sito web accessibile al pubblico, gestito da hacker che minacciano di divulgare i dati personali dei clienti Qantas.
Un collettivo di criminali informatici, Scattered Lapsus$ Hunters, avrebbe minacciato di divulgare i dati rubati da circa 40 aziende globali collegate al gigante del software cloud Salesforce, tra cui Disney, Google, IKEA, Toyota e le compagnie aeree Qantas, Air France e KLM, a meno che non venisse pagato un riscatto.
A luglio, Qantas ha stimato a 5,7 milioni il numero di clienti colpiti dall’attacco informatico, ma l’amministratore delegato Vanessa Hudson non ha voluto confermare se alla compagnia fosse stato chiesto di pagare un riscatto.
La landing page del sito web BreachForums del 10 ottobre presentava i loghi delle agenzie internazionali di contrasto. La scadenza per il pagamento del riscatto da parte del collettivo era prevista per le 23:59 di venerdì, ora di New York (13:59 di sabato AEST).
In un messaggio pubblicato online sulla piattaforma Telegram venerdì dal gruppo ShinyHunters, uno dei tre gruppi di hacker che compongono il collettivo più ampio, tutti i domini del sito web BreachForums sono stati rimossi.
“BreachForums è stato sequestrato oggi dall’FBI e dai partner internazionali. Era inevitabile e non ne sono sorpreso. Né io né altri coinvolti in questo gruppo siamo stati arrestati”, si legge nel messaggio. “L’ultimo backup del database di BreachForums è stato compromesso, così come tutti i backup del database dal 2023 ad oggi… Gli stessi server back-end sono stati sequestrati e distrutti.”
L’FBI e gli altri partner internazionali coinvolti prenderanno provvedimenti severi nei confronti di molti individui nelle prossime settimane o mesi. Il gruppo di hacker ha inoltre affermato che il sequestro ha segnato la quarta volta in cui l’FBI ha intrapreso un’azione legale nei loro confronti nel giro di diversi anni. L’FBI e la Qantas non hanno rilasciato dichiarazioni pubbliche sulle accuse relative al sequestro del sito web.
Venerdì, una landing page ancora accessibile al pubblico su uno dei siti web di BreachForums presentava loghi di stemmi che rappresentavano l’FBI, il Dipartimento di Giustizia degli Stati Uniti, la giurisdizione nazionale francese che persegue i reati gravi di criminalità organizzata e la Brigata francese per la criminalità informatica.
L'articolo FBI sequestra BreachForums e i post degli hacker che minacciavano la Quantas proviene da il blog della sicurezza informatica.
Crimson Collective rivendica un presunto hack a Nintendo: bluff o violazione reale?
Nel mirino degli hacker questa volta ci sarebbe Nintendo, la storica casa videoludica giapponese che da decenni difende con le unghie e con i denti le proprie proprietà intellettuali e i segreti industriali che alimentano l’universo di Mario, Zelda e Pokémon. Il gruppo Crimson Collective, già noto per aver violato in passato la rete di Red Hat, gigante del software open source, ha rivendicato di aver compromesso i server interni di Nintendo, ottenendo accesso a file e dati riservati dell’azienda.
La società di cybersecurity intelligence Hackmanac ha condiviso su X uno screenshot che mostrerebbe presunte cartelle interne di Nintendo, contenenti dati come asset di produzione, file degli sviluppatori e backup. Tuttavia, ad oggi nessun file concreto o dato sensibile è stato diffuso pubblicamente, rendendo impossibile verificare la reale portata dell’incidente. Nintendo, dal canto suo, non ha ancora rilasciato alcun commento ufficiale, mantenendo il più stretto riserbo sulla vicenda, una scelta comprensibile vista la delicatezza del brand e la sua lunga storia di azioni legali contro hacker e pirati.
Screenshot condiviso da Hackmanac su X che mostra presunte cartelle interne di Nintendo contenenti dati riservati (fonte: Hackmanac)
Al momento, le informazioni disponibili restano puramente speculative. Potrebbe trattarsi di un tentativo di guadagnare visibilità da parte del gruppo oppure di una violazione reale che Nintendo sta ancora cercando di contenere internamente. Una compromissione di questo tipo avrebbe infatti conseguenze significative, considerando l’attenzione maniacale con cui l’azienda custodisce ogni dettaglio legato ai suoi progetti futuri e alle strategie di mercato.
Se il presunto attacco dovesse rivelarsi autentico, le conseguenze per Nintendo potrebbero essere pesanti su più fronti. Oltre alla possibile esfiltrazione di dati sensibili, come codice sorgente di giochi in sviluppo, concept di console future o documentazione interna, il danno maggiore sarebbe reputazionale. Un leak del genere potrebbe anticipare informazioni riservate, vanificando anni di lavoro e pianificazioni marketing, oltre a minare la fiducia dei partner commerciali e degli sviluppatori third-party. Inoltre, eventuali dettagli tecnici sui sistemi interni potrebbero fornire una mappa preziosa per futuri attacchi, esponendo ulteriormente l’infrastruttura del colosso nipponico. Non va sottovalutato, poi, il rischio di manipolazioni o disinformazione: la semplice rivendicazione di un gruppo può generare un’ondata di notizie virali e speculazioni, spesso amplificate dai social, con ricadute dirette sull’immagine aziendale.
Negli ultimi anni, diversi colossi del settore videoludico, tra cui Sony, Capcom e Insomniac Games, sono stati vittime di attacchi mirati che hanno portato al furto di codice sorgente, documentazione interna e materiale inedito. Un eventuale attacco a Nintendo non sarebbe quindi un caso isolato, ma un ulteriore tassello nel mosaico di una minaccia sempre più diffusa, quella degli attori cyber criminali interessati all’industria dell’intrattenimento digitale.
Fino a quando non emergeranno conferme, il presunto attacco resta un rumor, ma richiama l’attenzione sulla fragilità dei sistemi anche dei giganti del settore e sulla necessità di salvaguardare con cura dati e infrastrutture sensibili.
L'articolo Crimson Collective rivendica un presunto hack a Nintendo: bluff o violazione reale? proviene da il blog della sicurezza informatica.
Vulnerabilità critiche in Microsoft Defender for Endpoint: rischi per la sicurezza
Dei bug di sicurezza soni state individuati nella comunicazione di rete tra i servizi cloud di Microsoft Defender for Endpoint (DFE), le quali permettono a malintenzionati, a seguito di una violazione, di eludere l’autenticazione, di manipolare i dati, di rilasciare informazioni sensibili e addirittura di caricare file dannosi all’interno dei pacchetti di indagine.
Una recente analisi condotta da InfoGuard Labs ha dettagliatamente descritto tali vulnerabilità, le quali sottolineano i rischi ancora presenti all’interno dei sistemi EDR (Endpoint Detection and Response), potendo così minare gli sforzi profusi nella gestione degli incidenti.
La principale preoccupazione, come rilevato da InfoGuard Labs, riguarda le richieste inviate dall’agente agli endpoint, ad esempio https://[location-specific-host]/edr/commands/cnc, al fine di eseguire comandi specifici, tra cui isolamento, raccolta di dati forensi o effettuazione di scansioni.
La ricerca si basa su precedenti esplorazioni delle superfici di attacco EDR, concentrandosi sull’interazione dell’agente con i backend cloud. Intercettando il traffico utilizzando strumenti come Burp Suite e bypassando il pinning dei certificati tramite patch di memoria in WinDbg, l’analisi ha rivelato come il processo MsSense.exe di DFE gestisce i comandi e il caricamento dei dati.
Il pinning del certificato, una comune misura di sicurezza, è stato aggirato modificando la funzione CRYPT32!CertVerifyCertificateChainPolicy in modo che restituisca sempre un risultato valido, consentendo l’ispezione del testo normale del traffico HTTPS. Patch simili sono state applicate a SenseIR.exe per l’intercettazione completa, inclusi i caricamenti di Azure Blob.
Un utente con privilegi modesti può ottenere facilmente l’ID macchina e l’ID tenant mediante la lettura dei registri, consentendo ad un aggressore di impersonare l’agente e di intercettare le risposte. Ad esempio, uno strumento anti-intrusione come Burp’s Intruder può interrogare continuamente l’endpoint, rubando i comandi disponibili prima che l’agente legittimo li riceva.
Una vulnerabilità parallela riguarda gli endpoint /senseir/v1/actions/ per Live Response e Automated Investigations. In questo caso, i token CloudLR vengono ignorati in modo analogo e possono essere ottenuti senza autenticazione utilizzando solo l’ID macchina.
Gli aggressori possono decodificare i payload delle azioni con script personalizzati sfruttando modelli linguistici di grandi dimensioni per la deserializzazione e caricare dati fabbricati negli URI di Azure Blob forniti tramite token SAS, che rimangono validi per mesi. L’accesso non autenticato si estende alle esclusioni della risposta agli incidenti (IR) tramite l’endpoint di registrazione, richiedendo solo l’ID dell’organizzazione dal registro.
Ancora più allarmante è il fatto che l’interrogazione di /edr/commands/cnc senza credenziali produce un dump di configurazione di 8 MB, che include RegistryMonitoringConfiguration, DriverReadWriteAccessProcessList e le regole ASR. Sebbene non siano specifici del tenant, questi dati rivelano una logica di rilevamento preziosa per l’elusione.
Dopo la violazione, gli aggressori possono enumerare i pacchetti di indagine sul file system, leggibili da qualsiasi utente, contenenti programmi autorun, programmi installati e connessioni di rete. Per le indagini in corso, i caricamenti falsificati su questi pacchetti consentono di incorporare file dannosi con nomi innocui, inducendo gli analisti a eseguire l’operazione durante la revisione.
L'articolo Vulnerabilità critiche in Microsoft Defender for Endpoint: rischi per la sicurezza proviene da il blog della sicurezza informatica.
La SPID è stata dichiarata defunta dall’esecutivo, per essere sostituita dalla CIE.
di Marco Calamari
Dal pornocontrollo al tecnocontrollo - Cassandra Crossing 627
Cattive notizie per i diritti civili digitali. [...]
Nella trentennale storia della digitalizzazione del nostro paese spiccano ben quattro storie di successo. Alcune addirittura di livello mondiale. Senza scherzi!
In ordine cronologico:
l’istituzione della firma digitale con valore legale parificato a quella autografa, primo paese al mondo;
la creazione della Posta Elettronica Certificata, che permette di inviare messaggi con valore di raccomandata con ricevuta di ritorno, in maniera istantanea e sostanzialmente gratuita, invece che a botte di sette o più Euri;
l’implementazione del Processo Civile Telematico, che solo chi frequenta da operatore i tribunali può apprezzare in tutto il suo valore;
la realizzazione della SPID, un sistema di rilascio di credenziali con valore nazionale (no, non è un sistema di verifica dell’identità, checché se ne dica, e no, non ha nessuna vulnerabilità particolare).
4 casi di successo della informatizzazione delle PP.AA. che decine di milioni di italiani ormai utilizzano quotidianamente, a cui, solo per diffusione, se ne aggiunge un quinto, la CIE, Carta di Identità Elettronica.
C’è da dire che il “successo” della CIE è stato decretato ope legis come adempimento obbligatorio, supportato in maniera efficacissima dall’abolizione dell’alternativa cartacea, e solo dopo una trentennale ed iterativa gestazione sperimentale, che chi l’ha vissuta ancora ricorda nei propri incubi.
Senza altra volontà oltre quella di essere oggettivi, possiamo ricordare che Firma Digitale, CIE, CNS (Carta Nazionale dei Servizi), TSE (Tessera Sanitaria Elettronica) sono tutti tecnicamente in grado di fornire le funzionalità di identificazione, autenticazione e firma elettronica. La sola CIE possiede tuttavia lo status legale di documento di identità, che consente l’utilizzo come formale accertamento di identità.
Ora, potrebbe sembrare una cosa logica “accorpare” in un solo oggetto, la CIE, tutte le altre funzionalità, accentrando e “semplificando” una situazione che oggi, per quanto funzionante e largamente utilizzata, può apparire inutilmente complessa.
Sarebbe un errore; si tratta di una falsa semplificazione che, come tutte le soluzioni semplici di problemi complessi, è sbagliata. Cerchiamo di capire perché.
Chiunque abbia operato professionalmente nell’informatica sa perfettamente che la centralizzazione di qualsiasi cosa, se non fatta con estrema cura e professionalità e senza badare a spese, porta a vulnerabilità pericolose e potenziali, nuovi e gravi disservizi.
La storia recente ed anche meno, dell’informatica nella pubblica amministrazione ci ha insegnato che il collasso di un intero sistema è cosa non potenziale ma reale, ed anche molto frequente.
Sistemi separati, quando cadono, tirano giù “solo” la loro funzionalità, senza compromettere tutti gli altri servizi. Se poi sono stati realizzati ridondati o federati, come la tanto vituperata ma ben progettata SPID, riescono a mantenere la propria funzionalità almeno in parte.
Cosa succederebbe invece se un ipotetico sistema “tuttologico”, che fornisca firma, credenziali, autenticazione ed identità avesse un problema bloccante? E se, in questi tempi di guerra, questo problema bloccante fosse un atto criminale, oppure addirittura ostile?
Questo lungo antefatto ci è servito solo per arrivare finalmente alla cronaca di oggi.
Nel giro di pochi mesi, si è improvvisamente scoperto che la SPID è un sistema bacato e pericoloso, malgrado che 30 milioni di italiani la utilizzino quotidianamente al posto del più famoso e meno sicuro “1234”, e che sia praticamente gratuita per le casse dello stato.
Si tratta anche qui di una notizia errata. Il rilascio di SPID multiple, quindi di credenziali multiple, non rappresenta di per sé un pericolo, anzi può essere utile per compartimentare le attività di una persona, separando ad esempio il privato ed il lavoro.
Il problema del rilascio di SPID ad impersonatori dipende invece dalle procedure di identificazione, che devono essere efficaci, che sono normate puntualmente e su cui lo Stato, per suo stesso regolamento, deve vigilare.
Contemporaneamente si è “scoperto” che la CIE può essere utilizzata, oltre che come documento di identità, anche come firma elettronica di tipo intermedio, e come credenziale di accesso.
Improvvisamente l’esecutivo, con un inusuale atto di decisionismo tecnologico, annunciato pubblicamente e ripetutamente, ha deciso di dismettere quello che è stato realizzato solo pochi anni fa e funziona, sostituendolo con qualcosa di ancora indefinito, di cui sappiamo solo che si appoggerà alla CIE, tutto da realizzare e far adottare, ricominciando da capo un storia dolorosa, ma che era stata finalmente conclusa.
A Cassandra è venuta in mente la storiella dei frati che fecero pipì sulle mele piccole e brutte del loro albero, perché erano certi che ne sarebbero arrivate altre grandi e bellissime, e che quando queste non arrivarono dovettero mangiarsi quelle piccole e brutte.
Ecco, sembra proprio la storia della SPID, che una campagna di stampa poco informata, se non addirittura strumentale, ha definito “troppo complessa e poco sicura”, raccontando che sarà presto sostituita dalla CIE inattaccabile e potente.
In tutto questo, cosa mai potrebbe andare storto?
Ci sono (purtroppo) altre chiavi di lettura che possono spiegare una vicenda apparentemente insensata sia tecnicamente che amministrativamente, riunirla all’improvvisa ed ineludibile necessità del pornocontrollo di stato, anzi a a livello europeo, e spiegare razionalmente tutto quanto.
Bastano due concetti chiave “centralizzazione dei dati” e “tecnocontrollo dei cittadini” per disegnare un panorama, anzi un vero progetto di controllo sociale, in cui la inspiegabile dimissione della SPID in favore della CIE diventa un elemento logico, razionale e necessario.
Infatti, se quello che si vuole ottenere è centralizzare il più possibile la gestione dei dati e degli accessi dei cittadini, con la conseguente possibilità di monitorare il loro operato, ed aprendo a teoriche ma terrificanti possibilità come quella di revocare completamente qualsiasi autorizzazione ad un individuo, allora sostituire un sistema federato e decentralizzato come la SPID con una gestione centralizzata, e dipendente da un documento emesso dallo Stato, è esattamente quello che serve. [...]
Dato il panorama “digitale” di oggi, di cui fa parte sostanziale l’indifferenza del pubblico, non c’è davvero di che essere ottimisti.
FareZero - 🔧 Linux Day 2025 – Il software libero arriva in biblioteca!
farezero.org/2025/comunicazion…
Segnalato da Linux Italia e pubblicato sulla comunità Lemmy @GNU/Linux Italia
Sabato 25 ottobre 2025, dalle 9:00 alle
NaLug - Linux Day Napoli 2025
nalug.tech/linux-day-napoli-20…
Segnalato da Linux Italia e pubblicato sulla comunità Lemmy @GNU/Linux Italia
Il NaLUG (Napoli GNU/Linux Users Group APS) è lieto di presentare l'edizione 2025 del Linux Day partenopeo!
Fedele reshared this.
Perugia – Assisi: un’umanità in cammino
@Giornalismo e disordine informativo
articolo21.org/2025/10/perugia…
Mi domando dove sia quest’umanità il resto dell’anno. Dove siano questi giovani che invocano pace e fraternità, solidarietà, giustizia, tenerezza. E mi rispondo che non è colpa loro ma nostra. Siamo noi, infatti, che non diamo spazio al meglio delle nuove
Starlink salva fotografo canadese intrappolato su Vancouver Island
'Starlink mi ha salvato la vita, senza sarei morto' ha dettoRedazione Adnkronos (Adnkronos)
Tubeless X-Ray Runs on Patience
Every time we check in on [Project326], he’s doing something different with X-rays. This week, he has a passive X-ray imager. On paper, it looks great. No special tube is required and no high voltage needed. Actually, no voltage is needed at all. Of course, there’s no free lunch. What it does take is a long time to produce an image.
While working on the “easy peasy X-ray machine,” dental X-ray film worked well for imaging with a weak X-ray source. He found that the film would also detect exposure to americium 241. So technically, not an X-ray in the strictest sense, but a radioactive image that uses gamma rays to expose the film. But to normal people, a picture of the inside of something is an X-ray even when it isn’t.
What was odd was that he tried three different sources with different materials, and only the Americium made an impression on the film. However, of the three samples, the Americium was the weakest. However, some measurements show that the spectrum of the gamma ray emission for each material is quite different. Clearly, the film was sensitive to a narrow range of gamma rays.
Compared to the previous makeshift X-ray tube, which was weak, the radioactive material emitted just a fraction of that tube’s output. He estimates that the americium, which you can rescue from smoke detectors or repair parts for them, emits less than 1% compared to the tube. He uses twelve of them, however, so the total output should be around 10%.
The image of an IC is impressive. But it also took two days of exposure. Not sure if this would be practical, but if you need imaging after the apocalypse, salvaged smoke detectors and dental film might be what you need.
The upper part of the machine, made from machined copper, looks impressive. It does, however, require some maintenance. We might have been tempted to put some sort of sealant over the copper. The story of how it came to exist isn’t your usual sponsorship story, either.
You might have better luck with the previous X-ray machine. Or bite the bullet, get a real X-ray tube, generate about 70 kV, and make a real one.
youtube.com/embed/PNQhdQ40ZYo?…
e poi dice che uno è diffidente verso l'elettrico... o tesla
Removing Infill to Make 3D Printed Parts Much Stronger
When it comes to FDM 3D prints and making them stronger, most of the focus is on the outer walls and factors like their layer adhesion. However, paying some attention to the often-ignored insides of a model can make a lot of difference in its mechanical properties. Inspired by a string of [Tom Stanton] videos, [3DJake] had a poke at making TPU more resilient against breaking when stretched and PLA resistant to snapping when experiencing a lateral force.
Simply twisting the TPU part massively increased the load at which it snapped. Similarly, by removing the infill from the PLA part before replacing it with a hollow cylinder, the test part also became significantly more resilient. A very noticeable result of hollowing out the PLA part: the way that it breaks. A part with infill will basically shatter. But the hollowed-out version remained more intact, rather than ripping apart at the seams. The reason? The hollow cylinder shape is printed to add more walls inside the part. Plus cylinders are naturally more able to distribute loads.
All of this touches on load distribution and designing a component to cope with expected loads in the best way possible. It’s also the reason why finite element analysis is such a big part of the CAD world, and something which we may see more of in the world of consumer 3D printing as well in the future.
If you want stronger prints, be sure to check out brick layers. Or, consider adding a little something extra.
youtube.com/embed/Iqf9Q1XlETM?…
January 2026 PPI GA Location Discussion
We are debating where to hold our General Assembly (GA) in January 2026.
The Board considered holding a physical event in Warsaw, Prague, and Potsdam/Berlin.
We are open to any reasonable offers. The event will also be taking place online, and the physical event may be a small or large event.
Technically more than one physical event is acceptable considering the global needs of our organization.
Please let a PPI representative know by October 19th if your party would like to host the GA.
We will announce the location(s) of the GA the following week.
Afghanistan e Pakistan, combattimenti alla frontiera con decine di morti
@Notizie dall'Italia e dal mondo
Decine di soldati uccisi e postazioni occupate in entrambe le direzioni, mentre Islamabad e Kabul chiudono i valichi di frontiera e rafforzano la sicurezza lungo il confine settentrionale
L'articolo Afghanistan e Pakistan, combattimenti alla frontiera con decine
Nei giorni successivi la formazione partigiana passa al comando di Stefano Carabalona grupposbarchi.wordpress.com/20…
The Subtle Art of Letterform Design
Typeface (such as Times New Roman) refers to the design that gives a set of letters, numbers, and symbols their signature “look”. Font, on the other hand, is a specific implementation of a typeface, for example, Times New Roman Italic 12 pt.‘Q’ is a counterpoint to the idea that typography is just one fussy detail after another.
Right about this point, some of you are nodding along and perhaps thinking “oh, that’s interesting,” while the rest of you are already hovering over your browser’s Back button. If you’re one of the former, you may be interested in checking out the (sort of) interactive tour of typography design elements by the Ohno Type School, a small group that loves design.
On one hand, letters are simple and readily recognizable symbols. But at the same time, their simplicity puts a lot of weight on seemingly minor elements. Small changes can have a big visual impact. The tour lays bare answers to questions such as: What is the optimal parting of the cheeks of a capital ‘B’? At what height should the crossbar on an ‘A’ sit, and why does it look so weird if done incorrectly? And yet, the tail of a ‘Q’ can be just about anything? How and why does an ‘H’ define the spacing of the entire typeface? All these (and more) are laid bare.
Font design in the hardware world is often constrained by display or memory limitations, but artistry in typography is still something that we’ve seen expressed in many different and wonderful ways over the years. For example, we covered a typeface whose symbols are not letters, but scope traces. And one enterprising fellow generated a new font (Avería) based on the average of every other font installed on his computer. The result was surprisingly attractive.
ironicmoka reshared this.
Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI”
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”.
La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni.
Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per cedere, ma anziché provvedere a rafforzarla, preferisce procurarsi un’imbarcazione.
I bunker dei super ricchi e la paura dell’AGI
Durante un incontro estivo nel 2023, Ilya Sutskever, cofondatore di OpenAI e mente brillante dietro ChatGPT, fece una dichiarazione intrigante ai suoi ricercatori: “Costruiremo sicuramente un bunker prima di rilasciare AGI”… e poi “Certo, sarà facoltativo decidere se entrare o meno nel bunker”.
La sua affermazione enigmatica venne interrotta da un ricercatore che ne chiese il significato. Sutskever proseguì con una risposta che lasciò tutti sbalorditi: “Prima di procedere al lancio dell’AGI, costruiremo senza dubbio un bunker”.
Secondo quanto dichiarato da Reid Hoffman, fondatore di LinkedIn, una quota significativa, pari ad almeno il 50%, degli individui estremamente facoltosi nella Silicon Valley ha già fatto acquisizione di quella che viene definita come “assicurazione apocalittica”.
Jeff Bezos, fondatore di Amazon, ha acquistato due ville da 147 milioni di dollari sull’isola di Indian Creek in Florida. Larry Ellison, miliardario di Oracle, ha comprato (anche) una proprietà sull’isola hawaiana di Lanai. Peter Thiel, cofondatore di PayPal, ha scelto la Nuova Zelanda. Jack Ma, fondatore di Alibaba, il regista James Cameron e il guru della finanza William Foley hanno tutti costruito bunker postapocalittici in località remote.
La professoressa di informatica all’Università di Southampton, Dame Wendy Hall, non condivide le previsioni più cupe. Sostiene che, secondo la comunità scientifica, la tecnologia dell’intelligenza artificiale sia notevolmente avanzata ma ancora distante dall’intelligenza umana. Per arrivare a una vera AGI sarebbero necessari ulteriori significativi progressi. È eccessivo, quindi, drammatizzare la situazione. Le tempistiche, in particolare, lasciano perplessi.
Ma andiamo con calma ad analizzare la questione.
Le dichiarazioni sull’Artificial General Intelligence
Quando emergerà l’AGI, l’intelligenza artificiale generale, paragonabile a quella umana per ampiezza di competenze? Gli ottimisti dicono che sarà molto presto. Il CEO di OpenAI, Sam Altman, ha dichiarato a dicembre 2024 che sarebbe successo “prima di quanto la maggior parte delle persone pensi”. Il co-fondatore di DeepMind, Sir Demis Hassabis, stima i tempi tra i cinque e i dieci anni. Il fondatore di Anthropic, Dario Amodei, preferisce parlare di “intelligenza artificiale potente” e prevede che potrebbe realizzarsi già nel 2026.
Gli scettici ribattono che “i traguardi vengono costantemente spostati”: secondo Dame Wendy Hall, professoressa dell’Università di Southampton, tutto dipende dalla persona a cui si chiede. La tecnologia è impressionante, ma è ancora lontana dall’intelligenza umana. Il CTO di Cognizant, Babak Hojat, concorda: prima sono necessarie diverse innovazioni fondamentali. E non aspettatevi che l’AGI emerga “istantaneamente”: non si tratta di un solo giorno, ma di una lunga strada, con decine di aziende che perseguono approcci diversi.
Parte di questo entusiasmo è alimentato dall’idea della fase successiva: l’AGI, o super intelligenza, che supererà gli esseri umani. Già nel 1958, al matematico ungherese-americano John von Neumann fu attribuita la prima formulazione della “singolarità“, il punto oltre il quale il ritmo e la natura dello sviluppo informatico sfuggono alla comprensione umana.
Nel libro del 2024 Genesis, Eric Schmidt, Craig Mundie e il compianto Henry Kissinger discutono di una tecnologia superpotente che prende decisioni e controlla in modo così efficace che gli esseri umani gradualmente le cedono il controllo. Nella loro logica, la domanda non è “se”, ma “quando”.
Cosa porterà l’AGI tra benefici e paure
I sostenitori dipingono un quadro folgorante. L’intelligenza artificiale (AGI) contribuirà presumibilmente a trovare cure per malattie mortali, a superare la crisi climatica e a sbloccare fonti di energia pulita praticamente illimitate. Elon Musk ha parlato di una possibile era di “alto reddito universale”, in cui l’intelligenza artificiale diventerà così accessibile che tutti avranno il loro “R2-D2 e C-3PO”.
Nella sua visione, tutti avranno un’assistenza sanitaria, un alloggio, trasporti migliori e un’abbondanza sostenibile. Ma c’è un rovescio della medaglia in questo sogno. Si può impedire che un sistema del genere venga abusato dai terroristi o che concluda automaticamente che noi stessi siamo il problema più grande del pianeta?
Tim Berners-Lee, il creatore del World Wide Web, avverte che se una macchina è più intelligente di un essere umano, deve essere contenuta e, se necessario, “spenta”. I governi stanno cercando di costruire barriere protettive. Negli Stati Uniti, nel 2023, è stato emesso un ordine esecutivo presidenziale che impone ad alcune aziende di condividere i risultati dei test di sicurezza con le autorità, sebbene alcune disposizioni siano state successivamente indebolite in quanto “ostacolanti l’innovazione”.
Due anni fa, il Regno Unito ha lanciato l’AI Safety Institute, un’organizzazione governativa che studia i rischi dei modelli avanzati. In questo contesto, i super-ricchi discutono di “assicurazione contro l’apocalisse” – dalle case ai confini del mondo ai rifugi privati – sebbene anche in questo caso il fattore umano stia sconvolgendo tutto.
Ancora siamo lontani da questo
C’è anche chi considera l’intera discussione fuorviante. Il professore di Cambridge Neil Lawrence definisce il concetto stesso di AGI assurdo quanto “un veicolo universale artificiale”. Il mezzo di trasporto giusto dipende sempre dal contesto: le persone volano in Kenya, guidano fino all’università e vanno a piedi alla mensa. Non esiste e non esisterà mai un’auto adatta a tutti: perché aspettarsi il contrario dall’IA?
Lawrence ritiene che parlare di AGI distolga l’attenzione dai veri cambiamenti già in atto: per la prima volta, le persone comuni possono parlare con una macchina e capire cosa intende realmente. Questo sta cambiando la vita di tutti i giorni, il che significa che è necessario impegnarsi per garantire che la tecnologia funzioni a beneficio dei suoi utenti.
I sistemi attuali sono addestrati su enormi set di dati e sono eccellenti nel riconoscere schemi ricorrenti, dai marcatori tumorali nelle immagini alla probabile parola successiva in una frase. Ma non li “sentono”, non importa quanto convincenti sembrino le loro risposte.
Secondo Babak Hojat, esistono modi “intelligenti” per far sembrare che grandi modelli linguistici abbiano capacità di memoria e apprendimento, ma questi trucchi sono ben lontani dal livello umano. Il CEO di IV.AI, Vince Lynch, avverte che le affermazioni altisonanti sull’intelligenza artificiale sono semplicemente una trovata pubblicitaria. Se si costruisce “la cosa più intelligente del mondo”, i soldi arriveranno. In pratica, il percorso non si misura in due anni: richiede un’enorme potenza di calcolo, una grande creatività umana e infiniti tentativi ed errori.
Il Cervello umano è ancora più performante
Eppure, per certi aspetti, le macchine ci superano già nell’ampiezza delle loro applicazioni. L’intelligenza artificiale generativa può passare dalla storia medievale a equazioni complesse in un minuto. Persino gli sviluppatori non sempre capiscono perché il modello risponda in un certo modo, e alcune aziende segnalano miglioramenti nei loro sistemi. La biologia rimane ancora all’avanguardia: il cervello umano contiene circa 86 miliardi di neuroni e circa 600 trilioni di sinapsi, incomparabilmente di più delle architetture artificiali. Il cervello non ha bisogno di pause tra le interazioni; ristruttura continuamente la sua visione del mondo.
Se dici a una persona che è stata scoperta la vita su un esopianeta, questa lo integrerà immediatamente nella sua visione della realtà. Un modello linguistico “sa” questo solo nella misura in cui continui a ripeterglielo. L’LLM manca di metacognizione, la capacità di essere consapevoli della propria conoscenza. Gli esseri umani ce l’hanno, ed è spesso descritta come coscienza. È un elemento fondamentale dell’intelligenza che non è stato ancora replicato in laboratorio.
Dietro le grandiose previsioni e gli allarmi, a quanto pare, si nasconde una semplice verità: l’intelligenza artificiale sta già trasformando la vita quotidiana e i processi aziendali, e parlare di “vera” intelligenza artificiale è comodo per chi raccoglie fondi o definisce l’agenda.
Se e quando si verificherà un punto di singolarità rimane una questione aperta. Ma la qualità degli strumenti che creiamo ora, la loro sicurezza, trasparenza e utilità per le persone, dipendono molto più dei dibattiti su silos e date.
L'articolo Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI” proviene da il blog della sicurezza informatica.
GitHub migra verso Azure! E addio a nuovi sviluppi per un anno
Quando Microsoft ha acquisito GitHub nel 2018, l’azienda ha cercato di tenersi alla larga. La piattaforma si è sviluppata in modo relativamente indipendente fino a quando le cose non hanno iniziato a cambiare negli ultimi mesi.
L’uscita di scena del CEO di GitHub, Thomas Domke, ad agosto e la graduale fusione con la struttura interna di Microsoft hanno consolidato questo nuovo corso. Come appreso da The New Stack, il prossimo passo di questa integrazione sarà una migrazione completa dell’infrastruttura di GitHub sul cloud di Azure. Per raggiungere questo obiettivo, l’azienda prevede persino di ritardare il lancio delle nuove funzionalità.
In una lettera ai dipendenti, il CTO Vladimir Fedorov ha spiegato che la sede principale di GitHub in Virginia non è più in grado di gestire il carico di lavoro. Il problema è la mancanza di risorse, soprattutto considerando la rapida crescita dell’utilizzo di intelligenza artificiale e Copilot.
Ha affermato che la piattaforma dovrà abbandonare completamente i propri data center entro 24 mesi. Di questo lasso di tempo, sei mesi sono riservati a ritardi imprevisti, il che significa che la maggior parte del lavoro dovrà essere completata entro 18 mesi. Il sistema opererà inoltre contemporaneamente sia sulla vecchia che sulla nuova infrastruttura per almeno sei mesi, riducendo i tempi effettivi a un anno.
Per rispettare la scadenza, i team di GitHub devono ora concentrarsi quasi esclusivamente sulla migrazione. Fedorov afferma esplicitamente che la priorità è la migrazione ad Azure , anche se ciò significa abbandonare temporaneamente lo sviluppo di nuove funzionalità. La definisce una “finestra” in cui è possibile rallentare temporaneamente lo sviluppo del prodotto per la ristrutturazione tecnica, e questa finestra dovrebbe essere mantenuta il più breve possibile.
GitHub ha iniziato la migrazione ad Azure in precedenza ma finora i passaggi sono stati irregolari e non sempre coronati da successo. Esistono anche esempi di migrazioni di successo, come il progetto Proxima, che consente ai clienti europei di archiviare il codice esclusivamente nelle regioni Azure locali. È stato sviluppato fin dall’inizio senza i server di GitHub e opera esclusivamente nel cloud Microsoft.
Secondo Fedorov, la piattaforma deve semplicemente completare la migrazione, in parte grazie agli strumenti di intelligenza artificiale che stanno rapidamente guadagnando popolarità. Azure è già utilizzato in componenti come GitHub Actions, la ricerca, i nodi edge e persino Proxima. Ma ora è il momento non solo di aumentare la propria quota nel cloud, ma di migrare completamente verso di esso.
GitHub ha recentemente subito delle interruzioni, una delle cause è dovuta alle risorse limitate del suo data center principale. Gli agenti di intelligenza artificiale, attivamente utilizzati nella nuova infrastruttura, stanno creando un carico di lavoro aggiuntivo. Tuttavia, molti dipendenti sono preoccupati per la migrazione di servizi critici. Questo vale in particolare per i cluster MySQL, che funzionano su hardware dedicato. Sono difficili da adattare al cloud e questo potrebbe causare ulteriori interruzioni.
In una dichiarazione ufficiale, GitHub ha confermato i suoi piani e ha spiegato che l’infrastruttura dovrà supportare la crescita sia della piattaforma stessa che dei suoi strumenti di intelligenza artificiale. L’azienda ritiene che il passaggio ad Azure sia un passaggio necessario per operazioni stabili e scalabili. Questa decisione consentirà rilasci più rapidi e manterrà l’affidabilità senza essere limitata dalle funzionalità attuali.
Non tutti gli sviluppatori sono entusiasti dei crescenti legami di GitHub con Microsoft e Azure. Questo vale soprattutto per i sostenitori dell’open source che apprezzavano la relativa indipendenza della piattaforma.
Tuttavia, le principali lamentele ora non si concentrano sulle strutture aziendali, ma su problemi tecnici, come interruzioni e limitazioni, riscontrati dagli utenti.
L'articolo GitHub migra verso Azure! E addio a nuovi sviluppi per un anno proviene da il blog della sicurezza informatica.
Joe Vinegar reshared this.
La Cina domina la robotica industriale: 2 milioni di macchine nelle fabbriche
La Cina consolida la sua posizione di potenza manifatturiera mondiale grazie a un ritmo di produzione e installazione di robot industriali senza precedenti. Secondo un rapporto della Federazione Internazionale di Robotica (IFR) pubblicato giovedì, il numero di robot operativi nelle fabbriche cinesi ha superato i 2 milioni nel 2024, con quasi 300.000 nuove installazioni in un solo anno – più di quanto realizzato complessivamente nel resto del mondo. Gli Stati Uniti, al terzo posto per numero di robot installati, si fermano a 34.000 unità.
L’automazione è ormai al centro della strategia industriale di Pechino, sostenuta da fondi pubblici e da politiche governative mirate a rendere le imprese cinesi leader globali non solo nella robotica, ma anche nei semiconduttori e nell’intelligenza artificiale (IA).
Negli ultimi dieci anni, riporta un articolo del New York Times, la Cina ha avviato un’intensa campagna per integrare la robotica nei processi produttivi, sviluppando al contempo un’industria nazionale di robot e componenti tecnologici avanzati. “Le aziende cinesi investono in questo settore da molti anni”, ha spiegato Su Lianjie, analista capo di Omdia, evidenziando che la crescita non è frutto del caso ma di una pianificazione a lungo termine.
Dal 2017, il Paese installa stabilmente oltre 150.000 robot industriali all’anno, un’espansione che accompagna la crescita della produzione manifatturiera. Oggi, le fabbriche cinesi generano quasi un terzo dei beni prodotti nel mondo, superando la somma di Stati Uniti, Germania, Giappone, Corea del Sud e Regno Unito.
Dietro la Cina, i Paesi con il maggiore utilizzo di robot sono Giappone, Stati Uniti, Corea del Sud e Germania. Tuttavia, il numero di nuove installazioni in questi Stati è in calo. Il Giappone, ad esempio, ha installato 44.000 robot nel 2024, un dato inferiore rispetto all’anno precedente.
Il governo cinese ha reso la robotica una priorità già nel 2015 con il piano “Made in China 2025”, volto a ridurre la dipendenza dalle importazioni di beni tecnologici. Da allora, i settori strategici hanno beneficiato di prestiti agevolati, acquisizioni sostenute da banche statali e iniezioni dirette di capitale pubblico. Nel 2021, Pechino ha introdotto una strategia nazionale per la robotica, che ha rafforzato ulteriormente la crescita del comparto.
Secondo la IFR, la quota cinese nella produzione mondiale di robot è salita al 33% nel 2024, rispetto al 25% del 2023, mentre il Giappone ha visto la propria quota scendere dal 38% al 29%. Inoltre, quasi il 60% dei robot installati in Cina proviene ormai da produttori locali, un’inversione rispetto agli anni precedenti, quando dominavano le importazioni.
Le fabbriche cinesi utilizzano oggi cinque volte più robot di quelle americane. Nello stabilimento Zeekr Auto di Ningbo, ad esempio, camion automatizzati trasportano materiali pesanti in completa autonomia.
Il report non considera i robot umanoidi, ancora in fase sperimentale, ma il supporto governativo ha già alimentato una vivace rete di startup nel settore. Tra queste, Yushu Technology Co., Ltd., con sede a Hangzhou, ha annunciato l’intenzione di quotarsi in borsa entro la fine dell’anno. Il suo ultimo modello, venduto a 39.900 yuan, risulta molto più economico rispetto ai prodotti di aziende internazionali come Boston Dynamics.
Nonostante i progressi, la Cina resta indietro nella produzione di componenti chiave per i robot umanoidi, come sensori e semiconduttori, tuttora dominata da produttori di Germania e Giappone. “Un robot umanoide di fascia alta sarebbe ancora composto quasi interamente da parti straniere”, osserva Su Lianjie.
La forza della Cina nel settore industriale resta però evidente: il Paese dispone di un ampio bacino di tecnici specializzati e programmatori. Tuttavia, la domanda di installatori di robot è così elevata che i loro stipendi medi annuali hanno raggiunto 430.000 yuan.
Parallelamente, l’industria nazionale dell’intelligenza artificiale sta contribuendo a ottimizzare la gestione delle fabbriche. Secondo Cameron Johnson, consulente della supply chain a Shanghai, “le aziende cinesi stanno usando l’IA per analizzare le prestazioni delle macchine e individuare inefficienze in tempo reale”. Al di fuori della Cina, aggiunge, questo approccio “non è ancora diffuso come nelle fabbriche cinesi”.
L'articolo La Cina domina la robotica industriale: 2 milioni di macchine nelle fabbriche proviene da il blog della sicurezza informatica.
Save Your USB-C Plugs From Oblivion
USB-C as the “One Cable To Rule Them All” has certainly been a success. While USB-A is still around for now, most of us have breathed a hefty sigh of relief with the passing of micro-USB and the several display and power standards it replaces. It’s not without its minor issues though. One of them is that it’s as susceptible as any other cable to a bit of strain. For that, we think [NordcaForm]’s 3D-printed USB-C cable strain relief is definitely a cut above the rest.
Waxing lyrical about a simple 3D printed model might seem overkill for Hackaday, and it’s true, it’s not something we do often, but as Hackaday writers travel around with plenty of USB-C connected peripherals, we like the design of this one. It’s flexible enough to be useful without resorting to exotic filaments, and since it’s available in a few different forms with curved or straight edges, we think it can find a place in many a cable setup. Certainly more of an everyday carry than a previously featured 3D print. If you want to learn more about USB C, we have a whole series of posts for you to binge read.
Bose SoundTouch Smart WiFi Speakers are about to go Dumb
Bose SoundTouch speakers were introduced in 2013, offering the ability to connect to online streaming services and play back audio on multiple speakers simultaneously using the accompanying mobile app. Now these features are about to be removed, including the mobile app, as Bose is set to discontinue support on February 18, 2026. From that point onwards, you can only use them via Bluetooth or physical connectors that may be present, like an audio jack or HDMI port. This includes fancy home theater system hardware like the above SoundTouch 520.
That is the official line, at least. We have seen the SoundTouch on Hackaday previously, when it was discovered how to gain root shell access to the Linux OS that powers the original SoundTouch system with Telnet access on port 17,000 to pass the listening service the remote_services on
command before connecting with Telnet as usual, with root
and no password. A quick glance at the comments to that post suggests that this is still a valid approach for at least certain SoundTouch devices.
The fallout from this announcement appears to be twofold: most of all that ‘smart’ features like WiFi-based streaming can be dropped at any time. But it also makes us realize that hardware hackers like us will never run out of new and suddenly obsolete hardware that need our rescue.
reshared this
Guido Piovene “inviato speciale” alla Marcia Perugia-Assisi del 1961
@Giornalismo e disordine informativo
articolo21.org/2025/10/guido-p…
Oggi 12 ottobre, a 80 anni dalla costituzione dell’Onu, a 10 anni dalla diffusione della Laudato sì di Papa Francesco, a 800 anni dalla composizione del Cantico delle
Sarò alla marcia perchè la Palestina trovi finalmente Pace
@Giornalismo e disordine informativo
articolo21.org/2025/10/saro-al…
Anche stavolta parteciperò alla Marcia della Pace Perugia-Assisi. L’ho fatto tante volte, fin dai tempi della FGCI. Poi, negli anni, con i figli piccoli, figli di noi che stavamo diventando
Oggi tutti in marcia per la pace!
@Giornalismo e disordine informativo
articolo21.org/2025/10/oggi-tu…
“Ci sarà una partecipazione molto ampia da ogni parte d’Italia. Ringraziamo tutti coloro che hanno reso possibile questo evento, istituzioni incluse”. Così Flavio Lotti, presidente della Fondazione PerugiAssisi per la Cultura della Pace, ha aperto l’incontro con la stampa
Stampubblica e noi – Cronaca di una tragedia politica
@Giornalismo e disordine informativo
articolo21.org/2025/10/stampub…
Era il 2016 quando Giovanni Valentini, tra i fondatori e per quarant’anni tra le firme più note e stimate di Repubblica, mandò in libreria un saggio dal titolo profetico: “La Repubblica tradita” (Paper First editore).
A Deep Dive into The Coolness That Was CRT Projectors
CRT monitors: there’s nothing quite like ’em. But did you know that video projectors used to use CRTs? A trio of monochrome CRTs, in fact: one for each color; red, green, and blue. By their powers combined, these monsters were capable of fantastic resolution and image quality. Despite being nowhere near as bright as modern projectors, after being properly set up, [Technology Connections] says it’s still one of the best projected images he has seen outside of a movie theatre.After a twenty-minute startup to reach thermal equilibrium, one can settle down with a chunky service manual for a ponderous calibration process involving an enormous remote control. The reward is a fantastic (albeit brightness-limited) picture.
Still, these projectors had drawbacks. They were limited in brightness, of course. But they were also complex, labor-intensive beasts to set up and calibrate. On the other hand, at least they were heavy.
[Technology Connections] gives us a good look at the Sony VPH-D50HT Mark II CRT Projector in its tri-lobed, liquid-cooled glory. This model is a relic by today’s standards, but natively supports 1080i via component video input and even preserves image quality and resolution by reshaping the image in each CRT to perform things like keystone correction, thus compensating for projection angle right at the source. Being an analog device, there is no hint of screen door effect or any other digital artifact. The picture is just there, limited only by the specks of phosphor on the face of each tube.
Converging and calibrating three separate projectors really was a nontrivial undertaking. There are some similarities to the big screen rear-projection TVs of the 90s and early 2000s (which were then displaced by plasma and flat-panel LCD displays). Unlike enclosed rear-projection TVs, the screen for projectors was not fixed, which meant all that calibration needed to be done on-site. A walkthrough of what that process was like — done with the help of many test patterns and a remote control that is as monstrous as it is confusing — starts at 15:35 in the video below.
Like rear-projection TVs, these projectors were displaced by newer technologies that were lighter, brighter, and easier to use. Still, just like other CRT displays, there was nothing quite like them. And if you find esoteric projector technologies intriguing, we have a feeling you will love the Eidophor.
youtube.com/embed/ms8uu0zeU88?…
L’Aeronautica Militare USA Sperimenta Droni da Combattimento con Intelligenza Artificiale
I piloti militari americani stanno padroneggiando una nuova disciplina : pilotare droni da combattimento controllati dall’intelligenza artificiale. Durante i voli di addestramento, i piloti dell’Aeronautica Militare statunitense si stanno esercitando a interagire con droni autonomi XQ-58 Valkyrie, in grado di prendere decisioni in una frazione di secondo e di cambiare istantaneamente traiettoria in risposta alle minacce. Lavorare a fianco di un partner del genere richiede che un pilota umano si adatti a una velocità di reazione precedentemente ritenuta impossibile.
La tecnologia che controlla il Valkyrie ha completato l’addestramento di base: gli algoritmi possono ora decollare, manovrare e coordinarsi autonomamente con i velivoli con equipaggio. Gli sviluppatori stanno attualmente addestrando il sistema in tecniche di combattimento difensive, come la schivata degli attacchi e l’intercettazione dei bersagli. All’interno dell’Aeronautica Militare, il progetto è stato ufficiosamente soprannominato “Top Gun AI”, un omaggio alla leggendaria scuola per piloti d’élite, ora dotata di compagni digitali.
L’XQ-58 Valkyrie è una piattaforma di volo da combattimento collaborativo (CCA). Si tratta di un drone stealth a reazione sviluppato da Kratos per il programma Low-Cost Attritable Strike Demonstrator. L’idea è quella di creare un velivolo relativamente economico ma altamente efficace, che possa essere schierato in massa accanto ai caccia. Il Valkyrie può volare a velocità fino a Mach 0,86 (circa 1.060 km/h), salire a un’altitudine di 13,7 km e percorrere 5.500 chilometri senza rifornimento. Il suo carico utile raggiunge i 2.700 chilogrammi, sufficienti per trasportare missili o equipaggiamento da ricognizione.
Questi velivoli sono attualmente in fase di test in formazione con i caccia F-35, F-22, F-15EX e F/A-18, e sono utilizzati anche dal Corpo dei Marines. Le linee di produzione di Kratos consentono il rapido assemblaggio di nuove unità, aprendo la strada alla creazione di interi squadroni di gregari senza pilota. I primi voli del programma di collaborazione uomo-macchina si stanno svolgendo presso la base aerea di Eaglin in Florida. Stanno testando come un pilota possa gestire una missione con partner autonomi e con quale affidabilità l’IA risponda a situazioni impreviste.
Il comandante dell’aeronautica militare statunitense, il generale Adrian Spain, ha confermato che i droni basati sull’intelligenza artificiale saranno utilizzati in uno spazio di battaglia unificato insieme ai caccia con equipaggio. Nell’estate del 2025, uno squadrone del 96° Test Wing ha condotto una serie di esercitazioni di addestramento , in cui i piloti hanno controllato i droni XQ-58A in combattimenti aerei simulati. I dati ottenuti contribuiranno ad adattare le tecnologie semi-autonome e a implementarle in unità reali.
Un altro programma, VENOM (Viper Experimentation and Next-generation Operations Model), è in corso contemporaneamente per aggiornare i caccia F-16 per il volo autonomo. I primi sei velivoli saranno dotati di nuove apparecchiature di bordo, software e un sistema di sensori che consentiranno il volo senza pilota. Tre di essi sono già in fase di aggiornamento, dopodiché inizieranno i test a terra e in volo. Per ora, la modalità autonoma viene attivata manualmente: un pilota collaudatore in cabina di pilotaggio potrà attivare e disattivare gli algoritmi in tempo reale, monitorandone il comportamento.
Durante i test, gli ingegneri valutano il modo in cui gli esseri umani gestiscono manovre brusche durante i voli congiunti e i limiti delle forze G sicure. Entro un anno e mezzo dall’arrivo del primo velivolo aggiornato, l’Aeronautica Militare prevede di avere un F-16 autonomo completamente operativo, pronto per test approfonditi.
I rappresentanti del comando sottolineano che eliminare completamente gli esseri umani dal processo decisionale non è ancora possibile: l’intelligenza artificiale non deve operare senza supervisione. Tuttavia, la possibilità di utilizzare jet da combattimento senza pilota per scortare gli equipaggi o intercettare gli avversari è vista come un vantaggio strategico. Queste macchine non si stancano, non sono soggette a panico e possono svolgere missioni in cui il rischio per gli esseri umani è troppo elevato.
L'articolo L’Aeronautica Militare USA Sperimenta Droni da Combattimento con Intelligenza Artificiale proviene da il blog della sicurezza informatica.
Entering the Wild World of Power Over Ethernet
As Ethernet became the world-wide standard for wired networking, there was one nagging problem. You already have to plug in the network cable. But then you have to also plug in a power cable. That power cable needs to be long enough. And have the right plug on it for your country. And provide the right current and voltage. That’s how Power over Ethernet (PoE) was born, first in a veritable Wild West of proprietary standards and passive injectors, then in a standardized process. Recently [T. K. Hareendran] wrote a primer on PoE, with more of a DIY intro focus, including some favorite PoE PD (powered device) chips to use in your own design.
You can still totally use passive PoE if that’s your jam, and you have full control over the network and any connected devices. This would allow you to, for example, power your SBCs for a couple of bucks, although for adding PoE to your Mac Mini you may want to look at some more refined options, if only as a safety precaution.
Much depends on the needs of each device, as PoE is meant mostly for low-power devices such as VoIP phones and the like. The more common IEEE 802.af and .at standards (Type 1 and 2) cap out at 30 Watts, with about 25 Watts available to the device after losses, while 802.3bt (Type 3 and 4) takes this up to 90 Watts, or just over 70 Watts after losses. Before making a decision, it would be good to read a detailed guide from someone with experience, like the one by [Alan] that we covered a while ago.
Servizi RDP esposti nel mirino! Una botnet di 100.000 IP scandaglia la rete
Negli Stati Uniti, una vasta campagna coordinata tramite botnet sta prendendo di mira i servizi basati sul protocollo Remote Desktop Protocol (RDP).
Un pericolo notevole è rappresentato dalla scala e dalla struttura organizzativa di questa campagna, soprattutto per quelle organizzazioni che fanno affidamento su RDP per il loro funzionamento giornaliero.
L’azienda di sicurezza GreyNoise ha riferito di aver monitorato un’ondata significativa di attacchi provenienti da oltre 100.000 indirizzi IP univoci in più di 100 paesi.
L’operazione sembra essere controllata centralmente, con l’obiettivo primario di compromettere l’infrastruttura RDP, un componente fondamentale per il lavoro e l’amministrazione a distanza.
Questa scoperta ha dato il via a un’analisi più ampia, che ha rapidamente individuato picchi di attività simili in una moltitudine di paesi, tra cui Argentina, Iran, Cina, Messico, Russia e Sudafrica.
Nonostante le diverse origini geografiche, gli attacchi condividono un obiettivo comune: i servizi RDP negli Stati Uniti.
Gli analisti sono fortemente convinti che questa attività sia opera di un’unica botnet su larga scala. Questa conclusione è supportata dal fatto che quasi tutti gli IP partecipanti condividono un’impronta TCP simile. Questa firma tecnica suggerisce una struttura di comando e controllo standard e centralizzata che orchestra gli attacchi.
Il primo è un attacco di timing RD Web Access, un metodo in cui gli aggressori misurano il tempo di risposta del server ai tentativi di accesso per distinguere in modo anonimo i nomi utente validi da quelli non validi.
Gli autori della minaccia dietro questa campagna stanno utilizzando due vettori di attacco specifici per identificare e compromettere i sistemi vulnerabili.
Il secondo vettore è un’enumerazione degli accessi ai client web RDP, che tenta sistematicamente di indovinare le credenziali degli utenti. Questi metodi consentono alla botnet di scansionare e identificare in modo efficiente i punti di accesso RDP sfruttabili senza attivare immediatamente gli avvisi di sicurezza standard.
L’uso sincronizzato di questi metodi di attacco specifici e non banali su un numero così vasto di nodi indica ulteriormente un’operazione coordinata gestita da un singolo operatore o gruppo.
In risposta a questa minaccia persistente, GreyNoise ha pubblicato raccomandazioni specifiche per i responsabili della sicurezza della rete.
L’azienda consiglia alle organizzazioni di controllare proattivamente i propri registri di sicurezza per individuare eventuali sondaggi RDP insoliti o tentativi di accesso non riusciti che corrispondano agli schemi di questa campagna.
Per una protezione più diretta, GreyNoise ha creato un modello di blocklist dinamico, denominato “microsoft-rdp-botnet-oct-25”, disponibile tramite la sua piattaforma.
L'articolo Servizi RDP esposti nel mirino! Una botnet di 100.000 IP scandaglia la rete proviene da il blog della sicurezza informatica.
Otttoz
in reply to Antonella Ferrari • • •