URGENTE: Il giornalista palestinese Saleh Al-Jaafarawi è stato ucciso a colpi d'arma da fuoco...
URGENTE: Il giornalista palestinese Saleh Al-Jaafarawi è stato ucciso a colpi d'arma da fuoco da uomini armati sconosciuti nel quartiere Tel Al-Hawa di Gaza City.
Fonte :canale Telegram Palestina Hoy
FREE ASSANGE Italia
URGENTE: Il giornalista palestinese Saleh Al-Jaafarawi è stato ucciso a colpi d'arma da fuoco da uomini armati sconosciuti nel quartiere Tel Al-Hawa di Gaza City. Fonte :canale Telegram Palestina HoyTelegram
DIY 35mm Film Scanning
If you are sitting on a horde of negatives, waiting for the digital photography fad to die off, it may be time to think about digitizing your old film. [Kinpro1024] can help with the PiDigitzier, an open-source film scanning solution. The build centers around a Pi Zero 2, a Pi HQ camera, and a diffusing LED lighting fixture. Of course, there’s also some miscellaneous hardware and a camera lens; the example used a Pentax 50 mm f1.8 lens.
Half of the project is mechanical. An MDF tower provides a stable 250 mm workspace and decks that can slide up and down using threaded rods and curtain rods. Apparently, leveling the platforms is important not only for the optics but also to allow the MDF to move along the rods without binding.
On the software side, some Python software orchestrates the capture and builds a high-resolution scan by combining three different images from different positions. As you might expect, though, the image stitching doesn’t occur on the Pi.
[Kinpro1024] has only scanned black and white film so far because the LEDs have a poor color rendering index. If you wanted to scan color film, you may have to experiment with better lighting or software correction. The camera’s rolling shutter also causes some issues if the LEDs don’t hold their intensity through the entire scan. You could, of course, replace this with a global shutter camera.
Stray light can also be a problem. Ideally, you’d use bellows like a big camera, but if that’s not available, you can wing it with some homemade light baffles.
If you decide you want to try color, you will be interested in this project. You might also think of raiding the kids’ Lego box.
reshared this
Peter Samson, pioniere della cultura Hacker, ci fa ascoltare “Boards of Canada” su PDP-1
In un mondo in cui la musica è da tempo migrata verso lo streaming e le piattaforme digitali, un appassionato ha deciso di tornare indietro di sei decenni, a un’epoca in cui le melodie potevano ancora prendere vita attraverso il bagliore delle lampade e del nastro perforato.
Il più vecchio computer PDP-1, famoso per essere stato la culla di uno dei primi videogiochi, improvvisamente parlò con la voce dei Boards of Canada, eseguendo la loro composizione “Olson” utilizzando nastro di carta e luci lampeggianti.
Il progetto è stato implementato da Peter Samson, pioniere della cultura hacker presso il TMRC e ingegnere e volontario presso il Computer History Museum nell’ambito dell’iniziativa PDP-1.music, lanciata da Joe Lynch.
L’obiettivo era quello di adattare una breve traccia ai limiti tecnici del PDP-1, che utilizzava nastri di carta perforati per l’inserimento dei dati. Ogni sequenza sonora veniva codificata manualmente e registrata su nastro, che doveva essere caricato nel dispositivo passo dopo passo.
L’elemento chiave della riproduzione era l'”Harmony Compiler“, un compilatore sviluppato dallo stesso Samson negli anni ’60, mentre era studente al MIT. Questo strumento era stato progettato per consentire al PDP-1 di riprodurre brani classici utilizzando quattro valvole di segnale.
Originariamente, queste valvole dovevano indicare lo stato del programma, ma furono riadattate come oscillatori in quadratura, diventando essenzialmente convertitori digitale-analogico a bit singolo. Lampeggiando rapidamente alle frequenze audio, ogni valvola veniva trasformata in una sorgente sonora.
Per riprodurre la composizione, i segnali luminosi provenienti dalle valvole venivano combinati in canali stereo e poi assemblati in un’unica traccia utilizzando un emulatore. Il file risultante veniva convertito manualmente in codice adatto al nastro perforato, che veniva poi caricato nel PDP-1.
Nonostante la complessità del processo, i creatori del progetto ritengono che lo sforzo ne sia valsa la pena: la musica dei Boards of Canada, intrisa di nostalgia per il passato analogico, suona piuttosto naturale su una macchina del genere.
Peter Samson. Uno dei primi hacker del Tech Model Railroad Club
Peter R. Samson è un informatico statunitense noto per il suo ruolo pionieristico nel campo della programmazione e per le sue influenti opere nel contesto della cultura hacker. Nato nel 1941 a Fitchburg, Massachusetts, ha studiato al Massachusetts Institute of Technology (MIT) dal 1958 al 1963. Durante il suo periodo universitario, è stato membro del Tech Model Railroad Club (TMRC) di MIT, dove ha svolto un ruolo significativo nel plasmare il linguaggio e la filosofia della cultura hacker.
Nel 1959, Samson ha compilato la prima edizione del “Tech Model Railroad Club Dictionary”, un glossario che ha introdotto termini come “foo”, “mung” e “frob”, molti dei quali sono diventati parte integrante del vocabolario della cultura hacker. Inoltre, ha definito il termine “hacker” come “colui che hackera, o crea”, contribuendo a consolidare l’uso di questo termine nel contesto informatico.
Oltre al suo coinvolgimento nel TMRC, Samson ha contribuito allo sviluppo di software pionieristici per i computer TX-0 e PDP-1, tra cui la sintesi musicale digitale in tempo reale e la creazione di “Spacewar!”, uno dei primi giochi interattivi per compute
L'articolo Peter Samson, pioniere della cultura Hacker, ci fa ascoltare “Boards of Canada” su PDP-1 proviene da il blog della sicurezza informatica.
La Cina rafforza la sua presenza nel settore dei cavi sottomarini
Il Segretario generale Xi Jinping ha ribadito che la costruzione di una nazione marittima forte rappresenta un compito strategico fondamentale per il ringiovanimento della Cina. In questo scenario, le tecnologie ottiche marine avanzate assumono un ruolo chiave, poiché la profondità del progresso scientifico determina lo sviluppo delle risorse oceaniche e delle attività offshore.
Le fibre ottiche sottomarine, che trasportano oltre il 95% delle comunicazioni internazionali, costituiscono l’infrastruttura principale della digitalizzazione globale. A Wuhan, una tra le basi di produzione mondiale di fibre e cavi ottici, diverse aziende hanno sviluppato tecnologie capaci di rafforzare la frontiera digitale marittima della Cina, estendendo connessioni fino alle profondità oceaniche pur trovandosi lontano dal mare.
Il settore dei cavi sottomarini ha una portata internazionale enorme, con 1,4 milioni di chilometri di linee attive che trasportano dati finanziari per migliaia di miliardi di dollari al giorno. Storicamente dominato da Stati Uniti, Francia e Giappone, è diventato negli ultimi anni un campo di competizione tecnologica globale. In risposta alle barriere imposte contro la Cina, le aziende di Wuhan hanno accelerato innovazioni e applicazioni per consolidare la propria presenza.
YOFC, leader mondiale nel settore da nove anni, ha posato il primo cavo sottomarino di prova a sette conduttori al mondo nella Greater Bay Area, introducendo soluzioni capaci di ampliare la capacità senza aumentarne lo spessore. Parallelamente, FiberHome ha raggiunto un traguardo di trasmissione a 254,7 Tb/s su 200 chilometri di fibra standard, grazie all’uso di algoritmi di intelligenza artificiale, rafforzando la competitività della tecnologia cinese in scenari transoceanici.
Anche Accelink Technologies ha segnato progressi significativi, superando per la prima volta i 1.000 chilometri di trasmissione ottica a singolo raggio. Questi sviluppi hanno mostrato il valore strategico dei cavi ottici sottomarini, descritti come l'”aorta” della rete globale. La loro assenza rallenterebbe trasmissioni vitali per settori come energia, comunicazioni quantistiche, telemedicina e logistica internazionale, compromettendo sicurezza e sincronizzazione globale.
Gli investimenti hanno reso FiberHome un punto di riferimento mondiale, con un parco industriale capace di produrre 10.000 chilometri di cavi sottomarini all’anno e una catena tecnologica che copre ogni fase, dai dispositivi a chip fino all’ingegneria navale. Anche YOFC ha rafforzato la propria presenza acquisendo una piattaforma per la produzione di cavi marittimi, consolidando così un ecosistema che integra materiali, componenti e sistemi.
La Wuhan Optics Valley si è affermata come centro di innovazione “atipico” in acque profonde, grazie alla collaborazione tra aziende, università e laboratori di ricerca. Questa sinergia ha permesso di trasformare rapidamente le scoperte tecnologiche in capacità industriali, dando vita a un ecosistema completo che sostiene l’autonomia scientifica e tecnologica cinese e rafforza la leadership nel settore delle comunicazioni marine.
L'articolo La Cina rafforza la sua presenza nel settore dei cavi sottomarini proviene da il blog della sicurezza informatica.
Festival del giornalismo culturale, il Master in Giornalismo della Lumsa vince il FgCult25
[quote]URBINO – Nella cornice della tredicesima edizione del Festival del giornalismo culturale di Urbino, l’allieva praticante del Master in Giornalismo della Lumsa Irene Di Castelnuovo ha vinto con il suo…
L'articolo Festival del giornalismo culturale, il
In 200mila da Perugia ad Assisi per dire no a tutte le guerre
@Giornalismo e disordine informativo
articolo21.org/2025/10/in-200m…
Tanti, tantissimi. “In più di 200 mila” dicono gli organizzatori, come non si vedeva dal 2001, hanno marciato da Perugia ad Assisi. A mettersi in cammino sotto lo slogan “Imagine alla the
Trovato un dinosauro intrappolato nell’ambra per 99 milioni di anni
Dinosauro nell’ambra, la scoperta da 99 milioni di anni fa: una coda piumata intatta che svela nuovi dettagli sull’evoluzione verso gli uccelli.redazione.studenti (Studenti)
Trames reshared this.
PVC Pipe Structure Design That Skips Additional Hardware
[Baptiste Marx] shares his take on designing emergency structures using PVC pipe in a way that requires an absolute minimum of added parts. CINTRE (French, English coverage article here) is his collection of joint designs, with examples of how they can be worked into a variety of structures.Basic joints have many different applications.
PVC pipe is inexpensive, widely available, and can often be salvaged in useful quantities even in disaster areas because of its wide use in plumbing and as conduits in construction. It can be cut with simple tools, and once softened with heat, it can be re-formed easily.
What is really clever about [Baptiste]’s designs is that there is little need for external fasteners or hardware. Cable ties are all that’s required to provide the structural element of many things. Two sawhorse-like assemblies, combined with a flat surface, make up a table, for example.
Soda bottles made from polyethylene terephthalate (PET) are also common salvage and can be used as surprisingly sturdy heat-shrink and even turned into twine or rope; perhaps that could be an option if one doesn’t even have access to cable ties.
FBI sequestra BreachForums e i post degli hacker che minacciavano la Quantas
Gli hacker dell‘FBI (Federal Bureau of Investigation) degli Stati Uniti ha sequestrato e distrutto un sito web accessibile al pubblico, gestito da hacker che minacciano di divulgare i dati personali dei clienti Qantas.
Un collettivo di criminali informatici, Scattered Lapsus$ Hunters, avrebbe minacciato di divulgare i dati rubati da circa 40 aziende globali collegate al gigante del software cloud Salesforce, tra cui Disney, Google, IKEA, Toyota e le compagnie aeree Qantas, Air France e KLM, a meno che non venisse pagato un riscatto.
A luglio, Qantas ha stimato a 5,7 milioni il numero di clienti colpiti dall’attacco informatico, ma l’amministratore delegato Vanessa Hudson non ha voluto confermare se alla compagnia fosse stato chiesto di pagare un riscatto.
La landing page del sito web BreachForums del 10 ottobre presentava i loghi delle agenzie internazionali di contrasto. La scadenza per il pagamento del riscatto da parte del collettivo era prevista per le 23:59 di venerdì, ora di New York (13:59 di sabato AEST).
In un messaggio pubblicato online sulla piattaforma Telegram venerdì dal gruppo ShinyHunters, uno dei tre gruppi di hacker che compongono il collettivo più ampio, tutti i domini del sito web BreachForums sono stati rimossi.
“BreachForums è stato sequestrato oggi dall’FBI e dai partner internazionali. Era inevitabile e non ne sono sorpreso. Né io né altri coinvolti in questo gruppo siamo stati arrestati”, si legge nel messaggio. “L’ultimo backup del database di BreachForums è stato compromesso, così come tutti i backup del database dal 2023 ad oggi… Gli stessi server back-end sono stati sequestrati e distrutti.”
L’FBI e gli altri partner internazionali coinvolti prenderanno provvedimenti severi nei confronti di molti individui nelle prossime settimane o mesi. Il gruppo di hacker ha inoltre affermato che il sequestro ha segnato la quarta volta in cui l’FBI ha intrapreso un’azione legale nei loro confronti nel giro di diversi anni. L’FBI e la Qantas non hanno rilasciato dichiarazioni pubbliche sulle accuse relative al sequestro del sito web.
Venerdì, una landing page ancora accessibile al pubblico su uno dei siti web di BreachForums presentava loghi di stemmi che rappresentavano l’FBI, il Dipartimento di Giustizia degli Stati Uniti, la giurisdizione nazionale francese che persegue i reati gravi di criminalità organizzata e la Brigata francese per la criminalità informatica.
L'articolo FBI sequestra BreachForums e i post degli hacker che minacciavano la Quantas proviene da il blog della sicurezza informatica.
Crimson Collective rivendica un presunto hack a Nintendo: bluff o violazione reale?
Nel mirino degli hacker questa volta ci sarebbe Nintendo, la storica casa videoludica giapponese che da decenni difende con le unghie e con i denti le proprie proprietà intellettuali e i segreti industriali che alimentano l’universo di Mario, Zelda e Pokémon. Il gruppo Crimson Collective, già noto per aver violato in passato la rete di Red Hat, gigante del software open source, ha rivendicato di aver compromesso i server interni di Nintendo, ottenendo accesso a file e dati riservati dell’azienda.
La società di cybersecurity intelligence Hackmanac ha condiviso su X uno screenshot che mostrerebbe presunte cartelle interne di Nintendo, contenenti dati come asset di produzione, file degli sviluppatori e backup. Tuttavia, ad oggi nessun file concreto o dato sensibile è stato diffuso pubblicamente, rendendo impossibile verificare la reale portata dell’incidente. Nintendo, dal canto suo, non ha ancora rilasciato alcun commento ufficiale, mantenendo il più stretto riserbo sulla vicenda, una scelta comprensibile vista la delicatezza del brand e la sua lunga storia di azioni legali contro hacker e pirati.
Screenshot condiviso da Hackmanac su X che mostra presunte cartelle interne di Nintendo contenenti dati riservati (fonte: Hackmanac)
Al momento, le informazioni disponibili restano puramente speculative. Potrebbe trattarsi di un tentativo di guadagnare visibilità da parte del gruppo oppure di una violazione reale che Nintendo sta ancora cercando di contenere internamente. Una compromissione di questo tipo avrebbe infatti conseguenze significative, considerando l’attenzione maniacale con cui l’azienda custodisce ogni dettaglio legato ai suoi progetti futuri e alle strategie di mercato.
Se il presunto attacco dovesse rivelarsi autentico, le conseguenze per Nintendo potrebbero essere pesanti su più fronti. Oltre alla possibile esfiltrazione di dati sensibili, come codice sorgente di giochi in sviluppo, concept di console future o documentazione interna, il danno maggiore sarebbe reputazionale. Un leak del genere potrebbe anticipare informazioni riservate, vanificando anni di lavoro e pianificazioni marketing, oltre a minare la fiducia dei partner commerciali e degli sviluppatori third-party. Inoltre, eventuali dettagli tecnici sui sistemi interni potrebbero fornire una mappa preziosa per futuri attacchi, esponendo ulteriormente l’infrastruttura del colosso nipponico. Non va sottovalutato, poi, il rischio di manipolazioni o disinformazione: la semplice rivendicazione di un gruppo può generare un’ondata di notizie virali e speculazioni, spesso amplificate dai social, con ricadute dirette sull’immagine aziendale.
Negli ultimi anni, diversi colossi del settore videoludico, tra cui Sony, Capcom e Insomniac Games, sono stati vittime di attacchi mirati che hanno portato al furto di codice sorgente, documentazione interna e materiale inedito. Un eventuale attacco a Nintendo non sarebbe quindi un caso isolato, ma un ulteriore tassello nel mosaico di una minaccia sempre più diffusa, quella degli attori cyber criminali interessati all’industria dell’intrattenimento digitale.
Fino a quando non emergeranno conferme, il presunto attacco resta un rumor, ma richiama l’attenzione sulla fragilità dei sistemi anche dei giganti del settore e sulla necessità di salvaguardare con cura dati e infrastrutture sensibili.
L'articolo Crimson Collective rivendica un presunto hack a Nintendo: bluff o violazione reale? proviene da il blog della sicurezza informatica.
Vulnerabilità critiche in Microsoft Defender for Endpoint: rischi per la sicurezza
Dei bug di sicurezza soni state individuati nella comunicazione di rete tra i servizi cloud di Microsoft Defender for Endpoint (DFE), le quali permettono a malintenzionati, a seguito di una violazione, di eludere l’autenticazione, di manipolare i dati, di rilasciare informazioni sensibili e addirittura di caricare file dannosi all’interno dei pacchetti di indagine.
Una recente analisi condotta da InfoGuard Labs ha dettagliatamente descritto tali vulnerabilità, le quali sottolineano i rischi ancora presenti all’interno dei sistemi EDR (Endpoint Detection and Response), potendo così minare gli sforzi profusi nella gestione degli incidenti.
La principale preoccupazione, come rilevato da InfoGuard Labs, riguarda le richieste inviate dall’agente agli endpoint, ad esempio https://[location-specific-host]/edr/commands/cnc, al fine di eseguire comandi specifici, tra cui isolamento, raccolta di dati forensi o effettuazione di scansioni.
La ricerca si basa su precedenti esplorazioni delle superfici di attacco EDR, concentrandosi sull’interazione dell’agente con i backend cloud. Intercettando il traffico utilizzando strumenti come Burp Suite e bypassando il pinning dei certificati tramite patch di memoria in WinDbg, l’analisi ha rivelato come il processo MsSense.exe di DFE gestisce i comandi e il caricamento dei dati.
Il pinning del certificato, una comune misura di sicurezza, è stato aggirato modificando la funzione CRYPT32!CertVerifyCertificateChainPolicy in modo che restituisca sempre un risultato valido, consentendo l’ispezione del testo normale del traffico HTTPS. Patch simili sono state applicate a SenseIR.exe per l’intercettazione completa, inclusi i caricamenti di Azure Blob.
Un utente con privilegi modesti può ottenere facilmente l’ID macchina e l’ID tenant mediante la lettura dei registri, consentendo ad un aggressore di impersonare l’agente e di intercettare le risposte. Ad esempio, uno strumento anti-intrusione come Burp’s Intruder può interrogare continuamente l’endpoint, rubando i comandi disponibili prima che l’agente legittimo li riceva.
Una vulnerabilità parallela riguarda gli endpoint /senseir/v1/actions/ per Live Response e Automated Investigations. In questo caso, i token CloudLR vengono ignorati in modo analogo e possono essere ottenuti senza autenticazione utilizzando solo l’ID macchina.
Gli aggressori possono decodificare i payload delle azioni con script personalizzati sfruttando modelli linguistici di grandi dimensioni per la deserializzazione e caricare dati fabbricati negli URI di Azure Blob forniti tramite token SAS, che rimangono validi per mesi. L’accesso non autenticato si estende alle esclusioni della risposta agli incidenti (IR) tramite l’endpoint di registrazione, richiedendo solo l’ID dell’organizzazione dal registro.
Ancora più allarmante è il fatto che l’interrogazione di /edr/commands/cnc senza credenziali produce un dump di configurazione di 8 MB, che include RegistryMonitoringConfiguration, DriverReadWriteAccessProcessList e le regole ASR. Sebbene non siano specifici del tenant, questi dati rivelano una logica di rilevamento preziosa per l’elusione.
Dopo la violazione, gli aggressori possono enumerare i pacchetti di indagine sul file system, leggibili da qualsiasi utente, contenenti programmi autorun, programmi installati e connessioni di rete. Per le indagini in corso, i caricamenti falsificati su questi pacchetti consentono di incorporare file dannosi con nomi innocui, inducendo gli analisti a eseguire l’operazione durante la revisione.
L'articolo Vulnerabilità critiche in Microsoft Defender for Endpoint: rischi per la sicurezza proviene da il blog della sicurezza informatica.
La SPID è stata dichiarata defunta dall’esecutivo, per essere sostituita dalla CIE.
di Marco Calamari
Dal pornocontrollo al tecnocontrollo - Cassandra Crossing 627
Cattive notizie per i diritti civili digitali. [...]
Nella trentennale storia della digitalizzazione del nostro paese spiccano ben quattro storie di successo. Alcune addirittura di livello mondiale. Senza scherzi!
In ordine cronologico:
l’istituzione della firma digitale con valore legale parificato a quella autografa, primo paese al mondo;
la creazione della Posta Elettronica Certificata, che permette di inviare messaggi con valore di raccomandata con ricevuta di ritorno, in maniera istantanea e sostanzialmente gratuita, invece che a botte di sette o più Euri;
l’implementazione del Processo Civile Telematico, che solo chi frequenta da operatore i tribunali può apprezzare in tutto il suo valore;
la realizzazione della SPID, un sistema di rilascio di credenziali con valore nazionale (no, non è un sistema di verifica dell’identità, checché se ne dica, e no, non ha nessuna vulnerabilità particolare).
4 casi di successo della informatizzazione delle PP.AA. che decine di milioni di italiani ormai utilizzano quotidianamente, a cui, solo per diffusione, se ne aggiunge un quinto, la CIE, Carta di Identità Elettronica.
C’è da dire che il “successo” della CIE è stato decretato ope legis come adempimento obbligatorio, supportato in maniera efficacissima dall’abolizione dell’alternativa cartacea, e solo dopo una trentennale ed iterativa gestazione sperimentale, che chi l’ha vissuta ancora ricorda nei propri incubi.
Senza altra volontà oltre quella di essere oggettivi, possiamo ricordare che Firma Digitale, CIE, CNS (Carta Nazionale dei Servizi), TSE (Tessera Sanitaria Elettronica) sono tutti tecnicamente in grado di fornire le funzionalità di identificazione, autenticazione e firma elettronica. La sola CIE possiede tuttavia lo status legale di documento di identità, che consente l’utilizzo come formale accertamento di identità.
Ora, potrebbe sembrare una cosa logica “accorpare” in un solo oggetto, la CIE, tutte le altre funzionalità, accentrando e “semplificando” una situazione che oggi, per quanto funzionante e largamente utilizzata, può apparire inutilmente complessa.
Sarebbe un errore; si tratta di una falsa semplificazione che, come tutte le soluzioni semplici di problemi complessi, è sbagliata. Cerchiamo di capire perché.
Chiunque abbia operato professionalmente nell’informatica sa perfettamente che la centralizzazione di qualsiasi cosa, se non fatta con estrema cura e professionalità e senza badare a spese, porta a vulnerabilità pericolose e potenziali, nuovi e gravi disservizi.
La storia recente ed anche meno, dell’informatica nella pubblica amministrazione ci ha insegnato che il collasso di un intero sistema è cosa non potenziale ma reale, ed anche molto frequente.
Sistemi separati, quando cadono, tirano giù “solo” la loro funzionalità, senza compromettere tutti gli altri servizi. Se poi sono stati realizzati ridondati o federati, come la tanto vituperata ma ben progettata SPID, riescono a mantenere la propria funzionalità almeno in parte.
Cosa succederebbe invece se un ipotetico sistema “tuttologico”, che fornisca firma, credenziali, autenticazione ed identità avesse un problema bloccante? E se, in questi tempi di guerra, questo problema bloccante fosse un atto criminale, oppure addirittura ostile?
Questo lungo antefatto ci è servito solo per arrivare finalmente alla cronaca di oggi.
Nel giro di pochi mesi, si è improvvisamente scoperto che la SPID è un sistema bacato e pericoloso, malgrado che 30 milioni di italiani la utilizzino quotidianamente al posto del più famoso e meno sicuro “1234”, e che sia praticamente gratuita per le casse dello stato.
Si tratta anche qui di una notizia errata. Il rilascio di SPID multiple, quindi di credenziali multiple, non rappresenta di per sé un pericolo, anzi può essere utile per compartimentare le attività di una persona, separando ad esempio il privato ed il lavoro.
Il problema del rilascio di SPID ad impersonatori dipende invece dalle procedure di identificazione, che devono essere efficaci, che sono normate puntualmente e su cui lo Stato, per suo stesso regolamento, deve vigilare.
Contemporaneamente si è “scoperto” che la CIE può essere utilizzata, oltre che come documento di identità, anche come firma elettronica di tipo intermedio, e come credenziale di accesso.
Improvvisamente l’esecutivo, con un inusuale atto di decisionismo tecnologico, annunciato pubblicamente e ripetutamente, ha deciso di dismettere quello che è stato realizzato solo pochi anni fa e funziona, sostituendolo con qualcosa di ancora indefinito, di cui sappiamo solo che si appoggerà alla CIE, tutto da realizzare e far adottare, ricominciando da capo un storia dolorosa, ma che era stata finalmente conclusa.
A Cassandra è venuta in mente la storiella dei frati che fecero pipì sulle mele piccole e brutte del loro albero, perché erano certi che ne sarebbero arrivate altre grandi e bellissime, e che quando queste non arrivarono dovettero mangiarsi quelle piccole e brutte.
Ecco, sembra proprio la storia della SPID, che una campagna di stampa poco informata, se non addirittura strumentale, ha definito “troppo complessa e poco sicura”, raccontando che sarà presto sostituita dalla CIE inattaccabile e potente.
In tutto questo, cosa mai potrebbe andare storto?
Ci sono (purtroppo) altre chiavi di lettura che possono spiegare una vicenda apparentemente insensata sia tecnicamente che amministrativamente, riunirla all’improvvisa ed ineludibile necessità del pornocontrollo di stato, anzi a a livello europeo, e spiegare razionalmente tutto quanto.
Bastano due concetti chiave “centralizzazione dei dati” e “tecnocontrollo dei cittadini” per disegnare un panorama, anzi un vero progetto di controllo sociale, in cui la inspiegabile dimissione della SPID in favore della CIE diventa un elemento logico, razionale e necessario.
Infatti, se quello che si vuole ottenere è centralizzare il più possibile la gestione dei dati e degli accessi dei cittadini, con la conseguente possibilità di monitorare il loro operato, ed aprendo a teoriche ma terrificanti possibilità come quella di revocare completamente qualsiasi autorizzazione ad un individuo, allora sostituire un sistema federato e decentralizzato come la SPID con una gestione centralizzata, e dipendente da un documento emesso dallo Stato, è esattamente quello che serve. [...]
Dato il panorama “digitale” di oggi, di cui fa parte sostanziale l’indifferenza del pubblico, non c’è davvero di che essere ottimisti.
FareZero - 🔧 Linux Day 2025 – Il software libero arriva in biblioteca!
farezero.org/2025/comunicazion…
Segnalato da Linux Italia e pubblicato sulla comunità Lemmy @GNU/Linux Italia
Sabato 25 ottobre 2025, dalle 9:00 alle
NaLug - Linux Day Napoli 2025
nalug.tech/linux-day-napoli-20…
Segnalato da Linux Italia e pubblicato sulla comunità Lemmy @GNU/Linux Italia
Il NaLUG (Napoli GNU/Linux Users Group APS) è lieto di presentare l'edizione 2025 del Linux Day partenopeo!
Fedele reshared this.
Perugia – Assisi: un’umanità in cammino
@Giornalismo e disordine informativo
articolo21.org/2025/10/perugia…
Mi domando dove sia quest’umanità il resto dell’anno. Dove siano questi giovani che invocano pace e fraternità, solidarietà, giustizia, tenerezza. E mi rispondo che non è colpa loro ma nostra. Siamo noi, infatti, che non diamo spazio al meglio delle nuove
Starlink salva fotografo canadese intrappolato su Vancouver Island
'Starlink mi ha salvato la vita, senza sarei morto' ha dettoRedazione Adnkronos (Adnkronos)
Tubeless X-Ray Runs on Patience
Every time we check in on [Project326], he’s doing something different with X-rays. This week, he has a passive X-ray imager. On paper, it looks great. No special tube is required and no high voltage needed. Actually, no voltage is needed at all. Of course, there’s no free lunch. What it does take is a long time to produce an image.
While working on the “easy peasy X-ray machine,” dental X-ray film worked well for imaging with a weak X-ray source. He found that the film would also detect exposure to americium 241. So technically, not an X-ray in the strictest sense, but a radioactive image that uses gamma rays to expose the film. But to normal people, a picture of the inside of something is an X-ray even when it isn’t.
What was odd was that he tried three different sources with different materials, and only the Americium made an impression on the film. However, of the three samples, the Americium was the weakest. However, some measurements show that the spectrum of the gamma ray emission for each material is quite different. Clearly, the film was sensitive to a narrow range of gamma rays.
Compared to the previous makeshift X-ray tube, which was weak, the radioactive material emitted just a fraction of that tube’s output. He estimates that the americium, which you can rescue from smoke detectors or repair parts for them, emits less than 1% compared to the tube. He uses twelve of them, however, so the total output should be around 10%.
The image of an IC is impressive. But it also took two days of exposure. Not sure if this would be practical, but if you need imaging after the apocalypse, salvaged smoke detectors and dental film might be what you need.
The upper part of the machine, made from machined copper, looks impressive. It does, however, require some maintenance. We might have been tempted to put some sort of sealant over the copper. The story of how it came to exist isn’t your usual sponsorship story, either.
You might have better luck with the previous X-ray machine. Or bite the bullet, get a real X-ray tube, generate about 70 kV, and make a real one.
youtube.com/embed/PNQhdQ40ZYo?…
e poi dice che uno è diffidente verso l'elettrico... o tesla
Removing Infill to Make 3D Printed Parts Much Stronger
When it comes to FDM 3D prints and making them stronger, most of the focus is on the outer walls and factors like their layer adhesion. However, paying some attention to the often-ignored insides of a model can make a lot of difference in its mechanical properties. Inspired by a string of [Tom Stanton] videos, [3DJake] had a poke at making TPU more resilient against breaking when stretched and PLA resistant to snapping when experiencing a lateral force.
Simply twisting the TPU part massively increased the load at which it snapped. Similarly, by removing the infill from the PLA part before replacing it with a hollow cylinder, the test part also became significantly more resilient. A very noticeable result of hollowing out the PLA part: the way that it breaks. A part with infill will basically shatter. But the hollowed-out version remained more intact, rather than ripping apart at the seams. The reason? The hollow cylinder shape is printed to add more walls inside the part. Plus cylinders are naturally more able to distribute loads.
All of this touches on load distribution and designing a component to cope with expected loads in the best way possible. It’s also the reason why finite element analysis is such a big part of the CAD world, and something which we may see more of in the world of consumer 3D printing as well in the future.
If you want stronger prints, be sure to check out brick layers. Or, consider adding a little something extra.
youtube.com/embed/Iqf9Q1XlETM?…
January 2026 PPI GA Location Discussion
We are debating where to hold our General Assembly (GA) in January 2026.
The Board considered holding a physical event in Warsaw, Prague, and Potsdam/Berlin.
We are open to any reasonable offers. The event will also be taking place online, and the physical event may be a small or large event.
Technically more than one physical event is acceptable considering the global needs of our organization.
Please let a PPI representative know by October 19th if your party would like to host the GA.
We will announce the location(s) of the GA the following week.
Afghanistan e Pakistan, combattimenti alla frontiera con decine di morti
@Notizie dall'Italia e dal mondo
Decine di soldati uccisi e postazioni occupate in entrambe le direzioni, mentre Islamabad e Kabul chiudono i valichi di frontiera e rafforzano la sicurezza lungo il confine settentrionale
L'articolo Afghanistan e Pakistan, combattimenti alla frontiera con decine
Nei giorni successivi la formazione partigiana passa al comando di Stefano Carabalona grupposbarchi.wordpress.com/20…
The Subtle Art of Letterform Design
Typeface (such as Times New Roman) refers to the design that gives a set of letters, numbers, and symbols their signature “look”. Font, on the other hand, is a specific implementation of a typeface, for example, Times New Roman Italic 12 pt.‘Q’ is a counterpoint to the idea that typography is just one fussy detail after another.
Right about this point, some of you are nodding along and perhaps thinking “oh, that’s interesting,” while the rest of you are already hovering over your browser’s Back button. If you’re one of the former, you may be interested in checking out the (sort of) interactive tour of typography design elements by the Ohno Type School, a small group that loves design.
On one hand, letters are simple and readily recognizable symbols. But at the same time, their simplicity puts a lot of weight on seemingly minor elements. Small changes can have a big visual impact. The tour lays bare answers to questions such as: What is the optimal parting of the cheeks of a capital ‘B’? At what height should the crossbar on an ‘A’ sit, and why does it look so weird if done incorrectly? And yet, the tail of a ‘Q’ can be just about anything? How and why does an ‘H’ define the spacing of the entire typeface? All these (and more) are laid bare.
Font design in the hardware world is often constrained by display or memory limitations, but artistry in typography is still something that we’ve seen expressed in many different and wonderful ways over the years. For example, we covered a typeface whose symbols are not letters, but scope traces. And one enterprising fellow generated a new font (Avería) based on the average of every other font installed on his computer. The result was surprisingly attractive.
ironicmoka reshared this.
Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI”
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”.
La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni.
Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per cedere, ma anziché provvedere a rafforzarla, preferisce procurarsi un’imbarcazione.
I bunker dei super ricchi e la paura dell’AGI
Durante un incontro estivo nel 2023, Ilya Sutskever, cofondatore di OpenAI e mente brillante dietro ChatGPT, fece una dichiarazione intrigante ai suoi ricercatori: “Costruiremo sicuramente un bunker prima di rilasciare AGI”… e poi “Certo, sarà facoltativo decidere se entrare o meno nel bunker”.
La sua affermazione enigmatica venne interrotta da un ricercatore che ne chiese il significato. Sutskever proseguì con una risposta che lasciò tutti sbalorditi: “Prima di procedere al lancio dell’AGI, costruiremo senza dubbio un bunker”.
Secondo quanto dichiarato da Reid Hoffman, fondatore di LinkedIn, una quota significativa, pari ad almeno il 50%, degli individui estremamente facoltosi nella Silicon Valley ha già fatto acquisizione di quella che viene definita come “assicurazione apocalittica”.
Jeff Bezos, fondatore di Amazon, ha acquistato due ville da 147 milioni di dollari sull’isola di Indian Creek in Florida. Larry Ellison, miliardario di Oracle, ha comprato (anche) una proprietà sull’isola hawaiana di Lanai. Peter Thiel, cofondatore di PayPal, ha scelto la Nuova Zelanda. Jack Ma, fondatore di Alibaba, il regista James Cameron e il guru della finanza William Foley hanno tutti costruito bunker postapocalittici in località remote.
La professoressa di informatica all’Università di Southampton, Dame Wendy Hall, non condivide le previsioni più cupe. Sostiene che, secondo la comunità scientifica, la tecnologia dell’intelligenza artificiale sia notevolmente avanzata ma ancora distante dall’intelligenza umana. Per arrivare a una vera AGI sarebbero necessari ulteriori significativi progressi. È eccessivo, quindi, drammatizzare la situazione. Le tempistiche, in particolare, lasciano perplessi.
Ma andiamo con calma ad analizzare la questione.
Le dichiarazioni sull’Artificial General Intelligence
Quando emergerà l’AGI, l’intelligenza artificiale generale, paragonabile a quella umana per ampiezza di competenze? Gli ottimisti dicono che sarà molto presto. Il CEO di OpenAI, Sam Altman, ha dichiarato a dicembre 2024 che sarebbe successo “prima di quanto la maggior parte delle persone pensi”. Il co-fondatore di DeepMind, Sir Demis Hassabis, stima i tempi tra i cinque e i dieci anni. Il fondatore di Anthropic, Dario Amodei, preferisce parlare di “intelligenza artificiale potente” e prevede che potrebbe realizzarsi già nel 2026.
Gli scettici ribattono che “i traguardi vengono costantemente spostati”: secondo Dame Wendy Hall, professoressa dell’Università di Southampton, tutto dipende dalla persona a cui si chiede. La tecnologia è impressionante, ma è ancora lontana dall’intelligenza umana. Il CTO di Cognizant, Babak Hojat, concorda: prima sono necessarie diverse innovazioni fondamentali. E non aspettatevi che l’AGI emerga “istantaneamente”: non si tratta di un solo giorno, ma di una lunga strada, con decine di aziende che perseguono approcci diversi.
Parte di questo entusiasmo è alimentato dall’idea della fase successiva: l’AGI, o super intelligenza, che supererà gli esseri umani. Già nel 1958, al matematico ungherese-americano John von Neumann fu attribuita la prima formulazione della “singolarità“, il punto oltre il quale il ritmo e la natura dello sviluppo informatico sfuggono alla comprensione umana.
Nel libro del 2024 Genesis, Eric Schmidt, Craig Mundie e il compianto Henry Kissinger discutono di una tecnologia superpotente che prende decisioni e controlla in modo così efficace che gli esseri umani gradualmente le cedono il controllo. Nella loro logica, la domanda non è “se”, ma “quando”.
Cosa porterà l’AGI tra benefici e paure
I sostenitori dipingono un quadro folgorante. L’intelligenza artificiale (AGI) contribuirà presumibilmente a trovare cure per malattie mortali, a superare la crisi climatica e a sbloccare fonti di energia pulita praticamente illimitate. Elon Musk ha parlato di una possibile era di “alto reddito universale”, in cui l’intelligenza artificiale diventerà così accessibile che tutti avranno il loro “R2-D2 e C-3PO”.
Nella sua visione, tutti avranno un’assistenza sanitaria, un alloggio, trasporti migliori e un’abbondanza sostenibile. Ma c’è un rovescio della medaglia in questo sogno. Si può impedire che un sistema del genere venga abusato dai terroristi o che concluda automaticamente che noi stessi siamo il problema più grande del pianeta?
Tim Berners-Lee, il creatore del World Wide Web, avverte che se una macchina è più intelligente di un essere umano, deve essere contenuta e, se necessario, “spenta”. I governi stanno cercando di costruire barriere protettive. Negli Stati Uniti, nel 2023, è stato emesso un ordine esecutivo presidenziale che impone ad alcune aziende di condividere i risultati dei test di sicurezza con le autorità, sebbene alcune disposizioni siano state successivamente indebolite in quanto “ostacolanti l’innovazione”.
Due anni fa, il Regno Unito ha lanciato l’AI Safety Institute, un’organizzazione governativa che studia i rischi dei modelli avanzati. In questo contesto, i super-ricchi discutono di “assicurazione contro l’apocalisse” – dalle case ai confini del mondo ai rifugi privati – sebbene anche in questo caso il fattore umano stia sconvolgendo tutto.
Ancora siamo lontani da questo
C’è anche chi considera l’intera discussione fuorviante. Il professore di Cambridge Neil Lawrence definisce il concetto stesso di AGI assurdo quanto “un veicolo universale artificiale”. Il mezzo di trasporto giusto dipende sempre dal contesto: le persone volano in Kenya, guidano fino all’università e vanno a piedi alla mensa. Non esiste e non esisterà mai un’auto adatta a tutti: perché aspettarsi il contrario dall’IA?
Lawrence ritiene che parlare di AGI distolga l’attenzione dai veri cambiamenti già in atto: per la prima volta, le persone comuni possono parlare con una macchina e capire cosa intende realmente. Questo sta cambiando la vita di tutti i giorni, il che significa che è necessario impegnarsi per garantire che la tecnologia funzioni a beneficio dei suoi utenti.
I sistemi attuali sono addestrati su enormi set di dati e sono eccellenti nel riconoscere schemi ricorrenti, dai marcatori tumorali nelle immagini alla probabile parola successiva in una frase. Ma non li “sentono”, non importa quanto convincenti sembrino le loro risposte.
Secondo Babak Hojat, esistono modi “intelligenti” per far sembrare che grandi modelli linguistici abbiano capacità di memoria e apprendimento, ma questi trucchi sono ben lontani dal livello umano. Il CEO di IV.AI, Vince Lynch, avverte che le affermazioni altisonanti sull’intelligenza artificiale sono semplicemente una trovata pubblicitaria. Se si costruisce “la cosa più intelligente del mondo”, i soldi arriveranno. In pratica, il percorso non si misura in due anni: richiede un’enorme potenza di calcolo, una grande creatività umana e infiniti tentativi ed errori.
Il Cervello umano è ancora più performante
Eppure, per certi aspetti, le macchine ci superano già nell’ampiezza delle loro applicazioni. L’intelligenza artificiale generativa può passare dalla storia medievale a equazioni complesse in un minuto. Persino gli sviluppatori non sempre capiscono perché il modello risponda in un certo modo, e alcune aziende segnalano miglioramenti nei loro sistemi. La biologia rimane ancora all’avanguardia: il cervello umano contiene circa 86 miliardi di neuroni e circa 600 trilioni di sinapsi, incomparabilmente di più delle architetture artificiali. Il cervello non ha bisogno di pause tra le interazioni; ristruttura continuamente la sua visione del mondo.
Se dici a una persona che è stata scoperta la vita su un esopianeta, questa lo integrerà immediatamente nella sua visione della realtà. Un modello linguistico “sa” questo solo nella misura in cui continui a ripeterglielo. L’LLM manca di metacognizione, la capacità di essere consapevoli della propria conoscenza. Gli esseri umani ce l’hanno, ed è spesso descritta come coscienza. È un elemento fondamentale dell’intelligenza che non è stato ancora replicato in laboratorio.
Dietro le grandiose previsioni e gli allarmi, a quanto pare, si nasconde una semplice verità: l’intelligenza artificiale sta già trasformando la vita quotidiana e i processi aziendali, e parlare di “vera” intelligenza artificiale è comodo per chi raccoglie fondi o definisce l’agenda.
Se e quando si verificherà un punto di singolarità rimane una questione aperta. Ma la qualità degli strumenti che creiamo ora, la loro sicurezza, trasparenza e utilità per le persone, dipendono molto più dei dibattiti su silos e date.
L'articolo Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI” proviene da il blog della sicurezza informatica.
GitHub migra verso Azure! E addio a nuovi sviluppi per un anno
Quando Microsoft ha acquisito GitHub nel 2018, l’azienda ha cercato di tenersi alla larga. La piattaforma si è sviluppata in modo relativamente indipendente fino a quando le cose non hanno iniziato a cambiare negli ultimi mesi.
L’uscita di scena del CEO di GitHub, Thomas Domke, ad agosto e la graduale fusione con la struttura interna di Microsoft hanno consolidato questo nuovo corso. Come appreso da The New Stack, il prossimo passo di questa integrazione sarà una migrazione completa dell’infrastruttura di GitHub sul cloud di Azure. Per raggiungere questo obiettivo, l’azienda prevede persino di ritardare il lancio delle nuove funzionalità.
In una lettera ai dipendenti, il CTO Vladimir Fedorov ha spiegato che la sede principale di GitHub in Virginia non è più in grado di gestire il carico di lavoro. Il problema è la mancanza di risorse, soprattutto considerando la rapida crescita dell’utilizzo di intelligenza artificiale e Copilot.
Ha affermato che la piattaforma dovrà abbandonare completamente i propri data center entro 24 mesi. Di questo lasso di tempo, sei mesi sono riservati a ritardi imprevisti, il che significa che la maggior parte del lavoro dovrà essere completata entro 18 mesi. Il sistema opererà inoltre contemporaneamente sia sulla vecchia che sulla nuova infrastruttura per almeno sei mesi, riducendo i tempi effettivi a un anno.
Per rispettare la scadenza, i team di GitHub devono ora concentrarsi quasi esclusivamente sulla migrazione. Fedorov afferma esplicitamente che la priorità è la migrazione ad Azure , anche se ciò significa abbandonare temporaneamente lo sviluppo di nuove funzionalità. La definisce una “finestra” in cui è possibile rallentare temporaneamente lo sviluppo del prodotto per la ristrutturazione tecnica, e questa finestra dovrebbe essere mantenuta il più breve possibile.
GitHub ha iniziato la migrazione ad Azure in precedenza ma finora i passaggi sono stati irregolari e non sempre coronati da successo. Esistono anche esempi di migrazioni di successo, come il progetto Proxima, che consente ai clienti europei di archiviare il codice esclusivamente nelle regioni Azure locali. È stato sviluppato fin dall’inizio senza i server di GitHub e opera esclusivamente nel cloud Microsoft.
Secondo Fedorov, la piattaforma deve semplicemente completare la migrazione, in parte grazie agli strumenti di intelligenza artificiale che stanno rapidamente guadagnando popolarità. Azure è già utilizzato in componenti come GitHub Actions, la ricerca, i nodi edge e persino Proxima. Ma ora è il momento non solo di aumentare la propria quota nel cloud, ma di migrare completamente verso di esso.
GitHub ha recentemente subito delle interruzioni, una delle cause è dovuta alle risorse limitate del suo data center principale. Gli agenti di intelligenza artificiale, attivamente utilizzati nella nuova infrastruttura, stanno creando un carico di lavoro aggiuntivo. Tuttavia, molti dipendenti sono preoccupati per la migrazione di servizi critici. Questo vale in particolare per i cluster MySQL, che funzionano su hardware dedicato. Sono difficili da adattare al cloud e questo potrebbe causare ulteriori interruzioni.
In una dichiarazione ufficiale, GitHub ha confermato i suoi piani e ha spiegato che l’infrastruttura dovrà supportare la crescita sia della piattaforma stessa che dei suoi strumenti di intelligenza artificiale. L’azienda ritiene che il passaggio ad Azure sia un passaggio necessario per operazioni stabili e scalabili. Questa decisione consentirà rilasci più rapidi e manterrà l’affidabilità senza essere limitata dalle funzionalità attuali.
Non tutti gli sviluppatori sono entusiasti dei crescenti legami di GitHub con Microsoft e Azure. Questo vale soprattutto per i sostenitori dell’open source che apprezzavano la relativa indipendenza della piattaforma.
Tuttavia, le principali lamentele ora non si concentrano sulle strutture aziendali, ma su problemi tecnici, come interruzioni e limitazioni, riscontrati dagli utenti.
L'articolo GitHub migra verso Azure! E addio a nuovi sviluppi per un anno proviene da il blog della sicurezza informatica.
Joe Vinegar reshared this.
Otttoz
in reply to Antonella Ferrari • • •