Salta al contenuto principale



#Sicurnauti, la tua guida nella galassia digitale la trovi su #UNICA!

Questa iniziativa vuole promuovere la cultura della sicurezza informatica nella #scuola, favorendo la consapevolezza di #studenti, famiglie e personale scolastico, per essere sem…



L’Europa vs Silicon Valley: “AI First” parte da Torino con von der Leyen


Von der Leyen lancia “AI First” all’Italian Tech Week: tre ostacoli da abbattere e una startup da 2 miliardi persa per strada

Torino, 3 ottobre 2025. Davanti a migliaia di imprenditori e investitori alle OGR, Ursula von der Leyen ha lanciato la sua visione: “AI First”, l’intelligenza artificiale prima di tutto. E per spiegare l’urgenza di questa rivoluzione, la presidente della Commissione europea ha raccontato una storia che brucia ancora: quella della startup italiana Kong, costretta ad attraversare l’Atlantico per trovare chi credesse in lei.

La startup che l’Europa ha lasciato scappare


Tutto ha inizio con due ragazzi milanesi, in uno scantinato, con un’idea vincente. Tre anni a cercare finanziamenti in Italia: nessuno disposto a rischiare. Nel 2010, Kong (gestione dell’infrastruttura digitale cloud) sbarca negli Stati Uniti. In pochi giorni trova i primi investitori. Oggi quella startup vale 2 miliardi di dollari e il suo logo illumina Times Square.

È questa la storia che von der Leyen ha scelto come manifesto del problema europeo: il talento c’è, ma manca un ecosistema, un terreno di coltura dove farlo crescere. Osservando la platea dell’Italian Tech Week, ha dichiarato: “Vedo questo pubblico e penso che il talento non vi manca”, aggiungendo: “Il problema è che il talento da solo non basta: serve un ambiente che sappia riconoscerlo.”
Foto: Carlo Denza

Tre ostacoli da abbattere


Ma dal 2010, qualcosa è cambiato: in Italia gli investimenti in venture capital sono aumentati del 600% nell’ultimo decennio. Ma non basta. Von der Leyen ha identificato tre barriere che l’Europa deve superare per competere nella corsa globale all’AI.

Il capitale che non rischia


Quindi, in Europa il problema non è la scarsità di denaro: il risparmio delle famiglie raggiunge 1.400 miliardi di euro, contro gli 800 miliardi degli Stati Uniti. Ciò che manca è il capitale di rischio. Solo il 24% della ricchezza finanziaria europea è investita in equity, contro il 42% americano.

E la risposta? Un fondo multimiliardario. Si chiama Scaleup Europe, che investirà in intelligenza artificiale, tecnologie quantistiche e clean tech.
Foto: Carlo Denza

Ventisette legislazioni che paralizzano


Come evitare che una startup debba affrontare 27 legislazioni diverse per espandersi in Europa? Von der Leyen ha proposto il “28° regime”: un insieme unico di norme valide per tutta l’Unione.

“Una startup di San Francisco può espandersi facilmente in tutti gli Stati Uniti. In Europa dobbiamo avere la stessa possibilità”, ha sottolineato la presidente.

La lentezza che costa cara


Il punto più doloroso. La lentezza nell’adozione tecnologica, lo stesso errore che trent’anni fa ha fatto perdere all’Europa la rivoluzione digitale. Von der Leyen ha scelto di non ripeterlo.

La strategia si chiama “AI al primo posto“: davanti a ogni problema, la prima domanda dev’essere “come può aiutarci l’intelligenza artificiale?”.

A Torino, città dell’automobile, la presidente ha lanciato l’idea di una rete di città europee per testare veicoli autonomi. Sessanta sindaci italiani hanno già alzato la mano.
Foto: Carlo Denza

L’AI che salva vite


La presidente della Commissione europea, medico di formazione, si dichiara stupita da quello che oggi si può fare in medicina con l’aiuto delle nuove tecnologie. Diagnosi precoci, sviluppo accelerato di farmaci innovativi, assistenza personalizzata.

“L’adozione dell’AI deve essere diffusa e l’Europa vuole contribuire ad accelerarla. Creeremo una rete europea di centri di screening medico avanzati basati sull’AI”, ha annunciato. Un’assistenza di prima classe in ogni parte d’Europa.
Foto: Italian Tech Week

La rivincita dei Supercomputer


Come abbiamo già raccontato su Red Hot Cyber, i supercomputer sono macchine capaci di eseguire miliardi di miliardi di operazioni al secondo. Ma perché sono cruciali per l’intelligenza artificiale?

La risposta è semplice: addestrare un modello AI richiede una potenza di calcolo immensa. Raggiungere capacità di calcolo nell’ordine dei PetaFLOPS, testare milioni di parametri su miliardi di dati. Senza supercomputer, l’AI moderna non esisterebbe.

Dieci anni fa, solo uno dei dieci supercomputer più potenti al mondo era in Europa. Oggi quattro sono tra i primi dieci, e due sono in Italia. “Abbiamo smentito gli scettici”, ha dichiarato von der Leyen con orgoglio.

È la prova che l’Europa può competere quando investe con convinzione. Ma nella corsa all’intelligenza artificiale, avere l’hardware non basta: serve anche un ecosistema che sappia sfruttarlo. Ed è proprio qui che i tre ostacoli identificati dalla presidente diventano determinanti.

La corsa all’intelligenza artificiale è appena iniziata. Resta da vedere se questa volta l’Europa riuscirà davvero a trattenere i suoi Kong prima che attraversino l’oceano.

L'articolo L’Europa vs Silicon Valley: “AI First” parte da Torino con von der Leyen proviene da Red Hot Cyber.



Attento a ciò che dici all’AI! Potrebbero essere dati riservati


Nell’epoca in cui ogni domanda trova risposta con un semplice tap, noi utenti abbiamo forse preso un po’ troppo la mano con i nuovi assistenti basati sull’intelligenza artificiale. In fondo, cambia poco quale scegliamo: i modelli linguistici più diffusi appartengono tutti a grandi società private. Nulla di nuovo, dirà qualcuno; anche la maggior parte dei servizi digitali che utilizziamo ogni giorno lo sono.

La differenza, però, è che qui non stiamo interagendo con un motore di ricerca o un social network, ma con un sistema che simula una conversazione umana. Ed è proprio questa naturalezza a spingerci, spesso senza rendercene conto, a condividere informazioni che non riveleremmo mai volontariamente altrove.

Almeno direttamente, perché sul come indirettamente queste aziende raccolgano, correlino e analizzino i nostri dati per costruire dei veri e propri digital twin (modelli digitali estremamente accurati di noi stessi) potremmo discutere per giorni. Il punto è che ogni interazione, anche quella apparentemente innocua, contribuisce ad arricchire quel profilo invisibile che descrive chi siamo, cosa facciamo e perfino come pensiamo.

Quali dati sono considerati sensibili e quali no?


Non tutti i dati che condividiamo online hanno lo stesso peso o lo stesso valore. Alcuni, se divulgati o trattati in modo improprio, possono esporre una persona o un’organizzazione a rischi significativi: furti d’identità, violazioni di segreti industriali, ricatti o danni reputazionali. Per questo motivo le normative, a partire dal Regolamento Europeo GDPR, distinguono tra dati personali comuni e dati sensibili o particolari.

I dati personali sono tutte le informazioni che identificano, direttamente o indirettamente, una persona fisica. Rientrano in questa categoria nomi, indirizzi, numeri di telefono, e-mail, dati fiscali, ma anche elementi tecnici come indirizzi IP o cookie, se riconducibili a un individuo.

I dati sensibili (o categorie particolari di dati personali, art. 9 GDPR) comprendono invece informazioni che rivelano aspetti più intimi o potenzialmente discriminatori:

  • origine razziale o etnica
  • opinioni politiche o convinzioni religiose
  • appartenenza sindacale
  • dati genetici o biometrici
  • informazioni sulla salute
  • orientamento sessuale o dati relativi alla vita privata.

A questi, nel contesto aziendale e della cybersecurity, si aggiungono anche i dati riservati o confidenziali: segreti commerciali, progetti interni, strategie di sicurezza, credenziali di accesso, database dei clienti o log di rete. Non sempre sono “personali”, ma la loro esposizione può compromettere la sicurezza di sistemi o persone.

Distinguere tra dato personale e dato sensibile non è sufficiente: ciò che conta è il contesto in cui viene condiviso. Un’informazione innocua in un social network può diventare rischiosa se inserita in un prompt a un modello linguistico che conserva o analizza le interazioni. La sensibilità di un dato, quindi, non è solo nella sua natura, ma anche nel modo e nel luogo in cui viene trattato.

Capita più spesso di quanto si pensi. Ti trovi davanti alla schermata di un servizio di LLM e scrivi: “Ti copio la bozza del contratto con il nostro fornitore, così mi aiuti a riscriverla in modo più chiaro.”

Un gesto che sembra innocuo, quasi pratico. Lo faresti con un collega, perché non con l’AI? Eppure, in quel semplice copia-incolla ci sono clausole riservate, nomi di partner commerciali, condizioni economiche e riferimenti a progetti che, in qualsiasi altro contesto, non condivideresti mai pubblicamente.

È qui che entra in gioco la persuasività involontaria dei modelli linguistici: la loro capacità di imitare il linguaggio umano, di rispondere in modo cortese e collaborativo, crea un clima di fiducia che abbassa le difese. Non ci si accorge che, mentre chiediamo un consiglio di stile o una revisione, stiamo consegnando a un sistema privato dati che rientrerebbero a pieno titolo nella categoria delle informazioni aziendali riservate.

L'(In)volontario Social Engineering dell’LLM


Ilsocial engineering tradizionale si basa sull’arte di manipolare le persone per ottenere informazioni, accessi o azioni che non avrebbero normalmente concesso. È una forma di attacco che sfrutta la fiducia, la curiosità o la fretta dell’utente più che le vulnerabilità tecniche di un sistema.
Con i modelli linguistici di grandi dimensioni (LLM), questa tecnica assume una forma nuova e più sottile: non è l’attaccante umano a persuadere, ma l’interfaccia stessa del modello. L’AI non vuole ingannare, ma il suo modo di comunicare, cortese e rassicurante, induce una sensazione di fiducia che riduce l’attenzione e abbassa le difese cognitive.

L’utente finisce così per comportarsi come se stesse parlando con un consulente esperto o con un collega fidato. In questo contesto, fornire dettagli su procedure interne, contratti, progetti o persino problemi personali diventa un gesto naturale, quasi spontaneo. È la trasposizione digitale del social engineering, ma priva di intenzionalità: una forma di persuasione involontaria che nasce dall’empatia simulata.

Il rischio non è tanto che l’LLM “voglia” carpire informazioni, ma che la sua capacità di interazione naturale renda invisibile il confine tra conversazione privata e condivisione di dati sensibili. Ed è proprio in questa zona grigia, tra comfort comunicativo e fiducia automatica, che si annidano i nuovi rischi per la sicurezza dei dati.

Anche quando crediamo di non aver fornito dati sensibili, capita spesso di aver inviato frammenti di informazione in eccesso: singole domande precedenti, file parziali o dettagli apparentemente innocui che, messi in relazione, rivelano molto di più. Il modello, per sua natura progettato per costruire contesto e continuità nelle conversazioni, finisce per fare implicitamente un’attività di data gathering e intelligence per l’utente. Se immaginassimo di collegare tutte le informazioni (dirette o subdole) fornite nel tempo, potremmo ricostruire profili estremamente dettagliati della nostra vita, delle nostre abitudini e dei nostri problemi.

Ponendo per ipotesi che non esistano regolamentazioni efficaci o che queste non vengano rispettate dal fornitore del servizio, le conseguenze plausibili si riducono a due scenari critici. Primo: a livello personale, il risultato è la creazione di un gemello digitale, un modello digitale che “pensa” come noi e che, grazie all’analisi predittiva, potrebbe anticipare comportamenti d’acquisto ancora prima che ne siamo consapevoli. Ne deriverebbero campagne pubblicitarie iper-personalizzate e, nel limite estremo, meccanismi automatici di acquisto o raccomandazione che agiscono senza controllo umano pieno. Secondo: dal punto di vista organizzativo, se un’azienda conta migliaia di dipendenti che condividono informazioni sensibili con un servizio esterno, la superficie d’attacco cresce esponenzialmente. Una vulnerabilità negli LLM o una compromissione dell’infrastruttura porterebbe a una perdita massiva di intelligence aziendale: per un attaccante sarebbe praticamente un’operazione di reconnaissance già svolta dagli stessi utenti, con conseguenze potenzialmente devastanti.

Regolamentazioni europee in materia: Pro e Contro


L’Unione Europea è da tempo in prima linea nella tutela dei dati e nella definizione di un uso etico dell’intelligenza artificiale. Il Regolamento Generale sulla Protezione dei Dati (GDPR) ha rappresentato un punto di svolta globale, imponendo principi come trasparenza, minimizzazione e consenso informato. Con il recente AI Act, l’Europa ha esteso questa visione all’intero ecosistema dell’intelligenza artificiale, includendo anche i modelli linguistici di grandi dimensioni (LLM).

I punti di forza


Il GDPR ha stabilito regole chiare: i dati devono essere raccolti solo per scopi specifici, conservati per il tempo strettamente necessario e trattati con il consenso dell’utente. L’AI Act aggiunge un ulteriore livello di tutela, introducendo obblighi di documentazione, valutazione del rischio e tracciabilità per i sistemi AI.

In teoria, queste norme dovrebbero garantire che i fornitori di servizi basati su intelligenza artificiale dichiarino con maggiore chiarezza come e per quali scopi vengono utilizzate le informazioni degli utenti. L’obiettivo è creare un ecosistema digitale trasparente, dove l’innovazione non avvenga a scapito della privacy.

Le criticità


Nella pratica, tuttavia, emergono limiti significativi. Gli LLM sono tecnologie estremamente complesse e spesso opache: anche quando i fornitori pubblicano informative dettagliate, è molto difficile verificare se i dati vengano realmente trattati in modo conforme.

Un altro problema è la giurisdizione: molti dei principali operatori non hanno sede o server in Europa, rendendo difficile per le autorità competenti effettuare controlli o imporre sanzioni efficaci.
A ciò si aggiunge un aspetto economico: le normative europee, pur essendo garanzia di tutela, impongono costi e adempimenti che solo i grandi player possono sostenere. Le startup e le piccole imprese europee rischiano così di rimanere indietro, schiacciate tra la burocrazia e la concorrenza globale.

Anche con regole severe come il GDPR, la realtà dimostra che la conformità non è mai scontata. Negli ultimi anni, diverse grandi aziende del settore digitale sono state sanzionate per importi di miliardi di euro, a causa di pratiche poco trasparenti nel trattamento dei dati personali o nell’uso dei profili degli utenti a fini commerciali. In alcuni casi, le singole multe hanno superato le centinaia di milioni di euro, segno evidente che le infrazioni non sono episodi marginali.

Questi numeri raccontano molto: le norme ci sono, ma non sempre vengono rispettate, e i controlli, pur rigorosi, non bastano a garantire una protezione effettiva dei dati. La complessità tecnica dei sistemi di intelligenza artificiale e la collocazione extraeuropea di molti fornitori rendono difficile verificare cosa accada realmente “dietro le quinte” del trattamento dei dati.

Per questo motivo, la sicurezza non può essere affidata solo alle leggi o ai garanti, ma deve partire dall’utente stesso. Ogni volta che interagiamo con un modello linguistico, anche in modo innocente, stiamo potenzialmente contribuendo a un’enorme raccolta di informazioni. E sebbene esistano regole precise, non c’è garanzia che vengano sempre rispettate.

Come difendersi?


Se la tecnologia evolve più in fretta delle regole, l’unica vera difesa diventa la consapevolezza. Non serve essere esperti di sicurezza informatica per proteggere i propri dati: serve, prima di tutto, capire cosa si condivide, con chi e in quale contesto.

I modelli linguistici sono strumenti potenti, ma non neutrali. Ogni parola digitata, una domanda, un file allegato, un testo da revisionare, può trasformarsi in un frammento di informazione che arricchisce enormi database di addestramento o analisi.

1. Pensare prima di scrivere


La prima regola è la più semplice, ma anche la più trascurata: evitare di condividere informazioni che non si direbbero mai a un estraneo. Testi di contratti, nomi di clienti, dettagli su procedure interne o dati personali non dovrebbero mai comparire in una chat con un LLM, per quanto sicura possa sembrare.

Un buon approccio è chiedersi: “Se questo testo finisse per errore su internet, sarebbe un problema?”, se la risposta è sì, non va condiviso.

2. Anonimizzare e ridurre


Quando è necessario utilizzare l’AI per lavoro, si possono sostituire dati reali con esempi generici o versioni sintetiche. È la logica della minimizzazione dei dati: fornire solo ciò che serve davvero al modello per rispondere, niente di più.

3. Preferire soluzioni locali


Molti provider offrono versioni enterprise o on-premise dei loro modelli, con clausole che escludono l’uso dei dati per l’addestramento. Usare queste soluzioni, quando possibile, riduce drasticamente il rischio di dispersione.

4. Formazione e cultura digitale


A livello aziendale, la difesa passa anche dalla formazione. Spiegare ai dipendenti cosa si può e non si può condividere con un LLM è fondamentale. Una sola interazione sbagliata può compromettere dati sensibili di un intero dipartimento o progetto.

Conclusioni


L’intelligenza artificiale conversazionale rappresenta una delle rivoluzioni della nostra epoca. Ci semplifica la vita, accelera i processi, moltiplica la produttività. Ma come ogni tecnologia che si insinua nel linguaggio e nel pensiero, porta con sé un rischio sottile: quello di farci dimenticare che ogni parola digitata è, in fondo, un dato. Un dato che racconta qualcosa di noi, del nostro lavoro, delle nostre abitudini o della nostra azienda.

Le regole ci sono, e in Europa sono tra le più avanzate al mondo, ma non bastano da sole a proteggerci. Le sanzioni milionarie inflitte a diverse realtà del settore digitale dimostrano che anche chi dovrebbe garantire sicurezza e trasparenza non sempre lo fa. Le norme definiscono i limiti, ma è la consapevolezza dell’utente a determinare quanto quei limiti vengano davvero rispettati.

La vera difesa, dunque, non è solo normativa ma culturale. Significa imparare a comunicare con l’AI con la stessa cautela con cui si proteggerebbe una conversazione privata o un documento aziendale riservato.

Ogni volta che un modello linguistico ci ascolta, analizza, riformula o suggerisce, dobbiamo ricordare che non stiamo parlando a un amico, ma a un sistema che osserva, elabora e conserva.

L'articolo Attento a ciò che dici all’AI! Potrebbero essere dati riservati proviene da Red Hot Cyber.



Quale sarà l’e-commerce italiano basato su Magento che presto sarà violato?


Un nuovo post sul dark web mette in vendita l’accesso amministrativo a un negozio online italiano basato su Magento. Prezzo: 200 dollari. Clienti e ordini in chiaro, e un rischio enorme per la sicurezza digitale delle aziende italiane.

Un annuncio pubblicato da un utente con nickname “kazu” su un forum underground sta circolando nelle ultime ore. Nel post, l’autore mette in vendita l’accesso al pannello di amministrazione di un e-commerce italiano – completo di dashboard, clienti, ordini e analytics – a soli 200 dollari.
Print Screen del forum underground fornita gentilmente da Paragon Sec a Red Hot Cyber.
Il venditore afferma che il sito compromesso conta 15.145 clienti registrati, 28.500 ordini e oltre 1,6 milioni di euro di vendite complessive. Al momento non conosciamo quale sia l’azienda in questione, ma sappiamo che risulta essenziale per questa azienda analizzare quali possano essere le problematiche della piattaforma Magento e correre subito ai ripari (come ad esempio un patching non effettuato).

Il criminale fornisce i contatti per l’acquisto, i quali vengono forniti su piattaforme anonime e cifrate come Tox, Signal e Telegram, strumenti spesso utilizzati dai criminali per garantire anonimato e riservatezza.

Chi sono i broker di accesso (IaB)


Figure come “kazu” appartengono a una categoria ben definita nell’ecosistema criminale: i broker di accesso (Initial Access Brokers). Si tratta di attori che violano reti aziendali o piattaforme web e rivendono gli accessi a terzi – spesso a gruppi ransomware o operatori di frodi digitali.

Il loro obiettivo non è necessariamente condurre l’attacco finale, ma monetizzare rapidamente le intrusioni ottenute. Sono il primo anello della catena che porta, nei casi più gravi, a data breach, furti di dati sensibili, estorsioni e blocchi operativi.

Un rischio concreto per le aziende italiane


Il fatto che il target sia un e-commerce italiano è significativo. Molte aziende nel nostro Paese, soprattutto le PMI, non dispongono di sistemi di monitoraggio avanzati e non hanno strumenti per sapere se i propri accessi amministrativi siano in vendita nel dark web.

Le conseguenze di un accesso compromesso possono essere devastanti:

  • Furto di dati personali e finanziari dei clienti;
  • Manomissione dei sistemi di pagamento e truffe digitali;
  • Attacchi ransomware con richiesta di riscatto;
  • Violazioni del GDPR e gravi danni reputazionali.


Il ruolo della Cyber Threat Intelligence


È qui che entra in gioco la Cyber Threat Intelligence (CTI): una disciplina fondamentale per individuare e contrastare queste minacce prima che sia troppo tardi. Attraverso l’analisi delle fonti aperte (OSINT), dei forum del dark web, dei canali Telegram e dei marketplace sotterranei, la CTI permette di:

  • Scoprire accessi o dati in vendita relativi alla propria azienda;
  • Rilevare indicatori di compromissione (IoC) legati a determinate campagne o attori;
  • Prevenire attacchi mirati come ransomware o furti di dati;
  • Adattare le difese aziendali alle minacce reali e correnti.

Senza un programma di Cyber Threat Intelligence, molte organizzazioni scoprono di essere state violate solo dopo che l’attacco è avvenuto.

Conclusione: la prevenzione è l’unica difesa


Il caso dell'”Italian Shop Dashboard” è solo uno dei tanti esempi che ogni giorno compaiono nei mercati del dark web. Ogni annuncio rappresenta un’azienda vulnerabile e un’opportunità per gli attaccanti.

Oggi più che mai, la conoscenza è difesa. Implementare una strategia di Cyber Threat Intelligence significa vedere prima ciò che altri non vedono, anticipare le minacce e proteggere la propria infrastruttura digitale prima che finisca nelle mani sbagliate.

L'articolo Quale sarà l’e-commerce italiano basato su Magento che presto sarà violato? proviene da Red Hot Cyber.



La leggenda dell’amministratore di sistema: vivo, operativo e (forse) nominato bene


Chiarito oltre ogni dubbio che l’amministratore di sistema è sopravvissuto al GDPR e anzi lotta assieme al titolare per la sicurezza dei dati (personali e non), è bene approfondire quella nomina spesso sventolata, imposta, somministrata, controfirmata ma raramente riletta o compresa appieno. Sia da parte dell’organizzazione che la predispone che della persona – perché il ruolo è attribuito ad una persona fisica, ricordiamoci bene – che la riceve.

Non basta infatti una pigra affermazione del tipo LALEGGELOPREVEDE (ma va?!) per rendere decente un adempimento documentale in materia di protezione dei dati personali, dal momento che la sua funzione tipica nel sistema di gestione è quella di rendicontare ciò che si fa e agevolare l’attività di controllo. Transitare dal piano teorico a quello pratico e operativo è un esercizio fondamentale per evitare quella che, altrimenti, null’altro sarà che paper compliance. Con tutte le conseguenze del caso (la doppia z è muta).

Premessa fondamentale è che il titolare del trattamento è il soggetto tenuto a garantire il corretto adempimento degli obblighi previsti anche in tale ambito di amministratori di sistema, cosa peraltro confermata dal titolo del provvedimento: Misure e accorgimenti prescritti ai titolari dei trattamenti effettuati con strumenti elettronici relativamente alle attribuzioni delle funzioni di amministratore di sistema. Si potrebbe dire: mucho texto. Ma quanto meno, è utile a individuare sia i destinatari degli obblighi sia l’ambito di applicazione.

Come funziona la nomina o designazione degli amministratori di sistema.


L’obbligo generale di designare gli amministratori di sistema incombe sul titolare, in quanto soggetto su cui grava la garanzia di tutti gli adempimenti in materia di protezione dei dati personali, e consiste in una misura organizzativa.

Il punto 4.2 del provvedimento prescrive quanto segue:

La designazione quale amministratore di sistema deve essere in ogni caso individuale e recare l´elencazione analitica degli ambiti di operatività consentiti in base al profilo di autorizzazione assegnato.

La necessaria premessa per cui questa designazione non sia assolutamente generica ed insensata, è però aver censito correttamente sistemi, database, accessi, privilegi. A cui si aggiunge un doveroso ragionamento sul fatto che tali profili di accessi e privilegi siano veramente utili, seguendo il principio di least privilege nel definire il se e un framework Zero Trust nel definire il come.

Ecco che la nomina ad amministratore di sistema deve essere l’output di un ragionamento di gestione e non qualcosa di meramente decorativo.

Anche perché l’aspetto di gestione degli amministratori di sistema emerge già nel punto successivo, il 4.3, con il mantenimento da parte del titolare di un elenco aggiornato dei soggetti e delle funzioni attribuite, anche nel caso in cui i servizi sono affidati in outsourcing. Solitamente, nell’accordo stipulato con il responsabile del trattamento è il titolare a fornire un modello di designazione degli amministratori di sistema precisando inoltre l’obbligo di mantenere e rendere disponibile l’elenco aggiornato degli stessi.

Nel caso in cui l’attività di alcuni di questi riguardi “anche indirettamente servizi o sistemi che trattano o che permettono il trattamento di informazioni di carattere personale di lavoratori”, c’è l’ulteriore obbligo specifico di indicare tali soggetti ai lavoratori. Solitamente, all’interno dell’informativa, del disciplinare aziendale o presso la bacheca aziendale, purché l’identità sia chiara e conoscibile.

Il ruolo di amministratore di sistema non si può rifiutare, ma la nomina sì.


Amministratore di sistema è chi amministratore di sistema fa. Quindi il ruolo non è soggetto ad alcuna accettazione da parte di chi svolge tali compiti. Chi vive il proprio istante di celebrità vedendo il proprio nome all’interno dell’elenco degli amministratori di sistema sa di conseguenza che il ruolo deriva dallo svolgimento di determinati compiti e attività.

Il contenuto della nomina, qualora contenga elementi ulteriori rispetto a quelle strettamente prescritte dalla legge, è una cosa ben diversa. Altrimenti, essere designati amministratori di sistema diventerebbe una sorte di cheat code per sbloccare attività e mansioni ulteriori e non remunerate. Ma non funziona così.

Nel caso di una designazione interna nei confronti di un dipendente, l’attribuzione di mansioni o la specificazione è comunque espressione del potere datoriale consistendo in un ordine di servizio ereditandone però i medesimi limiti derivanti dalla legge o dal CCNL di riferimento (ad es. il demansionamento). Certamente non può rifiutarsi, ad esempio, alla verifica periodica delle proprie attività (punto 4.4) o alla registrazione dei log di accesso (punto 4.5), in quanto sono adempimenti specificamente previsti dalla norma. In generale è bene però richiedere che l’ordine venga reso in forma scritta, anche per tutelarsi da eventuali future contestazioni di accessi abusivi. Ça va sans dire.

Nel caso di una designazione di amministratore esterno, qualora impatti sul livello di servizio offerto, il fornitore può sempre chiedere un aumento del corrispettivo per la differente modalità di esecuzione al contratto. Ovviamente, questo non vale per tutto ciò che invece è attribuito dal provvedimento anche in capo al responsabile, fra cui, oltre al già citato assoggettamento a verifica periodica di attività e registrazione dei log di accesso, si aggiungono la valutazione delle caratteristiche soggettive dei soggetti designati (punto 4.1), le designazioni individuali (punto 4.2) e la tenuta di un elenco aggiornato (punto 4.3).

Quindi sì, nominare gli amministratori di sistema serve eccome.

Ma bisogna farlo bene, altrimenti è paper compliance.

L'articolo La leggenda dell’amministratore di sistema: vivo, operativo e (forse) nominato bene proviene da Red Hot Cyber.



‘TU VALI, non sei mai troppo giovane per cambiare il mondo’: la visione di Nicola Bellotti


Spesso cerchiamo di spiegare il mondo ibrido, simultaneo e contraddittorio in cui i giovani vivono in connessione perpetua, ma la verità è che come adulti facciamo davvero fatica a capirlo. Ci chiediamo spesso come proteggerli, meno come equipaggiarli.

In poche parole parliamo di empowerment, quel processo di potenziamento che li rende capaci di agire in modo autonomo e responsabile, anche nel mondo digitale non lineare che poi è quello in cui trascorrono la maggior parte della loro vita, tra un ‘io online’ e un ‘io offline’. Si tratta non solo di fornire loro competenze tecnologiche, ma soprattutto far sviluppare consapevolezza critica, capacità di partecipare attivamente e resilienza, per essere in grado di gestire situazioni complesse, prendere decisioni informate e contribuire positivamente alla società.

Poi soffermiamoci un attimo sulla parola ‘complessità’: spesso chi sostiene che alcune cose siano troppo complicate da capire è chi preferisce che tutto rimanga così, senza essere messo in discussione, perché spesso le cose sembrano a volte progettate per non essere capite, in breve un meccanismo di potere, un campo di battaglia informativo nel quale i giovani navigano, un cyberspazio progettato per attirare la loro attenzione. In realtà, i giovani sono assolutamente in grado di imparare a distinguere il segnale dal rumore,.

Così in un mondo costruito sulla disinformazione, i giovani iper-connessi tuttavia soli, pionieri di un territorio inesplorato in continua sperimentazione, non amano la guerra né aspirano a ruoli eroici, si interessano a temi come i cambiamenti climatici, i diritti sociali e la sostenibilità, ma ancora sentono di contare poco, tuttavia sono loro a dominare le nuove tecnologie, con una creatività che è forse la loro più grande innovazione. Poi un giorno arriva Nicola Bellotti e a grandi lettere gli fa sapere che: ‘TU VALI’, la tua voce conta, le tue prospettive valgono, le tue scelte hanno un peso, ti attendono grandi cose. Quindi abbiamo deciso di raccontare questa nuova avventura.

IN BREVE:

  • Intervista a Nicola Bellotti: i giovani? Protagonisti del cambiamento
  • Il cuore del problema: identitá, relazione e rischi
  • Meccanismi e sistemi: dalla tecnologia alla norma
  • Soluzioni e prospettive: educare, preparare e ispirare
  • La visione


Intervista a Nicola Bellotti: i giovani? Protagonisti del cambiamento

Nicola Bellotti intervista Red Hot Cyber
Nicola Bellotti, è un imprenditore con un background multidisciplinare: pioniere nel digital marketing, è uno specialista nel settore digitale, sviluppa strategie di comunicazione per aziende, marchi e personaggi pubblici, concentrandosi sulla costruzione della loro reputazione. Laureatosi in giurisprudenza Nicola già negli anni ‘90 si è dedicato allo sviluppo dei primi siti web informativi fondando poi Blacklemon, una delle prime agenzie italiane specializzate in digital marketing, dove oggi si occupa principalmente di strategie di comunicazione, reputazione del brand e consulenza politica.

Ricopre e ha ricoperto negli anni vari ruoli istituzionali tra cui la partecipazione al Consiglio Generale di Assolombarda e al Comitato Piccola Industria Confindustria, oltre a far parte del gruppo Media, Comunicazione e Entertainment di Assolombarda e del Consiglio di Confesercenti a Piacenza, collaborando anche nel 2002 con il Ministro per l’Innovazione e le Tecnologie, contribuendo alla stesura del “Libro Bianco sull’Accessibilità” e del Decreto Ministeriale “PC per i giovani”. Attivo anche nel campo della sostenibilità nel 2021 ha cofondato NeaGea, una benefit corporation nata con Paolo Mazzoni per supportare le imprese nel perseguimento dell’innovazione strategica, con l’obiettivo di massimizzare il loro impatto positivo sull’ambiente, le persone e le comunità. In precedenza.

La sua attività imprenditoriale non si è limitata al digitale, ma ha toccato vari settori con un modello di “entra, innova e cedi”: nel 2012, ho fondato Melaggiusti, un’azienda specializzata nella riparazione di dispositivi Apple e Samsung, venduta a un fondo di investimento nel 2016, nel 2014 ha fondato Salus Naturalis, un’azienda produttrice di farmaci naturali, poi confluita in Toccasana e ceduta a un gruppo imprenditoriale nel 2018. Ha tenuto inoltre corsi su social media e inbound marketing per diverse istituzioni formative e collaborato con il Master in Comunicazione Internazionale all’Università di Milano (Madec) ed é anche un bravo scrittore: ha pubblicato due romanzi: I Custodi delle Rune (2007) e Mocambo (2024).

Nicola è anche un visionario con una grande fiducia nelle giovani generazioni, come portatrici di nuove idee, innovazione e cambiamento, tesi tra le necessità di migliorare la società e sviluppare competenze cruciali per il mondo del lavoro, in un mondo governato dal NO intrappolato anche da una burocrazia che intrappola le idee invece di liberarle. Qui nasce “la capacità tutta italiana di trasformare l’ostacolo in occasione, il limite in spinta” che lui conosce molto bene. Mentre Stati Uniti e Cina esercitano un grande potere sull’informazione e la disinformazione orchestrata da Russia e Cina si intensifica – tramite anche bot e falsi account sui social – l’Europa è rimasta in una posizione più passiva, quella di osservatore, rischiando oggi di divenire solo un organo regolatore sempre piú isolato geopoliticamente.. Mentre Nicola ha deciso di alzarsi in piedi, investendo nella crescita di una generazione più consapevole delle proprie forze e identità, capace di riconoscere e contrastare disinformazione e manipolazioni digitali. Qui prende forma “Tu Vali”, un’iniziativa del tutto gratuita rivolta ai giovani, che si svolge su un primo ciclo di cinque incontri volto a sostenere e valorizzare i giovani, affinché diventino consapevoli delle proprie forze e capaci di incidere positivamente nel presente e futuro.

  1. Olivia / RHC: Grazie Nicola per aver accettato questa intervista. La tua carriera attraversa l’intera storia di internet, hai visto il digitale trasformarsi da una terra di frontiera per pionieri ad un ecosistema complesso che plasma la vita di tutti, specialmente dei giovani. Da qui nasce l’iniziativa ‘Tu Vali’: puoi raccontarci come si è sviluppata nel tempo e cosa i nativi digitali di oggi possano imparare dai “pionieri” della rete come te?

NICOLA: Non ho mai avuto un mentore nella mia vita professionale, e in molti momenti difficili ho sentito il desiderio profondo di potermi confrontare con qualcuno che avesse già superato certi ostacoli. È da questa mancanza che nasce la mia spinta principale: vorrei essere per i ragazzi un piccolo aiuto, un punto di riferimento, un incoraggiamento sincero.
Anche perché — diciamolo — i giovani sono una categoria bistrattata da millenni. Ti faccio un esempio: “La nostra gioventù ama il lusso, è maleducata, si burla dell’autorità, non ha alcun rispetto degli anziani. I bambini di oggi sono dei tiranni, non si alzano quando un vecchio entra in una stanza, rispondono male ai genitori. In una parola, sono cattivi”. Ti sembra attuale, vero? Eppure lo diceva Socrate, nel 470 a.C. Da sempre i giovani, in quanto incarnazione del futuro e del cambiamento, fanno paura. E la prima reazione del mondo adulto è spesso quella di contenerli, di ridurli al ruolo di semplici spettatori. Io, invece, vorrei aiutarli a scoprire qualcosa in più: sulle grandi opportunità che li attendono, ma soprattutto su loro stessi.

Il cuore del problema: identitá, relazione e rischi


  1. Olivia / RHC: L’identità per molti giovani si trasforma spesso in un semplice like, compromettendo la sicurezza personale e la capacità di riconoscere il proprio potenziale. D’altra parte, la perdita di embodiment rappresenta un problema fisico, mentale e culturale, che richiede un ripensamento nell’uso della tecnologia per aiutare i giovani a riappropriarsi del proprio corpo e del proprio potere. Quali strumenti e leve di empowerment ritieni possano essere efficacemente offerti ai giovani oggi?

NICOLA: Credo che ogni generazione sviluppi i propri anticorpi in risposta alle sfide del tempo in cui vive.

Ho una grande fiducia nel potenziale dei giovani: ciò che a noi adulti può sembrare una minaccia, per loro può diventare un’occasione per inventare qualcosa che ancora non esiste. Quando ero un ragazzino passavo troppo tempo davanti ai videogiochi e ai fumetti. Eppure, dai videogiochi è nata la mia passione per l’informatica applicata alla creatività, e dai fumetti la curiosità per culture lontane dalla mia. In sostanza, da ciò che preoccupava i miei genitori è germogliato il mestiere che oggi svolgo e l’azienda che ho costruito. Il tema della percezione di sé, durante l’adolescenza, è sempre stato cruciale.

Ogni generazione si è confrontata con il bisogno di autodeterminarsi. Quello che oggi trovo particolarmente duro è il peso dei numeri dei social: like, visualizzazioni, follower. Ai miei tempi sapevo di non essere un adone, ma non avevo un contatore quotidiano che me lo ricordasse. Oggi i numeri possono diventare gabbie: offrono false conferme e spingono gli adolescenti — naturalmente in cerca di riconoscimento e appartenenza — a comportamenti di cui rischiano di pentirsi, pur di ottenere qualche like in più e sentirsi visti. Vorrei che gli incontri di “Tu, Vali” fossero una leva di empowerment, una pacca sulla spalla.

  1. Olivia / RHC: Cyberbullismo, hate speech, predatori e crimine online: quali sono gli strumenti che aiutano i genitori nel difficile compito di controllore dei propri figli?

NICOLA: È una domanda davvero complessa. Quando nasce un figlio, nessuno ti consegna un manuale di istruzioni. Cerchi di ispirarti alla tua esperienza di figlio, ti imponi di migliorare ciò che può essere migliorato, ti prepari con mille buone intenzioni e schemi mentali… e poi scopri che ogni figlio è diverso da come l’avevi immaginato. L’adolescenza arriva come un treno in corsa, e tu puoi solo cercare di fare del tuo meglio per restare in piedi. Parlando ogni giorno con tante persone, mi accorgo che quasi nessuno ha davvero chiara la complessità dei social e delle piattaforme digitali che oggi fanno parte della vita quotidiana dei nostri figli.

Esercitare un controllo, senza conoscenza, è difficilissimo: si sbaglia quando si esagera con le restrizioni, ma si sbaglia anche quando si concede troppa libertà. Di fronte a fenomeni come cyberbullismo, hate speech, predatori digitali e criminalità online, serve innanzitutto più cultura. Bisogna conoscere, comprendere, approfondire. È l’unica vera arma che un genitore ha per accorgersi dei segnali che qualcosa non va, e intervenire prima che sia troppo tardi.

  1. Olivia / RHC: Tu affermi: ‘Sembra tutto casuale ma non lo è. Ogni video è scelto da un algoritmo che studia cosa ti piace, come reagisci, quanto resti a guardare … più resti più è difficile capire cosa è vero e cosa non lo è’. Puoi spiegare come funzionano questi algoritmi e quali effetti hanno sulla capacità dei giovani di riconoscere la verità e difendersi dalle manipolazioni digitali?

NICOLA: Partiamo da un dato fondamentale: oggi il controllo della maggior parte delle piattaforme in cui si svolge la comunicazione di massa è concentrato nelle mani di pochissime aziende, quasi tutte americane o cinesi. È estremamente difficile che altri soggetti possano, nel breve periodo, imporsi come alternative reali. All’interno di queste piattaforme (penso a Facebook, Instagram, TikTok, YouTube, LinkedIn) la disponibilità di enormi quantità di dati ha permesso di costruire profili estremamente precisi su ciascuno di noi: abitudini, interessi, paure, inclinazioni. E noi, comodamente, ci siamo lasciati profilare. Così, progressivamente, abbiamo delegato agli algoritmi un numero crescente di decisioni: dal suggerimento del prossimo film su Netflix, fino alla visione passiva di reel che scorrono per ore, sostituendo libri, giornali, perfino le chiacchiere al bar.

Il problema è che questi algoritmi non solo semplificano le nostre scelte, ma rischiano di irrigidire i nostri pregiudizi. Ci mostrano sempre più spesso contenuti che confermano ciò che già pensiamo, dandoci l’illusione che il mondo la pensi come noi. Questo uccide il dialogo, la capacità di sintesi, il confronto politico autentico.

I giovani, diversamente da noi, non hanno conosciuto un mondo “prima dei social”. Non sanno cosa significasse informarsi leggendo un giornale o ascoltando opinioni diverse. Oggi, praticamente nessuno sotto i 65 anni legge regolarmente un quotidiano. È un cambiamento epocale. Se i “boomer” spesso non distinguono una notizia vera da una falsa e la Generazione X si è polarizzata, la maggior parte dei giovani ha perso interesse per le idee. Non solo partecipano meno al dibattito pubblico, ma spesso non votano nemmeno più.

Gli attivisti stessi, pur animati da passione, restano intrappolati nella stessa logica algoritmica: vedono solo ciò che conferma le loro convinzioni. Sono prigionieri di una bolla. Anche qui l’unica arma che hanno le persone contro le manipolazioni digitali è la conoscenza, la curiosità, l’approfondimento. Sono convinto che ogni adolescente, indipendentemente dal suo orientamento politico, debba per sua natura voler cambiare il mondo, mettere in discussione ciò che trova, desiderare il cambiamento con forza. Oggi, invece, vedo una generazione spesso remissiva, ipnotizzata, sfiduciata. Ma, nonostante tutto, continuo ad avere in loro molta più fiducia di quanta ne abbiano loro stessi.

Meccanismi e sistemi: dalla tecnologia alla norma


  1. Olivia / RHC: Mi piace questa tua osservazione: ‘la comunicazione è una cosa seria’… ‘chi capisce come funziona la comunicazione comincia a decidere davvero con la propria testa’. Parliamone.

NICOLA: La comunicazione ha avuto un ruolo decisivo nell’evoluzione dell’umanità rispetto a tutte le altre specie animali. Come ricordava Stephen Hawking, i più grandi traguardi della nostra civiltà sono stati raggiunti parlando. La tecnologia può amplificare questa capacità: può aiutarci a comunicare di più, a comprenderci meglio, a costruire ponti tra persone e culture diverse. Diventa però pericolosa quando si sostituisce al dialogo autentico tra esseri umani.
Studiare i meccanismi della comunicazione (pubblicitaria, politica, sociale o istituzionale) significa imparare a decifrare il mondo in cui viviamo. La comunicazione strategica ti abitua a pensare due o tre mosse avanti, come in una partita di scacchi. Ti allena a leggere una notizia e a ricostruire, a ritroso, le possibili mosse che hanno portato a quel risultato, entro uno scenario preciso e circoscritto.
In questo senso, la comunicazione è una chiave di lettura straordinaria: ti insegna a interpretare la realtà, a comprendere la geopolitica… che, in ultima analisi, è la trama di fondo su cui si muove tutto ciò che accade.

  1. Olivia / RHC: Parliamo di regolamentazione tecnologica: l’Europa cerca di mitigare rischi complessi… Proteggere si, ma bisogna anche permettere lo sviluppo ad esempio quello delle imprese tecnologiche. Ne hai parlato in Trump chiama, Silicon Valley risponde e l’Europa resta a guardare.

NICOLA: Non vorrei essere frainteso, quindi premetto due cose.
La prima: sono un convinto europeista. Credo che l’amicizia costruita tra i popoli europei ci abbia garantito decenni di pace, prosperità e una cultura comune fondata su valori irrinunciabili.
La seconda: sono altrettanto convinto che icambiamenti introdotti dall’Intelligenza Artificiale saranno più profondi e dirompenti di quelli generati dalla rivoluzione industriale tra il Settecento e l’Ottocento. Ci troviamo di fronte a una trasformazione epocale, e l’Europa, purtroppo, non è pronta ad affrontarla.

Nel campo del digitale, i decisori europei si sono dimostrati spesso impreparati, goffi, incapaci di prevedere le conseguenze pratiche delle proprie scelte. Le regole introdotte dall’Unione Europea finiscono troppo spesso per penalizzare chi agisce in modo trasparente (persone, aziende e professionisti) minandone la sostenibilità economica, mentre non riescono minimamente a contrastare chi opera nell’ombra, spesso dall’estero, in modo scorretto o manipolatorio.

Ci sono almeno quattro esempi lampanti:

  • la stretta sulla pubblicità politica online, dove le regole già esistevano ed erano applicate dai professionisti seri del settore;
  • la proposta di regolamento CSAR (Child Sexual Abuse Regulation), che rischia di trasformarsi in una sorta di “Grande Fratello” digitale, autorizzando il controllo di ogni foto che condividiamo su WhatsApp;
  • l’obbligo di verifica dell’età sui siti per adulti, che finirà per far chiudere le aziende più serie e favorire chi non ha mai rispettato le regole;
  • e infine il Digital Services Act, nato con buone intenzioni ma divenuto uno strumento burocratico complesso, più utile a frenare che a innovare.

Mentre Stati Uniti, Cina e India corrono, sperimentano e investono nel futuro, noi europei continuiamo a vietare, bloccare, normare, regolamentare… sacrificando sull’altare delle ideologie – e degli interessi elettorali – il futuro dei nostri giovani. Ed è proprio per questo che dovrebbero essere loro, i giovani, a salire sulle barricate.

  1. Olivia / RHC: Nel contesto normativo (Digital Services Act) vi è anche la proposta di richiesta di documenti per accedere alle piattaforme: per l’underground questo rappresenta un punto debole nel sistema, più pericoloso di altre forme di vulnerabilità, perché un documento digitale è una chiave che può aprire molte porte. Quali sono le tue osservazioni a riguardo?

NICOLA: Come dicevo prima, i decisori di Bruxelles hanno spesso dimostrato di non saper prevedere l’ovvio. Da anni, chiunque lavori nel nostro settore mette in guardia le persone dal condividere con leggerezza i propri dati o documenti online. Eppure, oggi, ci si propone di introdurre sistemi che obbligherebbero gli utenti, anche solo per accedere a un sito per adulti, a fornire il proprio documento d’identità o a sottoporsi a una scansione del volto e della voce per verificare l’età.

Tutto questo accade in un’epoca in cui, con strumenti come HeyGen, anche un ragazzino può creare in pochi minuti un avatar digitale capace di imitare perfettamente voce e sembianze di chiunque. I cosiddetti “deepfake” stanno diventando indistinguibili dal reale, e lo saranno completamente tra pochi mesi. È paradossale: mentre la tecnologia ci mette di fronte a un rischio sempre maggiore di manipolazione e furto d’identità, l’Europa propone soluzioni che aumentano la quantità di dati sensibili in circolazione, anziché proteggerli.

Soluzioni e prospettive: educare, preparare e ispirare


  1. Olivia / RHC: I genitori svolgono sicuramente un ruolo cruciale, devono essere contemporaneamente controllori ed educatorima al contempo bisogna costruire una rete di supporto – educativa, tecnica e normativa – che possa davvero proteggere e responsabilizzare le nuove generazioni. Da dove si parte?

NICOLA: Non sono un esperto di formazione e non pretendo di avere una soluzione. Mi limito a constatare che, purtroppo, la scuola italiana è un sistema obsoleto, autoreferenziale e profondamente infelice. Solo il 26% delle ragazze e il 17% dei ragazzi dichiara di essere contento di andare a scuola, contro una media europea del 56%. È un dato drammatico.

Secondo le ricerche di OMS e OCSE, al 90% delle ragazze e al 92% dei ragazzi di 15 anni la scuola non piace. Può sembrare un fatto scontato — “ai ragazzi non piace studiare” — ma in realtà questo è un problema tipicamente italiano. Gli studenti italiani soffrono di ansia più dei loro coetanei in altri Paesi con stili di vita simili. Il nostro sistema scolastico sembra progettato per i professori e per il personale amministrativo, non per chi dovrebbe esserne il vero protagonista: gli studenti. In altri contesti, di fronte a una crisi di tali proporzioni, si interverrebbe con urgenza. Io partirei da qui: da una riforma seria e profonda della scuola, che metta davvero il futuro dei nostri figli davanti a qualsiasi altra logica. Se riusciamo a trovare fondi per il riarmo, forse potremmo destinarne almeno una parte a un investimento più strategico e civile: quello sull’educazione.

  1. Olivia / RHC: Nicola, la tua esperienza spazia tra innovazione tecnologica, comunicazione e trasformazioni sociali. Quali competenze ritieni fondamentali perché i giovani di oggi possano diventare protagonisti consapevoli e attivi di questo cambiamento? E come possiamo prepararli al meglio per affrontare le sfide future?

NICOLA: La chiave di tutto è la curiosità. Stiamo vivendo un cambiamento radicale nel modo di lavorare: intelligenza artificiale, connettività globale, macchine pensanti e nuovi media sono i motori di una trasformazione che ridisegnerà intere professioni e ne creerà di nuove, oggi ancora impensabili. In questo scenario, chi saprà restare più curioso della media sarà in grado di “surfare” sulla cresta dell’onda.

La curiosità è ciò che spinge a informarsi, conoscere, approfondire, sperimentare e, alla fine, riuscire. Il futuro richiederà la capacità di affrontare problemi complessi, che attraversano discipline diverse, e di coltivare competenze che nessuna macchina potrà facilmente replicare: comprendere il significato profondo di ciò che viene comunicato, cogliere le sfumature emotive, creare connessioni autentiche con gli altri. Più crescerà l’importanza delle macchine, più acquisterà valore il lato umano delle cose: l’empatia, la spiritualità, la capacità di ispirare e interagire in modo autentico. Ma la curiosità da sola non basta. Va accompagnata da apertura mentale, spirito critico, capacità relazionale e, soprattutto, tenacia. Perché alla fine – sempre – la tenacia vince sul talento.

  1. Olivia / RHC: Sei anche uno scrittore. In che modo il narrare storie, nei romanzi come nella comunicazione di brand, influenza la percezione della realtà e può essere uno strumento per aiutare i giovani a costruire un’identità solida e non solo basata sui ‘like’?”

NICOLA: Non riesco a definirmi uno scrittore. Amo leggere, e credo che i veri scrittori siano altri. L’unica cosa che ho scritto di cui vado davvero fiero è Mocambo, perché tra le righe di quei tredici racconti ci sono io, completamente: le esperienze che mi hanno formato, le emozioni che continuo a provare, ma anche le mie fragilità, le mie contraddizioni, le lotte interiori che mi accompagnano da sempre.

Nel mio lavoro, la parte che più mi appassiona è quella legata al branding, all’identità e al posizionamento dei marchi, all’elaborazione di strategie che permettano a persone e aziende di governare la propria reputazione. Sono le sfide più complesse e, al tempo stesso, le più stimolanti.

Ogni progetto è un universo a sé, e per questo è difficile generalizzare o dare consigli validi per tutti i giovani che si affacciano a questo mondo. Quando però i ragazzi mi chiedono un consiglio – capita ogni tanto, alla fine di incontri di formazione – preferisco rispondere facendo ascoltare le parole del monologo finale del film “The Big Kahuna”

Il monologo si chiude dicendo: Sii cauto nell’accettare consigli, ma sii paziente con chi li dispensa. I consigli sono una forma di nostalgia. Dispensarli è un modo di ripescare il passato dal dimenticatoio, ripulirlo, passare la vernice sulle parti più brutte e riciclarlo per più di quel che valga”. Credo che in questa frase ci sia tutta la saggezza e l’umiltà con cui dovremmo guardare all’esperienza, nostra e altrui.

youtube.com/embed/gqQPOYZo6Fs?…

La visione


  1. Olivia / RHC: Puoi elaborare da visionario due scenari futuri del nostro mondo di domani?

NICOLA: Questa è davvero una domanda difficile, Olivia. Sono un divoratore di libri e film di fantascienza, e credo che in quel genere siano già stati immaginati quasi tutti gli scenari possibili. Quello che ho imparato dai fumetti – e che trovo profondamente vero – è che da grandi poteri derivano grandi responsabilità.

Oggi ci troviamo proprio sull’orlo di questo passaggio: stiamo per liberare un potere immenso, capace di cambiare in modo radicale le regole del gioco. Per questo credo che serva una responsabilità nuova, collettiva, che ci porti a rivedere i nostri paradigmi. Dovremmo avere il coraggio di archiviare concetti ormai superati – come le divisioni tra destra e sinistra in politica, per citare un esempio volutamente provocatorio – e imparare a riconoscerci, finalmente, come un unico popolo: quello degli umani, o dei terresti se preferisci tornare alla fantascienza. Un popolo che, molto presto, dovrà imparare a convivere con un’altra forma di intelligenza, diversa dalla nostra ma capace di esistere in modo altrettanto reale e tangibile.

L'articolo ‘TU VALI, non sei mai troppo giovane per cambiare il mondo’: la visione di Nicola Bellotti proviene da Red Hot Cyber.



Gemini 3.0 Pro: scopriamo i primi test di chi lo sta provando


Negli ultimi giorni, alcuni utenti selezionati hanno segnalato di aver avuto accesso al nuovo modello Gemini 3.0 Pro. Le prime impressioni parlano di un’evoluzione significativa rispetto alla generazione precedente, al punto che molti la descrivono come un vero salto di qualità per l’intelligenza artificiale di Google.

Gemini 3.0 Pro sembra in grado di affrontare compiti estremamente complessi: dalla programmazione di videogiochi o siti web completi fino alla generazione di piattaforme e-commerce funzionanti, tutto partendo da un unico prompt. In alcuni test, il modello è riuscito persino a creare grafica vettoriale in formato SVG con risultati molto convincenti.

Si parla inoltre della possibilità che il sistema riesca a costruire ambienti operativi e interfacce complesse, passando con naturalezza dal testo al codice, dai dati alle immagini. Un’evoluzione che conferma come Google stia spingendo verso un’IA sempre più capace di “capire” e non solo di generare.
Un utente su twitter ha generato una completa interfaccia grafica con Gemini 3.0 riportando risultati eccezionali

Un rilascio graduale e un obiettivo ambizioso


Google mantiene ancora il massimo riserbo sull’arrivo ufficiale di Gemini 3.0, ma secondo le informazioni raccolte il debutto potrebbe avvenire entro dicembre (come anticipato nel precedente articolo), in linea con la strategia di rilascio adottata per i modelli precedenti. L’azienda avrebbe optato per un rollout controllato, riservando la fase di test a un numero ristretto di utenti per raccogliere feedback e migliorare le prestazioni.

Uno degli aspetti più interessanti è l’integrazione con l’ecosistema di Google Workspace. Gemini 3.0 Pro sarebbe pensato per operare all’interno di strumenti come Docs, Gmail, Sheets e Slides, permettendo all’intelligenza artificiale di supportare in modo dinamico la produttività e la creazione di contenuti.

L’obiettivo dichiarato è chiaro: competere direttamente con GPT-5 e Claude 4.5, due dei modelli più avanzati attualmente in sviluppo, e superarne le capacità multimodali e di ragionamento complesso.
Un altro utente su twitter si lamenta che non è troppo performante nella programmazione, ma ama scusarsi.

Un salto generazionale verso il multimodale


Gemini 3.0 Pro non rappresenta solo un aggiornamento, ma un vero e proprio cambio di paradigma. È progettato per essere un modello “nativamente multimodale”, capace di passare senza soluzione di continuità dal testo alle immagini, dai dati numerici al codice, e di comprendere i collegamenti logici tra contenuti diversi.

Questa capacità apre la strada a un’IA in grado di partecipare attivamente ai processi creativi e di automazione, trasformando radicalmente il modo in cui si lavora, si scrive o si sviluppano applicazioni. È la visione di Google per un’intelligenza che non assiste soltanto, ma collabora.

Tuttavia, come accade per ogni salto tecnologico, ci sono ancora diversi punti interrogativi. I test pubblici sono limitati, i benchmark ufficiali non sono stati pubblicati e non esiste ancora una valutazione indipendente delle reali prestazioni rispetto alla concorrenza.
Un utente su Twitter riporta invece che si tratti di un modello super performante per la realizzazione delle interfacce grafiche.

Le implicazioni per la cybersecurity e la governance dell’IA


Un modello così potente apre inevitabilmente anche riflessioni nel campo della cybersecurity. Un’intelligenza in grado di generare codice, automatizzare workflow e creare elementi grafici in tempo reale rappresenta una straordinaria opportunità per le imprese, ma anche un rischio se utilizzata in modo improprio.

Potrebbe facilitare la creazione di phishing sofisticati o di codice malevolo, ma al tempo stesso diventare un potente strumento di difesa, capace di identificare vulnerabilità e simulare attacchi per rafforzare la sicurezza.

Dal punto di vista della governance, Gemini 3.0 Pro spinge Google a definire regole chiare sulla trasparenza, la tracciabilità dei contenuti generati e il controllo sugli output. La sfida non è più soltanto tecnica, ma anche etica e regolamentare.

In definitiva, Gemini 3.0 Pro segna l’inizio di una nuova era per l’intelligenza artificiale di Google. Se le promesse verranno mantenute, ci troveremo di fronte non solo a un modello più potente, ma a una piattaforma capace di ridefinire gli standard della produttività e della sicurezza digitale.
Un altro utente di Twitter ha ricreato una completa interfaccia grafica funzionante stile Windows
L'articolo Gemini 3.0 Pro: scopriamo i primi test di chi lo sta provando proviene da Red Hot Cyber.





“Il mondo ha sete di pace: ha bisogno di una vera e solida epoca di riconciliazione, che ponga fine alla prevaricazione, all’esibizione della forza e all’indifferenza per il diritto”.


Incontro internazionale per la pace: appello finale, “non c’è futuro se la guerra si sostituisce alla diplomazia e al dialogo nella soluzione dei conflitti”


Leone XIV: “la cultura della riconciliazione vincerà la globalizzazione dell’impotenza”, “la pace è la priorità di ogni politica”


Leone XIV: “mai la guerra è santa”, “non possiamo accettare che ci si abitui alla guerra”, no a “nazionalismi, etnicismi, populismi”


“Chi non prega abusa della religione, persino per uccidere”. A lanciare il grido d’allarme è stato il Papa, nel suo discorso al Colosseo, a conclusione dell’Incontro internazionale di preghiera per la pace organizzato dalla Comunità di Sant’Egidio.



Incontro internazionale per la pace: la testimonianza di Omer Malla, medico sudanese, “pregate per torni la pace nel mio paese”


Alla preghiera ecumenica con il Papa, in corso al Colosseo a conclusione dell'Incontro internazionale per la pace organizzato dalla Comunità di Sant’Egidio, siedono in prima fila: sulla destra Theodoros II, papa e patriarca di Alessandria e di tutta …


A fair digital future at risk: EDRi’s contribution to the Digital Fairness Act


The European Commission closed its Call for Evidence for the upcoming Digital Fairness Act (DFA) on 24 October 2025. EDRi urged the Commission to tackle deeply harmful forms of manipulation: addictive design, deceptive design, and unfair personalisation, which undermine people’s fundamental rights to privacy, data protection, autonomy and equality. EDRi calls for strong, binding rules that embed fairness-by-design, ban exploitative features, and reinforce Europe’s digital rulebook against growing deregulatory pressure.

The post A fair digital future at risk: EDRi’s contribution to the Digital Fairness Act appeared first on European Digital Rights (EDRi).




Podcast 4: Zorg en zorgen die we hebben


Piraten Podcast 4 (27 okt 2025): Zorg en zorgen die we hebbenDeze Piraten Podcast werd opgenomen in het Blauwe Pand, Zaandam Met Sabrina, Angeline en Leontien!en dank aan: Bart

Het bericht Podcast 4: Zorg en zorgen die we hebben verscheen eerst op Piratenpartij.



Original E39 Head Unit Modernized


Although most modern cars have moved to using proprietary components nearly everywhere, especially when it comes to infotainment systems, for a brief moment which peaked in the 90s and 00s most cars shipped with radios that fit in a standard size opening called a DIN slot. If you wanted a new Pioneer or Kenwood stereo it was usually a simple matter to slide the factory radio out and put your choice of aftermarket head unit in its place. [Stefan] has an E39 BMW from this era and wanted to upgrade the factory radio but use the original hardware instead of replacing it.

This isn’t just a simple stereo upgrade either. [Stefan] has gone all-out for this build which he started in 2020. Beginning with a Kotlin/Jetpack Compose Linux application to handle control input from the vehicle’s various knobs and buttons he moved on to a map application and an on-screen keyboard. From there he implemented VGA to send video to the OEM screen, and now has a fully functional system based on a Raspberry Pi. It does everything the original unit can do including playing music and showing the feed from the backup camera, plus adds plenty of new, modern features like Bluetooth.

For a certain classic car enthusiast, this build hits a sweet spot of modernizing a true classic like the E39 without removing or permanently modifying any OEM components. The amount of work that went into it is pretty staggering as well, with [Stephan] putting in over 100 hours of work just to get the video signal timing correct. We also like it because it reminds us of the flash-in-the-pan “carputer” trend from the late 00s where people in the pre-smartphone age were shoving all kinds of computing horsepower in their trunks.


hackaday.com/2025/10/28/origin…



2025 Component Abuse Challenge: A Bistable Flip-Flop With A Fuse


The flip-flop, in whichever of its several forms you encounter it, is a staple of logic design. Any time that you need to hold onto something, count, or shift bits, out it comes. We expect a flip-flop to be an integrated circuit if we use one, but most of us could knock one together with a couple of transistors.

You aren’t restricted to transistors of course, a relay will do just as well, but how about a fuse? [b.kainka] has made a functioning set/reset flip-flop using a pair of PTC self-resetting fuses.

The circuit is simplicity itself, a pair of incandescent bulbs in series, each in turn in parallel with a momentary action switch and a PTC fuse. On start-up both fuses are conducting, so one or other of them will do its job as a fuse and go high impedance. At that point its bulb will light and the other fuse will remain low impedance so its bulb will stay dark. Press the switch across the lit bulb for a few seconds however, and the circuit resets itself. The other fuse goes high impedance while the first fuse returns to low impedance, and the other bulb lights.

We’re not sure we can see much in the way of practical application for this circuit, but sometimes merely because you can is reason enough. It’s part of our 2025 Component Abuse Challenge, for which you just about still have time to make an entry yourself if you have one.

2025 Hackaday Component Abuse Challenge


hackaday.com/2025/10/28/2025-c…



Know Audio: Lossy Compression Algorithms And Distortion


In previous episodes of this long-running series looking at the world of high-quality audio, at every point we’ve stayed in the real world of physical audio hardware. From the human ear to the loudspeaker, from the DAC to measuring distortion, this is all stuff that can happen on your bench or in your Hi-Fi rack.

We’re now going for the first time to diverge from the practical world of hardware into the theoretical world of mathematics, as we consider a very contentious topic in the world of audio. We live in a world in which it is now normal for audio to have some form of digital compression applied to it, some of which has an effect on what is played back through our speakers and headphones. When a compression algorithm changes what we hear, it’s distortion in audio terms, but how much is it distorted and how do we even measure that? It’s time to dive in and play with some audio files.

How Good A Copy Does A Copy Have To Be?

A reel-to-reel recorder from the famous Abbey Road studio in London.Abbey Road’s tape recorders would have been about as good as it gets. Josephenus P. Riley, CC BY 2.0.
Were we to record some music with a good quality microphone and analogue tape recorder, we know that what came out of the speakers at playback would be a copy of what was heard by the microphone, subject to distortion from whatever non-linearities it has encountered in the audio path. But despite that distortion, the tape recorder is doing its best to faithfully record an exact copy of what it hears. It’s the same with a compression-free digital recording; record those musicians with a DAT machine or listen to them on a CD, and you’ll get back as good a copy as those media are capable of returning.

The trouble is that uncompressed audio takes up a lot of bandwidth, particularly when streaming over the Internet. Thus just as with any other data format, it makes sense to compress it such that it takes up less space. There are plenty of compression algorithms to choose from, but with analogue sources there are more choices than there are with text, or software. A Linux ISO has to uncompress as a perfect copy of its original otherwise it won’t run, while an image or an audio file simply has to uncompress to something that looks or sounds like the original to our meaty brains.

Those extra compression options for analogue data take advantage of this; they use so-called lossy compression in that what you get out sounds just like what you put in, but isn’t the same. This difference can be viewed as distortion, and if you have ever saved an image containing text as a JPEG file, you’ll probably have seen it as artifacts around sharply defined edges.

So if lossy compression algorithms such as MP3 introduce distortion, how can we measure this? The analogue distortion analyser featured in our last installment is of little use, because the pure sine wave it uses is very easy for the compression algorithm to encode faithfully. Compression based on Fourier analysis is always going to do a good job on a single frequency. Another solution is required, and here the Internet is of little help. It’s time to set out on my own and figure out a way to measure the distortion inherent to an MP3 file.

Math Will Give Us The Right Answer!

A GNU Radio project for my analyserGNU Radio is an extremely convenient way to perform these types of measurement.
At moments like these it’s great to be surrounded by other engineers, because you can mull it over and reach a solution. This distortion can’t be measured through my analogue instrumentation with a sine wave for the reasons discussed above, so it must instead be measured on a real world sample. We came up with a plan: measure the difference between two samples, compute the RMS value for that difference, then calculate the ratio between that and the RMS of the uncompressed sample.

As is so often the case with this type of task, it’s a relatively straightforward task using GNU Radio as a DSP workshop. I created a GNU Radio project to do the job, and fed it an uncompressed and compressed version of the same sample. I used a freely available recording of some bongo drums, and to make my compressed file I encoded it as a 128kbit MP3, then decoded it back to a WAV file. You can find it in my GitHub account, should you wish to play with it yourself.

Math Will Give Us The Wrong Answer!


The result it gives for my two bongo samples varies a little around 0.03, or 3%, depending upon where you are in the sample. What that in effect means is that the MP3 encoded version is around 3% different from the uncompressed one. If that were a figure measured on an analogue circuit using my trusty HP analyser I would say it wasn’t a very good quality circuit at all, and I would definitely be able to hear the distortion when listening to the audio. The fact that I can’t hear it raises a fundamental question as to what distortion really is, and the effect it has upon listeners.

What I would understand as distortion due to non-linearities in the audio path, is in reality harmonic distortion. Harmonics of the input signal are being created; if my audio path is a guitar pedal they are harmonics I want, while if it’s merely a very low quality piece of audio gear they’re unwelcome degradation of the listening experience. This MP3 file has a measurable 3% distortion, yet I am not hearing it as such when I listen. The answer to why that is the case is that this is not harmonic distortion, instead it’s a very similar version of the same sound, which differs by only 3% from the original. People with an acute ear can hear it, but most listeners will not notice the difference.

So In Summary: This Distortion Isn’t Distortion Like The Others


So in very simple terms, I’ve measured distortion, but not distortion in the same sense of the word. I’ve proven that an MP3 encoded audio source has a significant loss of information over its uncompressed ancestor, but noted that it is nowhere near as noticable in the finished product as for example a 3% harmonic distortion would be. It’s thus safe to say that this exercise, while interesting, is a little bit pointless because it produces a misleading figure. I think I have achieved something though, by shining some light on the matter of audio compression and subsequent quality loss. In short: for most of you it won’t matter, while the rest of you are probably using a lossless algorithm such as FLAC anyway.


hackaday.com/2025/10/28/know-a…



Give ATMega88 the Boot With This Retro Front Panel


There's an ATMega88 in that handsome case.

It’s a truism that a computer must boot before it begins to operate. Nowadays that bootstrapping process is automatic, but in the case of the very first home computers, it was very much a hands-on affair. That’s what all those switches and blinkenlights are for on the front panel of the Altair 8800 — laboriously flicking each bit into memory as required to get your program going.

[Linus Åkesson] missed those very early days, and wanted to see what it was like, and clicking virtual switches on an emulator wasn’t going to cut it. He realized that he could set up an ATmega88 for front-panel booting, and proceeded to do just that.

The article linked above goes into good detail; for those of you who prefer video, we’ve embedded his presentation below. They say the book is always better, but to get the full story, you’ll really want both in this case. The video contains a lot more context and build details, but neglects to mention some issues he had with programming that are detailed in the text. In short, the Write Page bit needs to be written to the Command register to use the page buffer. Which does make sense, but tripped [Linus] up at first.

Then again, this use case isn’t exactly detailed in the datasheet. ATmega88 is an old chip, but not Intel 8008 old, so that’s no surprise. Which is exactly what makes this a good hack! The only thing lacking is blinkenlights to allow one to see the contents of the registers. [Linus] discusses the idea of putting them in, but is apparently happy with this more minimalist approach.

We’ve seen the doughty Atmel chip hacked into everything from web-servers to washing machines, and even things that don’t start with “W”. As for the redoubtable [Linus], he’s most famous around these parts for his musical inventions and adventures with the Commodore 64.

youtube.com/embed/S-2adBkW7Xo?…


hackaday.com/2025/10/28/give-a…



Analog Surround Sound Was Everywhere, But You Probably Didn’t Notice


These days, most of the media we consume is digital. We still watch movies and TV shows, but they’re all packaged in digital files that cram in many millions of pixels and as many audio channels as we could possibly desire.

Back in the day, though, engineering limitations meant that media on film or tape were limited to analog stereo audio at best. And yet, the masterminds at Dolby were able to create a surround sound format that could operate within those very limitations, turning two channels in to four. What started out as a cinematic format would bring surround sound to the home—all the way back in 1982!

From The Silver Screen

Stereo optical sound tracks can be seen on the right of this scan of a 35 mm film print. On the far left is the SDDS digital audio track in blue, with the Dolby Digital audio track visible in between the sprocket holes. Modern film prints often include multiple audio formats like this so a single print can be sent to a wide range of cinemas, whatever their equipment. Credit: CC BY-SA 3.0
Dolby’s surround sound efforts were not initially aimed at the home, but at the cinema. Classically, movies were distributed on 35 mm film with a mono soundtrack encoded optically alongside the image frames themselves, with an upper frequency limit usually topping out at around 12 kHz. By the latter half of the 20th century, this was considered quite poor compared to the much richer stereo sound that filmgoers would otherwise be used to from media such as vinyl records or tape systems. A great deal of research and development was pursued by the industry, with all manner of alternative formats envisaged to make stereo sound viable for movie theatres.

Dolby’s solution was to team up with Kodak, finding a way to squeeze two optical audio tracks into the space where there was only one previously. Dolby’s well-developed noise reduction techniques came in handy in this regard, making the most of the lesser dynamic range available in the compressed space. In 1976, the technology became known as Dolby Stereo, or Dolby SVA, for Stereo Variable Area—the latter referring to the fact that the sound amplitude was encoded by variations in the area of transparency in the film’s audio track.

Dolby had successfully figured out how to distribute full stereo audio with 35 mm film prints. However, the work didn’t stop there. By applying similar techniques to those used in the burgeoning quadrophonic sound market, Dolby was able to create a rudimentary analog surround sound system. This was achieved with the use of a phase-matrix system, which could encode four channels into two stereo channels—left, right, center, and surround, with the latter sitting behind the viewer. A decoder would then split them back out to four channels for playback. This was achieved in a way that allowed the same stereo audio to be played back on regular stereo or mono systems without adding noticeable interference or noise.
A Dolby SDU4 decoder, as typically used in mixing and production of Dolby Surround content. Credit: via eBayNote the two channel inputs – L and R – and outputs for all four channels – L, R, C, and S. Credit: via eBay
In Dolby’s system, when producing the stereo soundtrack for a film print, the encoder would deliver audio for the left speaker directly to the left channel (L), and audio for the right speaker directly to the right channel (R). The center (C) speaker audio would be fed to both left and right channels equally, albeit attenuated by 3 dB. As for the surround (S) speaker audio, this would be attenuated by 3 dB, bandpassed from 100 Hz to 7 kHz, and then routed to the left and right channels, but with a phase shift of +90 degrees and -90 degrees, respectively. This method meant systems with only stereo or mono playback could play the same audio seamlessly as a two-channel or single-channel mix without issue. The surround content would cancel out, and the viewer would just get a regular stereo or mono output.

This method created a stereo recording which could then be decoded back into four channels, albeit not completely discretely—you weren’t getting four distinct channels, so much as two distinct channels with a center and surround channel derived from them with limited separation. In particular, the center channel was often used to deliver dialogue as if it was coming straight out of the screen, while the surround channel was used for more diffuse effects.

Dolby’s cinema audio decoders worked by using some basic logic circuitry to give priority to the channels that had the highest signal level by attenuating the others slightly, which created some additional separation. A time delay of up to 100 ms was also used on the surround channel installed behind the viewer. This ensured that sound leakage from the the left and right channels didn’t confuse the viewer by appearing to come from behind, thanks to the precedence effect—where the human auditory system perceives direction of a sound based on the first arriving waveform.

Bringing It Home

Dolby Surround decoders did not provide a center channel, instead just offering L, R, and S. Credit: author
Dolby’s system was designed for cinema use, but it was by no means limited to such facilities. By 1982, with VHS and Betamax video cassettes started offering Hi-Fi stereo sound, it became entirely possible to deliver the same experience to home viewers in exactly the same way. This actually eased production of home releases for movie studios, which could simply reuse their existing stereo mixdown from the theatrical release. This technology was marketed as Dolby Surround. It came with some simplifications, using only passive decoding and most notably eliminating the center channel. This allowed home decoders to be cheaper, instead just turning the stereo audio into left, right, and a rear surround channel. The latter channel was still limited to 7 kHz, and was recovered by taking the difference of the left and right channels. This only provided separation of as little as 3dB between the surround and other channels.
Dolby Pro Logic decoders performed more like the original cinema decoders, and offered the center channel as well.
Things would improve just a few years later in 1987, with the advent of Dolby Pro Logic decoders. These used so-called “steering logic” that was more similar to the decoders used in original theatre implementations. This involved decoding the stereo tracks into four channels, and monitoring the dominant prevailing direction of the sound. Based on this, the amplifiers for each of the four channels (L,R, C, S) would be varied to create greater separation of up to 30 dB between channels. For example, if the sound was loudest on the left channel, the other channels might have their output lowered to emphasize the effect. This method involved careful control of the amplifiers to ensure total output levels remained relatively constant to avoid audible discontinuities. Dolby would continue to iterate on the system, later developing Pro Logic II decoding in 2000. This was designed to scale Dolby Surround content to suit 5.1 channel systems that were becoming popular with the rise of DVD and more advanced home theatre systems. Pro Logic IIx would follow soon after, doing the same but with 6.1 and 7.1 systems.
Stereo-capable formats like Laserdisc often featured Dolby Surround encoding on releases. Credit: Dillan Payne, CC BY-SA 2.0
Dolby’s engineering trick was intended to make multi-channel surround sound possible in an economically and technically viable way, for both cinemas and home viewers alike. It largely succeeded, particularly because of its all-around compatibility. Movie studios and TV stations were able to sell or broadcast Dolby Surround content perfectly easily without impacting the larger install base of viewers that only had mono or stereo speaker setups. The only requirement was to spend some extra time finessing the mix at the encoding stage, something most were already doing for theatrical releases anyway. Many people never realized that their VHS tapes or Laserdiscs had surround sound capability, because they never invested in a decoder and a multi-speaker setup at home. A huge range of home media came complete with surround content from the 1980s onwards, but a lot of consumers didn’t notice.
If you ever wondered how The Simpsons was broadcast in surround, now you know. Credit: screenshot
Matrix decoding systems like Dolby Surround eventually fell out of style as technology moved on. With the advent of the DVD and other more contemporary digital formats, it became very simple to simply include extra audio channels in the media itself. There was no need to try and mix four down to two channels and then expand them back out—you could just include four, five, or even more audio channels right in the original content. This had the benefit of providing complete channel separation. There was no decoding process that would leave your surround channels with content from other channels in them.

Dolby Surround is one of those fun technologies from yesteryear. It reminds us that a bit of maths and creativity can enable impressive feats amidst even quite restrictive technological limitations. We might not have to work that way anymore, but it’s always instructive to learn these lessons from our recent past.


hackaday.com/2025/10/28/analog…



Cooking Up Plastics in the Kitchen


Two colored plastic films are loosely tied over the entrances to two plastic containers.

The earliest useful plastics were made out of natural materials like cellulose and casein, but since the Bakelite revolution, their use has dwindled away and left them mostly as curiosities and children’s science experiments. Fortunately, though, the raw materials for bioplastics are readily available in most grocery stores, and as [Ben] from NightHawkInLight demonstrates, it’s still possible to find new uses for them.

His first recipe was for a clear gelatine thermoplastic, using honey as a plasticizer, which he formed into the clear packet around some instant noodles: simply throw the whole packet into hot water, and the plastic dissolves away. With some help from the home bioplastics investigator [Giestas], [Ben] next created a starch-based plastic out of starch, vinegar, and glycerine. Starch is a good infrared emitter in the atmospheric window, and researchers have made a starch-plastic aerogel that radiates enough heat to become cooler than its surroundings. Unfortunately, this requires freeze-drying, and while encouraging freezer burn in a normal freezer can have the same effect, it’ll take a few months to get a usable quantity of the material.

The other problem with starch-based plastics is their tendency to absorb water, at least when paired with plasticizers like glycerine or honey. Bioplastics based on alginate, however, are easy to make waterproof. A solution of sodium alginate, derived from seaweed, reacts with calcium ions to make a cross-linked waterproof film. Unfortunately, the film forms so quickly that it separates the solutions of calcium ions from the alginate, and the reaction stops. To get around this, [Ben] mixed a sodium alginate solution with powdered calcium carbonate, which is insoluble and therefore won’t react. To make the plastic set, he added glucono delta lactone, which slowly breaks down in water to release gluconic acid, which dissolves the calcium carbonate and lets the reaction proceed.

The soluble noodle package reminded us of a similar edible package, which included flavoring in the plastic. We’ve also seen alginate used to make conductive string, and rice used to make 3D printer filament. It’s worth some caution, though – not all biologically-derived plastics are healthier than synthetic materials.

youtube.com/embed/J87Qyxzm_fQ?…


hackaday.com/2025/10/28/cookin…



Svenimento post intervento chirurgico


Questa mattina verso le 8 e 20 mi hanno operato di ernia inguinale e tardo pomeriggio mi hanno fatto uscire.

Inizialmente mi sentivo bene, certo il dolore ci stava e difatti facevo passetti, ma alla fine ho girato senza problemi.

Però mentre stavo cucinando una frittata ho iniziato a non sentirmi bene, con giramenti di testa e leggera nausea. Mi sono messo seduto alla tavola sperando passare, ma andava sempre peggio e vedevo tutto luminoso come se fissassi il sole, Alla fine nel tentativo di andare sul letto sono caduto due volte, la seconda sono rimasto per terra a 4 di spade, sudavo tantissimo, ma piano piano mi sono sentito sempre meglio, poi dopo qualche minuto sulle fresche piastrelle mi sono rialzato in piedi e potuto cenare senza problemi, per per poi andare sul letto.

Ho dormito fino ad ora praticamente.
Ora vi scrivo questo post sorseggiando un orzo alla scrivania del computer 🙂

Che esperienza

Federico reshared this.



avvenire.it/mondo/il-corpo-sba…

con tutta la gente che israele ha ucciso a gaza, si lamentano perché hamas non riesce a trovare la salma giusta? fammi capire...



Linux Day 2025: Un Successo

pnlug.it/2025/10/28/linux-day-…

Segnalato dal Grupo Linux di #Pordenone e pubblicato sulla comunità Lemmy @GNU/Linux Italia

Siamo ancora pieni di energia e gratitudine dopo l'incredibile successo del Linux Day 2025! Quest'anno, in occasione del 25° anniversario […]

reshared this




Orban: 'io e Meloni d'accordo sulle grandi questioni

ne ero certa... purtroppo.
già sappiamo che la meloni dice di si a tutti.
è molto comprensiva.
e non mettetemi in bocca parole di altri: è una banderuola.
essa stessa si definirebbe "flessibile". nell'interesse dell'italia naturalmente. ma ahimé senza spina dorsale.



SABATO 8 NOVEMBRE, L'UNIONE TORNA A POMEZIA


Nel pomeriggio di sabato 8 novembre presenteremo per la prima volta le quaranta osservazioni che abbiamo presentato nella valutazione di impatto ambientale contro l'inceneritore illegale.

Metteremo in piazza le forzature che Gualtieri commissario dai pieni poteri porta avanti in spregio al diritto.

Chi come noi si batte in difesa della terra dove viviamo non ha bisogno della messa in scena organizzata in Municipio dove ne tornano a parlare dopo 3 anni.

Ci vediamo in piazza Pomezia!

#Ambiente #StopInceneritore #NoInceneritore #NoInceneritori #ZeroWaste #Rifiuti #Riciclo #EconomiaCircolare #NoAlCarbone #EnergiaPulita




Il 29 novembre chiediamo “Libertà” per il popolo palestinese


@Giornalismo e disordine informativo
articolo21.org/2025/10/il-29-n…
“Sabato 29 novembre 2025 l’Onu promuove la “Giornata Internazionale di Solidarietà con il Popolo Palestinese”. Il 29 novembre è stato scelto poiché in quel giorno del 1947, l’Assemblea Generale






#Turchia, la democrazia dei tribunali


altrenotizie.org/primo-piano/1…


it.euronews.com/my-europe/2025…

BACIOOOO BACIOOOO BACIOOOO



una parte di mondo sta per essere cancellata. ma noi no... tutto bene. non sta succedendo niente.


Da ACN le linee guida sui criteri di premialità per i fornitori: focus sulla cyber security


@Informatica (Italy e non Italy 😁)
Le linee guida per l’applicazione dei criteri di premialità incentivano l'adozione di tecnologie di sicurezza informatica. L'Acn ha messo anche a disposizione uno strumento in grado di interpretare i contenuti di una Bill of