Salta al contenuto principale



Cloud sì o cloud no: quando il cielo digitale si oscura


L’interruzione dei servizi cloud di Microsoft, avvenuta poche ore prima della pubblicazione dei risultati trimestrali, è solo l’ultimo episodio di una lunga serie di blackout che stanno mettendo in luce una vulnerabilità strutturale del nostro ecosistema digitale. Quando piattaforme come Azure o AWS si bloccano, l’effetto a catena si propaga ben oltre l’ambito tecnologico: intere aziende, servizi pubblici, piattaforme di comunicazione e persino compagnie aeree si ritrovano paralizzate.

Il cloud, nato come simbolo di efficienza, flessibilità e scalabilità, è diventato oggi una dipendenza critica. La sua promessa di disponibilità “always on” si scontra con una realtà fatta di punti di fallimento centralizzati. Bastano poche ore di inattività per mostrare quanto il mondo digitale sia fragile quando affidato a pochi provider globali.

Gli utenti sui social media hanno segnalato di non essere in grado di accedere ai siti web e ai servizi Microsoft in esecuzione sui prodotti Microsoft; anche diversi siti web Microsoft (tra cui il sito web di Xbox e la pagina dedicata alle relazioni con gli investitori) erano inattivi.

Secondo Downdetector, una piattaforma di monitoraggio degli errori che si basa sulle segnalazioni degli utenti, il problema ha iniziato a manifestarsi intorno alle 11:40 (fuso orario orientale).

Un portavoce di Microsoft ha dichiarato in un’e-mail: “Stiamo lavorando per risolvere un problema che riguarda Azure Front Door e che ha causato una riduzione della disponibilità di alcuni servizi. Gli utenti devono continuare a monitorare gli “Avvisi sullo stato dei servizi” per aggiornamenti su questo problema nella pagina Stato di Azure”.

Questa interruzione del servizio si è verificata poco più di una settimana dopo che il principale concorrente di Microsoft, Amazon Web Services, aveva subito un’interruzione di massa che aveva paralizzato numerosi siti web. Il 20 ottobre, AWS ha segnalato un “aumento significativo dei tassi di errore” quando gli utenti hanno tentato di avviare nuove istanze del suo popolare servizio cloud EC2.

Secondo i dati della società di ricerche di mercato Canalys, nel primo trimestre del 2025, AWS era leader nel mercato delle infrastrutture cloud con una quota di mercato del 32%; Microsoft Azure si è classificata al secondo posto con il 23% e Google Cloud al terzo posto con il 10%. Di recente, spinti dalla crescente domanda di carichi di lavoro di intelligenza artificiale, Azure e Google Cloud hanno superato AWS in termini di tasso di crescita.

Tutti e tre i giganti dei servizi cloud pubblicheranno i loro resoconti trimestrali sugli utili questa settimana: Microsoft e Alphabet, la società madre di Google, saranno i primi a divulgare i loro risultati dopo la chiusura del mercato mercoledì; Amazon pubblicherà il suo resoconto sugli utili giovedì.

Mercoledì pomeriggio Alaska Airlines ha dichiarato che i suoi “sistemi critici stanno subendo interruzioni” (incluso il suo sito web) a causa di un’interruzione del servizio Azure: “molti servizi di Alaska Airlines e Hawaiian Airlines sono ospitati sulla piattaforma Azure”. Alaska Airlines ha completato l’acquisizione di Hawaiian Airlines per 1,9 miliardi di dollari lo scorso anno.

L'articolo Cloud sì o cloud no: quando il cielo digitale si oscura proviene da Red Hot Cyber.



Taiwan: fino a 7 anni di carcere per chi danneggia i cavi sottomarini


Taipei, 30 ottobre 2025 – La Commissione Economica dello Yuan Legislativo di Taiwan ha approvato la prima lettura di una serie di emendamenti alle cosiddette “Sette Leggi sui Cavi Sottomarini, introdotte per contrastare i frequenti episodi di danneggiamento delle infrastrutture sottomarine che circondano l’isola.

Le modifiche – che interessano la Legge sull’Elettricità, la Legge sulle Attività del Gas Naturale e la Legge sull’Approvvigionamento Idrico – prevedono pene più severe per chi distrugge intenzionalmente condotte idriche, cavi elettrici o gasdotti subacquei, con sanzioni che possono arrivare fino a sette anni di reclusione. Inoltre, le autorità avranno il potere di confiscare le imbarcazioni impiegate per commettere tali reati.

Un pacchetto legislativo più severo


Il 18 settembre, lo Yuan Esecutivo aveva già approvato le modifiche preliminari alle sette normative: la Legge sulla Gestione delle Telecomunicazioni, la Legge sull’Elettricità, la Legge sulle Attività del Gas Naturale, la Legge sull’Approvvigionamento Idrico, la Legge sulla Meteorologia, la Legge sui Porti Commerciali e la Legge sulla Navigazione.

Con queste modifiche, il danneggiamento intenzionale di condotte sottomarine viene equiparato, dal punto di vista penale, alla distruzione dei cavi di telecomunicazione. I reati più gravi saranno puniti con pene detentive più alte, mentre per i casi di minore entità restano previste sanzioni pecuniarie e detentive proporzionate. Le nuove disposizioni includono inoltre l’obbligo di attivare i sistemi di identificazione automatica (AIS) sulle navi e la possibilità di confisca dei mezzi utilizzati per le violazioni.

Dettagli delle modifiche


Il 29 ottobre, durante una sessione di domande e risposte, la Commissione Economica ha avviato l’esame articolo per articolo delle proposte di emendamento. Tra queste figurano l’Articolo 71-1 della Legge sull’Elettricità, l’Articolo 55-1 della Legge sulle Imprese del Gas Naturale e l’Articolo 97-1 della Legge sull’Approvvigionamento Idrico.

Le bozze stabiliscono che chiunque provochi danni o interferenze al normale funzionamento delle infrastrutture di gas o acqua, o dei cavi sottomarini utilizzati per la distribuzione di energia e risorse, potrà essere condannato da uno a sette anni di carcere e multato fino a 10 milioni di dollari taiwanesi (circa 287.000 euro).

Per i reati colposi, invece, restano in vigore le norme già previste dalla Legge sulla Gestione delle Telecomunicazioni, che prevedono fino a sei mesi di reclusione o ammende fino a 2 milioni di dollari taiwanesi.

Confisca obbligatoria e prevenzione


La bozza include anche una clausola specifica che impone la confisca di tutti gli strumenti, macchinari o imbarcazioni utilizzati per commettere il reato, indipendentemente dal proprietario. L’obiettivo è quello di impedire che tali mezzi vengano riutilizzati per attività illegali.

Durante la stessa riunione, è stata inoltre approvata una risoluzione supplementare che incarica il Ministero dell’Interno di pubblicare mappe e informazioni aggiornate sui cavi e le condotte sottomarine prima della ratifica finale delle leggi. Il provvedimento prevede anche campagne di sensibilizzazione pubblica e una maggiore cooperazione tra le agenzie competenti per facilitare l’applicazione della legge e l’azione giudiziaria.

L'articolo Taiwan: fino a 7 anni di carcere per chi danneggia i cavi sottomarini proviene da Red Hot Cyber.



Il 95% delle aziende si crede pronta al ransomware. Ma solo il 15% lo è davvero!


La diffusa fiducia delle aziende nella propria resilienza informatica si trova ad affrontare una nuova ondata di minacce, questa volta provenienti dall’intelligenza artificiale. Secondo l’OpenText Cybersecurity 2025 Report, il 95% delle organizzazioni in tutto il mondo ritiene di potersi riprendere da un attacco ransomware.

Tuttavia, la realtà si è rivelata molto più complessa: solo il 15% delle vittime ha effettivamente recuperato tutti i propri dati e un numero crescente di incidenti è attribuito all’uso dell’intelligenza artificiale per scopi offensivi.

Uno studio condotto su quasi 1.800 professionisti della sicurezza e dirigenti aziendali provenienti da Stati Uniti, Canada, Europa e Australia mostra che i livelli di fiducia stanno aumentando di pari passo con l’entità dei rischi.

Le aziende stanno implementando attivamente strumenti generativi per migliorare l’efficienza operativa, ma così facendo espongono anche nuove vulnerabilità. Quasi il 90% degli intervistati consente ai dipendenti di utilizzare servizi di intelligenza artificiale, ma meno della metà (48%) ne ha formalizzato l’utilizzo nelle policy. Le piccole e medie imprese sono particolarmente vulnerabili, con solo il 43% che ha implementato tali misure.

Il problema è aggravato non solo da errori interni, ma anche da dipendenze esterne. Un’azienda su quattro ha segnalato una violazione tramite i fornitori di software e quasi la metà (45%) delle aziende che hanno subito la crittografia dei dati ha infine pagato il riscatto. Il 30% ha trasferito oltre 250.000 dollari agli aggressori, ma solo il 2% ha ripristinato completamente i propri sistemi. Ciononostante, tre quarti delle organizzazioni hanno iniziato a sottoporre a audit sistematici i propri fornitori e a implementare procedure di gestione delle patch.

Oltre la metà degli intervistati ha riconosciuto un aumento degli attacchi di phishing e basati sull’intelligenza artificiale, e il 44% ha riscontrato tentativi di impersonare individui tramite deepfake . Le principali preoccupazioni riguardano le fughe di dati (29%), gli attacchi automatizzati (27%) e i video falsi (16%). Nel frattempo, il 71% dei senior manager ha incluso la minaccia del ransomware tra i tre principali rischi aziendali e due terzi hanno osservato che partner e clienti hanno iniziato a informarsi regolarmente sulla sicurezza aziendale.

I piani per il 2026 riflettono questo cambiamento di priorità: le aziende prevedono di investire principalmente nella sicurezza delle infrastrutture cloud (58%), nei backup (52%) e nella formazione dei dipendenti (52%). Quasi l’80% svolge già regolarmente corsi di formazione sulla sicurezza informatica, sebbene il 4% non abbia alcuna iniziativa del genere.

OpenText Cybersecurity sottolinea che la lotta al ransomware richiede ora non solo misure interne, ma anche una stretta collaborazione tra organizzazioni, fornitori e partner tecnologici. Questo è l’unico modo per correggere le vulnerabilità prima che vengano sfruttate dall’intelligenza artificiale, che sta rapidamente diventando un nuovo strumento a disposizione dei criminali informatici.

L'articolo Il 95% delle aziende si crede pronta al ransomware. Ma solo il 15% lo è davvero! proviene da Red Hot Cyber.



Making RAM for a TMS9900 Homebrew Computer


Schematic diagram of part of RAM

Over on YouTube [Usagi Electric] shows us how to make RAM for the TMS9900.

He starts by remarking that the TI-99/4A computer is an excellent place to start if you’re interested in getting into retro-computing. Particularly there are a lot of great resources online, including arcadeshopper.com and the AtariAge forums.

The CPU in the TI-99 is the TMS9900. As [Usagi Electric] explains in the video this CPU only has a few registers and most actual “registers” are actually locations in RAM. Because of this you can’t do much with a TMS9900 without RAM attached. So he sets about making some RAM for his homebrew TMS9900 board. He uses Mitsubishi M58725P 16 kilobit (2 kilobyte) static RAM integrated circuits; each has 11 address lines and 8 data lines, so by putting two side-by-side we get support for 16-bit words. Using six M58725Ps, in three pairs, we get 6 kilowords (12 kilobytes).

He builds out his RAM boards by adding 74LS00 Quad 2-input NAND gates and 74LS32 Quad 2-input OR gates. Anticipating the question as to why he uses NAND gates and OR gates he explains that he uses these because he has lots of them! Hard to fault that logic. (See what we did there?)

After a quick introduction to the various animals in his household [Usagi Electric] spends the rest of the video assembling and testing his RAM. For testing the RAM with full feature coverage a simple assembly program is written and then compiled with a custom tool chain built around a bunch of software available on the internet. Success is claimed when the expected trace is seen on the oscilloscope.

Of course we’ve seen plenty of TMS9900 builds before, such as with this TMS9900 Retro Build.

youtube.com/embed/YMdh74Grcqo?…


hackaday.com/2025/10/29/making…



Il SEO dell’inganno! La rete fantasma scoperta da RHC che penalizza la SERP


Analisi RHC sulla rete “BHS Links” e sulle infrastrutture globali di Black Hat SEO automatizzato

Un’analisi interna di Red Hot Cyber sul proprio dominio ha portato alla luce una rete globale di Black Hat SEO denominata “BHS Links”, capace di manipolare gli algoritmi di Google attraverso backlink automatizzati e contenuti sintetici.

Molti di questi siti, ospitati su reti di proxy distribuite in Asia, generavano backlink automatizzati e contenuti sintetici con l’obiettivo di manipolare gli algoritmi di ranking dei motori di ricerca.

Queste infrastrutture combinavano IP rotanti, proxy residenziali e bot di pubblicazione per simulare segnali di traffico e autorità, una strategia pensata per rendere l’attacco indistinguibile da attività organica e per aggirare i controlli automatici dei motori di ricerca.

Dalle infrastrutture asiatiche a “BHS Links”


Nel corso dell’indagine però, tra i vari cluster osservati, uno in particolare ha attirato l’attenzione per dimensioni, coerenza e persistenza operativa: la rete non asiatica denominata “BHS Links”, attiva almeno da maggio 2025.

A differenza dei gruppi asiatici frammentati, BHS Links si presenta come un ecosistema strutturato di “Black Hat SEO as a Service”, che sfrutta automazione, tecniche antiforensi e domini compromessi per vendere ranking temporanei a clienti anonimi di vari settori, spesso ad alto rischio reputazionale (scommesse, pharma, trading, adult).

Architettura e domini coinvolti


L’infrastruttura di BHS Links comprende decine di domini coordinati, tra cui:

  • bhs-links-anchor.online
  • bhs-links-ass.online
  • bhs-links-boost.online
  • bhs-links-blast.online
  • bhs-links-blastup.online
  • bhs-links-crawlbot.online
  • bhs-links-clicker.online
  • bhs-links-edge.online
  • bhs-links-elite.online
  • bhs-links-expert.online
  • bhs-links-finder.online
  • bhs-links-fix.online
  • bhs-links-flux.online
  • bhs-links-family.online
  • bhs-links-funnel.online
  • bhs-links-genie.online
  • bhs-links-hub.online
  • bhs-links-hubs.online
  • bhs-links-hive.online
  • bhs-links-info.online
  • bhs-links-insight.online
  • bhs-links-keyword.online
  • bhs-links-launch.online
  • bhs-links-move.online
  • bhs-links-net.online
  • bhs-links-power.online
  • bhs-links-pushup.online
  • bhs-links-rankboost.online
  • bhs-links-rise.online
  • bhs-links-signal.online
  • bhs-links-snap.online
  • bhs-links-spark.online
  • bhs-links-stack.online
  • bhs-links-stacker.online
  • bhs-links-stats.online
  • bhs-links-storm.online
  • bhs-links-strategy.online
  • bhs-links-target.online
  • bhs-links-traffic.online
  • bhs-links-vault.online
  • bhs-links-zone.online

Ogni dominio funge da nodo di ridistribuzione: aggrega backlink, genera nuove pagine, replica codice HTML da siti legittimi e rimanda al canale Telegram ufficiale t.me/bhs_links.

Molti domini sono protetti da Cloudflare e ospitati su server offshore, rendendo difficile la tracciabilità. I log forensi indicano anche filtraggio selettivo di Googlebot e pattern di cloaking deliberato.

Cloaking attivo rilevato su bhs-links-blaze.online


Un test condotto da RHC tramite curl con differenti User-Agent ha evidenziato un comportamento di cloaking selettivo, pratica vietata dalle Google Search Essentials.

C:\Users\OSINT>curl -I -A "Googlebot/2.1 (+google.com/bot.html)" bhs-links-blaze.online
HTTP/1.1 403 Forbidden
Server: cloudflare

C:\Users\OSINT>curl -I -A "Mozilla/5.0 (Windows NT 10.0; Win64; x64)" bhs-links-blaze.online
HTTP/1.1 200 OK
Server: cloudflare


Il sito blocca deliberatamente i crawler di Google, rendendo invisibili i propri contenuti promozionali per evitare penalizzazioni. La regola Cloudflare è simile a:

Regola: Block Googlebot
Condizione: (http.user_agent contains “Googlebot”)
Azione: Block


Dal punto di vista forense, si tratta di una tecnica antiforense deliberata, utile a eludere i controlli automatici di Google, nascondere la rete di clienti e backlink generati artificialmente e disturbare l’analisi OSINT basata su crawling.

Target italiani e sfruttamento del “trust locale”


Durante l’analisi del codice sorgente di più domini BHS, RHC ha rilevato centinaia di link verso siti italiani legittimi, tra cui:

Ansa, repubblica.it, gazzetta.it, fanpage.it, legaseriea.it, adm.gov.it, gdf.gov.it, liceoissel.edu.it, meteofinanza.com, aranzulla.it, superscudetto.sky.it.

Tutti i domini citati sono vittime passive di citazione algoritmica e non coinvolti in attività illecite.

Questi siti web non sono compromessi: vengono citati in modo passivo per sfruttarne la reputazione. È una strategia basata sul cosiddetto trust semantico, dove la semplice co-occorrenza tra un sito affidabile e un dominio malevolo induce l’algoritmo a interpretare quest’ultimo come credibile. In altre parole, BHS Links non buca i siti, ma li usa come riflettori reputazionali. Una tattica che consente ai clienti di ottenere boost di ranking temporanei, soprattutto nei settori gambling, forex e adult.

Come nascondono i link


Nel codice sorgente delle pagine analizzate compare un elemento ricorrente: una lista racchiusa in un blocco <ul style="display:none">. Questa sintassi HTML/CSS significa letteralmente “crea una lista non ordinata, ma non mostrarla all’utente”, il browser riceve il markup ma non lo rende visibile perché la regola CSS display:none impedisce la visualizzazione dell’elemento e di tutto il suo contenuto.

A prima vista può sembrare innocuo, ma in realtà rappresenta una delle tattiche più subdole del cloaking semantico: i link vengono resi invisibili ai visitatori umani, ma restano presenti nel sorgente e dunque leggibili dai crawler dei motori di ricerca.

In questo modo il network BHS Links inietta decine di riferimenti nascosti verso domini esterni, forum, casinò online e siti di affiliazione, tutti corredati dal marchio “TG @BHS_LINKS – BEST SEO LINKS – https://t.me/bhs_links”. Il server può servire due versioni della stessa pagina, una pubblica e “pulita” per gli utenti e una destinata ai bot, oppure lasciare lo stesso HTML che, pur essendo nascosto via CSS, viene comunque indicizzato come shadow content: un contenuto fantasma che vive nel codice ma non sulla pagina visibile.

Googlebot e altri crawler analizzano il sorgente e i link anche quando sono nascosti tramite CSS; di conseguenza i riferimenti invisibili vengono interpretati come segnali di co-occorrenza e autorevolezza, attribuendo al dominio malevolo una falsa credibilità. In termini pratici, BHS Links crea così un ponte reputazionale artificiale tra i propri domini e portali reali (testate giornalistiche, siti regolamentati, blog autorevoli). Per l’utente tutto appare normale; per l’algoritmo si tratta invece di una rete ricca di collegamenti tematici e autorevoli. È proprio questa discrepanza, tra ciò che vede l’uomo e ciò che interpreta l’algoritmo, a rendere l’avvelenamento semantico così efficace e difficile da individuare.

Le prove dell’inganno semantico: oltre l’iniezione


In tutti i casi analizzati, dopo l’iniezione di codice già descritta, le evidenze tecniche convergono su altri due indizi ricorrenti che completano la triade dell’inganno semantico:

  • hash differenti tra la versione “normale” e quella servita a Googlebot,
  • rotazione semantica dei blocchi dinamici del CMS

Questi elementi, nel loro insieme, costituiscono la firma tecnica ricorrente dell’operazione BHS Links.

Gli Hash divergenti


Gli hash SHA-256 calcolati per ogni file confermano con precisione la manipolazione semantica.
Nel caso d’esempio, i valori rilevati mostrano due versioni distinte della stessa pagina:

  • 2C65F50C023E58A3E8E978B998E7D63F283180495AC14CE74D08D96F4BD81327normal.html, versione servita all’utente reale
  • 6D9127977AACF68985B9EF374A2B4F591A903F8EFCEE41512E0CF2F1EDBBADDEgooglebot.html, versione destinata al crawler di Google

La discrepanza tra i due hash è la prova più diretta di cloaking attivo: il server restituisce due codici HTML diversi a seconda di chi effettua la richiesta.
Il file diff.txt, con hash FF6B59BB7F0C76D63DDA9DFF64F36065CB2944770C0E0AEBBAF75AD7D23A00C6, documenta le righe effettivamente differenti tra le due versioni, costituendo la traccia forense della manipolazione.

Ecco invece come appare uno dei siti citati, rimasto intatto e non alterato da cloacking


La rotazione semantica: la riscrittura invisibile


Dopo la verifica degli hash, l’analisi del codice rivela un’ulteriore strategia di manipolazione: la rotazione semantica dei contenuti.

In questo schema, il CMS Bitrix24 genera blocchi dinamici con ID diversi a seconda dello user-agent. I file normal.html e googlebot.html mostrano lo stesso contenuto ma con ordine invertito, una rotazione semantica che modifica la priorità logica dei link interni. Agli occhi di Googlebot il sito appare semanticamente riscritto: alcune sezioni, spesso quelle contenenti riferimenti nascosti al marchio BHS Links, acquisiscono un peso maggiore nel grafo semantico, influenzando la valutazione di autorevolezza. È una manipolazione invisibile ma precisa, che agisce sulla gerarchia cognitiva dell’algoritmo.

Per verificare l’anomalia, RHC ha confrontato le due versioni di alcuni siti acquisite in locale: normal.html (utente reale) e googlebot.html (crawler Google).
Nel codice servito a Googlebot compaiono ID di sezione diversi generati dal CMS, come helpdesk_article_sections_lGqiW e helpdesk_article_sections_0A6gh, mentre nella versione normale gli stessi blocchi assumono ID differenti, ad esempio C7TgM e pAZJs.

Questa variazione non cambia l’aspetto visivo della pagina, ma modifica la struttura logica letta dal motore di ricerca: Googlebot interpreta i contenuti con una gerarchia diversa, assegnando maggiore rilevanza a certi link interni. È il meccanismo della rotazione semantica: una riscrittura invisibile che orienta la comprensione algoritmica della pagina.

Nel codice della versione per bot, è inoltre presente una riga che non esiste nel file normale:
form.setProperty("url_page","https://helpdesk.bitrix24.it/open/19137184/,TG @BHS_LINKS - BEST SEO LINKS - https://t.me/bhs_links")

Il furto semantico: quando il Black Hat SEO diventa un’arma reputazionale


Le stesse tecniche di manipolazione semantica impiegate dal network BHS Links, se rivolte contro domini legittimi, si trasformano in Negative SEO: un’arma reputazionale capace di contaminare i risultati di ricerca, duplicare contenuti e indurre l’algoritmo di Google a svalutare la fonte originale.

Il caso Red Hot Cyber


Durante l’analisi, RHC ha documentato la duplicazione dell’headline istituzionale

“La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.”

Questa frase, appartenente al portale ufficiale Red Hot Cyber, è comparsa su portali spam e domini compromessi di varia provenienza, accostata a titoli pornografici o clickbait.

Le evidenze raccolte mostrano risultati su Google come:

  • peluqueriasabai.esDonna cerca uomo Avezzano contacted the booker and set up
  • restaurantele42.frEmiok OnlyFans porn I have seen a few delightful FBSM
  • lucillebourgeon.frLa Camila Cruz sex total GFE and I walked away as super
  • benedettosullivan.frBaad girl Sandra her images caught my eye and I had time
  • serrurier-durand.frSexs web the girl is a striking bisexual African American

In tutti i casi, la descrizione sotto il titolo riportava il testo di Red Hot Cyber, creando un effetto paradossale:
contenuti pornografici o spam presentati con il tono di una testata di cybersecurity affidabile.

Questo meccanismo è il cuore del furto semantico: l’algoritmo di Google unisce automaticamente titolo e descrizione in base a indizi semantici, generando risultati ibridi e apparentemente credibili.
Così, brand reali e frasi autorevoli diventano involontarie esche reputazionali per spingere in alto network malevoli.

Nel caso Red Hot Cyber, la frase originale è stata estratta dal dominio principale, indicizzata in cache e riutilizzata per costruire falsi snippet di autorevolezza, che rafforzano l’immagine di affidabilità dei siti compromessi.

È una forma di Negative SEO di terza generazione: non distrugge direttamente il sito bersaglio, ma ne riutilizza l’identità per ingannare gli algoritmi di ranking e, con essi, la percezione stessa della reputazione digitale.

Il secondo livello dell’inganno: il circuito TDS


Dietro al furto semantico si nasconde una struttura più profonda e funzionale: il Traffic Direction System (TDS) della rete BHS Links.
L’analisi dei dump HTML e delle stringhe Base64 decodificate ha permesso di risalire a questa infrastruttura, progettata per smistare e monetizzare il traffico manipolato attraverso il SEO.

I reindirizzamenti individuati puntano verso un gruppo stabile di domini che costituisce il cuore del circuito dating-affiliate della rete, attivo da mesi e già osservato in contesti internazionali.

Tra i principali, seekfinddate.com agisce come nodo centrale di smistamento, presente nella quasi totalità dei dump analizzati.
Da lì, il traffico viene indirizzato verso romancetastic.com, singlegirlsfinder.com, finddatinglocally.com, sweetlocalmatches.com e luvlymatches.com, che operano come landing page di reti di affiliazione riconducibili a circuiti come Traffic Company, AdOperator e ClickDealer.

A collegare questi livelli si trovano domini-ponte come go-to-fl.com, bt-of-cl.com e bt-fr-cl.com, che mascherano i redirect e spesso si appoggiano a Cloudflare per nascondere l’origine del traffico.
Completano la catena front-end alternativi come mydatinguniverse.com, chilloutdate.com, privatewant.com e flirtherher.com, che reindirizzano dinamicamente in base all’indirizzo IP, alla lingua o al dispositivo dell’utente.

In pratica, le pagine compromesse o sintetiche della rete BHS includono redirect cifrati che portano prima ai nodi TDS e poi alle landing di affiliazione o alle truffe a tema dating.
L’analisi dei parametri (tdsid, click_id, utm_source, __c) conferma il tipico schema di tracciamento d’affiliazione: una pagina BHS, un dominio TDS (ad esempio seekfinddate.com), e infine una landing commerciale o fraudolenta.

Molti di questi domini risultano ospitati su Cloudflare (AS13335) o su server offshore nei Paesi Bassi, a Cipro o a Panama, con TTL molto bassi e registrazioni recenti, una firma operativa tipica delle reti di cloaking SEO.

L’analisi incrociata degli indirizzi IP e dei sistemi autonomi (ASN) conferma la sovrapposizione infrastrutturale tra i due livelli della rete.
I domini del circuito “dating-affiliate”, come seekfinddate.com, romancetastic.com, singlegirlsfinder.com e mydatinguniverse.com, risultano ospitati su Amazon AWS (AS16509), mentre i domini del network BHS Links, come bhs-links-zone.online, bhs-links-anchor.online e bhs-links-suite.online, sono serviti da Cloudflare (AS13335).

Questa doppia architettura lascia pensare a una divisione di ruoli precisa: Amazon ospita i nodi di smistamento e monetizzazione, mentre Cloudflare garantisce l’offuscamento e la persistenza dei domini SEO.
La ripetizione degli stessi blocchi IP e la coincidenza tra ASN dimostrano che si tratta di un’infrastruttura coordinata, in cui la reputazione viene manipolata su un fronte e monetizzata sull’altro.

Caso correlato: backlinks.directory e indici automatizzati


Durante l’indagine è emerso anche il dominio backlinks.directory (mirror di backlinksources.com), un portale che pubblica elenchi automatizzati di oltre un milione di domini, organizzati in blocchi numerati da 1000 record ciascuno (es. domain-list-403, domain-list-404).

Le verifiche tecniche condotte con User-Agent differenti (Googlebot e browser standard) hanno restituito in entrambi i casi una risposta HTTP 200 OK, escludendo la presenza di cloaking o blocchi selettivi. Il dominio risulta pienamente accessibile e consultabile anche da bot di scansione, suggerendo una funzione di archivio automatizzato più che di infrastruttura antiforense.

La struttura progressiva degli URL e la presenza di parametri come “Domain Power” indicano l’impiego di crawler o scraper automatici per replicare e classificare backlink su larga scala. Questi indici possono essere utilizzati per alimentare link farm di seconda generazione, impiegate come proof-of-delivery per servizi di Black Hat SEO o per simulare una crescita organica di backlink acquistati.

Negative SEO: confine e relazione con il Black Hat SEO (BHS)


Il Negative SEO (NSO) rappresenta la declinazione offensiva delle stesse tecniche impiegate nel Black Hat SEO (BHS), ma con finalità distruttiva. Invece di migliorare la visibilità di un sito, l’obiettivo è danneggiare un dominio concorrente, compromettendone la reputazione digitale fino a causarne la perdita di ranking o addirittura una penalizzazione algoritmica o manuale da parte dei motori di ricerca.

Le pratiche più comuni di BHS, link farm, reti PBN (Private Blog Network), cloaking, reindirizzamenti ingannevoli e compromissioni di CMS, diventano, se applicate contro terzi, vere e proprie armi di Negative SEO, capaci di infettare la reputazione di un dominio legittimo con migliaia di backlink tossici o contenuti manipolati.

A rendere il fenomeno più subdolo è il fatto che molti servizi BHS nati con finalità promozionali, come la vendita di backlink o guest post su siti compromessi, possono generare effetti collaterali di Negative SEO anche in assenza di un intento malevolo diretto. La diffusione automatizzata di link su larga scala, senza filtri di qualità o controllo sull’origine dei domini, finisce per creare una rete di contaminazioni digitali che colpisce indistintamente vittime e aggressori, rendendo il confine tra promozione e sabotaggio sempre più labile.

Rilevamento e analisi dei segnali di attacco SEO


La diagnostica forense SEO parte spesso da segnali visibili direttamente nella Google Search Console (GSC), che rappresenta il primo strumento di allerta in caso di inquinamento o attacco.
Tra i sintomi più frequenti si osservano:

  • un crollo improvviso del traffico organico, non giustificato da aggiornamenti di algoritmo o stagionalità;
  • una perdita anomala di ranking su keyword strategiche, spesso sostituite da risultati di siti di scarsa qualità;
  • la comparsa di Azioni manuali per link non naturali o contenuti sospetti.

Questi indizi, presi insieme, suggeriscono che il dominio possa essere stato esposto a campagne di link tossici o schemi di manipolazione tipici del Negative SEO. Da qui si procede all’analisi tecnica dei backlink, alla verifica dei referral sospetti e all’eventuale bonifica tramite strumenti di disavow.

Audit dei backlink


L’audit dei backlink è una delle fasi più importanti nella diagnosi di compromissioni SEO.
Attraverso l’analisi sistematica dei collegamenti in ingresso, è possibile distinguere i link organici e progressivi, generati nel tempo da contenuti autentici o citazioni spontanee, da quelli artificiali o tossici, prodotti in modo massivo da reti automatizzate come BHS Links.

Un’analisi di questo tipo non si limita a contare i link, ma valuta la qualità semantica, la coerenza tematica e la distribuzione geografica delle sorgenti. Quando numerosi backlink provengono da domini appena registrati, con struttura HTML simile o ancore ripetitive, il segnale diventa chiaro: si è di fronte a un ecosistema costruito per alterare il ranking.

Nel caso specifico di BHS Links, il tracciamento dei collegamenti ha evidenziato pattern ricorrenti: picchi improvvisi di link in uscita, ancore manipolate con parole chiave commerciali, e riferimenti incrociati verso directory nascoste. Tutti indizi tipici di un’operazione di SEO artificiale, mirata non solo a spingere i propri domini, ma anche a inquinare semanticamente quelli legittimi collegati.

Risposta e mitigazione


Quando un dominio mostra segnali di compromissione o riceve backlink tossici, la prima azione consiste nel mappare e isolare i domini sospetti. I link dannosi possono essere raccolti in un semplice file di testo (.txt, codifica UTF-8) nel seguente formato:

domain:bhs-links-hive.online
domain:bhs-links-anchor.online
domain:bhs-links-blaze.online
domain:backlinks.directory

Il file va poi caricato nella Google Search Console, sezione Disavow Tool, per comunicare al motore di ricerca di ignorare i link provenienti da quei domini. È importante monitorare nel tempo gli effetti dell’operazione: la rimozione dell’impatto negativo può richiedere settimane, a seconda della frequenza di scansione del sito da parte di Googlebot.

In caso di penalizzazione manuale, è possibile presentare una richiesta di riconsiderazione, fornendo una documentazione chiara delle azioni intraprese:

  • descrivere il tipo di manipolazione o attacco subito (p.es. link innaturali, contenuti generati automaticamente);
  • spiegare in dettaglio le misure correttive adottate (rimozione e/o disavow dei link, bonifica del server, rimozione di contenuti spam);
  • allegare documentazione pertinente (per esempio screenshot, elenco dei cambiamenti, file di disavow, registri delle richieste di rimozione link) per illustrare l’intervento;
  • verificare che il sito sia accessibile a Googlebot (nessun blocco in robots.txt, pagine chiave indicizzabili e sitemap aggiornate)


Difesa preventiva e monitoraggio


Una strategia di difesa realmente efficace passa dalla prevenzione continua e dal controllo costante dell’ecosistema digitale. Le pratiche più raccomandate includono:

  • audit periodici dei backlink (almeno mensili), per intercettare rapidamente picchi anomali o nuovi domini di provenienza sospetta;
  • verifica regolare dei file .htaccess e robots.txt, per individuare tempestivamente eventuali iniezioni di codice, redirect non autorizzati o blocchi impropri al crawler;
  • monitoraggio dei DNS e delle classi IP condivise (Class C), utile per individuare co-hosting rischiosi o connessioni con reti compromesse;
  • formazione SEO interna e sensibilizzazione del personale, per evitare la collaborazione con fornitori o agenzie che utilizzano tecniche “black hat” mascherate da strategie di link building aggressive


I danni causati da una operazione di SEO Negativa


Un’operazione di SEO negativa può iniziare con una serie di azioni malevole mirate a compromettere la sua reputazione agli occhi dei motori di ricerca. Gli attaccanti possono, come in questo caso, generare migliaia di backlink di bassa qualità da siti spam o penalizzati, facendo sembrare che il portale stia tentando di manipolare artificialmente il proprio posizionamento. Questo tipo di attacco può indurre Google a ridurre la fiducia nel dominio, con un conseguente calo drastico del ranking organico e una perdita significativa di traffico.

Un caso tipico è la duplicazione dei contenuti, e questo può avvenire quando elementi distintivi del portale, come headline originali o slogan, vengono copiati e riutilizzati da siti terzi in modo malevolo. Ad esempio, l’headline “La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.”, originariamente concepita per promuovere la filosofia di Red Hot Cyber, è stata rilevata in diversi post pubblicati su portali sconosciuti o di scarsa qualità, come visto in precedenza, utilizzati per pratiche di black SEO.

I danni derivanti da un’operazione di black SEO possono essere profondi e di lunga durata, andando ben oltre la semplice perdita di posizionamento sui motori di ricerca. Oltre al calo di traffico organico e alla riduzione della visibilità, il portale può subire un deterioramento della fiducia sia da parte degli utenti sia degli algoritmi di ranking. Quando un sito viene associato, anche indirettamente, a pratiche di spam, link farming o duplicazione di contenuti, i filtri di Google e Bing possono applicare penalizzazioni algoritmiche o manuali che richiedono mesi per essere rimosse.

Conclusioni


La rete BHS Links rappresenta un caso emblematico di Black Hat SEO industrializzato, in cui tecniche di manipolazione un tempo marginali si trasformano in servizi globali automatizzati.

L’inclusione di siti italiani reali all’interno del codice HTML dimostra come la frontiera del [strong]Black Hat SEO[/strong]e del Negative Seo non passi più dall’hacking tradizionale, ma da una forma più sottile di sovrapposizione semantica e reputazionale, capace di confondere gli algoritmi di ranking e i criteri di autorevolezza.

Per Google e per i webmaster il rischio è duplice:

  • a perdita temporanea di ranking, con impatti economici immediati;
  • l’erosione della fiducia negli algoritmi di valutazione, su cui si fonda l’intero ecosistema della ricerca

Quando la fiducia è l’unico algoritmo che non si può corrompere, difendere la trasparenza non è più una scelta tecnica, ma un atto di resistenza digitale.

L'articolo Il SEO dell’inganno! La rete fantasma scoperta da RHC che penalizza la SERP proviene da Red Hot Cyber.



La gestione degli incidenti informatici nell’epoca del NIS2


Il Decreto NIS 2 (D. Lgs. 138/2024), in vigore dal 16 ottobre 2024, recepisce i principi della Direttiva Europea NIS2, ponendo le basi per un modello operativo di collaborazione tra i soggetti interessati e l’autorità competente più articolato rispetto al passato, per quanto attiene la gestione degli incidenti informatici. Tale gestione si fa, in buona sostanza, più rigorosa, strutturata e vincolante, con obblighi di notifica estesi e tempistiche precise per imprese e pubbliche amministrazioni.

Infatti, per l’adempimento degli obblighi di cui agli articoli 23, 24, e 25 del decreto, i soggetti NIS sono tenuti ad adottare le misure di sicurezza e a notificare al CSIRT Italia – ovvero l’unità istituita presso l’ACN per monitorare e rispondere agli incidenti di cyber security in Italia – gli incidenti più significativi, come stabilito dalla determinazione ACN 164179 del 14 aprile 2025 e relativi allegati.

In questo contesto, grande importanza è assunta dall’articolo 25, che prevede non solo obblighi più rigorosi in materia di notifica di incidenti all’autorità competente, ma anche un processo disegnalazione strutturato a più fasi.

Tutti i soggetti pubblici e privati che rientrano nel campo di applicazione del Decreto si sono dovuti obbligatoriamente registrare sulla piattaforma digitale dedicata dell’ACN, indicando un Punto di Contatto e trasmettendo le informazioni essenziali, inclusi indirizzi IP, domini e organi direttivi. Obbligo che si rinnoverà annualmente per quanto attiene all’aggiornamento di tali informazioni.

A partire da gennaio 2026 i soggetti importanti dovranno notificare al CSIRT Italia gli incidenti significativi elencati nell’allegato 3 della determinazione ACN mentre i soggetti essenziali quelli indicati nell’allegato 4.

A questo proposito, al Punto di Contatto si è recentemente aggiunto l’obbligo del Referente CSIRT (determinazione ACN 250916), che dovrà essere designato entro il 31 dicembre, con il compito specifico di interloquire con lo CSIRT Italia per la notifica degli incidenti, avendo le competenze necessarie per ricoprire questo ruolo.

Ma notificare gli incidenti significa anche strutturarsi con tecnologie e processi che permettano di rilevare tempestivamente gli incidenti e di gestirne correttamente tutte le fasi tipiche dell’incident handling, conformemente anche a quanto previsto dalla normativa stessa.

I soggetti, pertanto, entro la fine dell’anno in corso devono già adempiere ad una serie di obblighi specificatamente riferiti alla gestione degli incidenti, ancor prima di completare tutti gli altri adempimenti previsti dal Decreto, la cui scadenza è stata fissata ad ottobre 2026.

Obblighi e criteri più stringenti


Tutte le organizzazioni che rientrano fra i soggetti identificati dal Decreto sono tenuti a:

  1. Adottare misure tecniche, organizzative e procedurali proporzionate al rischio.
  2. Implementare piani di gestione degli incidenti (inclusi rilevamento, risposta e recupero).
  3. Mantenere registri aggiornati degli incidenti.

In forza dell’articolo 25 del Decreto, i soggetti essenziali e i soggetti importanti sono tenuti a notificare al CSIRT Italia ogni incidente che abbia un impatto significativo sulla fornitura dei propri servizi. Le notifiche devono contenere tutte le informazioni necessarie affinché il CSIRT Italia possa valutare l’eventuale impatto sia a livello nazionale che transfrontaliero dell’incidente.

Tale comunicazione non comporta, per il soggetto che la effettua, un incremento delle responsabilità rispetto a quelle già connesse all’evento stesso, sebbene esso stesso sia una sorta di autodenuncia verso l’Autorità competente e quindi andrà svolta con tutte le cautele del caso, coinvolgendo sia le funzioni tecniche (interne o esterne) per le analisi approfondite, che gli organi direttivi e legali per valutare accuratamente gli impatti.

Inoltre, per essere considerato “significativo”, un incidente deve causare o potenzialmente determinare gravi perturbazioni operative o perdite finanziarie, oppure avere ripercussioni rilevanti, con danni materiali o immateriali considerevoli su persone fisiche o giuridiche. In questo modo, la definizione si estende oltre la mera dimensione tecnica, includendo anche le conseguenze economiche e sociali dell’evento.

Da notare che la definizione di “incidente significativo” fornita da ACN nei citati allegati si discosta da quella del Regolamento Esecutivo NIS2 2690/2024 emesso dalla CE. Tale regolamento, sebbene si applichi ai soli soggetti che erogano servizi digitali, resta pur sempre di valido aiuto per la comprensione di tale definizione (cfr. Artt 3-14) e, in generale, rappresenta un validissimo framework di sicurezza che compendia tutte le misure previste dalla NIS2 (cfr. allegato al Regolamento).

Tempistiche e fasi di notifica


Il decreto impone a tutti i soggetti essenziali e importanti una sequenza di comunicazioni progressive, finalizzate a fornire al CSIRT un quadro costantemente aggiornato della situazione:

  • Entro 24 ore dalla scoperta dell’incidente, deve essere inviata una pre-notifica, che indichi – se possibile – la natura dell’evento, l’eventuale origine malevola e il potenziale impatto transfrontaliero.
  • Entro 72 ore, deve essere trasmessa una notifica completa e dettagliata, contenente una prima valutazione della gravità e dell’impatto, nonché eventuali indicatori di compromissione.
  • Su richiesta del CSIRT Italia, possono seguire relazioni intermedie per aggiornare lo stato dell’incidente.
  • Entro un mese dalla notifica va inviata una relazione finale, che ne descriva gravità ed impatto, il tipo di minaccia o la sua origine (root cause), le misure di mitigazione adottate e in corso e l’eventuale impatto transfrontaliero. Se l’incidente è ancora in corso al momento della trasmissione della relazione finale, è prevista una relazione mensile sui progressi e una relazione finale entro un mese dalla conclusione della gestione dell’incidente.

La notifica va svolta caratterizzando l’incidente mediante la Tassonomia Cyber di ACN che ha lo scopo di agevolare lo scambio di informazioni mediante un lessico comune per la condivisione di informazioni riguardo eventi cyber tra le entità impattate, nonché per la notifica al CSIRT Italia. Purtroppo, tale tassonomia è adottata solo in Italia per cui, per incidenti transfrontalieri, perde un po’ della sua efficacia.

Nel caso in cui l’incidente significativo comporta anche una violazione di dati personali (data breach) sarà necessaria un’ulteriore notifica, questa volta verso l’autorità Garante per la Protezione dei Dati Personali, ma con tempistiche e modalità differenti (entro le 72 ore).

Se poi, il soggetto è un istituto bancario che rientra nel perimetro del Regolamento DORA, è prevista una ulteriore notifica verso l’autorità nazionale di vigilanza finanziaria (Banda d’Italia).

Insomma, il processo di notifica si può complicare notevolmente, per cui il soggetto dovrà adeguatamente strutturarsi per poter far fronte a tutti questi adempimenti, avvalendosi di profili professionali (interni e/o esterni) in grado di potersi districare agevolmente in questo ginepraio normativo, rispettando tempistiche molto stringenti che escludono qualsiasi sorta di improvvisazione.

Infatti, la mancata notifica o l’inadempienza agli obblighi può comportare limitazioni operative, soprattutto per i soggetti essenziali, e sanzioni economiche rilevanti, significativamente più severe rispetto a quelle previste dalla NIS1, con massimi edittali sino a 10M€ (o 2% del fatturato annuo) per i soggetti essenziali e a 7M€ (o 1,4% del fatturato annuo) per i soggetti importanti.

Altra novità riguarda i minimi edittali, proporzionali al massimo (1/20 o 1/30), il che significa che ci potrà essere molto meno discrezionalità sulla sanzione minima irrogata. Per i soggetti pubblici le sanzioni previste sono più ridotte (da 25K€ a 125K€), ma possono essere anche personali, degli amministratori e dirigenti preposti, per esempio per gravi negligenze nella governance della cybersecurity o per non aver dato seguito alle diffide di ACN.

Il ruolo chiave dello CSIRT


La NIS2 rafforza il ruolo di supervisione dell’Authority sugli incidenti informatici e, in questo contesto, il CSIRT Italia svolge un ruolo centrale, ricevendo le notifiche e fornendo supporto tecnico ai soggetti pertinenti.

Il CSIRT Italia è l’organo di ACN che si occupa di monitoraggio preventivo e risposta agli incidenti informatici e fa parte della comunità dei CERT mondiali (FIRST). Ha iniziato ad operare dal 2020 assumendo i compiti in precedenza in capo al CERT Nazionale e al CERT-PA.

Nell’ambito della NIS2 il CSIRT dovrà assumere diversi compiti, sia di tipo reattivo (monitoraggio e analisi, supporto operativo nella risposta, analisi forense, awareness, ecc.) che proattivo (emissioni bollettini, alert, early warning, scansioni periodiche, ecc.).

Entro 24 ore dalla pre-notifica, deve fornire un riscontro iniziale, con eventuali suggerimenti di mitigazione, e può offrire ulteriore assistenza su richiesta. In caso di eventi con carattere criminale, il CSIRT indirizza il soggetto verso le Autorità competenti, garantendo il raccordo tra risposta tecnica e investigativa.

I soggetti, solo a seguito del parere favorevole del CSIRT, devono informare i propri utenti senza ingiustificato ritardo, quando l’incidente può avere un impatto significativo sulla fornitura dei servizi, comunicando le misure di mitigazione intraprese in presenza di minacce significative.

Infine, il CSIRT può condividere pubblicamente gli incidenti significativi per prevenire ulteriori attacchi o tutelare l’interesse pubblico, eventualmente estendendo tale comunicazione agli altri Stati membri.

È evidente, quindi, che i compiti del CSIRT sono davvero gravosi, per cui dovrà ulteriormente rafforzarsi considerando il numero elevato di soggetti già ad oggi in perimetro (si è superati i 25.000, a fronte di meno di 500 della NIS1), per poter essere ancora più efficiente a partire dal prossimo gennaio, da quando cioè tutti i soggetti NIS2 saranno obbligati a notificare gli incidenti significativi.

Perché questo processo è cruciale: impatti per aziende e PA


La nuova procedura di segnalazione degli incidenti, innanzi descritta, introduce un modello strutturato e formale che cambia significativamente il modo in cui imprese e pubbliche amministrazioni dovranno gestire gli incidenti di sicurezza informatica.

Se per le realtà più mature ed organizzate dal punto di vista della sicurezza significa per lo più adattare e migliorare i processi esistenti, per tantissime altre (leggi PMI) comporterà avviare ex-novo dei progetti di adeguamento tecnologico e organizzativo che richiederanno diversi mesi, se non anni, prima che possano essere completati.

Ridursi all’ultimo momento non giova a nessuno e porta a risultati insoddisfacenti, come l’esperienza dell’adeguamento al GDPR ha dimostrato: troppo spesso si è rivelato un mero adempimento burocratico, anziché apportare un sostanziale miglioramento nella protezione dei dati personali.

La NIS2, invece, anche dal punto di vista della gestione incidenti, deve essere vista come un’occasione fondamentale per tutti i soggetti coinvolti:

  • Per le imprese: definire processi di incident management più strutturati, con precisi ruoli e responsabilità, capacità di prevenzione e analisi post-incidente, trasformando la sicurezza in un asset strategico, investendo in processi, competenze e tecnologie per ridurre rischi, prevenire blocchi operativi e rafforzare la fiducia di clienti e partner.
  • Per le PA: maggiore trasparenza, coordinamento e capacità di risposta centralizzata avvalendosi del CSIRT, al fine di potenziare prevenzione, rilevamento e risposta agli incidenti, anche avvalendosi di aziende specializzate che garantiscano servizi efficaci e di qualità.

Questo approccio più disciplinato è fondamentale perché consente di rilevare e contenere rapidamente gli incidenti, prevenire reazioni a catena, migliorare la governance interna e la compliance, e garantire cooperazione e visibilità a livello nazionale ed europeo, rafforzando concretamente la resilienza di sistemi e servizi critici.

Conclusioni


L’entrata in vigore del Decreto NIS2 segna un punto di svolta nella gestione degli incidenti informatici, imponendo un approccio più rigoroso, strutturato e coordinato. Non si tratta di un semplice adeguamento normativo, ma di un cambiamento culturale che richiede alle organizzazioni di ripensare i propri processi di sicurezza, passando da una logica reattiva a una strategia proattiva e integrata.

Le imprese e le pubbliche amministrazioni devono considerare questi obblighi come un’opportunità per rafforzare la propria resilienza, investendo in tecnologie, competenze e governance. La tempestività nella rilevazione e nella notifica degli incidenti, unita alla collaborazione con il CSIRT Italia, diventa un elemento chiave per ridurre i rischi, prevenire impatti sistemici e garantire la continuità operativa.

In un contesto in cui le minacce cyber sono sempre più sofisticate e pervasive, la conformità alla NIS2 non è solo una questione di compliance, ma un fattore strategico per tutelare la fiducia di clienti, partner e cittadini. Agire oggi significa non solo evitare sanzioni, ma costruire un ecosistema digitale più sicuro e resiliente, a beneficio dell’intero sistema Paese.

L'articolo La gestione degli incidenti informatici nell’epoca del NIS2 proviene da Red Hot Cyber.



Gli USA costruiscono il più grande supercomputer AI della storia


Il Dipartimento dell’Energia degli Stati Uniti (DOE) ha avviato una collaborazione strategica con Nvidia e Oracle per costruire sette supercomputer di nuova generazione basati sull’intelligenza artificiale, destinati a rivoluzionare la ricerca scientifica e lo sviluppo di agenti intelligenti.

Due di questi sistemi saranno installati presso l’Argonne National Laboratory in Illinois, che ospiterà così la più vasta infrastruttura di supercalcolo AI mai realizzata dal Dipartimento dell’Energia.

Durante la GPU Technology Conference di NVIDIA, il CEO Jensen Huang ha annunciato il progetto Solstice, descritto come il più grande supercomputer AI mai costruito per il DOE. Il sistema sarà equipaggiato con 100.000 GPU Blackwell e realizzato in collaborazione con Oracle e il laboratorio Argonne.

Solstice sarà affiancato da Equinox, un secondo supercomputer in fase di sviluppo con 10.000 GPU Blackwell, anch’esso ospitato presso Argonne. L’interconnessione tra i due sistemi permetterà di raggiungere una potenza combinata di 2.200 exaFLOP, segnando un nuovo traguardo nelle capacità di calcolo dedicate all’intelligenza artificiale.

Huang ha sottolineato che questa infrastruttura “diventerà il motore di scoperta americano”, mettendo a disposizione dei ricercatori strumenti avanzati per accelerare studi in ambiti che vanno dalla medicina alla scienza dei materiali.

Oltre a fornire maggiore capacità di calcolo per gli esperimenti scientifici, Solstice ed Equinox saranno parte integrante del programma “Developing Agent Scientists” del laboratorio Argonne. L’iniziativa mira a introdurre sistemi di intelligenza artificiale basati su agenti autonomi nella ricerca, con l’obiettivo di incrementare la produttività e favorire nuove scoperte nel prossimo decennio.

Secondo le prime previsioni, Equinox dovrebbe entrare in funzione il prossimo anno, mentre non è ancora stata comunicata una data ufficiale per il completamento di Solstice.

Parallelamente, NVIDIA ha annunciato una nuova collaborazione con Palantir Technologies, che integrerà le tecnologie di calcolo accelerato NVIDIA – comprese le librerie CUDA-X e i modelli AI Nemotron – nella propria piattaforma di intelligenza artificiale. L’obiettivo è aumentare la velocità di elaborazione dei dati e introdurre agenti AI personalizzabili all’interno dei sistemi Palantir.

La combinazione delle due tecnologie è già stata sperimentata da Lowe’s, la catena statunitense di articoli per la casa, che ha utilizzato un gemello digitale della propria rete di fornitura per ottimizzare i flussi logistici attraverso modelli di intelligenza artificiale.

Il laboratorio Argonne, inoltre, prevede di ampliare la propria infrastruttura con altri tre sistemi basati su GPU NVIDIA: Tara, Minerva e Janus. Questi supercomputer saranno messi a disposizione della comunità scientifica per favorire l’accesso condiviso alle risorse di calcolo AI.

Anche il Los Alamos National Laboratory sarà parte dell’iniziativa e riceverà due nuovi sistemi basati sulla piattaforma NVIDIA Vera Rubin. Il primo, denominato Vision, sarà operativo nel 2027 e dedicato a progetti di ricerca non classificati – dalla sicurezza nazionale alla scienza dei materiali, fino alla ricerca biomedica. Il secondo, chiamato Mission, sarà destinato a carichi di lavoro classificati, sostituendo il supercomputer Crossroads, entrato in funzione nel 2023.

I sistemi Mission e Vision rappresentano un investimento cruciale nelle nostre capacità scientifiche e nella sicurezza nazionale“, ha affermato Tom Mason, direttore del Los Alamos Laboratory. “Sono progettati per il supercalcolo dell’era dell’intelligenza artificiale.”

L'articolo Gli USA costruiscono il più grande supercomputer AI della storia proviene da Red Hot Cyber.



Hello World in C Without Linking in Libraries


If there’s one constant with software developers, it is that sometimes they get bored. At these times, they tend to think dangerous thoughts, usually starting with ‘What if…’. Next you know, they have gone down a dark and winding rabbit hole and found themselves staring at something so amazing that the only natural conclusion that comes to mind is that while educational, it serves no immediate purpose.

The idea of applying this to snipping out the <stdio.h> header in C and the printf() function that it provides definitely is a good example here. Starting from the typical Hello World example in C, [Old Man Yells at Code] over at YouTube first takes us from the standard dynamically linked binary at a bloated 16 kB, to the statically linked version at an eyepopping 767 kB.

To remove any such dynamic linkages, and to keep file sizes somewhat sane, he then proceeds to first use the write()function from the <unistd.h> header, which does indeed cut out the <stdio.h> include, before doing the reasonable thing and removing all includes by rewriting the code in x86 assembly.

While this gets the final binary size down to 9 kB and needs no libraries to link with, it still performs a syscall, after setting appropriate register values, to hand control back to the kernel for doing the actual printing. If you try doing something similar with syscall(), you have to link in libc, so it might very well be that this is the real way to do Hello World without includes or linking in libraries. Plus the asm keyword part of C, although one could argue that at this point you could just as well write everything in x86 ASM.

Of course, one cannot argue that this experience isn’t incredibly educational, and decidedly answers the original ‘What if…’ question.

youtube.com/embed/gVaXLlGqQ-c?…


hackaday.com/2025/10/29/hello-…



10 Cent Microcontroller Makes Tracker Music


We are absurdly spoiled these days by our microcontrollers. Take the CH32V00X family– they’ve been immortalized by meme as “the ten cent micro” but with a clock speed of 48MHz and 32-bit registers to work with, they’re astoundingly capable machines even by the standards of home computers of yore. That’s what motivated [Tim] to see if he could use one to play MOD files, with only minimal extra parts– and quite specifically no DAC.

Well, that’s part of what motivated him. The other part was seeing Hackaday feature someone use a CH32V003 making chiptune-like beeps. [Tim] apparently saw that post as a gauntlet thrown down, and he picked it up with an even smaller chip: the CH32V002, which he proceeded to turn into a MOD player. For those of you who slept through 80s and early 90s (or for those precocious infants reading this who hadn’t then yet been born), MOD files are an electronic music format, pioneered on the Amiga home computers. Like MIDI, the file specifies when to play specific voices rather than encoding the sound directly. Unlike MIDI, MOD files are self-contained, with the samples/voices used being stored inside the file. The original version targeted four-channel sound, and that’s what [Tim] is using here.

As you can see from the demo video, it sounds great. He pulled it off by using the chip’s built-in PWM timer. Since the timer’s duty cycle is determined by a variable that can be changed by DMA, the CPU doesn’t end up with very much to do here. In the worst case, with everything in flash memory instead of SRAM, the CPU is only taxed at 24%, so there’s plenty of power to say, add graphics for a proper demo. Using the existing MODPlay Library, [Tim]’s player fits into 4kB of memory, leaving a perfectly-usable 12kB for the MOD file. As far as external components needed, it’s just an RC filter to get rid of PWM noise.

[Tim] has put his code up on GitHub for anyone interested, and has perhaps inadvertently cast down another gauntlet for anyone who wants to use these little RISC V microprocessors for musical tasks. If you can do better, please do, let us know.

youtube.com/embed/IQmQ0Qlt3V8?…


hackaday.com/2025/10/29/10-cen…




no n ne parla nessuno ma a me pare una cosa molto grave...


Supercon 2025 Badge Gets Vintage Star Trek Makeover


There are still a few days before the doors open on this year’s Hackaday Supercon in Pasadena, but for the most dedicated attendees, the badge hacking has already begun…even if they don’t have a badge yet.

By referencing the design files we’ve published for this year’s Communicator badge, [Thomas Flummer] was able to produce this gorgeous 3D printed case that should be immediately recognizable to fans of the original Star Trek TV series.
Metal hinge pin? Brass inserts? Scotty would be proud.
Although the layout of this year’s badge is about as far from the slim outline of the iconic flip-up Trek communicator as you can get, [Thomas] managed to perfectly capture its overall style. By using the “Fuzzy Skin” setting in the slicer, he was even able to replicate the leather-like texture seen on the original prop.

Between that and the “chrome” trim, the finished product really nails everything Jadzia Dax loved about classic 23rd century designs. It’s not hard to imagine this could be some companion device to the original communicator that we just never got to see on screen.

While there’s no denying that the print quality on the antenna lid is exceptional, we’d really like to see that part replaced with an actual piece of brass mesh at some point. Luckily, [Thomas] has connected it to the body of the communicator with a removable metal hinge pin, so it should be easy enough to swap it out.

Considering the incredible panel of Star Trek artists that have been assembled for the Supercon 2025 keynote, we imagine this won’t be the last bit of Trek-themed hacking that we see this weekend — which is fine by us.


hackaday.com/2025/10/29/superc…



FLOSS Weekly Episode 853: Hardware Addiction; Don’t Send Help


This week Jonathan and Rob chat with Cody Zuschlag about the Xen project! It’s the hypervisor that runs almost everywhere. Why is it showing up in IoT devices and automotive? And what’s coming next for the project? Watch to find out!


youtube.com/embed/z1bXf5mTzcY?…

Did you know you can watch the live recording of the show right on our YouTube Channel? Have someone you’d like us to interview? Let us know, or have the guest contact us! Take a look at the schedule here.

play.libsyn.com/embed/episode/…

Direct Download in DRM-free MP3.

If you’d rather read along, here’s the transcript for this week’s episode.

Places to follow the FLOSS Weekly Podcast:


Theme music: “Newer Wave” Kevin MacLeod (incompetech.com)

Licensed under Creative Commons: By Attribution 4.0 License


hackaday.com/2025/10/29/floss-…



2025 Component Abuse Challenge: The Opto Flasher


There’s a part you’ll find in almost every mains powered switch mode power supply that might at first appear to have only one application. An optocoupler sits between the low voltage and the high voltage sides, providing a safely isolated feedback. Can it be used for anything else? [b.kainka] thinks so, and has proved it by making an optocoupler powered LED flasher.

If a part can be made to act as an amplifier with a gain greater than one, then it should also be possible to make it oscillate. We’re reminded of the old joke about it being very easy to make an oscillator except when you want to make one, but in this case when an optocoupler is wired up as an inverting amplifier with appropriate feedback, it will oscillate. In this case the rather large capacitor leading to a longish period, enough to flash an LED.

We like this circuit, combining as it does an unexpected use for a part, and a circuit in which the unusual choice might just be practical. It’s part of our 2025 Component Abuse Challenge, for which you just about still have time to make an entry yourself if you have one.

2025 Hackaday Component Abuse Challenge


hackaday.com/2025/10/29/2025-c…



Microsoft 365 va giù: un’anomalia DNS paralizza servizi in tutto il mondo


Una interruzione del servizio DNS è stata rilevata il 29 ottobre 2025 da Microsoft, con ripercussioni sull’accesso ai servizi fondamentali come Microsoft Azure e Microsoft 365. Un’ anomalia è stata rilevata alle 21:37 GMT+5:30, provocando ritardi generalizzati in varie applicazioni e bloccando l’accesso degli utenti all’ area amministrativa di Microsoft 365.

Secondo i primi resoconti, difficoltà nella risoluzione DNS stavano ostacolando la corretta gestione del traffico, con effetti negativi sugli endpoint relativi all’autenticazione e ai servizi. La dipendenza da tali piattaforme per servizi di posta elettronica, collaborazione e cloud computing ha portato problemi di indisponibilità dei servizi.

La sospensione ha colpito numerose aree geografiche, suscitando molti reclami sui social media e sui forum tecnologici in Nord America, Europa e Asia. I responsabili della gestione dei tenant di Office 365 si sono trovati di fronte ad errori, mentre gli utenti riscontravano ritardi nelle applicazioni come SharePoint, Teams e Outlook.

I servizi di archiviazione e le macchine virtuali di Azure hanno registrato episodi di indisponibilità intermittente, il che potrebbe comportare l’interruzione dei flussi di lavoro di sviluppo e delle operazioni di elaborazione dati.


Gli specialisti della sicurezza informatica hanno notato che, nonostante l’assenza di segnalazioni di violazioni dei dati, l’evento ha messo in luce le debolezze presenti nelle catene di dipendenza cloud, dove un’anomalia DNS isolata può ripercuotersi in maniera estesa su servizi interconnessi.

La pagina di stato di Microsoft ha confermato che l’ambito includeva i portali di amministrazione e gli strumenti di produttività principali, ma ha risparmiato alcune funzionalità ausiliarie come la sincronizzazione dei file OneDrive in casi isolati.

I team di ingegneri di Microsoft hanno rapidamente identificato la causa principale del problema: un’infrastruttura di rete e di hosting non funzionante. Alle 21:51 GMT+5:30, hanno iniziato a sbloccare i sistemi interessati e a ridistribuire il traffico per mitigare il problema.

Un successivo aggiornamento alle 21:58 ha fornito dettagli su un’analisi più approfondita dello stato di salute dell’infrastruttura, seguito dal reindirizzamento verso percorsi alternativi sani annunciato alle 22:06.

Quindi un problema interno isolato, non un attacco informatico. Gli sforzi per il ripristino mentre scriviamo risultano ancora in corso e Microsoft ha invitato gli utenti a tenere d’occhio la pagina di stato di Azure per ricevere aggiornamenti in tempo reale. L’azienda ha confermato che i lavori di ripristino proseguivano senza sosta.

Negli ultimi giorni abbiamo assistito a una serie di problemi a cui si aggiunge ora questo incidente; i blocchi e i disservizi su AWS (come avvenuto qualche giorno fa) o su Azure (come adesso) causano facilmente problemi a cascata prevedibili e controllabili.

L'articolo Microsoft 365 va giù: un’anomalia DNS paralizza servizi in tutto il mondo proviene da Red Hot Cyber.



Tor Browser dice di NO all’intelligenza artificiale! La sicurezza viene prima di tutto


È interessante notare che, mentre grandi aziende come Microsoft e Google stanno attivamente aggiungendo funzionalità di intelligenza artificiale ai loro browser, il team di sviluppo di Tor ha scelto di rimuoverle.

@henry, un collaboratore del progetto Tor, ha sottolineato che il team non è riuscito a verificare completamente il processo di addestramento e il comportamento “black box” dei modelli di intelligenza artificiale, quindi ha deciso di eliminare prima i rischi.

Sebbene alcuni utenti potrebbero essere disposti ad “accettare i rischi di Mozilla” per determinate funzionalità, il progetto Tor dà esplicitamente la priorità a non integrare queste funzionalità.

Tra i componenti rimossi figurano la barra laterale della chat basata sull’intelligenza artificiale di Mozilla, introdotta a marzo di quest’anno, e la funzionalità di anteprima del link di riepilogo della pagina, lanciata a maggio.

Inoltre, Tor Browser 15.0a4 ha rimosso anche alcuni elementi del branding di Mozilla/Firefox, come l’icona della volpe, la homepage di Firefox e la nuova barra laterale della cronologia. La barra laterale della cronologia è stata ripristinata alla vecchia interfaccia di Tor Browser versione 14.5 ed è accessibile tramite la scorciatoia Ctrl+H.

Per quanto riguarda la visualizzazione della barra degli indirizzi, Tor Browser non nasconderà più la parte del protocollo dell’URL (come http o https) nella versione desktop, ma questa parte sarà comunque nascosta sulla piattaforma mobile Android.

Altri aggiornamenti minori includono: rendering emoji migliorato sulla piattaforma Linux (ora integrato con il font Noto Color Emoji), l’aggiunta del font Jigmo per ottimizzare la visualizzazione dei caratteri cinesi, giapponesi e coreani e supporto migliorato del tema scuro per l’interfaccia esclusiva del browser Tor

L'articolo Tor Browser dice di NO all’intelligenza artificiale! La sicurezza viene prima di tutto proviene da Red Hot Cyber.



‍☠️ “Hack the System – At Least a Little”: Why Precision Matters in the 21st Century


A journalistic and editorial assessment of the presentation by Schoresch Davoodi (Pirate Party) at the Hack the Promise Festival 2025, Basel

Where does freedom end when algorithms decide? How do you hack power without taking it over? These core questions were the focus of this year’s “Hack the Promise 2025.” A highlight: the keynote speech by Schoresch Davoodi, Board Member of the Pirate Party International (PPI), who redefined the attitude of the “Hacker” – as a necessary tool for democratic resilience.

From Radical Upheaval to Precision: The New Hacker Stance



by Schoresch Davoodi

In his presentation, Davoodi spanned the arc from the idealised freedom myths of the turn of the millennium (from “The Matrix” to net culture) to the present, where sovereignty over technology and discourses is fiercely contested.

While the revolutionary dreams of a fresh start and radical upheaval, Davoodi posits that the attitude of the hacker is paramount today:

“Only those who understand systems can safely change them – and preserve freedom within them.”

The core message: True change doesn’t need “arsonists,” but people who understand, analyse, and deliberately improve existing systems, rather than just tearing them down. Anyone serious about political change must endure complexity – and face new challenges with the spirit of the Enlightenment: Sapere aude – dare to use your own understanding.

Between Filter Bubble and Digital Attack


The threats to democracy are more diverse than ever in 2025: Digital violence, disinformation, and targeted manipulation are not just isolated incidents but systematically undermine the foundations of democracy.

Davoodi warned not only against the lure of authoritarian simplifications but also against a “dogma-driven politics” within progressive movements. A critical perspective was directed at the role of NGOs, think tanks, and activist networks:

  • The Filter Bubble Effect: Those who conduct debates only through their own “filter bubble” risk narrowing plurality instead of courageously expanding it.
  • The Demand: Those who remain critically aware of their own filters protect democratic diversity and self-determination.


The “Inner Hack”: More Than Just Net Policy


How must this hacker ethos become politically concrete? Davoodi outlined a practice that goes beyond mere symbolic politics:

Hacker PracticePolitical Implementation
PrecisionCarefully formulated, relatable motions instead of purely demonstrative symbolic politics.
OpennessEstablishment of open debate spaces that allow risk-benefit analyses and do not become paralysed by moral grandstanding.
CollaborationCross-border cooperation, as practiced within the framework of Pirate Parties International.

The “inner hack” thus means: enduring complexity, opposing propaganda, and viewing maturity and resilience as central political tools. That is democracy in action.

⚖ Conclusion: The Small Hack for Great Freedom


Schoresch Davoodi’s presentation is not a manifesto for upheaval, but an invitation to enlightened further thought. In the face of global uncertainties and hybrid threats, the Pirate Party 2025 is increasingly focusing on resilience, strengthening critical infrastructures, and a democratically legitimised security architecture – expressly without serving authoritarian tendencies.

The future belongs to those who have the courage to work on systems precisely, objectively, and openly – and never lose sight of freedom as a core value.

Key Quote: “The revolutionary dreams of a blank slate; the hacker repairs the existing system with precision and courage.”

In this spirit: Hack the System. At least a little – whenever it is most urgently needed.

Would you like me to summarise this British English article into a short, punchy version suitable for a social media post?


piratetimes.info/hack-the-syst…



9th Global Conference on Illegal Finance and Crypto


The following is a report from PPI´s representative at the United Nations Office of Vienna, Mr. Kay Schroeder, who attended the UNODC Conference on Illegal Finance and Crypto.

Reflections from the 9th Global Conference on Criminal Finance and Crypto – UN Vienna

Yesterday I attended the 9th Global Conference on Criminal Finance and Crypto, hosted at the
United Nations in Vienna with support from UNODC. While no official UN representatives were
present, the event offered a revealing glimpse into how private sector challenges—particularly those
surrounding crypto finance—are increasingly reframed as matters of public concern.
The conference celebrated the growing institutional acceptance of crypto assets, shifting the
narrative from speculative private losses to regulated public affairs. This reframing was not just
semantic—it was strategic. Legal frameworks now position crypto as a legitimate asset class,
despite its origin as replicable code. The symbolic elevation of crypto into the realm of public
policy raises fundamental questions about value, legitimacy, and institutional responsibility.
At its core, blockchain technology is designed to reduce transaction costs. Its native tokens—like
BNB on the Binance Smart Chain—are meant to facilitate efficiency, not store value. Yet the market
treats these tokens as assets, creating artificial scarcity and speculative value.

This contradiction was starkly illustrated during a presentation by Francesco Venditti, who proudly described the
seizure of BNB as a value store, while simultaneously labeling a lesser-known BEP-20 token as a
rug pull. Ironically, the logic of blockchain suggests the opposite: BNB should devalue with
increased use, while any token’s value depends on its legal and economic framing.
The deeper issue lies in the off-chain dominance of crypto transactions—estimated at 80–90%—
which undermines the transparency and decentralization that blockchain promises. Centralized
exchanges (CEXs) and DeFi platforms act as both gatekeepers and service providers, facilitating
flows that often bypass the very technology they claim to represent. This dual role complicates
efforts to combat illicit finance, especially when the same actors who enable laundering also claim
to fight it.

Stablecoins deserve particular scrutiny. Pegged 1:1 to fiat currencies, they are technically simple
tokens maintained off-chain. They are not cryptocurrencies in the traditional sense, but rather
symbolic representations of fiat value. Their presence in blockchain ecosystems injects artificial
stability into systems designed to devalue through scalability. In this sense, stablecoins function as
Trojan horses—vehicles through which the fiat system reasserts control over decentralized
infrastructure.

The economic implications are profound. Blockchain tokens represent a new category of economic
goods—ones that devalue with increased use. This defies conventional market logic, where utility
and demand typically reinforce value. If transaction costs approach zero, and those costs are tied to
the token itself, then the token’s value must also approach zero. Yet institutional actors continue to
frame these tokens as stores of value, creating a performative economy that contradicts its own
technological foundations.

During the conference, I posed a question to the panel of lawmakers and lobbyists exploring
solutions to “illegal finance and crypto”:

“What is your opinion on forbidding stablecoins to remove the artificial valuation of
blockchain tokens, which naturally devalue due to scaling requirements?”


The question remains open. But the conversation is shifting—from retail scams to structural
manipulation, from private speculation to public framing. As crypto continues its institutional
ascent, we must remain vigilant about the symbolic and economic contradictions embedded in its
architecture.”


pp-international.net/2025/10/i…



un'opinione si basa sempre sull'informazione. tu vuoi che lo shutdown finisca ok. ma sai cosa hanno chiesto i democratici? è sbagliato o giusto? se non lo sai e non decidi per te cosa sia giusto non hai neppure il diritto, dal mio punto di vista, di chiedere che lo shutdown finisca.


L'ambasciatore italiano all'Onu: "Il rapporto Albanese è privo di credibilità"

perché bisogna leccare sempre il culo a israele e trump? puzzano.



questo è un governo di inetti e chiaramente non saranno stati neppure in grado di fare una procedura di realizzazione contabile corretta e senza buchi e con finanziamenti certi...
a causa di questo governo un'opera utile come il ponte a rischio.


è dannatamente folle e pericoloso schierarsi a favore di una istituzione contro un'altra istituzione, pensando che i "giudici" siano i politici/non politici buoni, e che il governo o il parlamento siano i politici cattivi. serve capire un ente istituzionale nel merito quali rilievi precisi tecnici fa e mai confondere una decisione tecnica o contabile con una politica.


che possiamo fare per evitare iscrizioni per usare l'hardware che compriamo?


Mi è successo con un Kobo, che avevo comprato per affrancarmi dall'ecosistema Kindle, e ora con il Remarkable, che ho vinto a un concorso:
pur avendoli pagati cari e amari per poterli utilizzare devo iscrivermi con nome, cognome e accesso al mio deretano peloso, altrimenti posso usarli solo come fermaporte.
Ma non gli bastano i bei soldoni che gli ho dato?
Boh, mi sa che torno a carta e penna.
in reply to Andrea R.

oggi il kobo ha fatto un aggiornamento è uscito dell'account e per rientrare mi ha fatto collegare l'account a quello Feltrinelli. Quando sono riuscito ad accedere mi aveva perso la memoria di quello che ho letto e che no, e le raccolte.
Io pensavo che fosse tutto registrato sul dispositivo e invece nemmeno nell'account, a cui ora non posso più accedere su pc se non passando da quello Feltrinelli.


poiché le scelte politiche sono alla base dell'esistenza umana, ogni volta che c'è una comunità, un cittadino che "aborre" la politica non è un cittadino libero dalle responsabilità, perché le scelte politiche le fanno inevitabilmente, giuste o sbagliate, altri al posto suo. e un cittadino che NON vuole decidere è il preludio al fascismo. P.S. la politica non è essere tifosi di una squadra politica, ma scegliere consapevolmente le priorità della politica. le scelte politiche sono: serve il ponte di messina? come produciamo l'energia elettrica? quali sono le basi della giustizia in itallia? va bene che uno è innocente fino a prova contraria? oppure si incarcera preventivamente e poi va giù bene quel giudizio? quanto si paga di pensioni? la sanità deve essere pubblica e per tutti? è giusto pagare chi lavora o va bene anche tutti schiavi? la ricerca serve? come si risolvono i problemi del mondo? serve maggiore tecnologia tipo per risolvere i problemi climatici? nucleare si o nucleare no? come deve essere l'istruzione? imparare un metodo e il senso critico? oppure nozioni? oppure una professione? il carcere deve rieducare le persone o va bene che quando liberi riprendono a delinquere? oppure si uccidono le persone al primo errore più o meno certo? e gli errori giudiziari? come si gestiscono? con che "politica"? che potere deve avere lo stato in termini di economia? quali tipi di strumenti deve poter utilizzare? lo stato deve essere al disopra delle parti o deve prevalere una forma di giustizia ulteriore? Quando un cittadini si può candidare in politica e con che limiti? che doveri ha uno stato di proteggere minoranze e fasce deboli? cosa definisce minoranze e fasce deboli? ecc ecc ecc ogni scelta è politica. credo che dalle domande che te vuoi che tutto funzioni ma non decidi stai firmando una cambiale in bianco piuttosto impegnativa a tuo nome e per cui le scelte sarai comunque responsabile te come "delegante" anche se inconsapevole.



#Gaza, la tregua che non c'era


altrenotizie.org/primo-piano/1…


📢 Hannah Jadagu – Describe:


Eremita in una foresta incantata, per Hannah Jadagu il tempo smette di scorrere mentre scrive un album catartico, arrivato da un altra dimensione per scavarci dentro.

iyezine.com/hannah-jadagu-desc…
@Musica Agorà

reshared this




Videos on social media show officers from ICE and CBP using facial recognition technology on people in the field. One expert described the practice as “pure dystopian creep.”#ICE #CBP #News #Privacy


ICE and CBP Agents Are Scanning Peoples’ Faces on the Street To Verify Citizenship


“You don’t got no ID?” a Border Patrol agent in a baseball cap, sunglasses, and neck gaiter asks a kid on a bike. The officer and three others had just stopped the two young men on their bikes during the day in what a video documenting the incident says is Chicago. One of the boys is filming the encounter on his phone. He says in the video he was born here, meaning he would be an American citizen.

When the boy says he doesn’t have ID on him, the Border Patrol officer has an alternative. He calls over to one of the other officers, “can you do facial?” The second officer then approaches the boy, gets him to turn around to face the sun, and points his own phone camera directly at him, hovering it over the boy’s face for a couple seconds. The officer then looks at his phone’s screen and asks for the boy to verify his name. The video stops.

💡
Do you have any more videos of ICE or CBP using facial recognition? Do you work at those agencies or know more about Mobile Fortify? I would love to hear from you. Using a non-work device, you can message me securely on Signal at joseph.404 or send me an email at joseph@404media.co.

This post is for subscribers only


Become a member to get access to all content
Subscribe now


Breaking News Channel reshared this.




Sicurezza delle password, questo il tema del primo appuntamento con #Sicurnauti. Scopri i contenuti dedicati a studenti e genitori su #UNICA.
Qui il video ▶️ youtube.com/watch?v=LVmAOa_vcd…
Qui l’infografica ▶️ unica.istruzione.


This Reactor is on Fire! Literally…


If I mention nuclear reactor accidents, you’d probably think of Three Mile Island, Fukushima, or maybe Chernobyl (or, now, Chornobyl). But there have been others that, for whatever reason, aren’t as well publicized. Did you know there is an International Nuclear Event Scale? Like the Richter scale, but for nuclear events. A zero on the scale is a little oopsie. A seven is like Chernobyl or Fukushima, the only two such events at that scale so far. Three Mile Island and the event you’ll read about in this post were both level five events. That other level five event? The Windscale fire incident in October of 1957.

If you imagine this might have something to do with the Cold War, you are correct. It all started back in the 1940s. The British decided they needed a nuclear bomb project and started their version of the Manhattan Project called “Tube Alloys.” But in 1943, they decided to merge the project with the American program.

The British, rightfully so, saw themselves as co-creators of the first two atomic bombs. However, in post-World War paranoia, the United States shut down all cooperation on atomic secrets with the 1946 McMahon Act.

We Are Not Amused


The British were not amused and knew that to secure a future seat at the world table, it would need to develop its own nuclear capability, so it resurrected Tube Alloys. If you want a detour about the history of Britan’s bomb program, the BBC has a video for you that you can see below.

youtube.com/embed/8WcMm31RbMw?…

Of course, post-war Britain wasn’t exactly flush with cash, so they had to limit their scope a bit. While the Americans had built bombs with both uranium and plutonium, the UK decided to focus on plutonium, which could create a stronger bomb with less material.

Of course, that also means you have to create plutonium, so they built two reactors — or piles, as they were known then. They were both in the same location near Seascale, Cumberland.

Inside a Pile

The Windscale Piles in 1951 (photo from gov.uk website).
The reactors were pretty simple. There was a big block of graphite with channels drilled through it horizontally. You inserted uranium fuel cartridges in one end, pushing the previous cartridge through the block until they fell out the other side into a pool of water.

The cartridges were encased in aluminum and had cooling fins. These things got hot! Immediately, though, practical concerns — that is, budgets — got in the way. Water cooling was a good idea, but there were problems. First, you needed ultra-pure water. Next, you needed to be close to the sea to dump radioactive cooling water, but not too close to any people. Finally, you had to be willing to lose a circle around the site about 60 miles in diameter if the worst happened.

The US facility at Hanford, indeed, had a 30-mile escape road for use if they had to abandon the site. They dumped water into the Columbia River, which, of course, turned out to be a bad idea. The US didn’t mind spending on pure water.

Since the British didn’t like any of those constraints, they decided to go with air cooling using fans and 400-foot-tall chimneys.

Our Heros


Most of us can relate to being on a project where the rush to save money causes problems. A physicist, Terence Price, wondered what would happen if a fuel cartridge split open. For example, one might miss the water pool on the other side of the reactor. There would be a fire and uranium oxide dust blowing out the chimney.

The idea of filters in each chimney was quickly shut down. Since the stacks were almost complete, they’d have to go up top, costing money and causing delays. However, Sir John Cockcroft, in charge of the construction, decided he’d install the filters anyway. The filters became known as Cockcroft’s Follies because they were deemed unnecessary.

So why are these guys the heroes of this story? It isn’t hard to guess.

A Rush to Disaster


The government wanted to quickly produce a bomb before treaties would prohibit them from doing so. That put them on a rush to get H-bombs built by 1958. There was no time to build more reactors, so they decided to add material to the fuel cartridges to produce tritium, including magnesium. The engineers were concerned about flammability, but no one wanted to hear it.

They also decided to make the fins of the cartridges smaller to raise the temperature, which was good for production. This also allowed them to stuff more fuel inside. Engineers again complained. Hotter, more flammable fuel. What could go wrong? When no one would listen, the director, Christopher Hinton, resigned.

The Inevitable


The change in how heat spread through the core was dangerous. But the sensors in place were set for the original patterns, so the increased heat went undetected. Everything seemed fine.

It was known that graphite tends to store some energy from neutron bombardment for later release, which could be catastrophic. The solution was to heat the core to a point where the graphite started to get soft, which would gradually release the potential energy. This was a regular part of operating the reactors. The temperature would spike and then subside. Operations would then proceed as usual.

By 1957, they’d done eight of these release cycles and prepared for a ninth. However, this one didn’t go as planned. Usually, the core would heat evenly. This time, one channel got hot and the rest didn’t. They decided to try the release again. This time it seemed to work.

As the core started to cool as expected, there was an anomaly. One part of the core was rising instead, reaching up to 400C. They sped up the fans and the radiation monitors determined that they had a leak up the chimney.

Memories


Remember the filters? Cockcroft”s Follies? Well, radioactive dust had gone up the chimney before. In fact, it had happened pretty often. As predicted, the fuel would miss the pool and burst.

With the one spot getting hotter, operators assumed a cartridge had split open in the core. They were wrong. The cartridge was on fire. The Windscale reactor was on fire.

Of course, speeding up the fans just made the fire worse. Two men donned protective gear and went to peek at an inspection port near the hot spot. They saw four channels of fuel glowing “bright cherry red”. At that point, the reactor had been on fire for two days. The Reactor Manager suited up and climbed the 80 feet to the top of the reactor building so he could assess the backside of the unit. It was glowing red also.

Fight Fire with ???


The fans only made the fire worse. They tried to push the burning cartridges out with metal poles. They came back melted and radioactive. The reactor was now white hot. They then tried about 25 tonnes of carbon dioxide, but getting it to where it was needed proved to be too difficult, so that effort was ineffective.

By the 11th of October, an estimated 11 tonnes of uranium were burning, along with magnesium in the fuel for tritium production. One thermocouple was reading 3,100C, although that almost had to be a malfunction. Still, it was plenty hot. There was fear that the concrete containment building would collapse from the heat.

You might think water was the answer, and it could have been. But when water hits molten metal, hydrogen gas results, which, of course, is going to explode under those conditions. They decided, though, that they had to try. The manager once again took to the roof and tried to listen for any indication that hydrogen was building up. A dozen firehoses pushed into the core didn’t make any difference.

Sci Fi


If you read science fiction, you probably can guess what did work. Starve the fire for air. The manager, a man named Tuohy, and the fire chief remained and sent everyone else out. If this didn’t work, they were going to have to evacuate the nearby town anyway.

They shut off all cooling and ventilation to the reactor. It worked. The temperature finally started going down, and the firehoses were now having an effect. It took 24 hours of water flow to get things completely cool, and the water discharge was, of course, radioactive.

If you want a historical documentary on the even, here’s one from Spark:

youtube.com/embed/S0DXndsQ0H4?…

Aftermath


The government kept a tight lid on the incident and underreported what had been released. But there was much less radioactive iodine, cesium, plutonium, and polonium release because of the chimney filters. Cockcroft’s Folly had paid off.

While it wasn’t ideal, official estimates are that 240 extra cancer cases were due to the accident. Unofficial estimates are higher, but still comparatively modest. Also, there had been hushed-up releases earlier, so it is probably that the true number due to this one accident is even lower, although if it is your cancer, you probably don’t care much which accident caused it.

Milk from the area was dumped into the sea for a while. Today, the reactor is sealed up, and the site is called Sellafield. It still contains thousands of damaged fuel elements within. The site is largely stable, although the costs of remediating the area have been, and will continue to be staggering.

This isn’t the first nuclear slip-up that could have been avoided by listening to smart people earlier. We’ve talked before about how people tend to overestimate or sensationalize these kinds of disasters. But it still is, of course, something you want to avoid.

Featured image: “HD.15.003” by United States Department of Energy


hackaday.com/2025/10/29/this-r…



Restoring the E&L MMD-1 Mini-Micro Designer Single-Board Computer from 1977


A photo of the MMD-1 on the workbench.

Over on YouTube [CuriousMarc] and [TubeTimeUS] team up for a multi-part series E&L MMD-1 Mini-Micro Designer Restoration.

The E&L MMD-1 is a microcomputer trainer and breadboard for the Intel 8080. It’s the first ever single-board computer. What’s more, they mention in the video that E&L actually invented the breadboard with the middle trench for the ICs which is so familiar to us today; their US patent 228,136 was issued in August 1973.

The MMD-1 trainer has support circuits providing control logic, clock, bus drivers, voltage regulator, memory decoder, memory, I/O decoder, keyboard encoder, three 8-bit ports, an octal keyboard, and other support interconnects. They discuss in the video the Intel 1702 which is widely accepted as the first commercially available EPROM, dating back to 1971.

In the first video they repair the trainer then enter a “chasing lights” assembly language program for testing and demonstration purposes. This program was found in 8080 Microcomputer Experiments by Howard Boyet on page 76. Another book mentioned is The Bugbook VI by David Larsen et al.

In the second video they wire in some Hewlett-Packard HP 5082-7300 displays which they use to report on values in memory.

A third episode is promised, so stay tuned for that! If you’re interested in the 8080 you might like to read about its history or even how to implement one in an FPGA!

youtube.com/embed/eCAp3K7yTlQ?…

youtube.com/embed/Sfe18oyRvGk?…


hackaday.com/2025/10/29/restor…



Expert Systems: The Dawn of AI


We’ll be honest. If you had told us a few decades ago we’d teach computers to do what we want, it would work some of the time, and you wouldn’t really be able to explain or predict exactly what it was going to do, we’d have thought you were crazy. Why not just get a person? But the dream of AI goes back to the earliest days of computers or even further, if you count Samuel Butler’s letter from 1863 musing on machines evolving into life, a theme he would revisit in the 1872 book Erewhon.

Of course, early real-life AI was nothing like you wanted. Eliza seemed pretty conversational, but you could quickly confuse the program. Hexapawn learned how to play an extremely simplified version of chess, but you could just as easily teach it to lose.

But the real AI work that looked promising was the field of expert systems. Unlike our current AI friends, expert systems were highly predictable. Of course, like any computer program, they could be wrong, but if they were, you could figure out why.

Experts?


As the name implies, expert systems drew from human experts. In theory, a specialized person known as a “knowledge engineer” would work with a human expert to distill his or her knowledge down to an essential form that the computer could handle.

This could range from the simple to the fiendishly complex, and if you think it was hard to do well, you aren’t wrong. Before getting into details, an example will help you follow how it works.

From Simple to Complex


One simple fake AI game is the one where the computer tries to guess an animal you think of. This was a very common Basic game back in the 1970s. At first, the computer would ask a single yes or no question that the programmer put in. For example, it might ask, “Can your animal fly?” If you say yes, the program guesses you are thinking of a bird. If not, it guesses a dog.

Suppose you say it does fly, but you weren’t thinking of a bird. It would ask you what you were thinking of. Perhaps you say, “a bat.” It would then ask you to tell it a question that would distinguish a bat from a bird. You might say, “Does it use sonar?” The computer will remember this, and it builds up a binary tree database from repeated play. It learns how to guess animals. You can play a version of this online and find links to the old source code, too.

Of course, this is terrible. It is easy to populate the database with stupid questions or ones you aren’t sure of. Do ants live in trees? We don’t think of them living in trees, but carpenter ants do. Besides, sometimes you may not know the answer or maybe you aren’t sure.

So let’s look at a real expert system, Mycin. Mycin, from Stanford, took data from doctors and determined what bacteria a patient probably had and what antibiotic would be the optimal treatment. Turns out, most doctors you see get this wrong a lot of the time, so there is a lot of value to giving them tools for the right treatment.

This is really a very specialized animal game where the questions are preprogrammed. Is it gram positive? Is it in a normally sterile site? What’s more is, Mycin used Bayesian math so that you could assign values to how sure you were of an answer, or even if you didn’t know. So, for example, -1 might mean definitely not, +1 means definitely, 0 means I don’t know, and -0.5 means probably not, but maybe. You get the idea. The system ran on a DEC PDP-10 and had about 600 rules.

The system used LISP and could paraphrase rules into English. For example:
(defrule 52
if (site culture is blood)
(gram organism is neg)
(morphology organism is rod)
(burn patient is serious)
then .4
(identity organism is pseudomonas))
Rule 52:
If
1) THE SITE OF THE CULTURE IS BLOOD
2) THE GRAM OF THE ORGANISM IS NEG
3) THE MORPHOLOGY OF THE ORGANISM IS ROD
4) THE BURN OF THE PATIENT IS SERIOUS
Then there is weakly suggestive evidence (0.4) that
1) THE IDENTITY OF THE ORGANISM IS PSEUDOMONAS

In practice, the program did as well as real doctors, even specialists. Of course, it was never used in practice because of ethical concerns and the poor usability of entering data into a timesharing terminal. You can see a 1988 video about Mycin below.

youtube.com/embed/a65uwr_O7mM?…

Under the Covers


Mycin wasn’t the first or only expert system. Perhaps the first was SID. In 1982, SID produced over 90% of the VAX 9000’s CPU design, although many systems before then had dabbled in probabilities and other similar techniques. For example, DENDRAL from the 1960s used rules to interpret mass spectrometry data. XCON started earlier than SID and was DEC’s way of configuring hardware based on rules. There were others, too. Everyone “knew” back then that expert systems were the wave of the future!

Expert systems generally fall into two categories: forward chaining and backward chaining. Mycin was a backward chaining system.

What’s the difference? You can think of each rule as an if statement. Just like the example, Mycin knew that “if the site is in the blood and it is gram negative and…. then….” A forward chaining expert system will try to match up rules until it finds the ones that match.

Of course, you can make some assumptions. So, in the sample, if a hypothetical forward-chaining Mycin asked if the site was the blood and the answer was no, then it was done with rule 52.

However, the real Mycin was backward chaining. It would assume something was true and then set out to prove or disprove it. As it receives more answers, it can see which hypothesis to prioritize and which to discard. As rules become more likely, one will eventually emerge.

If that’s not clear, you can try a college lecture on the topic from 2013, below.

youtube.com/embed/ZhTt-GG7PiQ?…

Of course, in a real system, too, rules may trigger more rules. There were probably as many actual approaches as there were expert systems. Some, like Mycin, were written in LISP. Some in C. Many used Prolog, which has some features aimed at just the kind of things you need for an expert system.

What Happened?


Expert systems are actually very useful for a certain class of problems, and there are still examples of them hanging around (for example, Apache Drools). However, some problems that expert systems tried to solve — like speech recognition — were much better handled by neural networks.

Part of the supposed charm of expert systems is that — like all new technology — it was supposed to mature to the point where management could get rid of those annoying programmers. That really wasn’t the case. (It never is.) The programmers just get new titles as knowledge engineers.

Even NASA got in on the action. They produced CLIPS, allowing expert systems in C, which was available to the public and still is. If you want to try your hand, there is a good book out there.

Meanwhile, you can chat with Eliza if you don’t want to spend time chatting with her more modern cousins.


hackaday.com/2025/10/29/expert…



183 milioni di account Gmail hackerati! E’ falso: era solo una bufala


Per la seconda volta negli ultimi mesi, Google è stata costretta a smentire le notizie di una massiccia violazione dei dati di Gmail. La notizia è stata scatenata dalle segnalazioni di unhacking di 183 milioni di account” diffuse online, nonostante non vi sia stata alcuna violazione o incidente reale che abbia coinvolto i server di Google.

Come hanno spiegato i rappresentanti dell’azienda, non si tratta di un nuovo attacco, ma piuttosto di vecchi database di login e password raccolti dagli aggressori tramite infostealer e altri attacchi degli ultimi anni.

“Le segnalazioni di una ‘violazione di Gmail che ha interessato milioni di utenti’ sono false. Gmail e i suoi utenti sono protetti in modo affidabile”, hanno dichiarato i rappresentanti di Google. L’azienda ha inoltre sottolineato che la fonte delle voci di una fuga di dati importante era un database contenente i log degli infostealer, nonché credenziali rubate durante attacchi di phishing e altri attacchi.

Il fatto è che questo database è stato recentemente reso pubblico tramite la piattaforma di analisi delle minacce Synthient ed è stato poi aggiunto all’aggregatore di perdite Have I Been Pwned (HIBP).

Il creatore di HIBP, Troy Hunt, ha confermato che il database di Synthient contiene circa 183 milioni di credenziali, inclusi login, password e indirizzi web su cui sono state utilizzate. Secondo Hunt, non si tratta di una singola fuga di dati: queste informazioni sono state raccolte nel corso degli anni da canali Telegram, forum, dark web e altre fonti. Inoltre, questi account non sono correlati a una singola piattaforma, ma a migliaia, se non milioni, di siti web e servizi diversi.

Inoltre, il 91% dei record era già apparso in altre fughe di notizie ed era presente nel database HIBP, mentre solo 16,4 milioni di indirizzi erano nuovi.

I rappresentanti di Synthient hanno confermato che la maggior parte dei dati nel database non è stata ottenuta tramite attività di hacking, ma infettando i sistemi dei singoli utenti con malware. In totale, i ricercatori hanno raccolto 3,5 TB di informazioni (23 miliardi di righe), inclusi indirizzi email, password e indirizzi di siti web esposti in cui sono state utilizzate le credenziali compromesse.

Google sottolinea che l’azienda scopre e utilizza regolarmente tali database per i controlli di sicurezza, aiutando gli utenti a reimpostare le password trapelate e a proteggere nuovamente i propri account.

L’azienda sottolinea inoltre che, anche se Gmail non è stato hackerato, i vecchi nomi utente e password già trapelati potrebbero comunque rappresentare una minaccia. Per mitigare questi rischi, Google consiglia di abilitare l’autenticazione a più fattori o di passare alle passkey, che sono più sicure delle password tradizionali.

Ricordiamo che, nel settembre 2025, Google aveva già smentito le segnalazioni di una massiccia violazione dei dati degli utenti di Gmail. All’epoca, erano emersi resoconti sui media secondo cui Google avrebbe inviato una notifica di massa a tutti gli utenti di Gmail (circa 2,5 miliardi di persone) per chiedere loro di cambiare urgentemente le password e abilitare l’autenticazione a due fattori. I rappresentanti di Google hanno poi negato la veridicità di tale notizia.

L'articolo 183 milioni di account Gmail hackerati! E’ falso: era solo una bufala proviene da Red Hot Cyber.

Gazzetta del Cadavere reshared this.



Nvidia lancia NVQLink per il calcolo quantistico


Nvidia non ha sviluppato un proprio computer quantistico, ma il CEO Jensen Huang scommette che l’azienda avrà un ruolo chiave nel futuro della tecnologia. Nel suo discorso di apertura alla Global Technology Conference (GTC) di Nvidia a Washington, D.C., martedì, Huang ha annunciato NVQLink, una tecnologia di interconnessione che collega i processori quantistici ai supercomputer di intelligenza artificiale di cui hanno bisogno per funzionare efficacemente.

Ha affermato: “NVQLink è la chiave per collegare i supercomputer quantistici e quelli classici”. I processori quantistici rappresentano un modo completamente nuovo di fare calcolo, utilizzando i principi della fisica quantistica per risolvere problemi che gli attuali computer classici non sono in grado di risolvere.

Le loro applicazioni sono vaste, dalla scoperta scientifica alla finanza. Tuttavia, per fornire risultati significativi per aziende e ricercatori, devono essere integrati con computer classici ad alte prestazioni, che eseguono calcoli che non sono in grado di completare e correggono gli errori naturali nelle loro risposte, un processo noto come correzione degli errori.

Tim Costa, General Manager di Ingegneria Industriale e Quantum di NVIDIA, ha affermato che nel settore esiste un consenso generale sulla necessità di questa infrastruttura ibrida che coinvolge processori quantistici (QPU) e chip di intelligenza artificiale come le GPU NVIDIA, in parte perché l’esecuzione di una correzione completa degli errori richiede l’intelligenza artificiale.

Costa ha affermato che alcune aziende hanno già tentato di integrare processori quantistici con supercomputer di intelligenza artificiale, ma queste tecnologie non sono riuscite a fornire la velocità e la scalabilità necessarie per ottenere una correzione degli errori rapida e scalabile. NVIDIA afferma che la sua nuova tecnologia di interconnessione è la prima soluzione a fornire la velocità e la scalabilità necessarie per realizzare la vera promessa del calcolo quantistico su larga scala.

A tal fine, NVIDIA sta collaborando con oltre una dozzina di diverse aziende quantistiche, tra cui IonQ, Quantumuum e Infleqtion, nonché con diversi laboratori nazionali, tra cui i Sandia National Laboratories, l’Oak Ridge National Laboratory e il Fermi Laboratory. Questa tecnologia di interconnessione si basa su un’architettura aperta ed è adatta a diverse modalità quantistiche, tra cui ioni intrappolati, superconduttori e fotoni. Costa ha affermato che questa apertura è cruciale, il che significa che i laboratori nazionali saranno ora in grado di sviluppare supercomputer per utilizzare le capacità quantistiche non appena saranno disponibili.

Costa ha affermato che in futuro “ogni supercomputer utilizzerà processori quantistici per ampliare la gamma di problemi che può elaborare, e ogni processore quantistico si affiderà ai supercomputer per funzionare correttamente”. Quando vedremo le tecnologie quantistiche generare un valore commerciale significativo? Costa di Nvidia ha affermato che qualsiasi risposta potesse dare sarebbe sbagliata.

L'articolo Nvidia lancia NVQLink per il calcolo quantistico proviene da Red Hot Cyber.



La Fidae (Federazione istituti di attività educative) sarà presente al Giubileo del mondo educativo, promosso dal Dicastero per la Cultura e l’Educazione (28 ottobre-1° novembre), portando il proprio contributo di riflessione e testimonianza al grand…


“Un gesto straordinariamente positivo e profondamente significativo”. Così Ronald S. Lauder, presidente del World Jewish Congress (Wjc), accoglie le parole di Papa Leone XIV che, durante l’udienza generale in Vaticano, ha condannato con fermezza ogni…