Salta al contenuto principale



Il Tribunale penale internazionale dell’Aia si libera di Office per evitare ricatti trumpiani?

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Dopo che Trump ha sanzionato il procuratore capo della CPI, Karim Khan, per il mandato d'arresto nei confronti di Netanyahu il magistrato s'è



Repurposing Dodgy Android TV Boxes As Linux Boxes



The fake H313 TV box SBC in all its glory. (Credit: Oleksii's Tech, YouTube)The fake H313 TV box SBC in all its glory. (Credit: Oleksii’s Tech, YouTube)
Marketplaces and e-waste recycling centers are practically overflowing with the things: ARM-based streaming TV boxes that run some — usually very outdated and compromised — version of Android. While you can use them for their promised streaming purposes, they’re invariably poorly optimized and often lie about their true hardware specifications. Which leaves the most important question: can you install Linux on these SBCs and use them as a poor man’s Raspberry Pi alternative? The answer, according to [Oleksii’s Tech] on YouTube is ‘sorta’.

The commonly seen X96Q clone Android TV box that [Oleksii] bought for $10 is a good example. The clone advertises itself as based on a quad-core Cortex-A53 AllWinner H313 SoC, like the genuine X96Q, but actually has a Rockchip RK3229 inside with correspondingly far lower performance. After you have determined what the actual hardware inside the box is, you can get a copy of Armbian for that particular SoC. Here, the Rk322x-box minimal image was used, with the box booting straight off an SD card. Some Android TV boxes require much more complicated methods to even boot off external media, so this was a lucky break.

Continuing the hardware scam, it was advertised as having 2 GB of RAM and 16 GB of Flash, but it actually has just 1 GB of RAM and 8 GB of eMMC Flash. This was enough to get Armbian desktop up and running, but that’s about all you can do on the desktop. Desktop application performance was atrocious, mostly due to the CPU’s quad Cortex-A7 cores struggling to keep up.

As also suggested in the comments, the best use for these low-spec SBCs is probably to run light server applications on them, including Pi-Hole, Samba, an IRC bouncer, and so on. They’re pretty low-power, often have the requisite Ethernet built in, and it keeps another bit of potential e-waste from getting scrapped.

youtube.com/embed/b1UIIlYLM4I?…


hackaday.com/2025/11/03/repurp…



Il furto al Louvre: come la governance delle password può compromettere la sicurezza


“Quando la chiave è ‘Louvre’ – Il furto che insegna come la governance delle password può far vacillare anche i più inviolabili baluardi”

Il 19 ottobre 2025 il Museo del Louvre fu teatro di un furto clamoroso: nella celebre Galerie d’Apollon, una banda entrò attraverso una finestra grazie a un cestello elevatore installato su un camion, rimase all’interno per pochi minuti e scappò con almeno otto gioielli di straordinario valore appartenenti ai gioielli della Corona francese.

In seguito all’evento emerse un dettaglio emblematico per tutti gli operatori di sicurezza: il server di videosorveglianza, secondo quanto riportato dalla stampa, aveva come password… il nome stesso del museo, “LOUVRE”.

Password e governance: la vulnerabilità dietro la porta aperta


Quando il museo che ospita la Gioconda, che conta milioni di visitatori all’anno e che viene considerato uno dei luoghi simbolo della cultura mondiale, risulta essere forzato in pochi minuti, è chiaro che la falla non è solo dal vetro rotto: è nei processi, nei ruoli, negli automatismi.

La scelta della password “Louvre” segnala una casualità o superficialità inaccettabile: è una stringa prevedibile, facilmente individuabile da chiunque aveva compiuto una ricognizione (OSINT) o da chi avesse accesso minimo ai dati interni. In pratica, l’amministratore di sistema – interno o esterno – ha lasciato la serratura digitale con la chiave più banale.

Il ruolo dell’amministratore di sistema e la governance IT


Gli amministratori di sistema rappresentano il nodo critico nella difesa informatica di ogni organizzazione:

  • definire politiche di password robuste (lunghezza, complessità, rotazione automatiche)
  • gestire i privilegi (chi può accedere ai sistemi di sorveglianza, reti, server)
  • garantire che i sistemi di controllo siano integrati (videosorveglianza fisica + logica, network, autenticazioni)
  • monitorare costantemente e reagire agli alert (un accesso anomalo, un server che risponde con credential di default)

Nel caso del Louvre, risulta evidente che anche se la videosorveglianza “funzionava”, come dichiarato, la governance era insufficiente: anche se una AUDIT risulta in corso, sembrerebbe che il sistema faccia uso di protocolli obsoleti, sistemi sotto-equipaggiati, rischi sottovalutati.

“Difesa perimetro + credenziali interne” = vero «doppio muro»


Spesso si parla solo di ‘difesa del perimetro’: muri, vetri blindati, allarmi. Ma come ha dimostrato il furto, i ladri hanno usato un soggetto esterno (la piattaforma elevatrice) e hanno proceduto come fossero tecnici: l’accesso fisico si è combinato con la debolezza logica (password banale).

Analogamente, in un’azienda moderna, l’infrastruttura IT è vittima se la password di backup, del server remoto, del firewall oppure del controller di dominio è banale – anche se il firewall è configurato in modo impeccabile. Una password debole azzera il valore di un perimetro forte.

Best-practice che ogni organizzazione dovrebbe adottare


Alla luce dell’episodio, ecco alcuni pilastri che tutti – musei, istituti finanziari, realtà industriali – dovrebbero integrare nella governance IT:

  1. Password manager e policy condivise: niente password “museonome” o di default, niente account condivisi con “admin/admin123”.
  2. Autenticazione a più fattori (MFA) anche per sistemi ‘meno visibili’ come sorveglianza, backup, manutenzione.
  3. Least privilege: ogni account fa solo ciò che serve, gli account di maintenance non restano attivi 24/7.
  4. Accesso e log auditing continuo: gli amministratori devono avere visibilità, alert in caso di login anomalo, processo di escalation.
  5. Revisione periodica delle credenziali e penetration test: verificare che anche le credenziali ‘minori’ (videosorveglianza, impianti, accesso tecnico) siano protette.
  6. Governance e responsabilità chiare: chi è responsabile della sicurezza del museo non può politicizzare la questione – serve un governance board, reporting, budget adeguato.


Conclusione


La vicenda del Louvre ci ricorda che la sicurezza non è solo vetri blindati o telecamere di ultima generazione, ma anche – e forse soprattutto – la correttezza delle credenziali, la gestione degli accessi e la cultura della responsabilità degli amministratori di sistema.

Il furto non è stato reso possibile solo da una finestra rotta, ma da una porta logica spalancata dalla banalità. Se “Louvre” può essere la password del Louvre, cosa potrebbe succedere in un’azienda con password “Company123”, “Admin2025” o “Password1”?

In un mondo dove ogni rete, ogni server, ogni device è un potenziale punto di intrusione, la governance delle password e la protezione degli account tecnici diventano la prima linea di difesa. Non lasciamo che la praticità soverchi la prudenza.

Un amministratore di sistema preparato sa che la password più bella è quella che nessuno indovinerà – e che nessuno dimenticherà di cambiare.

Luca Almici

L'articolo Il furto al Louvre: come la governance delle password può compromettere la sicurezza proviene da Red Hot Cyber.



Il TAR Sicilia accoglie il nostro ricorso per la mancata adozione del PEBA da parte del Comune di Catania


Il commento dell’avvocato Alessandro Gerardi: “Passo avanti verso il rispetto dei diritti delle persone con disabilità”


Il Tribunale Amministrativo Regionale per la Sicilia – sezione staccata di Catania – ha accolto l’istanza presentata da Filippo Tagnese e dall’Associazione Luca Coscioni, nominando un commissario ad acta (funzionario pubblico nominato da un giudice) per garantire che il Comune di Catania dia finalmente seguito alla domanda volta a ottenere l’adozione del Piano per l’Eliminazione delle Barriere Architettoniche (PEBA).

La decisione del TAR arriva dopo la sentenza del 12 maggio 2025, con la quale il Tribunale aveva già accertato il silenzio-inadempimento del Comune e lo aveva obbligato a emanare un provvedimento entro 45 giorni. Poiché l’Amministrazione non ha rispettato i termini, il TAR ha ora disposto la nomina del Segretario Generale della Città Metropolitana di Messina come commissario ad acta, incaricato di assicurare, entro 180 giorni, la conclusione del procedimento con il quale è stata chiesta l’adozione del PEBA.

“Si tratta di un risultato importante – dichiara l’avvocato Alessandro Gerardi, consigliere generale dell’Associazione Luca Coscioni – perché il TAR ha riconosciuto la fondatezza della nostra iniziativa e l’obbligo del Comune di rispondere alla diffida che avevamo presentato. Ora attendiamo che le istituzioni adempiano a quanto ordinato dal Tribunale, fornendo una risposta formale e motivata sulla richiesta di adozione del PEBA. È un passo avanti significativo verso il rispetto dei diritti delle persone con disabilità, ma la partita non è ancora chiusa”.

La Cellula di Catania dell’Associazione Luca Coscioni continuerà a monitorare l’evoluzione del procedimento, affinché l’Amministrazione comunale rispetti le tempistiche e gli obblighi stabiliti dal TAR e si arrivi finalmente a un piano concreto per rendere la città accessibile a tutte e a tutti.

L'articolo Il TAR Sicilia accoglie il nostro ricorso per la mancata adozione del PEBA da parte del Comune di Catania proviene da Associazione Luca Coscioni.



#NotiziePerLaScuola
È disponibile il nuovo numero della newsletter del Ministero dell’Istruzione e del Merito.


Xi Jinping propone un’organizzazione globale per l’intelligenza artificiale


Il presidente cinese Xi Jinping è stato al centro dell’attenzione durante la riunione dei leader dell’APEC di sabato e ha proposto la creazione di un’organizzazione globale per la gestione dell’intelligenza artificiale.

Pechino sta cercando di affermarsi come un polo alternativo per la cooperazione commerciale e tecnologica, nonostante le divergenze con gli Stati Uniti. Secondo Xi, un’organizzazione globale per la cooperazione sull’intelligenza artificiale potrebbe stabilire regole di governance e promuovere la cooperazione internazionale, trasformando l’intelligenza artificiale in un “bene pubblico” per il mondo intero.

L’agenzia di stampa ufficiale Xinhua lo ha citato affermando che l’intelligenza artificiale è fondamentale per lo sviluppo futuro e dovrebbe apportare benefici alle persone in tutti i paesi e le regioni. Funzionari cinesi hanno precedentemente suggerito che la sede centrale di tale organizzazione potrebbe essere stabilita a Shanghai.

Gli Stati Uniti si oppongono ai tentativi di delegare la regolamentazione dell’intelligenza artificiale alle organizzazioni internazionali. In questo contesto, Pechino ha presentato l’iniziativa all’inizio di quest’anno e questo discorso ha segnato il primo commento pubblico e dettagliato di Xi sui suoi obiettivi. Gli analisti si aspettavano che Xi promuovesse la visione cinese di cooperazione economica e commerciale multilaterale a margine dell’APEC.

Il presidente degli Stati Uniti Donald Trump non ha partecipato al vertice dei leader dell’APECa Gyeongju, in Corea del Sud, ed è volato a Washington subito dopo l’incontro bilaterale con Xi. I colloqui tra i due leader sono culminati in un accordo della durata di un anno per allentare parzialmente le restrizioni commerciali e tecnologiche, il che dovrebbe allentare le tensioni tra le maggiori economie mondiali.

La competizione tecnologica rimane in prima linea. I chip avanzati della californiana Nvidia sono diventati il fondamento dell’attuale boom dell’intelligenza artificiale, ma lo sviluppatore cinese DeepSeek sta promuovendo modelli più accessibili, che le autorità di Pechino stanno utilizzando come parte della loro spinta per la cosiddetta “sovranità algoritmica”. Xi ha anche invitato l’APEC a promuovere il “libero flusso” delle tecnologie verdi. Questo si riferisce alla catena di approvvigionamento, dalle batterie ai pannelli solari, dove i produttori cinesi hanno una posizione particolarmente forte.

I membri dell’APEC hanno approvato una dichiarazione congiunta e accordi sull’intelligenza artificiale e sulle sfide dell’invecchiamento della popolazione. La Cina ospiterà il vertice dell’APEC nel 2026 a Shenzhen. Xi ha ricordato che la città, con una popolazione di quasi 18 milioni di abitanti, era un villaggio di pescatori solo pochi decenni fa e si è sviluppata grazie al suo status di una delle prime zone economiche speciali. L’APEC rimane un forum consultivo per 21 economie, che rappresentano circa la metà del commercio globale.

L'articolo Xi Jinping propone un’organizzazione globale per l’intelligenza artificiale proviene da Red Hot Cyber.




Il Venezuela si prepara agli attacchi militari americani


@Notizie dall'Italia e dal mondo
Gli articoli orientati che sta lanciando la stampa di estrema destra a Caracas circa la presunta attività dei “cartelli brasiliani” nelle zone amazzoniche, sollecitano e forse anticipano possibili operazioni di terra o sotto copertura organizzate dalla Cia
L'articolo Il Venezuela si




Zapatisti: resistenza alle aggressioni e cammino verso il comune


@Notizie dall'Italia e dal mondo
L'EZLN denuncia un'offensiva coordinata per privarli delle terre recuperate in Chiapas, che include sfollamenti forzati, incendi di abitazioni e aggressioni con il sostegno della polizia e dell'esercito. La disputa per un terreno di 47 ettari, concesso dal governo a privati, ha




Ecco chi ci rimette davvero col bando di Meta alla pubblicità politica nell’Ue

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Stando a un articolo della Columbia Journalism Review, lo stop di Meta alla pubblicità politica nell’Ue, sta tagliando fuori un gran numero di articoli, compromettendo




Il futuro della società nell’era dell’Intelligenza Artificiale


Oggi molti si chiedono quale impatto avrà la diffusione dell’Intelligenza Artificiale sulla nostra società. Tra le preoccupazioni più diffuse spicca quella della perdita di milioni di posti di lavoro e di una conseguente crisi economica senza precedenti.

Per comprendere però a fondo ciò che sta accadendo vale la pena compiere una digressione storica. Millenni fa, l’umanità attraversò una trasformazione che avrebbe ridefinito per sempre il corso della civiltà: il passaggio da società di cacciatori-raccoglitori a comunità agricole. Non fu un semplice mutamento di stile di vita, ma una rivoluzione che liberò il bene più prezioso dell’esistenza umana: il tempo.

Oggi, mentre l’Intelligenza Artificiale irrompe nelle nostre vite, potremmo trovarci sull’orlo di una trasformazione di portata analoga: una rivoluzione cognitiva le cui conseguenze sono tanto difficili da prevedere quanto lo furono quelle della rivoluzione agricola per i nostri antenati del Neolitico.

Nel suo fondamentale “Armi, acciaio e malattie” Jared Diamond mostrò come la domesticazione di piante e animali abbia innescato una catena di eventi che ha plasmato la società moderna. La sua tesi, che la geografia e le risorse disponibili abbiano determinato lo sviluppo tecnologico di alcune civiltà, ci offre una lente preziosa anche per comprendere la rivoluzione dell’IA.

Un aspetto della rivoluzione agricola che merita particolare attenzione è il paradosso del tempo libero. Contrariamente all’immaginario comune, i primi agricoltori non lavoravano meno dei cacciatori-raccoglitori; spesso, anzi, lavoravano di più. La vera innovazione non fu la quantità di tempo libero, ma la sua qualità e la sua distribuzione. Per la prima volta nella storia, non tutti dovevano dedicarsi ogni giorno alla sopravvivenza immediata.

Da quella nuova organizzazione del tempo nacque la specializzazione: alcuni costruivano, altri progettavano, altri ancora cominciavano semplicemente a pensare. Nacquero scribi, artigiani, filosofi, amministratori. Nacque, in sostanza, la civiltà.

L’intelligenza artificiale sta producendo un effetto strutturalmente simile. Come l’aratro liberò l’uomo dalla ricerca quotidiana del cibo, così l’IA sta liberando porzioni crescenti del nostro tempo cognitivo da compiti ripetitivi e analitici che fino a ieri assorbivano ore di lavoro umano.

Un avvocato che impiegava giorni per analizzare contratti può oggi ottenere in pochi minuti un’analisi preliminare; un programmatore dialoga con un assistente che genera codice, consentendogli una produttività decine di volte superiore; un medico dispone di strumenti capaci di individuare anomalie con precisione che supera i limiti umabi.

Ed è qui che si annida il primo, cruciale malinteso: la rivoluzione dell’IA non riguarda il “lavorare meno”, ma il “lavorare diversamente”. Riguarda l’apertura di nuovi spazi per la creatività, l’intuizione e il pensiero astratto.

La rivoluzione agricola non generò una società di oziosi, ma una civiltà capace di immaginare. I Sumeri non usarono il tempo liberato per riposare, ma per inventare la scrittura; i Greci lo usarono per elaborare la filosofia, la matematica, la democrazia. Il tempo sottratto alla sopravvivenza divenne tempo per la cultura, per la scienza, per la bellezza.

L’IA può portare a una liberazione analoga, ma su scala globale e a velocità esponenziale. Quando un ricercatore non deve più passare mesi a catalogare dati, ma può concentrarsi sull’interpretazione, quando un’artista può esprimere una visione senza dover padroneggiare tecniche complesse, quando un cittadino può comprendere temi politici grazie a strumenti che sintetizzano e spiegano, allora si aprono spazi cognitivi del tutto nuovi.

Naturalmente, la transizione non sarà indolore. Come ricordava Diamond, la rivoluzione agricola portò con sé disuguaglianze, epidemie e guerre. Creò gerarchie, sfruttamento e conflitti. Sarebbe ingenuo pensare che l’IA non possa produrre a sua volta dislocazioni, ingiustizie, nuove concentrazioni di potere.

I timori sulla disoccupazione tecnologica, sulla sorveglianza algoritmica o sulla concentrazione di ricchezza in poche mani sono fondati. Ma fermarsi a questi timori significherebbe commettere lo stesso errore di un cacciatore-raccoglitore che, osservando i primi campi coltivati, avesse visto solo fatica e malattie, senza intuire la nascita della civiltà.

I veri benefici della rivoluzione agricola erano imprevedibili per chi la viveva. Nessun contadino sumero poteva immaginare che i suoi campi di grano avrebbero portato, millenni dopo, alla teoria della relatività o all’esplorazione spaziale. Allo stesso modo, è impossibile prevedere oggi dove ci condurrà l’IA: quali forme di pensiero, discipline o strutture sociali emergeranno quando miliardi di persone potranno disporre di strumenti cognitivi potentissimi.

Tuttavia, alcuni segnali già si intravedono: studenti che, liberati dalla memorizzazione meccanica, sviluppano un pensiero critico più profondo. Ricercatori che accelerano scoperte scientifiche esplorando spazi prima inaccessibili. Artisti che fondono tradizione e tecnologia in linguaggi espressivi radicalmente nuovi.

Ancora più interessante è ciò che potrebbe accade sul piano politico: cittadini che, grazie all’IA, comprendono dati complessi e partecipano a dibattiti un tempo riservati agli esperti. Comunità che utilizzano l’intelligenza artificiale per coordinarsi, deliberare, immaginare futuri alternativi. Tutto questo è possibile, e può prendere direzioni positive o negative.

Come l’agricoltura rese possibile la politica organizzata, l’IA potrebbe rendere possibili nuove forme di partecipazione democratica e di coordinamento sociale.

Il Rinascimento europeo nacque anche dall’accumulo di tempo libero e ricchezza in alcune città-stato italiane, ma soprattutto dalla circolazione delle idee e dalla concentrazione dei talenti. L’IA offre oggi la possibilità di un “Rinascimento distribuito”: non più limitato a un’élite, ma potenzialmente accessibile a chiunque disponga di una connessione.

Immaginiamo una società in cui un pensatore in Nigeria abbia gli stessi strumenti di un professore di Harvard, in cui una studentessa in India collabori in tempo reale con ricercatori di tutto il mondo, in cui le barriere linguistiche si dissolvano e gli esseri umani possano dedicarsi sempre più a ciò che sanno fare meglio: creare, immaginare, empatizzare, dare senso.

Riconoscere il potenziale positivo dell’IA non significa cedere a un ingenuo ottimismo. La rivoluzione agricola impiegò millenni per dispiegare i suoi frutti, e lungo il cammino produsse sofferenze immense. Dobbiamo imparare da quella storia: assicurare che i benefici dell’IA siano distribuiti equamente, proteggere chi verrà penalizzato, prevenire abusi, e mantenere al centro l’umano.

Ma sarebbe altrettanto miope, addirittura pericoloso, assumere una postura puramente difensiva. Le grandi transizioni tecnologiche sono inarrestabili. La domanda cruciale non è se l’IA trasformerà la società, ma come vogliamo che lo faccia.

Guardando oggi alla rivoluzione agricola, vediamo che, nonostante i suoi costi, ha reso possibile tutto ciò che chiamiamo civiltà: la musica di Mozart, la medicina moderna, i diritti umani, l’esplorazione spaziale. Nulla di tutto questo sarebbe esistito in una società di cacciatori-raccoglitori.

L’intelligenza artificiale potrebbe rappresentare una svolta di pari grandezza. Non possiamo prevedere dove ci condurrà, ma possiamo riconoscere i segni di un cambiamento epocale: il tempo cognitivo che si libera, le nuove forme di pensiero che nascono, le possibilità di collaborazione e creazione su scala globale. Tutto lascia pensare che ci troviamo all’alba di qualcosa di straordinario.

Forse, tra cento o mille anni, i nostri discendenti guarderanno a questo momento come noi guardiamo alla rivoluzione agricola: come a un passaggio difficile ma necessario, che rese possibili nuove forme di esistenza e di progresso umano. E se questo è vero, il nostro compito non è resistere al cambiamento, ma guidarlo con saggezza, coraggio e una visione chiara dell’umanità che vogliamo diventare.

Il tempo liberato dalle macchine, se sapremo raccogliere la sfida, potrà diventare il tempo in cui impariamo a essere più pienamente umani.

L'articolo Il futuro della società nell’era dell’Intelligenza Artificiale proviene da Red Hot Cyber.



Is This The Last PCB You’ll Ever Buy?


Breadboards are great, but as the world moves more and more to having SMD as a standard, prototyping straight PCBs is becoming more common. If you’re mailing off to China for your PCBs, it’s shockingly quick for what it is, but a one-week turnaround is not “rapid prototyping”. [Stephen Hawes] has been on a quest on his YouTube channel for the ideal rapid-prototyping PCB solution, and he thinks he’s finally got it.

Now, if you’re only doing single-layer PCBs, this is a solved problem. You can mechanically mill, or laser cut, or chemically etch your way to PCB perfection, far faster than the Chinese fabs can get you a part. If you want a double-sided board, however, vias are both a pain in the keister to do yourself, and a rate-limiting step.

[Stephen Hawes] hit on the idea of buying a bulk set of PCBs from the usual vendors. The boards will be simple copper pours with vias in a grid with just a bit of etching. PCB Vendors are good at that, after all, and it’s not going to cost much more than raw copper. [Stephen] then uses the template of this “viagrid” board to lay out the circuit he’s prototyping, and it’s off to the races.

Or, off to the laser, rather. Unlike the fiber laser he showed us previously, [Stephen] is now recommending a diode-pumped solid state (DPSS) laser, as they can blast the copper off without burning FR4 substrate. Given that the vias are now part of the design, everything needs to line up perfectly, so his viagrid PCB design has a few features to lock it in using LightBurn’s “frame” feature. The DPSS laser barely shows up on the copper, but shines brilliantly off the fiberglass, and VIGrid takes advantage of this fact. He’s also got a 3D printed jig to hold everything in alignment once it’s dialed in, even for running off many boards.

This laser is just as fast as the fiber laser, giving you PCBs in minutes. And while vias are apparently best left to the professionals, through-hole components can easily be accommodated, with the laser able to cut the FR4 on request. All of his lightburn and files for the varigrid PCB are available on GitHub. [Stephen] is also looking for collaborators to see if this technique can be used without the very-expensive Commarker laser, and to come up with a better name than varigrid.

As [Stephen] says in the video, if you combine this with a pick-and-place and a reflow oven, you can go from design to a working two-layer PCB in about 90 minutes, which is a very exciting prospect for engineering companies and maker-spaces alike. Words like “game-changing” get thrown around a lot, but this just might warrant it, at least for those who have a need for speed and can afford the tools.

What do you think? Is viagrid the rapid-prototyping revolution we’ve been waiting for, or is the headline of this article still subject to Betteridge’s Law?

Thanks to [Keith Olson] for the tip.

youtube.com/embed/A_IUIyyqw0M?…


hackaday.com/2025/11/02/is-thi…



Quando Google indicizza anche l’inganno! Le reti fantasma scoperte da RHC che penalizzano la SERP


Analisi RHC sulla rete “BHS Links” e sulle infrastrutture globali di Black Hat SEO automatizzato

Un’analisi interna di Red Hot Cyber sul proprio dominio ha portato alla luce una rete globale di Black Hat SEO denominata “BHS Links”, capace di manipolare gli algoritmi di Google attraverso backlink automatizzati e contenuti sintetici.

Molti di questi siti, ospitati su reti di proxy distribuite in Asia, generavano backlink automatizzati e contenuti sintetici con l’obiettivo di manipolare gli algoritmi di ranking dei motori di ricerca.

Queste infrastrutture combinavano IP rotanti, proxy residenziali e bot di pubblicazione per simulare segnali di traffico e autorità, una strategia pensata per rendere l’attacco indistinguibile da attività organica e per aggirare i controlli automatici dei motori di ricerca.

Dalle infrastrutture asiatiche a “BHS Links”


Nel corso dell’indagine però, tra i vari cluster osservati, uno in particolare ha attirato l’attenzione per dimensioni, coerenza e persistenza operativa: la rete non asiatica denominata “BHS Links”, attiva almeno da maggio 2025.

A differenza dei gruppi asiatici frammentati, BHS Links si presenta come un ecosistema strutturato di “Black Hat SEO as a Service”, che sfrutta automazione, tecniche antiforensi e domini compromessi per vendere ranking temporanei a clienti anonimi di vari settori, spesso ad alto rischio reputazionale (scommesse, pharma, trading, adult).

Architettura e domini coinvolti


L’infrastruttura di BHS Links comprende decine di domini coordinati, tra cui:

  • bhs-links-anchor.online
  • bhs-links-ass.online
  • bhs-links-boost.online
  • bhs-links-blast.online
  • bhs-links-blastup.online
  • bhs-links-crawlbot.online
  • bhs-links-clicker.online
  • bhs-links-edge.online
  • bhs-links-elite.online
  • bhs-links-expert.online
  • bhs-links-finder.online
  • bhs-links-fix.online
  • bhs-links-flux.online
  • bhs-links-family.online
  • bhs-links-funnel.online
  • bhs-links-genie.online
  • bhs-links-hub.online
  • bhs-links-hubs.online
  • bhs-links-hive.online
  • bhs-links-info.online
  • bhs-links-insight.online
  • bhs-links-keyword.online
  • bhs-links-launch.online
  • bhs-links-move.online
  • bhs-links-net.online
  • bhs-links-power.online
  • bhs-links-pushup.online
  • bhs-links-rankboost.online
  • bhs-links-rise.online
  • bhs-links-signal.online
  • bhs-links-snap.online
  • bhs-links-spark.online
  • bhs-links-stack.online
  • bhs-links-stacker.online
  • bhs-links-stats.online
  • bhs-links-storm.online
  • bhs-links-strategy.online
  • bhs-links-target.online
  • bhs-links-traffic.online
  • bhs-links-vault.online
  • bhs-links-zone.online

Ogni dominio funge da nodo di ridistribuzione: aggrega backlink, genera nuove pagine, replica codice HTML da siti legittimi e rimanda al canale Telegram ufficiale t.me/bhs_links.

Molti domini sono protetti da Cloudflare e ospitati su server offshore, rendendo difficile la tracciabilità. I log forensi indicano anche filtraggio selettivo di Googlebot e pattern di cloaking deliberato.

Cloaking attivo rilevato su bhs-links-blaze.online


Un test condotto da RHC tramite curl con differenti User-Agent ha evidenziato un comportamento di cloaking selettivo, pratica vietata dalle Google Search Essentials.

C:\Users\OSINT>curl -I -A "Googlebot/2.1 (+google.com/bot.html)" bhs-links-blaze.online
HTTP/1.1 403 Forbidden
Server: cloudflare

C:\Users\OSINT>curl -I -A "Mozilla/5.0 (Windows NT 10.0; Win64; x64)" bhs-links-blaze.online
HTTP/1.1 200 OK
Server: cloudflare


Il sito blocca deliberatamente i crawler di Google, rendendo invisibili i propri contenuti promozionali per evitare penalizzazioni. La regola Cloudflare è simile a:

Regola: Block Googlebot
Condizione: (http.user_agent contains “Googlebot”)
Azione: Block


Dal punto di vista forense, si tratta di una tecnica antiforense deliberata, utile a eludere i controlli automatici di Google, nascondere la rete di clienti e backlink generati artificialmente e disturbare l’analisi OSINT basata su crawling.

Target italiani e sfruttamento del “trust locale”


Durante l’analisi del codice sorgente di più domini BHS, RHC ha rilevato centinaia di link verso siti italiani legittimi, tra cui:

Ansa, repubblica.it, gazzetta.it, fanpage.it, legaseriea.it, adm.gov.it, gdf.gov.it, liceoissel.edu.it, meteofinanza.com, aranzulla.it, superscudetto.sky.it.

Tutti i domini citati sono vittime passive di citazione algoritmica e non coinvolti in attività illecite.

Questi siti web non sono compromessi: vengono citati in modo passivo per sfruttarne la reputazione. È una strategia basata sul cosiddetto trust semantico, dove la semplice co-occorrenza tra un sito affidabile e un dominio malevolo induce l’algoritmo a interpretare quest’ultimo come credibile. In altre parole, BHS Links non buca i siti, ma li usa come riflettori reputazionali. Una tattica che consente ai clienti di ottenere boost di ranking temporanei, soprattutto nei settori gambling, forex e adult.

Come nascondono i link


Nel codice sorgente delle pagine analizzate compare un elemento ricorrente: una lista racchiusa in un blocco <ul style="display:none">. Questa sintassi HTML/CSS significa letteralmente “crea una lista non ordinata, ma non mostrarla all’utente”, il browser riceve il markup ma non lo rende visibile perché la regola CSS display:none impedisce la visualizzazione dell’elemento e di tutto il suo contenuto.

A prima vista può sembrare innocuo, ma in realtà rappresenta una delle tattiche più subdole del cloaking semantico: i link vengono resi invisibili ai visitatori umani, ma restano presenti nel sorgente e dunque leggibili dai crawler dei motori di ricerca.

In questo modo il network BHS Links inietta decine di riferimenti nascosti verso domini esterni, forum, casinò online e siti di affiliazione, tutti corredati dal marchio “TG @BHS_LINKS – BEST SEO LINKS – https://t.me/bhs_links”. Il server può servire due versioni della stessa pagina, una pubblica e “pulita” per gli utenti e una destinata ai bot, oppure lasciare lo stesso HTML che, pur essendo nascosto via CSS, viene comunque indicizzato come shadow content: un contenuto fantasma che vive nel codice ma non sulla pagina visibile.

Googlebot e altri crawler analizzano il sorgente e i link anche quando sono nascosti tramite CSS; di conseguenza i riferimenti invisibili vengono interpretati come segnali di co-occorrenza e autorevolezza, attribuendo al dominio malevolo una falsa credibilità. In termini pratici, BHS Links crea così un ponte reputazionale artificiale tra i propri domini e portali reali (testate giornalistiche, siti regolamentati, blog autorevoli). Per l’utente tutto appare normale; per l’algoritmo si tratta invece di una rete ricca di collegamenti tematici e autorevoli. È proprio questa discrepanza, tra ciò che vede l’uomo e ciò che interpreta l’algoritmo, a rendere l’avvelenamento semantico così efficace e difficile da individuare.

Le prove dell’inganno semantico: oltre l’iniezione


In tutti i casi analizzati, dopo l’iniezione di codice già descritta, le evidenze tecniche convergono su altri due indizi ricorrenti che completano la triade dell’inganno semantico:

  • hash differenti tra la versione “normale” e quella servita a Googlebot,
  • rotazione semantica dei blocchi dinamici del CMS

Questi elementi, nel loro insieme, costituiscono la firma tecnica ricorrente dell’operazione BHS Links.

Gli Hash divergenti


Gli hash SHA-256 calcolati per ogni file confermano con precisione la manipolazione semantica.
Nel caso d’esempio, i valori rilevati mostrano due versioni distinte della stessa pagina:

  • 2C65F50C023E58A3E8E978B998E7D63F283180495AC14CE74D08D96F4BD81327normal.html, versione servita all’utente reale
  • 6D9127977AACF68985B9EF374A2B4F591A903F8EFCEE41512E0CF2F1EDBBADDEgooglebot.html, versione destinata al crawler di Google

La discrepanza tra i due hash è la prova più diretta di cloaking attivo: il server restituisce due codici HTML diversi a seconda di chi effettua la richiesta.
Il file diff.txt, con hash FF6B59BB7F0C76D63DDA9DFF64F36065CB2944770C0E0AEBBAF75AD7D23A00C6, documenta le righe effettivamente differenti tra le due versioni, costituendo la traccia forense della manipolazione.

Ecco invece come appare uno dei siti citati, rimasto intatto e non alterato da cloacking


La rotazione semantica: la riscrittura invisibile


Dopo la verifica degli hash, l’analisi del codice rivela un’ulteriore strategia di manipolazione: la rotazione semantica dei contenuti.

In questo schema, il CMS Bitrix24 genera blocchi dinamici con ID diversi a seconda dello user-agent. I file normal.html e googlebot.html mostrano lo stesso contenuto ma con ordine invertito, una rotazione semantica che modifica la priorità logica dei link interni. Agli occhi di Googlebot il sito appare semanticamente riscritto: alcune sezioni, spesso quelle contenenti riferimenti nascosti al marchio BHS Links, acquisiscono un peso maggiore nel grafo semantico, influenzando la valutazione di autorevolezza. È una manipolazione invisibile ma precisa, che agisce sulla gerarchia cognitiva dell’algoritmo.

Per verificare l’anomalia, RHC ha confrontato le due versioni di alcuni siti acquisite in locale: normal.html (utente reale) e googlebot.html (crawler Google).
Nel codice servito a Googlebot compaiono ID di sezione diversi generati dal CMS, come helpdesk_article_sections_lGqiW e helpdesk_article_sections_0A6gh, mentre nella versione normale gli stessi blocchi assumono ID differenti, ad esempio C7TgM e pAZJs.

Questa variazione non cambia l’aspetto visivo della pagina, ma modifica la struttura logica letta dal motore di ricerca: Googlebot interpreta i contenuti con una gerarchia diversa, assegnando maggiore rilevanza a certi link interni. È il meccanismo della rotazione semantica: una riscrittura invisibile che orienta la comprensione algoritmica della pagina.

Nel codice della versione per bot, è inoltre presente una riga che non esiste nel file normale:
form.setProperty("url_page","https://helpdesk.bitrix24.it/open/19137184/,TG @BHS_LINKS - BEST SEO LINKS - https://t.me/bhs_links")

Il furto semantico: quando il Black Hat SEO diventa un’arma reputazionale


Le stesse tecniche di manipolazione semantica impiegate dal network BHS Links, se rivolte contro domini legittimi, si trasformano in Negative SEO: un’arma reputazionale capace di contaminare i risultati di ricerca, duplicare contenuti e indurre l’algoritmo di Google a svalutare la fonte originale.

Il caso Red Hot Cyber


Durante l’analisi, RHC ha documentato la duplicazione dell’headline istituzionale

“La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.”

Questa frase, appartenente al portale ufficiale Red Hot Cyber, è comparsa su portali spam e domini compromessi di varia provenienza, accostata a titoli pornografici o clickbait.

Le evidenze raccolte mostrano risultati su Google come:

  • peluqueriasabai.esDonna cerca uomo Avezzano contacted the booker and set up
  • restaurantele42.frEmiok OnlyFans porn I have seen a few delightful FBSM
  • lucillebourgeon.frLa Camila Cruz sex total GFE and I walked away as super
  • benedettosullivan.frBaad girl Sandra her images caught my eye and I had time
  • serrurier-durand.frSexs web the girl is a striking bisexual African American

In tutti i casi, la descrizione sotto il titolo riportava il testo di Red Hot Cyber, creando un effetto paradossale:
contenuti pornografici o spam presentati con il tono di una testata di cybersecurity affidabile.

Questo meccanismo è il cuore del furto semantico: l’algoritmo di Google unisce automaticamente titolo e descrizione in base a indizi semantici, generando risultati ibridi e apparentemente credibili.
Così, brand reali e frasi autorevoli diventano involontarie esche reputazionali per spingere in alto network malevoli.

Nel caso Red Hot Cyber, la frase originale è stata estratta dal dominio principale, indicizzata in cache e riutilizzata per costruire falsi snippet di autorevolezza, che rafforzano l’immagine di affidabilità dei siti compromessi.

È una forma di Negative SEO di terza generazione: non distrugge direttamente il sito bersaglio, ma ne riutilizza l’identità per ingannare gli algoritmi di ranking e, con essi, la percezione stessa della reputazione digitale.

Il secondo livello dell’inganno: il circuito TDS


Dietro al furto semantico si nasconde una struttura più profonda e funzionale: il Traffic Direction System (TDS) della rete BHS Links.
L’analisi dei dump HTML e delle stringhe Base64 decodificate ha permesso di risalire a questa infrastruttura, progettata per smistare e monetizzare il traffico manipolato attraverso il SEO.

I reindirizzamenti individuati puntano verso un gruppo stabile di domini che costituisce il cuore del circuito dating-affiliate della rete, attivo da mesi e già osservato in contesti internazionali.

Tra i principali, seekfinddate.com agisce come nodo centrale di smistamento, presente nella quasi totalità dei dump analizzati.
Da lì, il traffico viene indirizzato verso romancetastic.com, singlegirlsfinder.com, finddatinglocally.com, sweetlocalmatches.com e luvlymatches.com, che operano come landing page di reti di affiliazione riconducibili a circuiti come Traffic Company, AdOperator e ClickDealer.

A collegare questi livelli si trovano domini-ponte come go-to-fl.com, bt-of-cl.com e bt-fr-cl.com, che mascherano i redirect e spesso si appoggiano a Cloudflare per nascondere l’origine del traffico.
Completano la catena front-end alternativi come mydatinguniverse.com, chilloutdate.com, privatewant.com e flirtherher.com, che reindirizzano dinamicamente in base all’indirizzo IP, alla lingua o al dispositivo dell’utente.

In pratica, le pagine compromesse o sintetiche della rete BHS includono redirect cifrati che portano prima ai nodi TDS e poi alle landing di affiliazione o alle truffe a tema dating.
L’analisi dei parametri (tdsid, click_id, utm_source, __c) conferma il tipico schema di tracciamento d’affiliazione: una pagina BHS, un dominio TDS (ad esempio seekfinddate.com), e infine una landing commerciale o fraudolenta.

Ospitati su reti proxy distribuite in Asia e protetti da Cloudflare, questi siti generano backlink e contenuti sintetici per ingannare i motori di ricerca, simulando popolarità e autorevolezza.

L’analisi incrociata degli indirizzi IP e dei sistemi autonomi (ASN) conferma la sovrapposizione infrastrutturale tra i due livelli della rete.
I domini del circuito “dating-affiliate”, come seekfinddate.com, romancetastic.com, singlegirlsfinder.com e mydatinguniverse.com, risultano ospitati su Amazon AWS (AS16509), mentre i domini del network BHS Links, come bhs-links-zone.online, bhs-links-anchor.online e bhs-links-suite.online, sono serviti da Cloudflare (AS13335).

Questa doppia architettura lascia pensare a una divisione di ruoli precisa: Amazon ospita i nodi di smistamento e monetizzazione, mentre Cloudflare garantisce l’offuscamento e la persistenza dei domini SEO.
La ripetizione degli stessi blocchi IP e la coincidenza tra ASN dimostrano che si tratta di un’infrastruttura coordinata, in cui la reputazione viene manipolata su un fronte e monetizzata sull’altro.

Caso correlato: il cluster “Permanent Backlinks” e la rete delle repliche sincronizzate


Durante l’indagine sul network BHS Links, Red Hot Cyber ha identificato un secondo gruppo di portali riconducibile al dominio permanentbacklinks.com, che mostra affinità strutturali e operative con le reti analizzate in precedenza.
Il sito si configura come una piattaforma architetturale dedicata alla gestione automatizzata di backlink, con logiche compatibili con i cluster di link building già osservati.

A differenza dei domini BHS, focalizzati sulla manipolazione diretta dei segnali di ranking e sul cloaking selettivo, il cluster Permanent Backlinks agisce come back-end infrastrutturale, un hub di raccolta, replica e distribuzione di liste di domini progettato per alimentare più istanze con dataset identico.
Non ospita vere “directory SEO”, ma costruisce ecosistemi coerenti che si auto-riferiscono per resistere alle penalizzazioni e garantire continuità ai clienti.

Il dominio permanentbacklinks.com rappresenta il fulcro di questa rete di repliche sincronizzate, che include, tra gli altri, livebacklinks.com, backlinks.directory, addurl.pro, addurl.pw, linkwebdirectory.com e publicdirectory.in.

Questi ultimi si comportano come satellite d’invio: il modulo “Add Your Link” consente di inserire un dominio o un link, mostrando nella stessa pagina la sezione “Rules & Regulations” ,con limiti di 255 caratteri, esclusione dei domini scaduti, guest submission disabilitata e promessa di “delivery report” visibili solo all’interno dell’account.

Subito sotto il form compare un secondo pulsante, “Proceed to permanentbacklinks.com”, che rimanda esplicitamente al sito madre.

Il funzionamento è chiaro: l’utente compila il modulo sul portale satellite, ma per più link viene indirizzato all’hub centrale per completare o acquistare il servizio. Non si tratta quindi di una directory autonoma, bensì di un frontend promozionale e funzionale collegato all’hub principale, incaricato di raccogliere traffico e invii.

Analisi tecnica e risultati PowerShell


Le analisi condotte da RHC con ambiente PowerShell su otto portali del cluster, tra cui addurl.pro, addurl.pw, livebacklinks.com, backlinks.directory, linkwebdirectory.com, publicdirectory.in, onlinelinkdirectory.com e permanentbacklinks.com, hanno evidenziato un’infrastruttura generata in modo uniforme.
Le pagine HTML presentano dimensioni simili e una struttura pressoché identica, con variazioni minime nel markup riconducibili a un medesimo builder.

Solo permanentbacklinks.com espone un modulo attivo (action="/search/websites.php?", campo q), a conferma del suo ruolo di nodo operativo principale, mentre gli altri siti, pur privi di form visibili, condividono lo stesso dataset e layout funzionale.

Sette portali, tra cui addurl.pro, addurl.pw, livebacklinks.com, backlinks.directory, linkwebdirectory.com, publicdirectory.in e onlinelinkdirectory.com, condividono lo stesso blocco HTML “Contact Us”, con hash identico e path unificato (/contact-us/).
Questo elemento, apparentemente secondario, costituisce un indicatore architetturale chiaro dell’impiego di un builder o di un motore di pubblicazione comune, coerente con un sistema multi-istanza gestito da un nodo centrale. L’analisi del codice evidenzia inoltre la presenza di una Google Maps API key esposta su permanentbacklinks.com, mentre gli altri domini non restituiscono alcuna chiave, suggerendo il riuso di asset e configurazioni all’interno dello stesso ecosistema.

La discrepanza nei risultati di VirusTotal è significativa:
permanentbacklinks.com viene rilevato da Kaspersky come “phishing”, mentre gli altri risultano “puliti” per tutti i motori.
La differenza riflette il diverso ruolo dei due domini nella rete: il primo funge da hub centrale interattivo, con moduli e redirect attivi, mentre il secondo opera come mirror passivo, privo di form o chiamate POST.
In questo contesto, il rilevamento non implica un comportamento fraudolento in senso stretto, ma una corrispondenza euristica con schemi tipici delle piattaforme di raccolta dati o automazione SEO.
È un segnale tecnico coerente con un’infrastruttura a più livelli, dove solo il nodo centrale gestisce effettivamente il flusso delle richieste.

Con un elevato grado di confidenza tecnica, l’insieme di tutte le evidenze discusse descrive un sistema di repliche sincronizzate, in cui i portali satellite operano come interfacce di raccolta e vetrine di servizio, mentre l’hub centrale gestisce la propagazione e la sincronizzazione dei contenuti.
Non è stato rilevato un inoltro automatico dei dati, la verifica richiederebbe l’analisi dei pacchetti POST e degli header HTTP, ma la coerenza di struttura, regole e collegamenti suggerisce una gestione centralizzata dei dataset, tipica di una piattaforma di link automation distribuita.

Inoltre, l’analisi automatizzata condotta in PowerShell ha restituito un output coerente con questa interpretazione, evidenziando corrispondenze tra i domini e la presenza di mirror attivi sullo stesso root IP o su subnet contigue.
Le informazioni WHOIS mostrano date di registrazione e rinnovo sincronizzate, mentre le sezioni di output dedicate agli hash e alle “fingerprint HTML parziali” indicano la presenza di un builder comune.

Regole interne e firma: il cuore dell’architettura di inganno algoritmico, repliche sincronizzate (non mirror 1:1)


Il punto non è quanti siti compongano la rete, ma come vengono replicati.
Le differenze tra gli hash SHA-256 dimostrano che non si tratta di copie statiche, ma di versioni generate dallo stesso motore con piccole variazioni di markup, un comportamento coerente con un sistema multi-istanza sincronizzato progettato per eludere la correlazione diretta.

Le analisi condotte da RHC mostrano che le pagine /domain-list-321 dei vari domini elencano le stesse sequenze di record, con gli stessi ID e la stessa struttura.
In particolare, il record #320166 associato a redhotcyber.com compare in posizione identica e con stato “Active” su tutte le istanze, rappresentando la firma di un dataset centralizzato che alimenta più nodi.

Il punto


In chiave OSINT, la logica è chiara: stesso dataset, renderer diversi.
La rete riduce la possibilità di tracciamento algoritmico ma conserva pattern ricorrenti, come struttura, ID dei record e elementi di fiducia, che la rendono riconoscibile a un’analisi forense.

Perché compare “Red Hot Cyber” (e a cosa serve davvero)


La ricorrenza di redhotcyber.com nel dataset non genera backlink editoriali né valore SEO reale: serve a truccare il contesto semantico.
È trust spoofing: in mezzo a domini casuali, inserire riferimenti a portali noti e legittimi, come testate, enti pubblici o siti tech, eleva artificialmente la percezione di autorevolezza (“se A cita B, allora A deve essere affidabile”).

In questo schema, Red Hot Cyber non è un destinatario reale ma un elemento di reputazione simulata, usato come decorazione di fiducia.
Non si tratta quindi di una rete che vende link, ma di un’infrastruttura che vende fiducia apparente, replicando in modo sincronizzato gli stessi dataset su più domini.

In sintesi, la rete non crea autorevolezza: la imita.
E nel farlo, utilizza brand legittimi per mascherare una struttura industriale di ranking fittizio, progettata per sopravvivere anche dopo la sua individuazione.

Le evidenze tecniche confermano l’esistenza di un builder unificato: meta tag, librerie JavaScript (jQuery, Popper, Bootstrap) e la variabile window._trfd con identificatore dcenter:"sg2" risultano identici su tutte le istanze. Anche il footer, con la dicitura “© aboutdirectory.com 2025”, è invariato.
Tutti i domini principali risolvono su IP della stessa area (Singapore, AS26496 – GoDaddy.com LLC), organizzati in due segmenti: 184.168.x.x per il core stabile e 118–119.139.x.x per la capacità elastica e le repliche di backup.

Questo design suggerisce un sistema “churn and replace”: una logica di rotazione selettiva che consente di rimpiazzare rapidamente un dominio compromesso senza interrompere la distribuzione del dataset.
Permanent Backlinks funge così da nodo di persistenza del più ampio ecosistema BHS Links, garantendo la continuità del segnale e replicando i contenuti su più host sincronizzati.

Il “peccato capitale” SEO: la manipolazione dei link


Il Black Hat SEO racchiude le tattiche che violano i termini di servizio di Google per manipolare i ranking dei motori di ricerca. Tra queste, la più nota è il link building manipolativo, ovvero la creazione massiva di backlink artificiali per simulare autorevolezza.

Nei primi anni del web le directory rappresentavano uno strumento legittimo di visibilità. Con l’evoluzione del SEO aggressivo la logica è mutata: la qualità ha lasciato spazio alla quantità, generando network automatizzati di link come quelli analizzati nel cluster BHS Links da Red Hot Cyber.

Con gli aggiornamenti Panda e Penguin Google ha introdotto filtri per penalizzare schemi di linking innaturali. Servizi come permanentbacklinks.com, basati su migliaia di link non curati, rientrano oggi tra i casi di unnatural linking, esposti al rischio di penalità algoritmica o manuale. Gli algoritmi riconoscono ormai con facilità pattern geometrici e ripetizioni di struttura (la cosiddetta impronta algoritmica) che rivelano la natura artificiale della rete.

Negative SEO: confine e relazione con il Black Hat SEO (BHS)


Se il Black Hat SEO mira a costruire un’autorevolezza fittizia, il Negative SEO rappresenta il suo rovescio: le stesse tecniche trasformate in un’arma reputazionale. Non servono più a far salire un sito nei risultati, ma a farne scendere un altro, erodendo la fiducia che l’algoritmo ripone nel dominio colpito.

In questa declinazione offensiva, strumenti come link farm, reti PBN (Private Blog Network), cloaking o reindirizzamenti ingannevoli vengono utilizzati non per promuovere, ma per contaminare. Il bersaglio si ritrova improvvisamente circondato da migliaia di backlink tossici o da copie spurie dei propri contenuti, fino a subire una penalizzazione algoritmica o manuale. La logica si inverte: ciò che nel Black Hat SEO è costruzione artificiale di autorevolezza, nel Negative SEO diventa demolizione della reputazione altrui.

La linea che separa i due fenomeni è sottile ma sostanziale. Il primo serve a gonfiare la visibilità di chi lo adotta, il secondo a distruggere quella di un concorrente. Entrambi manipolano l’algoritmo, ma in direzioni opposte: il Black Hat fabbrica fiducia, il Negative SEO la corrode.

A rendere il fenomeno ancora più insidioso è la sua ambiguità operativa. Molti servizi nati con finalità promozionali, come la vendita di backlink o i pacchetti di guest post su siti compromessi, finiscono per produrre effetti collaterali di Negative SEO anche senza intenzione diretta. La diffusione automatizzata di link su larga scala, priva di filtri di qualità o controllo sull’origine dei domini, genera una rete di contaminazioni digitali che colpisce indistintamente vittime e aggressori. In questo ecosistema distorto, la linea di confine tra promozione e sabotaggio si dissolve, e il posizionamento sui motori di ricerca diventa un campo di battaglia dove la reputazione è la prima vittima.

Rilevamento e analisi dei segnali di attacco SEO


La diagnostica forense SEO parte spesso da segnali visibili direttamente nella Google Search Console (GSC), che rappresenta il primo strumento di allerta in caso di inquinamento o attacco.
Tra i sintomi più frequenti si osservano:

  • un crollo improvviso del traffico organico, non giustificato da aggiornamenti di algoritmo o stagionalità;
  • una perdita anomala di ranking su keyword strategiche, spesso sostituite da risultati di siti di scarsa qualità;
  • la comparsa di Azioni manuali per link non naturali o contenuti sospetti.

Questi indizi, presi insieme, suggeriscono che il dominio possa essere stato esposto a campagne di link tossici o schemi di manipolazione tipici del Negative SEO. Da qui si procede all’analisi tecnica dei backlink, alla verifica dei referral sospetti e all’eventuale bonifica tramite strumenti di disavow.

Audit dei backlink


L’audit dei backlink è una delle fasi più importanti nella diagnosi di compromissioni SEO.
Attraverso l’analisi sistematica dei collegamenti in ingresso, è possibile distinguere i link organici e progressivi, generati nel tempo da contenuti autentici o citazioni spontanee, da quelli artificiali o tossici, prodotti in modo massivo da reti automatizzate come BHS Links.

Un’analisi di questo tipo non si limita a contare i link, ma valuta la qualità semantica, la coerenza tematica e la distribuzione geografica delle sorgenti. Quando numerosi backlink provengono da domini appena registrati, con struttura HTML simile o ancore ripetitive, il segnale diventa chiaro: si è di fronte a un ecosistema costruito per alterare il ranking.

Nel caso specifico di BHS Links, il tracciamento dei collegamenti ha evidenziato pattern ricorrenti: picchi improvvisi di link in uscita, ancore manipolate con parole chiave commerciali, e riferimenti incrociati verso directory nascoste. Tutti indizi tipici di un’operazione di SEO artificiale, mirata non solo a spingere i propri domini, ma anche a inquinare semanticamente quelli legittimi collegati.

Risposta e mitigazione


Quando un dominio mostra segnali di compromissione o riceve backlink tossici, la prima azione consiste nel mappare e isolare i domini sospetti. I link dannosi possono essere raccolti in un semplice file di testo (.txt, codifica UTF-8) nel seguente formato:

domain:bhs-links-hive.online
domain:bhs-links-anchor.online
domain:bhs-links-blaze.online
domain:backlinks.directory

Il file va poi caricato nella Google Search Console, sezione Disavow Tool, per comunicare al motore di ricerca di ignorare i link provenienti da quei domini. È importante monitorare nel tempo gli effetti dell’operazione: la rimozione dell’impatto negativo può richiedere settimane, a seconda della frequenza di scansione del sito da parte di Googlebot.

In caso di penalizzazione manuale, è possibile presentare una richiesta di riconsiderazione, fornendo una documentazione chiara delle azioni intraprese:

  • descrivere il tipo di manipolazione o attacco subito (p.es. link innaturali, contenuti generati automaticamente);
  • spiegare in dettaglio le misure correttive adottate (rimozione e/o disavow dei link, bonifica del server, rimozione di contenuti spam);
  • allegare documentazione pertinente (per esempio screenshot, elenco dei cambiamenti, file di disavow, registri delle richieste di rimozione link) per illustrare l’intervento;
  • verificare che il sito sia accessibile a Googlebot (nessun blocco in robots.txt, pagine chiave indicizzabili e sitemap aggiornate)


Difesa preventiva e monitoraggio


Una strategia di difesa realmente efficace passa dalla prevenzione continua e dal controllo costante dell’ecosistema digitale. Le pratiche più raccomandate includono:

  • audit periodici dei backlink (almeno mensili), per intercettare rapidamente picchi anomali o nuovi domini di provenienza sospetta;
  • verifica regolare dei file .htaccess e robots.txt, per individuare tempestivamente eventuali iniezioni di codice, redirect non autorizzati o blocchi impropri al crawler;
  • monitoraggio dei DNS e delle classi IP condivise (Class C), utile per individuare co-hosting rischiosi o connessioni con reti compromesse;
  • formazione SEO interna e sensibilizzazione del personale, per evitare la collaborazione con fornitori o agenzie che utilizzano tecniche “black hat” mascherate da strategie di link building aggressive


I danni causati da una operazione di SEO Negativa


Un’operazione di SEO negativa può iniziare con una serie di azioni malevole mirate a compromettere la sua reputazione agli occhi dei motori di ricerca. Gli attaccanti possono, come in questo caso, generare migliaia di backlink di bassa qualità da siti spam o penalizzati, facendo sembrare che il portale stia tentando di manipolare artificialmente il proprio posizionamento. Questo tipo di attacco può indurre Google a ridurre la fiducia nel dominio, con un conseguente calo drastico del ranking organico e una perdita significativa di traffico.

Un caso tipico è la duplicazione dei contenuti, e questo può avvenire quando elementi distintivi del portale, come headline originali o slogan, vengono copiati e riutilizzati da siti terzi in modo malevolo. Ad esempio, l’headline “La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.”, originariamente concepita per promuovere la filosofia di Red Hot Cyber, è stata rilevata in diversi post pubblicati su portali sconosciuti o di scarsa qualità, come visto in precedenza, utilizzati per pratiche di black SEO.

I danni derivanti da un’operazione di black SEO possono essere profondi e di lunga durata, andando ben oltre la semplice perdita di posizionamento sui motori di ricerca. Oltre al calo di traffico organico e alla riduzione della visibilità, il portale può subire un deterioramento della fiducia sia da parte degli utenti sia degli algoritmi di ranking. Quando un sito viene associato, anche indirettamente, a pratiche di spam, link farming o duplicazione di contenuti, i filtri di Google e Bing possono applicare penalizzazioni algoritmiche o manuali che richiedono mesi per essere rimosse.

In sostanza, in ambito digitale, la fiducia è un capitale che si perde in un giorno e si ricostruisce in mesi: una volta compromessa, nessuna ottimizzazione tecnica può restituirla immediatamente

Conclusioni


Questo articolo non nasce per raccontare l’ignoto, ma per spiegare.
Le reti di backlink automatizzate e le tecniche di Black Hat SEO sono note agli addetti ai lavori, ma raramente vengono descritte nel loro funzionamento reale.
Red Hot Cyber le ha analizzate con metodo OSINT e test tecnici verificabili, documentando con rigore come manipolano la fiducia algoritmica e la percezione di autorevolezza.

Non si tratta di puntare il dito, ma di comprendere un meccanismo che altera la trasparenza della rete, per restituire alla comunità la conoscenza di ciò che opera nell’ombra della SERP.

Quando la fiducia è l’unico algoritmo che non si può corrompere, difendere la trasparenza non è più una scelta tecnica, ma un atto di resistenza digitale.

L'articolo Quando Google indicizza anche l’inganno! Le reti fantasma scoperte da RHC che penalizzano la SERP proviene da Red Hot Cyber.



Presunto Data Leak da EY: 4 TB di Backup SQL Esposti su Cloud Azure


Negli ultimi giorni il presunto data leak di Ernst & Young (EY) è diventato uno dei temi più discussi nel panorama della cybersecurity internazionale.

Ho deciso di ricostruire la vicenda passo dopo passo, partendo dalle evidenze tecniche condivise da Recorded Future e dall’analisi di Neo Security, per capire non solo come è avvenuta l’esposizione, ma anche cosa può insegnarci sul controllo degli asset digitali in ambienti cloud complessi come quelli di EY.

Il file, in formato .BAK, era raggiungibile senza autenticazione e potrebbe aver contenuto informazioni sensibili, come chiavi API, credenziali di servizio e token di autenticazione.

Recentemente si sono verificati episodi di blocchi riguardanti AWS e Microsoft Azure, a causa di configurazioni di accesso errate. Questi eventi fanno apparire il cloud come una fortezza fragile, che può essere compromessa da un semplice guasto o da una configurazione scorretta.
Fonte: NeoSecurity
L’episodio, pur essendo stato risolto rapidamente e senza evidenze di accessi malevoli, apre interrogativi sulla sicurezza post-acquisizione e sulla gestione della superficie d’attacco cloud.

La “cartografia digitale” di Neo Security


Come spiegato nel post ufficiale di Neo Security e nel report di Recorded Future, la scoperta è avvenuta durante un’operazione di attack surface mapping finalizzata a mappare le esposizioni pubbliche di grandi organizzazioni internazionali.

Durante la scansione, il team ha individuato un file .BAK accessibile senza autenticazione e ha eseguito una HEAD request, una richiesta HTTP che consente di leggere solo le intestazioni del file senza scaricarlo.

La risposta — HTTP 200 OK con un Content-Length di circa 4 TB — è bastata per capire che si trattava di un backup di dimensioni imponenti, potenzialmente contenente dati interni di grande valore.

Attraverso un’analisi dei metadati DNS e SOA, il bucket è stato collegato al dominio ey.com, riconducendolo all’infrastruttura EY.

In seguito, i ricercatori hanno identificato il file come un backup completo di Microsoft SQL Server, comprensivo non solo dello schema e dei dati applicativi, ma anche di possibili credenziali, chiavi API, token OAuth e password di servizio.

Dentro l’indagine di Neo Security


Neo Security descrive il proprio lavoro non come una semplice attività di scanning, ma come una vera e propria “cartografia digitale del rischio”, volta a individuare ciò che spesso le organizzazioni stesse ignorano di possedere.

Durante questa mappatura, il team ha rilevato l’anomalia su Azure e, attraverso una serie di richieste HTTP passive, ha confermato che il bucket era pubblicamente accessibile e conteneva un file di backup di circa 4 TB.

Secondo i ricercatori, la causa risiede in una ACL (Access Control List) configurata in modo errato: probabilmente un processo di backup automatizzato impostato su public per effetto di impostazioni di default troppo permissive.

Dopo la segnalazione, EY ha reagito con prontezza, chiudendo l’esposizione entro circa una settimana e collaborando con Neo Security nella fase di triage.

Pur non essendoci prove di un’esfiltrazione, il team sottolinea che i dati “potrebbero essere stati visibili a più soggetti durante la finestra temporale”, data la presenza costante di scanner automatici nel cyberspazio.
Questo articolo si basa su informazioni, integralmente o parzialmente tratte dalla piattaforma di intelligence di Recorded Future, partner strategico di Red Hot Cyber e punto di riferimento globale nell’intelligence sulle minacce informatiche. La piattaforma fornisce analisi avanzate utili a individuare e contrastare attività malevole nel cyberspazio.

L’esposizione nel tempo digitale


Nel suo articolo, Neo Security amplia la riflessione con un esempio concreto che rende perfettamente l’idea di cosa accade quando un asset cloud diventa pubblico anche solo per pochi minuti.

L’autore racconta di un precedente incident fintech, in cui un ingegnere aveva accidentalmente impostato come pubblico un bucket Amazon S3 e poi, dopo appena cinque minuti, aveva corretto l’errore convinto di essere al sicuro.

Non lo era affatto. In quei pochi minuti, l’intero database — con dati personali, credenziali e segreti aziendali — era già stato intercettato e copiato.

“Gli attaccanti non scansionano casualmente. Dispiegano migliaia di scanner automatizzati in ogni angolo di Internet.
Dispositivi IoT compromessi? Botnet. Router domestici violati? Botnet. Istanze cloud bucate? Botnet.”
(Neo Security, “The 4 TB Time Bomb”)

Queste reti di scanner distribuiti non “navigano” come utenti umani: setacciano costantemente l’intero spazio IPv4 — oltre 4,3 miliardi di indirizzi — in pochi minuti, sfruttando un’infrastruttura massicciamente parallela e ottimizzata per un solo scopo: trovare dati esposti.

È una sorta di “corsa all’oro automatizzata”, in cui ogni secondo conta. Ogni nuovo bucket S3, blob Azure o storage GCS configurato male diventa immediatamente bersaglio di migliaia di richieste simultanee.

Il tempo che separa lo stato misconfigured da exfiltrated non si misura più in ore o minuti, ma in secondi.

Nel caso citato da Neo Security, l’azienda vittima aveva registrato un picco anomalo del 400% sul traffico del sito web proprio in quei cinque minuti di esposizione: non erano utenti, ma bot automatizzati che scandagliavano ogni endpoint, alla ricerca di altri varchi.

Pochi minuti dopo, il database era già nei circuiti underground e l’azienda, schiacciata dal danno reputazionale e dai costi legali, non si è mai ripresa.

Questo esempio non serve a drammatizzare, ma a chiarire un punto fondamentale:
in un mondo dove le botnet scandagliano in tempo reale l’intera Internet, non esiste “errore temporaneo”. Anche un’esposizione di pochi istanti basta perché i dati vengano individuati, copiati e diffusi.

La dichiarazione EY


A seguito della divulgazione, EY ha diffuso una nota ufficiale:

“Several months ago, EY became aware of a potential data exposure and immediately remediated the issue. No client information, personal data, or confidential EY data has been impacted. The issue was localised to an entity that was acquired by EY Italy and was unconnected to EY global cloud and technology systems.”

La società precisa che l’incidente non avrebbe coinvolto la rete globale, ma una entità acquisita da EY Italia, separata dall’infrastruttura centrale del gruppo.

La dichiarazione di EY ha un tono rassicurante, ma mette in luce un punto critico spesso sottovalutato: la gestione della sicurezza nelle entità acquisite.

Ogni acquisizione porta con sé infrastrutture, procedure e talvolta vulnerabilità ereditate. Se questi ambienti non vengono integrati e sottoposti agli stessi standard globali, possono trasformarsi in punti ciechi nel perimetro di sicurezza.

Nel caso EY, non si tratta di un attacco sofisticato, bensì di un errore di configurazione in un ambiente ereditato. Tuttavia, in un contesto globale e distribuito, un singolo bucket dimenticato può generare un impatto reputazionale enorme — anche senza una violazione effettiva dei dati.

Impatto e raccomandazioni di Recorded Future


Nel suo commento finale, l’analista del team CTI di Recorded Future ricorda che, considerato il ruolo di EY nella gestione di audit, finanza e M&A, un’esposizione di questo tipo — se sfruttata — avrebbe potuto avere conseguenze regolatorie, operative e reputazionali.

L’azienda raccomanda di:

  • riesaminare periodicamente le ACL e le policy di accesso ai bucket cloud;
  • implementare strumenti di Cloud Security Posture Management (CSPM) per identificare configurazioni errate;
  • adottare soluzioni di Attack Surface Management (ASM) per garantire una visibilità costante sugli asset esposti.

Il caso EY dimostra che oggi la sicurezza nel cloud non dipende solo da firewall o crittografia, ma dalla consapevolezza completa degli asset digitali. Un singolo bucket mal configurato può trasformarsi in una bomba da 4 terabyte, pronta a esplodere sulla reputazione di un colosso globale.

Che l’origine sia una società acquisita in Italia o un processo di backup automatizzato, l’insegnamento resta lo stesso:

“You can’t defend what you don’t know you own.”

Non puoi difendere ciò che non sai di possedere — una frase che riassume perfettamente il cuore della sicurezza cloud moderna.

Fonti:


L'articolo Presunto Data Leak da EY: 4 TB di Backup SQL Esposti su Cloud Azure proviene da Red Hot Cyber.



3D Printering: Liquid-Filled Filament Was Not On Our Bingo Card


[Prusa] have a number of announcements, and one of the more unusual ones is that liquid printing is coming to the Prusa XL. Specifically, printing in real, heat-resistant silicone (not a silicone-like plastic) is made possible thanks to special filament and a special toolhead. It’s the result of a partnership with Filament2, and the same process could even be used to print with other liquids, including chocolate.
Look closely and you will see the detail in the nozzle, which mixes the two-part formula.
The process is as unusual as it is clever. The silicone is a two-part formula, but there is no reservoir or pump involved. Instead, there are two filaments, A and B. When mixed, they cure into solid silicone.

What is unusual is that these filaments have a liquid core. Upon entering the extruder, the outer sheath is cut away, and the inner liquid feeds into a mini mixing nozzle. The nozzle deposits the mixed silicone onto the print, where it cures. It isn’t clear from the demo where the stripped outer casing goes, but we assume it must get discarded or is possibly stowed temporarily until it can be removed.

Liquid-core filament is something we certainly didn’t have on our bingo card, but we can see how it makes sense. A filament format means the material can be handled, fed, and deposited precisely, benefiting from all of the usual things a filament-based printer is good at doing.

What’s also interesting is that the liquid toolhead can co-exist with other toolheads on the XL; in fact, they make a point of being able to extrude silicone as well as the usual thermoplastics into the same print. That’s certainly a trick no one else has been able to pull off.

There are a few other announcements as well, including a larger version of their Core One printer and an open-source smart spool standard called OpenPrintTag, a reusable and reprogrammable NFC insert for filament spools that gives you all of the convenience of automating color and material reading without the subtle (or overt) vendor lock-in that comes with it.

Watch a demo of the new silicone extruder in the video, embedded just under the page break. The new toolhead will be 1,009 USD when it launches in early 2026.

youtube.com/embed/Ugew7tXiU38?…


hackaday.com/2025/11/02/3d-pri…



Does 3D-Printed Foam Make Good Custom Tires?


Wouldn’t it be nice to 3D print an entire custom tire for small robots? It sure would, so [Angus] of [Maker’s Muse] decided to investigate whether nifty new filaments like expanding TPU offer anything new in this area. He did more than just print out a variety of smooth tires; he tested each with a motorized platform attached to a load cell, driving on a dusty sheet of MDF to simulate the average shop floor, or ant weight combat robot arena.

Why bother making your own wheels? As [Angus] points out, when one is designing their own robots from scratch, it’s actually quite difficult to find something off the shelf that is just the right size. And even if one does find a wheel that is just right, there’s still the matter of fitting it to the shaft. Things would be so much easier if one could simply 3D print both wheel and tire in a material that performs well.
Like TPU, but squishier.
Here’s what he found: Siraya Tech’s TPU air filament (about 70A on the Shore hardness scale) performed the best. This is TPU plus a heat-activated additive that foams up during extrusion, resulting in a flexible print that looks and feels more like foam than usual TPU. It makes a promising tire that performs as well as it looks. Another expanding filament, PEBA air (also from Siraya Tech) didn’t look or perform as well, but was roughly in the same ballpark.

Both performed better than the classic DIY options of 3D-printed plain TPU, or laser-cut EVA foam. It’s certainly a lot less work than casting custom tires.

What about adding a tread pattern? [Angus] gave it a try. Perhaps unsurprisingly, a knobby tire has worse traction compared to a smooth tire on smooth MDF. But sometimes treads are appropriate, and as [Angus] points out, if one is 3D printing tires then adding treads comes at essentially zero cost. That’s a powerful ability.

Even if you are not interested in custom wheels, that foaming TPU filament looks pretty nifty. See for yourself in the video, embedded just below. If you find yourself finding a good use for it, be sure to drop us a tip!

youtube.com/embed/Ky633_6OA6U?…


hackaday.com/2025/11/02/does-3…



in reply to Antonella Ferrari

ma come?
Era così coraggioso...

google.com/url?sa=t&source=web…



2025 Component Abuse Challenge: A Piezo Disk Powers A Transmitter


A piezo disk transducer is a handy part for reproducing beeps and boops, and can also function as a rudimentary microphone. Being a piezoelectric element, it can also generate usable power. Enough to run a radio transmitter? [b.kainka] is here to find out, with what may be the simplest possible transmitter circuit.

The active element in the circuit, such as it is, comes from a crystal. This functions as an extremely stable and high Q tuned circuit. When excited by a pulse of electricity, the circuit will carry oscillations in a similar manner to a bell ringing until the pulse is exhausted. A small lever fashioned from a piece of wire supplies the voltage by flexing the piezo disk and a contact, a diode discharges the reverse voltage as the disk returns to shape, and a small capacitor provides an AC path to ground. It works, if a small pulse of very low-power RF near the crystal’s frequency can be described as working.

It may not be the most practical transmitter, but it’s certainly something we’ve not seen before. It’s part of our 2025 Component Abuse Challenge, for which you still have time to make an entry yourself if you have one.

2025 Hackaday Component Abuse Challenge


hackaday.com/2025/11/02/2025-c…

Gazzetta del Cadavere reshared this.



Riflessione sul degrado umano e la deriva culturale

Stiamo attraversando un periodo storico in cui la coesione sociale sembra dissolversi: cresce l’individualismo, la fiducia reciproca si erode e riemerge una mentalità di chiusura, sospetto e semplificazione autoritaria. È la stessa dinamica che alimenta l’avanzata delle destre estreme in molti paesi.

Le cause non sono uniche: sono intrecciate tra ambiente, tecnologia, economia, cultura e psicologia collettiva.

Inquinamento invisibile: microplastiche e sostanze tossiche

Le microplastiche e le cosiddette “sostanze eterne” (PFAS, bisfenolo A, ftalati) sono ormai presenti in quasi tutti gli ecosistemi, nel suolo, nei fiumi, perfino nei nostri organi.

Studi recenti hanno trovato microplastiche nello stomaco umano, con una media di 9,4 particelle per individuo in analisi post-mortem.

La ricerca segnala effetti avversi su apparato digerente, respiratorio e riproduttivo, con alterazioni del microbioma intestinale e infiammazione cronica.

Queste sostanze interferiscono con ormoni e metabolismo, e potrebbero influenzare anche l’umore e la stabilità emotiva, come suggeriscono studi sugli interferenti endocrini.

Quando il corpo è indebolito da sostanze che alterano equilibrio e benessere, anche la mente collettiva si fa più fragile. Si diventa meno resistenti allo stress, più irritabili, più inclini al pessimismo o alla rabbia: un terreno fertile per la manipolazione politica e le derive estremiste.

Migrazione, identità e percezione del rischio

Le migrazioni — interne o internazionali — modificano il volto delle comunità e spesso suscitano sentimenti contrastanti.

Le ricerche mostrano che la paura dell’immigrazione è spesso scollegata dai dati reali sulla criminalità. In Cile, per esempio, un ampio studio ha rilevato che l’arrivo di immigrati ha aumentato la percezione di insicurezza, ma non i tassi reali di reato.

Altri studi confermano che non esiste un legame strutturale tra immigrazione e aumento della criminalità. Tuttavia, in contesti di esclusione o degrado urbano, la disorganizzazione sociale può favorire fenomeni devianti.

Il tema più complesso riguarda la perdita di identità culturale. Quando le comunità si sentono trascurate o travolte da cambiamenti rapidi, nasce la nostalgia di un passato “più sicuro” e la ricerca di appartenenza esclusiva.

Questo sentimento, più psicologico che razionale, è una delle leve che spinge molti verso le ideologie di chiusura e nazionalismo radicale.

L’attenzione spezzata: genitori, cellulari e bambini

La trasformazione digitale sta cambiando in profondità anche la vita familiare. L’uso eccessivo del cellulare da parte degli adulti — e dei più piccoli — ha effetti che iniziamo solo ora a comprendere pienamente.

Una ricerca del 2023 ha mostrato che i genitori distratti dal telefono riducono la vigilanza e l’interazione affettiva con i figli, con conseguenze sullo sviluppo emotivo.

Una meta-analisi su 51 studi ha trovato una correlazione significativa tra uso eccessivo dello smartphone e sentimenti di trascuratezza o disagio nei bambini.

L’esposizione prolungata agli schermi è legata a disturbi del sonno, ansia, calo dell’empatia e difficoltà scolastiche.

Non si tratta solo di salute mentale: una generazione che cresce senza un contatto empatico costante rischia di diventare più isolata, più fragile, meno capace di fidarsi. È un terreno in cui le semplificazioni e le ideologie estreme attecchiscono più facilmente.

La convergenza delle cause

Tutti questi fattori – ambientali, culturali, psicologici e tecnologici – si sommano.

Un corpo inquinato, una mente sovraccarica, una cultura frammentata e una socialità indebolita producono una società più ansiosa e polarizzata.

Le piattaforme digitali, con algoritmi che premiano emozioni forti, amplificano questa instabilità. E quando la paura diventa la lente con cui si guarda il mondo, la promessa dell’“uomo forte” o della “nazione pura” diventa seducente.

Possibili rimedi (se la volontà politica lo permetterà)

Ambiente e salute: riduzione dell’uso di plastiche monouso, monitoraggio delle microplastiche negli alimenti, bonifica delle aree contaminate, limiti severi ai PFAS e agli interferenti endocrini.

Migrazione e coesione: integrazione reale (lingua, lavoro, partecipazione civica), contrasto alla segregazione urbana, valorizzazione delle culture locali come parte di un mosaico comune.

Famiglia e educazione digitale: sensibilizzazione sull’uso equilibrato dei dispositivi, formazione dei genitori, tempo di qualità condiviso, spazi comunitari per il gioco e l’incontro.

Tecnologia e informazione: trasparenza degli algoritmi, promozione di contenuti che stimolino dialogo e fiducia, educazione al pensiero critico.

Politica e fiducia: lotta alla corruzione, finanziamenti trasparenti, consultazione dei cittadini nelle decisioni pubbliche.

Conclusione

La crisi dell’umanità non è un destino, ma il risultato di pressioni multiple che logorano il corpo, la mente e la comunità.

Ritrovare equilibrio significa tornare a prendersi cura del mondo fisico e di quello umano con la stessa attenzione: respirare aria pulita, ma anche ascoltare il prossimo; ridurre la plastica, ma anche la distanza emotiva.

Non esiste rigenerazione ecologica senza rigenerazione morale e sociale.




youtube.com/watch?v=j2Gmlj68FG…


Una buona serata, mi sono iscritto da poco e sto ancora cercando di capire come orientarmi, trovo difficoltà soprattutto nel trovare contenuti di mio interesse, per ora ho trovato attualità, politica, tecnologia, mi mancano contenuti divertenti, satira, contenuti leggeri o di How to... nell'ambiente linux. Avete qualche consiglio per me?

RFanciola reshared this.

in reply to Nessuno

@ner0773 si non è facile capirci qualcosa e trovare contenuti e gente