Salta al contenuto principale



"Ho pensato a Samuele dalla partenza": le parole del campione sloveno dopo la vittoria nella 12esima tappa, in memoria del 19enne morto in Valle



Bundesländer machen Druck: Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt


netzpolitik.org/2025/bundeslae…



Cosa significa sparare sulla Croce


@Giornalismo e disordine informativo
articolo21.org/2025/07/cosa-si…
Nel momento in cui l’esercito israeliano arriva a colpire persino la chiesa della Sacra famiglia di Gaza, provocando tre morti e vari feriti, tra cui padre Gabriel Romanelli, reso noto al grande pubblico da papa Francesco (che si collegava con lui ogni sera per sapere




Putin impone restrizioni ai software esteri che hanno “strangolato” la Russia


L’ufficio stampa del Cremlino ha riferito che il presidente russo Vladimir Putin ha incaricato il governo di sviluppare ulteriori restrizioni per i software (inclusi i “servizi di comunicazione”) prodotti in paesi ostili entro il 1° settembre 2025. L’elenco delle istruzioni è stato redatto a seguito di un incontro con i rappresentanti del mondo imprenditoriale tenutosi il 26 maggio di quest’anno. Il Primo Ministro Mikhail Mishustin è stato nominato responsabile dell’attuazione di queste istruzioni e dovrà preparare una relazione in merito entro il 1° settembre.

Il sito web del Cremlino afferma che i software provenienti da paesi ostili includono anche i “servizi di comunicazione”, ma non specifica quali. L’elenco delle istruzioni include anche la valutazione della questione dell’introduzione di ulteriori misure di sostegno per gli esportatori di software nazionale. Una relazione in merito dovrebbe essere predisposta da Mishustin entro il 1° settembre. In un incontro con i rappresentanti degli ambienti imprenditoriali tenutosi nel maggio 2025 è stata discussa la possibilità di limitare gradualmente l’uso di servizi cloud esteri con analoghi servizi russi .

Vladimir Putin ha suggerito di “strangolare” le aziende IT straniere che avevano annunciato il loro ritiro dal mercato russo e che cercavano di “strangolare” la Russia, sebbene continuassero a occupare le loro nicchie nel mercato russo. Ha consigliato ai russi che hanno mantenuto determinate abitudini di utilizzo e un attaccamento ai programmi e ai servizi occidentali di sbarazzarsi di “queste cattive abitudini”. Poco dopo, il capo del Ministero dello sviluppo digitale, Maksut Shadayev, ha commentato le parole del presidente russo sullo “strangolamento” dei servizi IT stranieri che agiscono contro la Federazione Russa, ma che non hanno abbandonato completamente il mercato russo.

“Il Presidente ha parlato di “strangolaremo”. In generale, considererei la questione in un contesto più ampio. È chiaro che il nostro settore si sta sviluppando a un ritmo molto rapido”, ha detto Shadayev. Secondo il ministro, l’attuale situazione economica in Russia è difficile e molti grandi clienti stanno letteralmente “tagliando” i loro budget IT. In questa situazione, è necessario pensare a ulteriori incentivi per incrementare la crescita della domanda di offerte nazionali in questo settore.

“In questa situazione, il nostro approccio è che le grandi aziende possano valutare di limitare gradualmente l’uso di servizi cloud esteri laddove esistano analoghi russi maturi. In questo modo, si supporteranno [le aziende IT russe] e si darà loro l’opportunità di generare entrate aggiuntive”, ha aggiunto il ministro.

L'articolo Putin impone restrizioni ai software esteri che hanno “strangolato” la Russia proviene da il blog della sicurezza informatica.

razzospaziale reshared this.



Oggi dalle ore 10.45, presso il Padiglione Italia, il Ministro Giuseppe Valditara incontrerà le delegazioni scolastiche italiane che partecipano a #EXPO2025 Osaka.


Suche nach geklauten Autos: Brandenburger Polizei scannte in über 8.000 Fällen Nummernschilder


netzpolitik.org/2025/suche-nac…



Acquisto occhiali con lenti progressive


Devo mettere gli occhiali, mi servono delle lenti progressive, mi sono fatto fare un paio di preventivi e la "forchetta" tra i prezzi che mi hanno dato è molto alta.

Purtroppo non ho nessun modo di capire quale sia la scelta più razionale e attualmente ho solo due criteri a disposizione:

a) compro le economiche così risparmio;
b) compro le costose perché se costano di più sono migliori ed è meglio non risparmiare sulla salute.

Nessuno dei due criteri mi sembra quello ottimale. L'unica cosa utile sarebbe provarle entrambe e vedere come sono ma ovviamente non è possibile.

Voi che le avete come vi regolate?

#lenti #occhiali

in reply to RFanciola

@RFanciola

Purtroppo io non ho modo di valutare la qualità delle lenti, ho a disposizione solo il loro prezzo e la parola dell'ottico secondo cui quelle più costose sono migliori.

in reply to Max 🇪🇺🇮🇹

Immagino. E forse sarà anche vero. Quando avevo comprato i miei occhiali l'ottico mi aveva consigliato le lenti Zeiss, che costavano di più e secondo quanto mostrava garantivano una visione migliore, ma di prove...
Al posto suo mi rivolgerei a un secondo ottico e chiederei magari un parere al mio oculista. In ogni caso faccia attenzione allo spessore delle lenti, che ha un'inflienza importante sul prezzo. E non rinunci al trattamento anti-riflesso.


Il phishing è sempre più difficile da individuare e gli utenti non lo sanno


@Informatica (Italy e non Italy 😁)
Una ricerca di Dojo nel Regno Unito sancisce che il 53% delle persone non è in grado di riconoscere un’e-mail di phishing ma crede di essere in grado di farlo. È un problema serio, perché vuole dire che il phishing è sempre più difficile da individuare e che le persone hanno un lack di formazione



MR Browser is the Package Manager Classic Macs Never Had


Homebrew bills itself as the package manager MacOS never had (conveniently ignoring MacPorts) but they leave the PPC crowd criminally under-served, to say nothing of the 68k gang. Enter [that-ben] with MR Browser, a simple utility to fetch software from Macintosh Repository for computers too old to hit up the website.

If you’re not familiar with Macintosh Repository, it is what it says on the tin: a repository of vintage Macintosh software, like Macintosh Garden but apparently less accessible to vintage machines.
MRBrowser sys6 runs nicely on the Macintosh Plus, as you can see.
There are two versions available, depending on the age of your machine. For machines running System 6, the appropriately-named MR Browser sys6 will run on any 68000 Mac in only 157 KB of and MacTCP networking. (So the 128K obviously isn’t going to cut it, but a Plus from ’86 would be fine.)

The other version, called MR Browser 68K, ironically won’t run on the 68000. It needs a newer processor (68020 or newer, up-to and including PPC) and TCP/IP networking. Anything starting from the Macintosh II or newer should be game; it’s looking for System 7.x upto the final release of Mac OS 9, 9.2.2. You’ll want to give it at least 3 MB of RAM, but can squeak by on 1.6 MB if you aren’t using pictures in the chat.

Chat? Yes, perhaps uniquely for a software store, there’s a chat function. That’s not so weird when you consider that this program is meant to be a stand-alone interface for the Macintosh Repository website, which does, indeed, have a chat feature. It beats an uncaring algorithm for software recommendations, that’s for sure. Check it out in action in the demo video below.

It’s nice to see people still making utilities to keep the old machines going, even if coding on them isn’t always the easiest. If you want to go online on with vintage hardware (Macintosh or otherwise) anywhere else, you’re virtually locked-out unless you use something like FrogFind.

Thanks to [PlanetFox] for the tip. Submit your own, and you may win fabulous prizes. Not from us, of course, but anything’s possible!

hackaday.com/wp-content/upload…

*


hackaday.com/2025/07/18/mr-bro…



Alice e Bob siamo noi: la crittografia come esperienza umana e quotidiana


@Informatica (Italy e non Italy 😁)
Alice, Bob, Eve, Mallory, Trent, simboli viventi delle sfide reali che affrontiamo ogni giorno nella nostra vita digitale, sono riusciti nell'intento di trasformare la crittografia, da scienza matematica a narrazione, raccontata nel linguaggio umano



Dati sensibili, sicurezza nazionale e il nuovo ruolo dello Stato


@Informatica (Italy e non Italy 😁)
Qualche tempo fa il capo della Polizia Vittorio Pisani aveva reclamato un intervento normativo, a livello nazionale, oppure, meglio, europeo, che equiparasse le piattaforme di messaggistica – da whatsapp a Telegram a X, fino alla messaggistica di Apple e Google– agli obblighi che hanno



Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio


Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché.

70 miliardi di parametri: cosa significa davvero


Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2 byte per parametro) che rappresentano le abilità apprese durante l’addestramento. Solo per caricare in memoria questo modello, servono circa:

  • 140 GB di RAM GPU (70 miliardi × 2 byte).

A questa cifra vanno aggiunti altri 20-30 GB di VRAM per gestire le operazioni dinamiche durante l’inferenza: cache dei token (KV cache), embedding dei prompt, attivazioni temporanee e overhead di sistema. In totale, un LLM da 70 miliardi di parametri richiede circa 160-180 GB di memoria GPU per funzionare in modo efficiente.

Perché serve la GPU: la CPU non basta


Molti si chiedono: “Perché non far girare il modello su CPU?”. La risposta è semplice: latenza e parallelismo.

Le GPU (Graphics Processing Unit) sono progettate per eseguire milioni di operazioni in parallelo, rendendole ideali per il calcolo tensoriale richiesto dagli LLM. Le CPU, invece, sono ottimizzate per un numero limitato di operazioni sequenziali ad alta complessità. Un modello come LLaMA 3.3 70B può generare una parola ogni 5-10 secondi su CPU, mentre su GPU dedicate può rispondere in meno di un secondo. In un contesto produttivo, questa differenza è inaccettabile.

Inoltre, la VRAM delle GPU di fascia alta (es. NVIDIA A100, H100) consente di mantenere il modello residente in memoria e di sfruttare l’accelerazione hardware per la moltiplicazione di matrici, cuore dell’inferenza LLM.

Un esempio: 100 utenti attivi su un LLM da 70B


Immaginiamo di voler offrire un servizio simile a ChatGPT per la sola generazione di testo, basato su un modello LLM da 70 miliardi di parametri, con 100 utenti attivi contemporaneamente. Supponiamo che ogni utente invii prompt da 300–500 token e si aspetti risposte rapide, con una latenza inferiore a un secondo.

Un modello di queste dimensioni richiede circa 140 GB di memoria GPU per i soli pesi in FP16, a cui vanno aggiunti altri 20–40 GB per la cache dei token (KV cache), attivazioni temporanee e overhead di sistema. Una singola GPU, anche top di gamma, non dispone di sufficiente memoria per eseguire il modello completo, quindi è necessario distribuirlo su più GPU tramite tecniche di tensor parallelism.

Una configurazione tipica prevede la distribuzione del modello su un cluster di 8 GPU A100 da 80 GB, sufficiente sia per caricare il modello in FP16 sia per gestire la memoria necessaria all’inferenza in tempo reale. Tuttavia, per servire contemporaneamente 100 utenti mantenendo una latenza inferiore al secondo per un LLM di queste dimensioni, una singola istanza su 8 GPU A100 (80GB) è generalmente insufficiente.

Per raggiungere l’obiettivo di 100 utenti simultanei con latenza sub-secondo, sarebbe necessaria una combinazione di:

  • Un numero significativamente maggiore di GPU A100 (ad esempio, un cluster con 16-32 o più A100 da 80GB), distribuite su più POD o in un’unica configurazione più grande.
  • L’adozione di GPU di nuova generazione come le NVIDIA H100, che offrono un netto miglioramento in termini di throughput e latenza per l’inferenza di LLM, però ad un costo maggiore.
  • Massimizzare le ottimizzazioni software, come l’uso di framework di inferenza avanzati (es. vLLM, NVIDIA TensorRT-LLM) con tecniche come paged attention e dynamic batching.
  • L’implementazione della quantizzazione (passando da FP16 a FP8 o INT8/INT4), che ridurrebbe drasticamente i requisiti di memoria e aumenterebbe la velocità di calcolo, ma con una possibile conseguente perdita di qualità dell’output generato (soprattutto per la quantizzazione INT4).

Per scalare ulteriormente, è possibile replicare queste istanze su più GPU POD, abilitando la gestione di migliaia di utenti totali in modo asincrono e bilanciato, in base al traffico in ingresso. Naturalmente, oltre alla pura inferenza, è fondamentale prevedere risorse aggiuntive per:

  • Scalabilità dinamica in funzione della domanda.
  • Bilanciamento del carico tra istanze.
  • Logging, monitoraggio, orchestrazione e sicurezza dei dati.


Ma quanto costa un’infrastruttura di questo tipo?


L’implementazione on-premise richiede centinaia di migliaia di euro di investimento iniziale, cui si aggiungono i costi annuali di gestione, alimentazione e personale. In alternativa, i principali provider cloud offrono risorse equivalenti ad un costo mensile molto più accessibile e flessibile. Tuttavia, è importante sottolineare che anche in cloud, una configurazione hardware capace di gestire un tale carico in tempo reale può comportare costi mensili che facilmente superano le decine di migliaia di euro, se non di più, a seconda dell’utilizzo.

In entrambi i casi, emerge con chiarezza come l’impiego di LLM di grandi dimensioni rappresenti non solo una sfida algoritmica, ma anche infrastrutturale ed economica, rendendo sempre più rilevante la ricerca di modelli più efficienti e leggeri.

On-premise o API? La riservatezza cambia le carte in tavola


Un’alternativa semplice per molte aziende è usare le API di provider esterni come OpenAI, Anthropic o Google. Tuttavia, quando entrano in gioco la riservatezza e la criticità dei dati, l’approccio cambia radicalmente. Se i dati da elaborare includono informazioni sensibili o personali (ad esempio cartelle cliniche, piani industriali o atti giudiziari), inviarli a servizi cloud esterni può entrare in conflitto con i requisiti del GDPR, in particolare rispetto al trasferimento transfrontaliero dei dati e al principio di minimizzazione.

Anche molte policy aziendali basate su standard di sicurezza come ISO/IEC 27001 prevedono il trattamento di dati critici in ambienti controllati, auditabili e localizzati.

Inoltre, con l’entrata in vigore del Regolamento Europeo sull’Intelligenza Artificiale (AI Act), i fornitori e gli utilizzatori di sistemi di AI devono garantire tracciabilità, trasparenza, sicurezza e supervisione umana, soprattutto se il modello è impiegato in contesti ad alto rischio (finanza, sanità, istruzione, giustizia). L’uso di LLM attraverso API cloud può rendere impossibile rispettare tali obblighi, in quanto l’inferenza e la gestione dei dati avvengono fuori dal controllo diretto dell’organizzazione.

In questi casi, l’unica opzione realmente compatibile con gli standard normativi e di sicurezza è adottare un’infrastruttura on-premise o un cloud privato dedicato, dove:

  • Il controllo sui dati è totale;
  • L’inferenza avviene in un ambiente chiuso e conforme;
  • Le metriche di auditing, logging e accountability sono gestite internamente.

Questo approccio consente di preservare la sovranità digitale e la conformità a GDPR, ISO 27001 e AI Act, pur richiedendo un effort tecnico ed economico significativo.

Conclusioni: tra potenza e controllo


Mettere in servizio un LLM non è solo una sfida algoritmica, ma soprattutto un’impresa infrastrutturale, fatta di hardware specializzato, ottimizzazioni complesse, costi energetici elevati e vincoli di latenza. I modelli di punta richiedono cluster da decine di GPU, con investimenti che vanno da centinaia di migliaia fino a milioni di euro l’anno per garantire un servizio scalabile, veloce e affidabile.

Un’ultima, ma fondamentale considerazione riguarda l’impatto ambientale di questi sistemi. I grandi modelli consumano enormi quantità di energia elettrica, sia in fase di addestramento che di inferenza. Con l’aumentare dell’adozione di LLM, diventa urgente sviluppare modelli più piccoli, più leggeri e più efficienti, che riescano a offrire prestazioni comparabili a fronte di un footprint computazionale (ed energetico) significativamente ridotto.

Come è accaduto in ogni evoluzione tecnologica — dal personal computer ai telefoni cellulari — l’efficienza è la chiave della maturità: non servono sempre modelli più grandi, ma modelli più intelligenti, più adattivi e sostenibili.

L'articolo Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio proviene da il blog della sicurezza informatica.



GR Valle d'Aosta del 18/07/2025 ore 07:20

GR Regionale Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 18/07/2025 - 07:20



Coltivare la mente come difesa nella Cybersecurity: Il cervello sarà la prossima fortezza digitale?


Immagina per un attimo di trovarti di fronte al pannello di controllo più critico di una infrastruttura IT.

Non un server, non un firewall di ultima generazione, non un sistema AI avanzatissimo.

Immaginiamo che quel pannello sia la tua mente. È da lì che provengono le decisioni più importanti, le reazioni più rapide, le analisi più profonde.

Ed è lì che, troppo spesso, risiedono la vulnerabilità più inaspettate.

Sono qui, tra voi, da più di venti anni.

Ho visto incidenti, ho celebrato successi e ho sentito la pressione che ogni professionista della cybersecurity conosce bene. Ma la mia prospettiva è sempre stata unica, ho sempre portato con me gli strumenti di uno psicologo, di un counselor e di un coach. E ciò che ho imparato, osservando le violazioni informatiche e le persone, è che la vera frontiera della sicurezza non è solo tecnologica.

È profondamente, intrinsecamente, umana.

Il firewall più potente quale sarà?


Pensiamoci bene. Investiamo somme enormi in sistemi avanzatissimi, in intelligenza artificiale, in difese perimetrali quasi inespugnabili. Eppure, una semplice email di phishing, un messaggio subdolo, un invito a cliccare su un link… e tutto può crollare.

Perché accade questo? Perché gli attaccanti, i veri maestri, non puntano ai nostri server; puntano al nostro circuito neurale.

L’ingegneria sociale non è più un semplice trucco; è diventata neuro-ingegneria sociale. I cybercriminali sono diventati esperti nel capire come funziona il nostro cervello: sanno attivare le nostre risposte emotive più primitive, bypassare il nostro ragionamento logico, sfruttare i nostri bias cognitivi. La nostra curiosità, la fretta, la tendenza a fidarci, la paura di perdere un’opportunità sono tutte “vulnerabilità” nel nostro hardware biologico. Il nostro cervello, pur essendo la macchina più potente che conosciamo, è anche quella più facilmente “hackerabile” se non lo comprendiamo e non lo alleniamo adeguatamente.

La chimica dello stress cosa genera?


E non è solo l’utente finale ad essere vulnerabile. Lo siamo anche noi, i professionisti della sicurezza! Noi che lavoriamo sotto la costante minaccia di un attacco, con la responsabilità enorme di proteggere dati e infrastrutture critiche. Quante volte abbiamo sentito quella scarica di adrenalina, quella mente che si annebbia quando un alert suona nel cuore della notte o nel fine settimana..

Cortisolo e adrenalina inondano il nostro sistema.

Sono un’ottima risposta se stiamo scappando da una tigre, ma devastante per la lucidità e la capacità decisionale necessarie per gestire un incidente cyber complesso. La stanchezza decisionale, il burnout cognitivo non sono solo etichette.

Sono la manifestazione di processi neurologici che minano direttamente la nostra performance.

Un analista sotto stress cronico non è semplicemente “stanco”; il suo cervello opera in una modalità di sopravvivenza che limita l’accesso alle funzioni esecutive superiori, quelle cruciali per il problem solving e la strategia.

È come se il nostro sistema difensivo più critico fosse costantemente sotto attacco interno.

Quale potrebbe essere un piano di azione futuro?


Allora, la domanda da un milione di dollari, quella che mi pongo ogni giorno è: se il cervello è la nostra risorsa più potente e la nostra vulnerabilità più grande, come possiamo trasformarlo nella nostra prossima e più potente risorsa cyber?

Non si tratta di fantascienza, ma di un piano d’azione concreto basato sulle neuroscienze e sulla psicologia umana:

  1. Oltre la semplice consapevolezza
    • Azione: dobbiamo implementare programmi di formazione che vadano oltre il “cosa fare”. Iniziamo a insegnare il “perché” le persone cadono nelle truffe, analizzando i meccanismi psicologici e neurologici dietro l’ingegneria sociale.
    • Focus: utilizziamo simulazioni avanzate, non solo tecniche, ma comportamentali. Pensiamo a esercizi che creino “memoria muscolare” nel cervello per le risposte di sicurezza, usando tecniche di ripetizione e rinforzo cognitivo. Come un atleta allena il suo corpo, noi dobbiamo allenare la nostra mente.


  2. Ottimizzare l’ambiente mentale
    • Azione: dobbiamo ripensare gli ambienti di lavoro e i flussi operativi per ridurre il carico cognitivo e promuovere la lucidità mentale. Ciò include la gestione intelligente dei turni, pause strategiche per il recupero mentale e la progettazione di interfacce utente che minimizzino la fatica decisionale.
    • Focus: integriamo pratiche di mindfulness o brevi esercizi di “respirazione consapevole” per aiutare i team a gestire lo stress in tempo reale e a resettare i livelli di cortisolo. Un cervello calmo è un cervello che prende decisioni migliori.


  3. Comprendere la mente dell’avversario
    • Azione: utilizziamo le conoscenze delle neuroscienze e della psicologia criminale per comprendere non solo cosa fanno gli attaccanti, ma come pensano, quali motivazioni profonde li guidano e quali bias psicologici cercano di sfruttare nelle loro vittime.
    • Focus: sviluppiamo modelli predittivi che incorporino profili psicologici e comportamentali degli attaccanti, anticipando le loro mosse non solo a livello tecnico, ma anche a livello umano e mentale.



In conclusione?


La cybersecurity è sempre stata una battaglia di intelligenze: macchina contro macchina, algoritmo contro algoritmo. Ma la vera sfida, la prossima grande evoluzione, è integrare profondamente la comprensione della nostra stessa biologia cognitiva nella nostra strategia difensiva.

Non proteggiamo solo dati, proteggiamo le menti che quei dati li gestiscono e li difendono.

Per proteggerci veramente, per costruire difese resilienti e a prova di futuro, non bastano le tecnologie più avanzate o i protocolli più stringenti.

È fondamentale che i nostri team di cybersecurity siano multidisciplinari. Dobbiamo superare la convinzione che basti essere esperti di codice o di rete. Abbiamo bisogno di umanisti, sociologi, psicologi, esperti di comunicazione che lavorino fianco a fianco con gli ingegneri e gli analisti. Sono loro che possono aiutarci a capire il “fattore umano” nelle sue sfumature più profonde, a progettare difese che tengano conto dei comportamenti e delle emozioni, a formare le persone non solo sulle regole, ma sulle ragioni intrinseche della sicurezza.

La cyber-resilienza non è un muro inespugnabile, ma una danza costante tra la logica del codice e l’imprevedibilità dell’anima umana. È un’arte sottile, un caos ordinato dove l’innovazione tecnologica incontra la profonda conoscenza di sé. Non possiamo più permetterci di essere i ciechi veggenti della sicurezza, che vedono ogni bit e byte ma non il battito cardiaco che li muove.

Se la nostra difesa più critica risiede nella mente, siamo davvero pronti a investire in essa come nell’ultima soluzione tecnologica?

Siamo pronti a ridefinire il concetto stesso di “sicurezza informatica” per includere l’elemento più cruciale: l’essere umano?

E, soprattutto, cosa siamo disposti a cambiare nel nostro approccio da domani per iniziare a costruire questa fortezza ?

L'articolo Coltivare la mente come difesa nella Cybersecurity: Il cervello sarà la prossima fortezza digitale? proviene da il blog della sicurezza informatica.




3 bug da score 10 sono stati rilevati in Cisco ISE e ISE-PIC: aggiornamenti urgenti


Sono state identificate diverse vulnerabilità nei prodotti Cisco Identity Services Engine (ISE) e Cisco ISE Passive Identity Connector (ISE-PIC) che potrebbero consentire a un utente malintenzionato remoto di eseguire comandi arbitrari sul sistema operativo sottostante con privilegi di amministratore.

Cisco ha già rilasciato aggiornamenti software per correggere queste vulnerabilità e, al momento, non risultano disponibili soluzioni alternative per mitigarle. Un attaccante remoto potrebbe sfruttare tali vulnerabilità per ottenere accesso con privilegi di root ed eseguire comandi sul sistema.

Le vulnerabilità sono indipendenti tra loro: ciò significa che lo sfruttamento di una non è condizione necessaria per sfruttare le altre. Inoltre, una determinata versione software vulnerabile a una di queste problematiche potrebbe non essere interessata dalle restanti.

CVE-2025-20281 e CVE-2025-20337: vulnerabilità di esecuzione di codice remoto non autenticato dell’API Cisco ISE

Diverse vulnerabilità in una specifica API di Cisco ISE e Cisco ISE-PIC potrebbero consentire a un aggressore remoto non autenticato di eseguire codice arbitrario sul sistema operativo sottostante come utente root . L’aggressore non necessita di credenziali valide per sfruttare queste vulnerabilità.

Queste vulnerabilità sono dovute a una convalida insufficiente dell’input fornito dall’utente. Un aggressore potrebbe sfruttarle inviando una richiesta API contraffatta. Un exploit riuscito potrebbe consentire all’aggressore di ottenere privilegi di root su un dispositivo interessato.

CVE-2025-20282: Vulnerabilità di esecuzione di codice remoto non autenticato nell’API Cisco ISE

Una vulnerabilità in un’API interna di Cisco ISE e Cisco ISE-PIC potrebbe consentire a un aggressore remoto non autenticato di caricare file arbitrari su un dispositivo interessato e quindi eseguire tali file sul sistema operativo sottostante come root .

Questa vulnerabilità è dovuta alla mancanza di controlli di convalida dei file che impedirebbero il posizionamento dei file caricati in directory privilegiate su un sistema interessato. Un aggressore potrebbe sfruttare questa vulnerabilità caricando un file contraffatto sul dispositivo interessato. Un exploit riuscito potrebbe consentire all’aggressore di memorizzare file dannosi sul sistema interessato e quindi eseguire codice arbitrario o ottenere privilegi di root sul sistema.

L'articolo 3 bug da score 10 sono stati rilevati in Cisco ISE e ISE-PIC: aggiornamenti urgenti proviene da il blog della sicurezza informatica.




Sophos risolve vulnerabilità in Intercept X per Windows


Sophos ha annunciato di aver risolto tre distinte vulnerabilità di sicurezza in Sophos Intercept X per Windows e nel relativo programma di installazione. Queste problematiche, identificate con i codici CVE-2024-13972, CVE-2025-7433 e CVE-2025-7472, sono state classificate con un livello di gravità “Alto”. Il bollettino di sicurezza, con ID pubblicazione sophos-sa-20250717-cix-lpe, è stato aggiornato e pubblicato il 17 luglio 2025 e non prevede soluzioni alternative temporanee. I prodotti interessati sono Sophos Intercept X Endpoint e Intercept X per il server.

La prima vulnerabilità, CVE-2024-13972, riguarda un problema di permessi nel registro durante l’aggiornamento di Intercept X per Windows. Questa falla avrebbe potuto consentire a un utente locale di ottenere privilegi a livello di sistema durante il processo di aggiornamento del prodotto. Sophos ha ringraziato Filip Dragovic di MDSec per aver segnalato responsabilmente questa vulnerabilità.

La seconda criticità, CVE-2025-7433, è una vulnerabilità di escalation dei privilegi locali nel componente Device Encryption di Sophos Intercept X per Windows. Questa falla avrebbe potuto permettere l’esecuzione di codice arbitrario. Sophos ha espresso gratitudine a Sina Kheirkhah (@SinSinology) di watchTowr per la sua segnalazione responsabile.

Infine, la CVE-2025-7472 è una vulnerabilità di escalation dei privilegi locali scoperta nel programma di installazione di Intercept X per Windows. Se il programma di installazione fosse stato eseguito con privilegi di sistema (SYSTEM), un utente locale avrebbe potuto ottenere privilegi a livello di sistema.

Questa vulnerabilità è stata scoperta e segnalata a Sophos tramite il suo programma bug bounty, con un ringraziamento particolare a Sandro Poppi per la sua segnalazione responsabile. Per i clienti che utilizzano versioni precedenti del programma di installazione per distribuire attivamente endpoint e server, è fondamentale scaricare la versione più recente del programma di installazione da Sophos Central.

Per la maggior parte dei clienti, non è richiesta alcuna azione manuale. Ciò è dovuto al fatto che, per impostazione predefinita, i clienti che utilizzano la politica di aggiornamento predefinita ricevono automaticamente gli aggiornamenti per i pacchetti raccomandati. Questo assicura che le correzioni per queste vulnerabilità vengano installate senza intervento dell’utente.

Tuttavia, i clienti che utilizzano pacchetti di Supporto a Termine Fisso (FTS) o Supporto a Lungo Termine (LTS) devono intraprendere un’azione per ricevere queste correzioni. È necessario che questi utenti eseguano un aggiornamento per assicurarsi che le patch di sicurezza siano applicate ai loro sistemi.

L'articolo Sophos risolve vulnerabilità in Intercept X per Windows proviene da il blog della sicurezza informatica.



Improve Your KiCad Productivity With These Considered Shortcut Keys


Screenshot of the cheatsheet being developed in Inkscape

Over on his YouTube channel [Pat Deegan] from Psychogenic Technologies shows us two KiCad tips to save a million clicks.

In the same way that it makes sense for you to learn to touch type if you’re going to be using a computer a lot, it makes sense for you to put some thought and effort into your KiCad keyboard shortcuts keys, too.

In this video [Pat] introduces the keymap that he has come up with for the KiCad programs (schematic capture and PCB layout) and explains the rules of thumb that he used to generate his recommended shortcut keys, being:

  • one handed operation; you should try to make sure that you can operate the keyboard with one hand so your other hand can stay on your mouse
  • proximity follows frequency; if you use it a lot it should be close to hand
  • same purpose, same place; across programs similar functions should share the same key
  • birds of a feather flock together; similar and related functionality kept in proximate clusters
  • typing trounces topography; if you have to use both hands for typing you have to take your hand off the mouse anyway so then it doesn’t really matter where on the keyboard the shortcut key is

You can find importable KiCad keymaps and customizable SVG cheatsheets in the downloads section of his notes.

[Pat]’s video includes some other tips and commentary (he gives you free access to a KiCad course he has put together) but for us the big takeaway was the keymaps. Also, if you haven’t been keeping abreast of developments, KiCad is now at version 9, as of February this year.

youtube.com/embed/T-voZId8eyw?…


hackaday.com/2025/07/17/improv…



8-Core ARM Pocket Computer Runs NixOS


What has 8 ARM cores, 8 GB of RAM, fits in a pocket, and runs NixOS? It’s no pi-clone SBC, but [MWLabs]’s smartphone– a OnePlus 6, to be precise.

The video embedded below, and the git link above, are [MWLabs]’s walk-through for loading the mobile version of Nix onto the cell phone, turning it into a tiny-screened Linux computer. He’s using the same flake on the phone as on his desktop, which means he gets all the same applications set up in the same way– talk about convergence. That’s an advantage to Nix in this application, compared to the usual Alpine-based PostMarketOS.

Of course some of the phone-like features of this pocket-computer are lacking: the SIM is detected, and he can text, but 4G is nonfunctional. The rear camera is also not there yet, but given that Mobile-NixOS builds on the work done by well-established PostMarketOS, and PostMarketOS’ testing version can run the camera, it’s only a matter of time before support comes downstream. Depending what you need a tiny Linux device for, the camera functionality may or may not be of particular interest. If you’re like us, the idea of a mobile device running Nix might just intrigue you,

Smartphones can be powerful SBC alternatives, after all. You can even turn them into SBCs. As long as you don’t need a lot of GPIO, like for a server,a phone in hand might be worth two birds in the raspberry bush.

youtube.com/embed/yxfDNqZ9WTM?…


hackaday.com/2025/07/17/8-core…



ESP32 Plugs In to Real-Time Crypto Prices


In today’s high-speed information overload environment, we often find ourselves with too much data to take in at once, causing us to occasionally miss out on opportunities otherwise drowned out in noise. None of this is more evident in the realm of high-speed trading, whether it’s for stocks, commodities, or even crypto. Most of us won’t be able to build dedicated high speed connections directly to stock exchanges for that extra bit of edge over the other traders, but what we can do is build a system that keys us in to our cryptocurrency price of choice so we know exactly when to pull the trigger on a purchase or sale.

[rishab]’s project for doing this is based on an ESP32 paired with a 10″ touchscreen display. It gathers live data from Binance, a large cryptocurrency exchange that maintains various pieces of information about many digital currencies. [rishab]’s tool offers a quick, in-depth look at a custom array of coins, with data such as percentage change over a certain time and high and low values for that coin as well. The chart updates in real time, and [rishab] also built a feature in which scales coins up if they have been seeing large movements in price over short timeframes.

Although it’s not a direct fiber link into an exchange, it certainly has its advantages over keeping this information in a browser window on a computer where it could get missed, and since it’s dedicated hardware running custom firmware it can show you exactly what you need to see if you’re day trading crypto. Certainly projects like this are in the DIY spirit that crypto enthusiasts tout as ideals of the currency, and as people move away from mining and more into speculative trading we’d expect to see more projects like this.

youtube.com/embed/U1MZoj3MJso?…


hackaday.com/2025/07/17/esp32-…



Primo allenamento dei toscani, da mercoledì in Valle. L'altra squadra in ritiro estivo, il Palermo fa l'esordio allo stadio "Brunod" di Chatillon nella prima di cinque amichevoli valdostane. Un minuto di silenzio in ricordo di Samuele Privitera


Building a Stirling Engine Bike


A photo of a Stirling Engine attached to a bike

Over on his YouTube channel [Tom Stanton] shows us how to build a Stirling Engine for a bike.

A Stirling Engine is a heat engine, powered by the expansion and contraction of a working fluid (such as air) which is heated and cooled in a cycle. In the video [Tom] begins by demonstrating the Stirling Engine with some model engines and explains the role of the displacer piston. His target power output for his bike engine is 150 watts (about 0.2 horsepower) which is enough power to cycle at about 15 mph (about 24 km/h). After considering a CPU heatsink as the cooling system he decided on water cooling instead.

[Tom] goes on to 3D print and machine various parts for his bike engine. He uses myriad materials including aluminum and Teflon. He isn’t yet comfortable machining steel, so he had the steel part he needed for handling the hot end of the engine manufactured by a third party.

[Tom] explains that when he started the project he had intended to make a steam engine. But after some preliminary research he discovered that a Stirling Engine was a better choice, particularly they are quieter, more efficient, and safer. After a number of false starts and various adjustments he manages to get his engine to run, which is pretty awesome. Standby for part two to see the bike in action!

We have covered the Stirling Engine here on Hackaday many times before. You might like to read about how to create one with minimal parts or how to make one from expedient materials.

youtube.com/embed/zB3lrLjqIh4?…


hackaday.com/2025/07/17/buildi…



FPF, Demand Progress file ethics complaint against Judge Edward Artau


On Thursday, Demand Progress and Freedom of the Press Foundation (FPF) filed an ethics complaint against Edward L. Artau, a Florida judge who was nominated by President Donald Trump to a federal district court after delivering a favorable ruling for Trump in his defamation lawsuit against the Pulitzer Board. The ethics complaint asks the D.C. Court of Appeals and the Florida Judicial Qualifications Commission to investigate Artau for potentially breaking rules requiring judges to recuse themselves to avoid conflicts of interest, remain impartial, avoid impropriety, and avoid giving false statements.

Politico reported that Artau, who sought for Trump to nominate him shortly after the president won the 2024 presidential election, later ruled in Trump’s favor as part of a panel of state appellate judges deciding whether to allow the president’s lawsuit against the Pulitzer Prize Board to move forward. After joining a favorable panel ruling for Trump, and after going out of his way to write a gratuitous solo concurrence praising the lawsuit’s claims on the merits, Artau was nominated to be a judge on South Florida’s U.S. trial court. Artau later gave an incomplete and misleading testimony about these events to the Senate Judiciary Committee while under oath.

“A federal judge’s goal should be upholding the law and the American people’s confidence in the judiciary, not delivering whatever the president wants so that they can get a job,” said Emily Peterson-Cassin, director of corporate power at Demand Progress. “Judge Ed Artau’s behind-closed-doors jockeying for his nomination, his failure to recuse himself from the Pulitzer lawsuit and his misleading testimony to the Senate all raise bright red flags that need to be investigated.”

Seth Stern, director of advocacy at Freedom of the Press Foundation, said: “Judges should be safeguarding us against President Trump’s frivolous attacks on the free press, the First Amendment and the rule of law. Instead, Judge Artau seems eager to facilitate Trump’s unconstitutional antics in exchange for a job. That’s far from the level of integrity that the Rules of Professional Conduct demand. Attorney disciplinary commissions need to rise to this moment and not tolerate ethical violations that impact not only individuals before the court but our entire democracy.”

Read the Complaint here or below.

freedom.press/static/pdf.js/we…


freedom.press/issues/fpf-deman…



Next board meeting will take place on 05.08.2025 at 14:00 UTC


Our next PPI board meeting will take place on 05.08.2025 at 14:00 UTC / 16:00 CEST.

All official PPI proceedings, Board meetings included, are open to the public. Feel free to stop by. We’ll be happy to have you.

Where:jitsi.pirati.cz/PPI-Board

The prior meeting was unfortunately delayed.

Prior to that meeting a SCENE meeting is scheduled on July 22 at 7 pm/ UTC 9 pm CEST.

All of our meetings are posted to our calendar: pp-international.net/calendar/

We look forward to seeing visitors.

Thank you for your support,

The Board of PPI


pp-international.net/2025/07/n…



Facial recognition and crowdsourced social media investigations are constantly being used not just on cringe CEOs, but on random people who are simply existing in public.#1201
#1201


404 Media has seen user manuals for Mobile Fortify, ICE’s new facial recognition app which allows officers to instantly look up DHS, State Department, and state law enforcement databases by just pointing a phone at someone’s face.#News #ICE
#News #ice


Hacked data obtained by 404 Media reveals dozens more people on deportation flights to El Salvador who are unaccounted for. “We have not heard from these people’s families, so I think perhaps even they don’t know," one lawyer said.#GlobalX #Immigration #CECOT


TGR Valle d'Aosta del 17/07/2025 ore 19:30

TGR Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 17/07/2025 - 19:30



Meteo Valle d'Aosta del 17/07/2025 ore 19:30

Meteo Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 17/07/2025 - 19:30



Quattro distanze proposte, tutte sold out. 4000 iscritti da tutto il mondo, 20 i comuni della Valle orientale attraversati dai corridori


2025 One Hertz Challenge: Building a Better Jumping Bean


Improved Jumping Bean

Do you feel nostalgia for a childhood novelty toy that had potential but ultimately fell short of its promise? Do you now have the skills to go make a better version of that toy to satisfy your long-held craving? [ExpensivePlasticCrap] does and has set off on a mission to make a better jumping bean.

Jumping beans, the phenomenon on which the novelty of [ExpensivePlasticCrap]’s childhood is based, are technically not beans, and their movement is arguably not a jump — a small hop at best. The trick is that the each not-a-bean has become the home to moth larvae that twitches and rolls on the ground as the larvae thrash about, trying to move their protective shells out of the hot sun.

The novelty bean was a small plastic pill-like capsule with a ball bearing inside what would cause the “bean” to move in unexpected ways as it rolled around. [ExpensivePlasticCrap]’s goal is to make a jumping bean that lives up to its name.

Various solenoids and motors were considered for the motion component of this new and improved bean. Ultimately, it was a small sealed vibrating motor that would be selected to move the bean without getting tangled in what was to become a compact bundle of components.

An ATtiny microcontroller won out over discrete components for the job of switching the motor on and off (once per second), for ease of implementation. Add this along with a MOSFET, battery and charging board for power into a plastic capsule, and the 1 Hz jumping bean was complete.

[ExpensivePlasticCrap] offers some thoughts on how to get more jump out of the design by reducing the weight of the build and giving it a more powerful source of motion.

If insect-inspired motion gets you jumping, check out this jumping robot roach and these tiny RoboBees.

2025 Hackaday One Hertz Challenge


hackaday.com/2025/07/17/2025-o…