Salta al contenuto principale



Meteo Valle d'Aosta del 18/07/2025 ore 14:00

Meteo Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 18/07/2025 - 14:00




VMware risolve 4 vulnerabilità critiche scoperte a Pwn2Own Berlin2025


VMware ha risolto quattro vulnerabilità in ESXi, Workstation, Fusion e Tools che erano state utilizzate comeexploit zero-day nella competizione di hacking Pwn2Own Berlin 2025 tenutasi a maggio. Le vulnerabilità consentivano agli aggressori di eseguire comandi sul sistema host dall’interno di una macchina virtuale, rappresentando una seria minaccia per la sicurezza dell’infrastruttura di virtualizzazione.

Tre delle quattro vulnerabilità hanno ricevuto un punteggio di gravità elevato, pari a 9,3 su 10. Tutte e tre hanno consentito ai programmi in esecuzione all’interno della macchina virtuale di ottenere la capacità di eseguire codice sul sistema principale.

  • CVE-2025-41236 è una vulnerabilità di tipo integer overflow nella scheda di rete VMXNET3 utilizzata in ESXi, Workstation e Fusion. Questa vulnerabilità è stata sfruttata durante la competizione da Nguyen Hoang Thac del team SG di STARLabs.
  • CVE-2025-41237 colpisce la VMCI (Virtual Machine Communication Interface), dove un errore aritmetico consente la scrittura fuori dai limiti. Questo bug è stato sfruttato con successo da Corentin Baillet di REverse Tactics.
  • CVE-2025-41238 – Nel controller PVSCSI (Paravirtualized SCSI), un errore di gestione della memoria consente un attacco heap-overflow e l’esecuzione di codice per conto del processo VMX del sistema host. Questa vulnerabilità è stata sfruttata da Thomas Bouzerard ed Etienne Elluy-Lafon del team Synacktiv.
  • CVE-2025-41239 ha un punteggio inferiore, pari a 7,1, perché si tratta di una fuga di informazioni. Tuttavia, è stato utilizzato insieme a CVE-2025-41237 dallo stesso partecipante a REverse Tactics e ha svolto un ruolo chiave nel dimostrare la catena di attacco. Questo problema riguarda VMware Tools per Windows e richiede una procedura di aggiornamento separata per la correzione .

VMware non offre soluzioni alternative: le minacce possono essere eliminate solo installando le versioni più recenti del software interessato. Gli aggiornamenti sono ora disponibili per tutti i prodotti interessati.

Tutte le vulnerabilità sono state dimostrate come zero-day all’evento Pwn2Own Berlin 2025, dove i ricercatori di sicurezza hanno guadagnato 1.078.750 dollari sfruttando con successo 29 vulnerabilità.

La competizione ha dimostrato ancora una volta la rapidità con cui le vulnerabilità negli strumenti di virtualizzazione più comuni possono essere individuate e sfruttate, evidenziando la necessità di mantenere aggiornati anche i sistemi aziendali.

L'articolo VMware risolve 4 vulnerabilità critiche scoperte a Pwn2Own Berlin2025 proviene da il blog della sicurezza informatica.



Piantedosi: “Al lavoro per un’Autorità presso la Postale per vigilare su WhatsApp, Telegram e Signal”


@Informatica (Italy e non Italy 😁)
Qualche tempo fa il capo della Polizia Vittorio Pisani aveva reclamato un intervento normativo, a livello nazionale, oppure, meglio, europeo, che equiparasse le piattaforme di messaggistica – da Whatsapp a Telegram a




Positionspapier von Wirtschaft und Zivilgesellschaft: Die digitale Brieftasche als gesellschaftlicher Auftrag


netzpolitik.org/2025/positions…



La squadra allenata da Filippo Inzaghi ieri in campo al "Brunod" di Chatillon con la rappresentativa locale, per la prima di cinque amichevoli. Tra il pubblico tanti siciliani d'origine


GR Valle d'Aosta del 18/07/2025 ore 12:10

GR Regionale Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 18/07/2025 - 12:10



Come procede la guerricciola intelligente tra Zuckerberg ed Apple

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
La campagna acquisti di Mark Zuckerberg per il suo laboratorio di superintelligenza non si ferma. Le ultime due new entry sono state sottratte ad Apple, a cui aveva già portato via il loro ex capo.



A Vulnerable Simulator for Drone Penetration Testing


A screenshot of the software in action is shown. A sidebar on the left shows an icon of a skull-shaped drone above the text “DAMN VULNERABLE DRONE.” Below this, it lists controls for the simulator, and resources for using the software. In the rest of the screen, a rendered scene is shown. A rendered computer monitor showing “DRONE HACKER” is at the bottom of the scene. Above this is a hovering drone, and behind it is a table labeled “Ground Control Station” with a man sitting at it.

The old saying that the best way to learn is by doing holds as true for penetration testing as for anything else, which is why intentionally vulnerable systems like the Damn Vulnerable Web Application are so useful. Until now, however, there hasn’t been a practice system for penetration testing with drones.

The Damn Vulnerable Drone (DVD, a slightly confusing acronym) simulates a drone which flies in a virtual environment under the command of of an Ardupilot flight controller. A companion computer on the drone gives directions to the flight controller and communicates with a simulated ground station over its own WiFi network using the Mavlink protocol. The companion computer, in addition to running WiFi, also streams video to the ground station, sends telemetry information, and manages autonomous navigation, all of which means that the penetration tester has a broad yet realistic attack surface.

The Damn Vulnerable Drone uses Docker for virtualization. The drone’s virtual environment relies on the Gazebo robotics simulation software, which provides a full 3D environment complete with a physics engine, but does make the system requirements fairly hefty. The system can simulate a full flight routine, from motor startup through a full flight, all the way to post-flight data analysis. The video below shows one such flight, without any interference by an attacker. The DVD currently provides 39 different hacking exercises categorized by type, from reconnaissance to firmware attacks. Each exercise has a detailed guide and walk-through available (hidden by default, so as not to spoil the challenge).

This seems to be the first educational tool for drone hacking we’ve seen, but we have seen several vulnerabilities found in drones. Of course, it goes both ways, and we’ve also seen drones used as flying security attack platforms.

youtube.com/embed/EHTQv6IfnwI?…


hackaday.com/2025/07/18/a-vuln…



"Abbiamo ricevuto tanto affetto, siamo qui perché volevamo stare vicini alla squadra": la commozione dei genitori al Giro ripreso oggi in Valle


Un account di test dimenticato e un malware: dietro le quinte del data breach che ha colpito McDonald’s


Una recente violazione dei dati ha rivelato una vulnerabilità nei sistemi di Paradox.ai, uno sviluppatore di chatbot basati sull’intelligenza artificiale utilizzati nei processi di assunzione di McDonald’s e di altre aziende Fortune 500. La grave violazione è stata causata da un semplice errore: un bug di tipo IDOR (acronimo di Insecure Direct Object Reference, oggi Broken Access Control nella TOP10 Owasp) contenente un codice debole.

Tutto è iniziato quando i ricercatori di sicurezza Ian Carroll e Sam Curry hanno ottenuto l’accesso al backend di McHire.com, una piattaforma che utilizza il bot di intelligenza artificiale Olivia di Paradox.ai per elaborare le candidature dei candidati. Come si è scoperto, un account di prova con un codice “123456” ha dato loro accesso a un set di dati di 64 milioni di record, inclusi nomi, numeri di telefono e indirizzi email dei candidati.

L’azienda ha ammesso che si trattava effettivamente del loro account di prova, inutilizzato dal 2019 e che avrebbe dovuto essere eliminato. Paradox sostiene che nessuno, a parte i ricercatori stessi, abbia avuto accesso al sistema e che nessuna delle registrazioni sia stata resa pubblica. Allo stesso tempo, sottolinea che si trattava solo della corrispondenza con il bot e non delle candidature di lavoro in sé.

Tuttavia, i problemi non sono finiti qui. Un’analisi indipendente delle perdite di password ha mostrato che nel giugno 2025 il dispositivo di un dipendente vietnamita di Paradox è stato infettato dal malware Nexus Stealer. Questo tipo di malware è noto per il furto di password e dati di autorizzazione, inclusi cookie e dati di accesso immessi manualmente. Dopo l’infezione, le informazioni del dipendente sono state esposte e indicizzate dai servizi che monitorano le perdite.

I dati rubati includevano centinaia di password semplici e ripetitive, spesso diverse solo per gli ultimi caratteri. Alcune di queste venivano utilizzate per accedere ai servizi interni di clienti Paradox, tra cui Aramark, Lockheed Martin, Lowe’s e Pepsi. La stessa password, composta da sole sette cifre, veniva utilizzata per accedere a diversi sistemi aziendali. Password di questo tipo possono essere decifrate in un solo secondo utilizzando moderni strumenti di attacco a forza bruta.

Ciò che è particolarmente allarmante è che i dati compromessi includevano accessi alla piattaforma Single Sign-On paradoxai.okta.com, che Paradox utilizza dal 2020 e supporta l’autenticazione a due fattori. Sebbene l’azienda affermi che la maggior parte delle password compromesse non sia più valida, includevano i dettagli di accesso per Okta e Atlassian , un servizio di project management e sviluppo software. Entrambi i token di autorizzazione sarebbero scaduti a dicembre 2025.

La fuga di dati ha interessato non solo gli accessi, ma anche i cookie, che potrebbero potenzialmente bypassare l’autenticazione a più fattori. Inoltre, in alcuni casi, il malware lascia delle backdoor sui dispositivi, consentendo l’accesso remoto. Uno di questi computer, appartenente a uno sviluppatore Paradox in Vietnam, è stato successivamente messo in vendita.

Paradox afferma che l’incidente non ha interessato altri account clienti e che i requisiti per i collaboratori esterni sono stati inaspriti dall’audit di sicurezza del 2019. Paradox cita il fatto che nel 2019 i collaboratori esterni non erano tenuti a rispettare gli stessi standard del personale interno.

È emerso anche che un altro dipendente Paradox in Vietnam è stato infettato da un malware simile alla fine del 2024. Tra i dati rubati c’erano i suoi account GitHub e la cronologia del browser, il che suggerisce che l’infezione potrebbe essere avvenuta durante il download di film piratati, un modo comune per questi virus, spesso mascherati da codec, di diffondersi.

La storia dimostra quanto possano essere fragili anche le aziende che dichiarano di avere standard di sicurezza rigorosi. Un account di prova dimenticato e un laptop infetto hanno potenzialmente compromesso i dati di diverse aziende.

L'articolo Un account di test dimenticato e un malware: dietro le quinte del data breach che ha colpito McDonald’s proviene da il blog della sicurezza informatica.



Lydie Salvayre – Sette donne
freezonemagazine.com/news/lydi…
In libreria dal 29 Agosto 2025 Emily Brontë, Colette, Virginia Woolf, Djuna Barnes, Marina Cvetaeva, Ingeborg Bachmann, Sylvia Plath. Sette pazze. Alle quali vivere non basta. Mangiare, dormire e cucire, è davvero tutta qui, la vita? si chiedono. Sette pazze che seguono ciecamente un richiamo. Sette fanatiche per le quali scrivere è vivere. Lydie […]
L'articolo Lydie Salvayre – Sette donne provi
In


"Ho pensato a Samuele dalla partenza": le parole del campione sloveno dopo la vittoria nella 12esima tappa, in memoria del 19enne morto in Valle



Bundesländer machen Druck: Justizminister*innen fordern mehr Schutz gegen bildbasierte Gewalt


netzpolitik.org/2025/bundeslae…



Cosa significa sparare sulla Croce


@Giornalismo e disordine informativo
articolo21.org/2025/07/cosa-si…
Nel momento in cui l’esercito israeliano arriva a colpire persino la chiesa della Sacra famiglia di Gaza, provocando tre morti e vari feriti, tra cui padre Gabriel Romanelli, reso noto al grande pubblico da papa Francesco (che si collegava con lui ogni sera per sapere




Putin impone restrizioni ai software esteri che hanno “strangolato” la Russia


L’ufficio stampa del Cremlino ha riferito che il presidente russo Vladimir Putin ha incaricato il governo di sviluppare ulteriori restrizioni per i software (inclusi i “servizi di comunicazione”) prodotti in paesi ostili entro il 1° settembre 2025. L’elenco delle istruzioni è stato redatto a seguito di un incontro con i rappresentanti del mondo imprenditoriale tenutosi il 26 maggio di quest’anno. Il Primo Ministro Mikhail Mishustin è stato nominato responsabile dell’attuazione di queste istruzioni e dovrà preparare una relazione in merito entro il 1° settembre.

Il sito web del Cremlino afferma che i software provenienti da paesi ostili includono anche i “servizi di comunicazione”, ma non specifica quali. L’elenco delle istruzioni include anche la valutazione della questione dell’introduzione di ulteriori misure di sostegno per gli esportatori di software nazionale. Una relazione in merito dovrebbe essere predisposta da Mishustin entro il 1° settembre. In un incontro con i rappresentanti degli ambienti imprenditoriali tenutosi nel maggio 2025 è stata discussa la possibilità di limitare gradualmente l’uso di servizi cloud esteri con analoghi servizi russi .

Vladimir Putin ha suggerito di “strangolare” le aziende IT straniere che avevano annunciato il loro ritiro dal mercato russo e che cercavano di “strangolare” la Russia, sebbene continuassero a occupare le loro nicchie nel mercato russo. Ha consigliato ai russi che hanno mantenuto determinate abitudini di utilizzo e un attaccamento ai programmi e ai servizi occidentali di sbarazzarsi di “queste cattive abitudini”. Poco dopo, il capo del Ministero dello sviluppo digitale, Maksut Shadayev, ha commentato le parole del presidente russo sullo “strangolamento” dei servizi IT stranieri che agiscono contro la Federazione Russa, ma che non hanno abbandonato completamente il mercato russo.

“Il Presidente ha parlato di “strangolaremo”. In generale, considererei la questione in un contesto più ampio. È chiaro che il nostro settore si sta sviluppando a un ritmo molto rapido”, ha detto Shadayev. Secondo il ministro, l’attuale situazione economica in Russia è difficile e molti grandi clienti stanno letteralmente “tagliando” i loro budget IT. In questa situazione, è necessario pensare a ulteriori incentivi per incrementare la crescita della domanda di offerte nazionali in questo settore.

“In questa situazione, il nostro approccio è che le grandi aziende possano valutare di limitare gradualmente l’uso di servizi cloud esteri laddove esistano analoghi russi maturi. In questo modo, si supporteranno [le aziende IT russe] e si darà loro l’opportunità di generare entrate aggiuntive”, ha aggiunto il ministro.

L'articolo Putin impone restrizioni ai software esteri che hanno “strangolato” la Russia proviene da il blog della sicurezza informatica.

razzospaziale reshared this.



Oggi dalle ore 10.45, presso il Padiglione Italia, il Ministro Giuseppe Valditara incontrerà le delegazioni scolastiche italiane che partecipano a #EXPO2025 Osaka.


Suche nach geklauten Autos: Brandenburger Polizei scannte in über 8.000 Fällen Nummernschilder


netzpolitik.org/2025/suche-nac…



Acquisto occhiali con lenti progressive


Devo mettere gli occhiali, mi servono delle lenti progressive, mi sono fatto fare un paio di preventivi e la "forchetta" tra i prezzi che mi hanno dato è molto alta.

Purtroppo non ho nessun modo di capire quale sia la scelta più razionale e attualmente ho solo due criteri a disposizione:

a) compro le economiche così risparmio;
b) compro le costose perché se costano di più sono migliori ed è meglio non risparmiare sulla salute.

Nessuno dei due criteri mi sembra quello ottimale. L'unica cosa utile sarebbe provarle entrambe e vedere come sono ma ovviamente non è possibile.

Voi che le avete come vi regolate?

#lenti #occhiali

in reply to RFanciola

@RFanciola

Purtroppo io non ho modo di valutare la qualità delle lenti, ho a disposizione solo il loro prezzo e la parola dell'ottico secondo cui quelle più costose sono migliori.

in reply to Max 🇪🇺🇮🇹

Immagino. E forse sarà anche vero. Quando avevo comprato i miei occhiali l'ottico mi aveva consigliato le lenti Zeiss, che costavano di più e secondo quanto mostrava garantivano una visione migliore, ma di prove...
Al posto suo mi rivolgerei a un secondo ottico e chiederei magari un parere al mio oculista. In ogni caso faccia attenzione allo spessore delle lenti, che ha un'inflienza importante sul prezzo. E non rinunci al trattamento anti-riflesso.


Il phishing è sempre più difficile da individuare e gli utenti non lo sanno


@Informatica (Italy e non Italy 😁)
Una ricerca di Dojo nel Regno Unito sancisce che il 53% delle persone non è in grado di riconoscere un’e-mail di phishing ma crede di essere in grado di farlo. È un problema serio, perché vuole dire che il phishing è sempre più difficile da individuare e che le persone hanno un lack di formazione



MR Browser is the Package Manager Classic Macs Never Had


Homebrew bills itself as the package manager MacOS never had (conveniently ignoring MacPorts) but they leave the PPC crowd criminally under-served, to say nothing of the 68k gang. Enter [that-ben] with MR Browser, a simple utility to fetch software from Macintosh Repository for computers too old to hit up the website.

If you’re not familiar with Macintosh Repository, it is what it says on the tin: a repository of vintage Macintosh software, like Macintosh Garden but apparently less accessible to vintage machines.
MRBrowser sys6 runs nicely on the Macintosh Plus, as you can see.
There are two versions available, depending on the age of your machine. For machines running System 6, the appropriately-named MR Browser sys6 will run on any 68000 Mac in only 157 KB of and MacTCP networking. (So the 128K obviously isn’t going to cut it, but a Plus from ’86 would be fine.)

The other version, called MR Browser 68K, ironically won’t run on the 68000. It needs a newer processor (68020 or newer, up-to and including PPC) and TCP/IP networking. Anything starting from the Macintosh II or newer should be game; it’s looking for System 7.x upto the final release of Mac OS 9, 9.2.2. You’ll want to give it at least 3 MB of RAM, but can squeak by on 1.6 MB if you aren’t using pictures in the chat.

Chat? Yes, perhaps uniquely for a software store, there’s a chat function. That’s not so weird when you consider that this program is meant to be a stand-alone interface for the Macintosh Repository website, which does, indeed, have a chat feature. It beats an uncaring algorithm for software recommendations, that’s for sure. Check it out in action in the demo video below.

It’s nice to see people still making utilities to keep the old machines going, even if coding on them isn’t always the easiest. If you want to go online on with vintage hardware (Macintosh or otherwise) anywhere else, you’re virtually locked-out unless you use something like FrogFind.

Thanks to [PlanetFox] for the tip. Submit your own, and you may win fabulous prizes. Not from us, of course, but anything’s possible!

hackaday.com/wp-content/upload…

*


hackaday.com/2025/07/18/mr-bro…



Alice e Bob siamo noi: la crittografia come esperienza umana e quotidiana


@Informatica (Italy e non Italy 😁)
Alice, Bob, Eve, Mallory, Trent, simboli viventi delle sfide reali che affrontiamo ogni giorno nella nostra vita digitale, sono riusciti nell'intento di trasformare la crittografia, da scienza matematica a narrazione, raccontata nel linguaggio umano



Dati sensibili, sicurezza nazionale e il nuovo ruolo dello Stato


@Informatica (Italy e non Italy 😁)
Qualche tempo fa il capo della Polizia Vittorio Pisani aveva reclamato un intervento normativo, a livello nazionale, oppure, meglio, europeo, che equiparasse le piattaforme di messaggistica – da whatsapp a Telegram a X, fino alla messaggistica di Apple e Google– agli obblighi che hanno



Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio


Negli ultimi anni i modelli di linguaggio di grandi dimensioni (LLM, Large Language Models) come GPT, Claude o LLaMA hanno dimostrato capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, dietro le quinte, far funzionare un LLM non è un gioco da ragazzi: richiede una notevole infrastruttura computazionale, un investimento economico consistente e scelte architetturali precise. Cerchiamo di capire perché.

70 miliardi di parametri: cosa significa davvero


Un LLM da 70 miliardi di parametri, come LLaMA 3.3 70B di Meta, contiene al suo interno 70 miliardi di “pesi”, ovvero numeri in virgola mobile (di solito in FP16 o BF16, cioè 2 byte per parametro) che rappresentano le abilità apprese durante l’addestramento. Solo per caricare in memoria questo modello, servono circa:

  • 140 GB di RAM GPU (70 miliardi × 2 byte).

A questa cifra vanno aggiunti altri 20-30 GB di VRAM per gestire le operazioni dinamiche durante l’inferenza: cache dei token (KV cache), embedding dei prompt, attivazioni temporanee e overhead di sistema. In totale, un LLM da 70 miliardi di parametri richiede circa 160-180 GB di memoria GPU per funzionare in modo efficiente.

Perché serve la GPU: la CPU non basta


Molti si chiedono: “Perché non far girare il modello su CPU?”. La risposta è semplice: latenza e parallelismo.

Le GPU (Graphics Processing Unit) sono progettate per eseguire milioni di operazioni in parallelo, rendendole ideali per il calcolo tensoriale richiesto dagli LLM. Le CPU, invece, sono ottimizzate per un numero limitato di operazioni sequenziali ad alta complessità. Un modello come LLaMA 3.3 70B può generare una parola ogni 5-10 secondi su CPU, mentre su GPU dedicate può rispondere in meno di un secondo. In un contesto produttivo, questa differenza è inaccettabile.

Inoltre, la VRAM delle GPU di fascia alta (es. NVIDIA A100, H100) consente di mantenere il modello residente in memoria e di sfruttare l’accelerazione hardware per la moltiplicazione di matrici, cuore dell’inferenza LLM.

Un esempio: 100 utenti attivi su un LLM da 70B


Immaginiamo di voler offrire un servizio simile a ChatGPT per la sola generazione di testo, basato su un modello LLM da 70 miliardi di parametri, con 100 utenti attivi contemporaneamente. Supponiamo che ogni utente invii prompt da 300–500 token e si aspetti risposte rapide, con una latenza inferiore a un secondo.

Un modello di queste dimensioni richiede circa 140 GB di memoria GPU per i soli pesi in FP16, a cui vanno aggiunti altri 20–40 GB per la cache dei token (KV cache), attivazioni temporanee e overhead di sistema. Una singola GPU, anche top di gamma, non dispone di sufficiente memoria per eseguire il modello completo, quindi è necessario distribuirlo su più GPU tramite tecniche di tensor parallelism.

Una configurazione tipica prevede la distribuzione del modello su un cluster di 8 GPU A100 da 80 GB, sufficiente sia per caricare il modello in FP16 sia per gestire la memoria necessaria all’inferenza in tempo reale. Tuttavia, per servire contemporaneamente 100 utenti mantenendo una latenza inferiore al secondo per un LLM di queste dimensioni, una singola istanza su 8 GPU A100 (80GB) è generalmente insufficiente.

Per raggiungere l’obiettivo di 100 utenti simultanei con latenza sub-secondo, sarebbe necessaria una combinazione di:

  • Un numero significativamente maggiore di GPU A100 (ad esempio, un cluster con 16-32 o più A100 da 80GB), distribuite su più POD o in un’unica configurazione più grande.
  • L’adozione di GPU di nuova generazione come le NVIDIA H100, che offrono un netto miglioramento in termini di throughput e latenza per l’inferenza di LLM, però ad un costo maggiore.
  • Massimizzare le ottimizzazioni software, come l’uso di framework di inferenza avanzati (es. vLLM, NVIDIA TensorRT-LLM) con tecniche come paged attention e dynamic batching.
  • L’implementazione della quantizzazione (passando da FP16 a FP8 o INT8/INT4), che ridurrebbe drasticamente i requisiti di memoria e aumenterebbe la velocità di calcolo, ma con una possibile conseguente perdita di qualità dell’output generato (soprattutto per la quantizzazione INT4).

Per scalare ulteriormente, è possibile replicare queste istanze su più GPU POD, abilitando la gestione di migliaia di utenti totali in modo asincrono e bilanciato, in base al traffico in ingresso. Naturalmente, oltre alla pura inferenza, è fondamentale prevedere risorse aggiuntive per:

  • Scalabilità dinamica in funzione della domanda.
  • Bilanciamento del carico tra istanze.
  • Logging, monitoraggio, orchestrazione e sicurezza dei dati.


Ma quanto costa un’infrastruttura di questo tipo?


L’implementazione on-premise richiede centinaia di migliaia di euro di investimento iniziale, cui si aggiungono i costi annuali di gestione, alimentazione e personale. In alternativa, i principali provider cloud offrono risorse equivalenti ad un costo mensile molto più accessibile e flessibile. Tuttavia, è importante sottolineare che anche in cloud, una configurazione hardware capace di gestire un tale carico in tempo reale può comportare costi mensili che facilmente superano le decine di migliaia di euro, se non di più, a seconda dell’utilizzo.

In entrambi i casi, emerge con chiarezza come l’impiego di LLM di grandi dimensioni rappresenti non solo una sfida algoritmica, ma anche infrastrutturale ed economica, rendendo sempre più rilevante la ricerca di modelli più efficienti e leggeri.

On-premise o API? La riservatezza cambia le carte in tavola


Un’alternativa semplice per molte aziende è usare le API di provider esterni come OpenAI, Anthropic o Google. Tuttavia, quando entrano in gioco la riservatezza e la criticità dei dati, l’approccio cambia radicalmente. Se i dati da elaborare includono informazioni sensibili o personali (ad esempio cartelle cliniche, piani industriali o atti giudiziari), inviarli a servizi cloud esterni può entrare in conflitto con i requisiti del GDPR, in particolare rispetto al trasferimento transfrontaliero dei dati e al principio di minimizzazione.

Anche molte policy aziendali basate su standard di sicurezza come ISO/IEC 27001 prevedono il trattamento di dati critici in ambienti controllati, auditabili e localizzati.

Inoltre, con l’entrata in vigore del Regolamento Europeo sull’Intelligenza Artificiale (AI Act), i fornitori e gli utilizzatori di sistemi di AI devono garantire tracciabilità, trasparenza, sicurezza e supervisione umana, soprattutto se il modello è impiegato in contesti ad alto rischio (finanza, sanità, istruzione, giustizia). L’uso di LLM attraverso API cloud può rendere impossibile rispettare tali obblighi, in quanto l’inferenza e la gestione dei dati avvengono fuori dal controllo diretto dell’organizzazione.

In questi casi, l’unica opzione realmente compatibile con gli standard normativi e di sicurezza è adottare un’infrastruttura on-premise o un cloud privato dedicato, dove:

  • Il controllo sui dati è totale;
  • L’inferenza avviene in un ambiente chiuso e conforme;
  • Le metriche di auditing, logging e accountability sono gestite internamente.

Questo approccio consente di preservare la sovranità digitale e la conformità a GDPR, ISO 27001 e AI Act, pur richiedendo un effort tecnico ed economico significativo.

Conclusioni: tra potenza e controllo


Mettere in servizio un LLM non è solo una sfida algoritmica, ma soprattutto un’impresa infrastrutturale, fatta di hardware specializzato, ottimizzazioni complesse, costi energetici elevati e vincoli di latenza. I modelli di punta richiedono cluster da decine di GPU, con investimenti che vanno da centinaia di migliaia fino a milioni di euro l’anno per garantire un servizio scalabile, veloce e affidabile.

Un’ultima, ma fondamentale considerazione riguarda l’impatto ambientale di questi sistemi. I grandi modelli consumano enormi quantità di energia elettrica, sia in fase di addestramento che di inferenza. Con l’aumentare dell’adozione di LLM, diventa urgente sviluppare modelli più piccoli, più leggeri e più efficienti, che riescano a offrire prestazioni comparabili a fronte di un footprint computazionale (ed energetico) significativamente ridotto.

Come è accaduto in ogni evoluzione tecnologica — dal personal computer ai telefoni cellulari — l’efficienza è la chiave della maturità: non servono sempre modelli più grandi, ma modelli più intelligenti, più adattivi e sostenibili.

L'articolo Come Funziona Davvero un LLM: Costi, Infrastruttura e Scelte Tecniche dietro ai Grandi Modelli di Linguaggio proviene da il blog della sicurezza informatica.



GR Valle d'Aosta del 18/07/2025 ore 07:20

GR Regionale Valle d'Aosta. Le ultime notizie della regione Valle d'Aosta aggiornate in tempo reale. - Edizione del 18/07/2025 - 07:20



Coltivare la mente come difesa nella Cybersecurity: Il cervello sarà la prossima fortezza digitale?


Immagina per un attimo di trovarti di fronte al pannello di controllo più critico di una infrastruttura IT.

Non un server, non un firewall di ultima generazione, non un sistema AI avanzatissimo.

Immaginiamo che quel pannello sia la tua mente. È da lì che provengono le decisioni più importanti, le reazioni più rapide, le analisi più profonde.

Ed è lì che, troppo spesso, risiedono la vulnerabilità più inaspettate.

Sono qui, tra voi, da più di venti anni.

Ho visto incidenti, ho celebrato successi e ho sentito la pressione che ogni professionista della cybersecurity conosce bene. Ma la mia prospettiva è sempre stata unica, ho sempre portato con me gli strumenti di uno psicologo, di un counselor e di un coach. E ciò che ho imparato, osservando le violazioni informatiche e le persone, è che la vera frontiera della sicurezza non è solo tecnologica.

È profondamente, intrinsecamente, umana.

Il firewall più potente quale sarà?


Pensiamoci bene. Investiamo somme enormi in sistemi avanzatissimi, in intelligenza artificiale, in difese perimetrali quasi inespugnabili. Eppure, una semplice email di phishing, un messaggio subdolo, un invito a cliccare su un link… e tutto può crollare.

Perché accade questo? Perché gli attaccanti, i veri maestri, non puntano ai nostri server; puntano al nostro circuito neurale.

L’ingegneria sociale non è più un semplice trucco; è diventata neuro-ingegneria sociale. I cybercriminali sono diventati esperti nel capire come funziona il nostro cervello: sanno attivare le nostre risposte emotive più primitive, bypassare il nostro ragionamento logico, sfruttare i nostri bias cognitivi. La nostra curiosità, la fretta, la tendenza a fidarci, la paura di perdere un’opportunità sono tutte “vulnerabilità” nel nostro hardware biologico. Il nostro cervello, pur essendo la macchina più potente che conosciamo, è anche quella più facilmente “hackerabile” se non lo comprendiamo e non lo alleniamo adeguatamente.

La chimica dello stress cosa genera?


E non è solo l’utente finale ad essere vulnerabile. Lo siamo anche noi, i professionisti della sicurezza! Noi che lavoriamo sotto la costante minaccia di un attacco, con la responsabilità enorme di proteggere dati e infrastrutture critiche. Quante volte abbiamo sentito quella scarica di adrenalina, quella mente che si annebbia quando un alert suona nel cuore della notte o nel fine settimana..

Cortisolo e adrenalina inondano il nostro sistema.

Sono un’ottima risposta se stiamo scappando da una tigre, ma devastante per la lucidità e la capacità decisionale necessarie per gestire un incidente cyber complesso. La stanchezza decisionale, il burnout cognitivo non sono solo etichette.

Sono la manifestazione di processi neurologici che minano direttamente la nostra performance.

Un analista sotto stress cronico non è semplicemente “stanco”; il suo cervello opera in una modalità di sopravvivenza che limita l’accesso alle funzioni esecutive superiori, quelle cruciali per il problem solving e la strategia.

È come se il nostro sistema difensivo più critico fosse costantemente sotto attacco interno.

Quale potrebbe essere un piano di azione futuro?


Allora, la domanda da un milione di dollari, quella che mi pongo ogni giorno è: se il cervello è la nostra risorsa più potente e la nostra vulnerabilità più grande, come possiamo trasformarlo nella nostra prossima e più potente risorsa cyber?

Non si tratta di fantascienza, ma di un piano d’azione concreto basato sulle neuroscienze e sulla psicologia umana:

  1. Oltre la semplice consapevolezza
    • Azione: dobbiamo implementare programmi di formazione che vadano oltre il “cosa fare”. Iniziamo a insegnare il “perché” le persone cadono nelle truffe, analizzando i meccanismi psicologici e neurologici dietro l’ingegneria sociale.
    • Focus: utilizziamo simulazioni avanzate, non solo tecniche, ma comportamentali. Pensiamo a esercizi che creino “memoria muscolare” nel cervello per le risposte di sicurezza, usando tecniche di ripetizione e rinforzo cognitivo. Come un atleta allena il suo corpo, noi dobbiamo allenare la nostra mente.


  2. Ottimizzare l’ambiente mentale
    • Azione: dobbiamo ripensare gli ambienti di lavoro e i flussi operativi per ridurre il carico cognitivo e promuovere la lucidità mentale. Ciò include la gestione intelligente dei turni, pause strategiche per il recupero mentale e la progettazione di interfacce utente che minimizzino la fatica decisionale.
    • Focus: integriamo pratiche di mindfulness o brevi esercizi di “respirazione consapevole” per aiutare i team a gestire lo stress in tempo reale e a resettare i livelli di cortisolo. Un cervello calmo è un cervello che prende decisioni migliori.


  3. Comprendere la mente dell’avversario
    • Azione: utilizziamo le conoscenze delle neuroscienze e della psicologia criminale per comprendere non solo cosa fanno gli attaccanti, ma come pensano, quali motivazioni profonde li guidano e quali bias psicologici cercano di sfruttare nelle loro vittime.
    • Focus: sviluppiamo modelli predittivi che incorporino profili psicologici e comportamentali degli attaccanti, anticipando le loro mosse non solo a livello tecnico, ma anche a livello umano e mentale.



In conclusione?


La cybersecurity è sempre stata una battaglia di intelligenze: macchina contro macchina, algoritmo contro algoritmo. Ma la vera sfida, la prossima grande evoluzione, è integrare profondamente la comprensione della nostra stessa biologia cognitiva nella nostra strategia difensiva.

Non proteggiamo solo dati, proteggiamo le menti che quei dati li gestiscono e li difendono.

Per proteggerci veramente, per costruire difese resilienti e a prova di futuro, non bastano le tecnologie più avanzate o i protocolli più stringenti.

È fondamentale che i nostri team di cybersecurity siano multidisciplinari. Dobbiamo superare la convinzione che basti essere esperti di codice o di rete. Abbiamo bisogno di umanisti, sociologi, psicologi, esperti di comunicazione che lavorino fianco a fianco con gli ingegneri e gli analisti. Sono loro che possono aiutarci a capire il “fattore umano” nelle sue sfumature più profonde, a progettare difese che tengano conto dei comportamenti e delle emozioni, a formare le persone non solo sulle regole, ma sulle ragioni intrinseche della sicurezza.

La cyber-resilienza non è un muro inespugnabile, ma una danza costante tra la logica del codice e l’imprevedibilità dell’anima umana. È un’arte sottile, un caos ordinato dove l’innovazione tecnologica incontra la profonda conoscenza di sé. Non possiamo più permetterci di essere i ciechi veggenti della sicurezza, che vedono ogni bit e byte ma non il battito cardiaco che li muove.

Se la nostra difesa più critica risiede nella mente, siamo davvero pronti a investire in essa come nell’ultima soluzione tecnologica?

Siamo pronti a ridefinire il concetto stesso di “sicurezza informatica” per includere l’elemento più cruciale: l’essere umano?

E, soprattutto, cosa siamo disposti a cambiare nel nostro approccio da domani per iniziare a costruire questa fortezza ?

L'articolo Coltivare la mente come difesa nella Cybersecurity: Il cervello sarà la prossima fortezza digitale? proviene da il blog della sicurezza informatica.




3 bug da score 10 sono stati rilevati in Cisco ISE e ISE-PIC: aggiornamenti urgenti


Sono state identificate diverse vulnerabilità nei prodotti Cisco Identity Services Engine (ISE) e Cisco ISE Passive Identity Connector (ISE-PIC) che potrebbero consentire a un utente malintenzionato remoto di eseguire comandi arbitrari sul sistema operativo sottostante con privilegi di amministratore.

Cisco ha già rilasciato aggiornamenti software per correggere queste vulnerabilità e, al momento, non risultano disponibili soluzioni alternative per mitigarle. Un attaccante remoto potrebbe sfruttare tali vulnerabilità per ottenere accesso con privilegi di root ed eseguire comandi sul sistema.

Le vulnerabilità sono indipendenti tra loro: ciò significa che lo sfruttamento di una non è condizione necessaria per sfruttare le altre. Inoltre, una determinata versione software vulnerabile a una di queste problematiche potrebbe non essere interessata dalle restanti.

CVE-2025-20281 e CVE-2025-20337: vulnerabilità di esecuzione di codice remoto non autenticato dell’API Cisco ISE

Diverse vulnerabilità in una specifica API di Cisco ISE e Cisco ISE-PIC potrebbero consentire a un aggressore remoto non autenticato di eseguire codice arbitrario sul sistema operativo sottostante come utente root . L’aggressore non necessita di credenziali valide per sfruttare queste vulnerabilità.

Queste vulnerabilità sono dovute a una convalida insufficiente dell’input fornito dall’utente. Un aggressore potrebbe sfruttarle inviando una richiesta API contraffatta. Un exploit riuscito potrebbe consentire all’aggressore di ottenere privilegi di root su un dispositivo interessato.

CVE-2025-20282: Vulnerabilità di esecuzione di codice remoto non autenticato nell’API Cisco ISE

Una vulnerabilità in un’API interna di Cisco ISE e Cisco ISE-PIC potrebbe consentire a un aggressore remoto non autenticato di caricare file arbitrari su un dispositivo interessato e quindi eseguire tali file sul sistema operativo sottostante come root .

Questa vulnerabilità è dovuta alla mancanza di controlli di convalida dei file che impedirebbero il posizionamento dei file caricati in directory privilegiate su un sistema interessato. Un aggressore potrebbe sfruttare questa vulnerabilità caricando un file contraffatto sul dispositivo interessato. Un exploit riuscito potrebbe consentire all’aggressore di memorizzare file dannosi sul sistema interessato e quindi eseguire codice arbitrario o ottenere privilegi di root sul sistema.

L'articolo 3 bug da score 10 sono stati rilevati in Cisco ISE e ISE-PIC: aggiornamenti urgenti proviene da il blog della sicurezza informatica.