Salta al contenuto principale


Bug Critici su NVIDIA Triton consentono agli attaccanti di compromettere e rubare il modello AI


Sono state scoperte vulnerabilità critiche nel Triton Inference Server di NVIDIA, che minacciano la sicurezza dell’infrastruttura di intelligenza artificiale su Windows e Linux. La soluzione open source è progettata per l’implementazione e la manutenzione su larga scala di modelli di apprendimento automatico e ora, a quanto pare, il suo backend Python può essere utilizzato per assumere il controllo completo del server senza autorizzazione.

Triton Inference Server è un software open source per l’inferenza che semplifica l’inferenza dell’IA. Triton Inference Server consente ai team di implementare qualsiasi modello di IA da diversi framework di deep learning e machine learning, tra cui TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL e altri. Triton supporta l’inferenza su cloud, data center, dispositivi edge ed embedded su GPU NVIDIA, CPU x86 e ARM o AWS Inferentia.

Il team di Wiz ha segnalato tre vulnerabilità che, se combinate correttamente, potrebbero portare all’esecuzione remota di codice arbitrario. La prima, il CVE-2025-23319 con un punteggio CVSS di 8,1, consente a un aggressore di avviare una scrittura fuori dai limiti inviando una richiesta appositamente predisposta. La seconda, CVE-2025-23320 (CVSS 7.5), consente a un aggressore di superare il limite di memoria condivisa inviando una richiesta eccessivamente grande. La terza, CVE-2025-23334 (CVSS 5.9), causa una lettura fuori dai limiti. Sebbene non particolarmente pericolose singolarmente, se combinate, queste vulnerabilità aprono la strada alla compromissione completa del server.

Il problema risiede nel meccanismo che elabora i modelli Python, compresi quelli creati con PyTorch e TensorFlow. Questo backend consente di inviare richieste di inferenza utilizzando meccanismi IPC interni, il cui funzionamento è il punto in cui sono associate le vulnerabilità.

Lo scenario di attacco inizia con CVE-2025-23320, che può estrarre il nome univoco dell’area di memoria condivisa in cui avviene l’interazione tra i componenti. Questo nome è pensato per essere nascosto, ma un aggressore può ottenerlo e utilizzarlo come chiave. Successivamente, CVE-2025-23319 e CVE-2025-23334 consentono la scrittura e la lettura di dati in memoria, aggirando le restrizioni. Ciò fornisce il pieno controllo sul processo di inferenza, la possibilità di iniettare codice dannoso, rubare modelli di intelligenza artificiale, modificarne il comportamento e intercettare informazioni sensibili.

Secondo gli esperti, l’attacco hacker a Triton potrebbe diventare il punto di accesso per un attacco più ampio all’intera rete dell’organizzazione, comprese le infrastrutture che svolgono attività critiche.

In un nuovo bollettino di agosto, NVIDIA conferma l’esistenza dei problemi sopra descritti e richiede l’installazione immediata dell’aggiornamento 25.07, che li risolve.

Contemporaneamente, lo sviluppatore ha annunciato la correzione di altri tre bug gravi: CVE-2025-23310 , CVE-2025-23311 e CVE-2025-23317 . Questi errori possono anche causare l’esecuzione di codice, la perdita di dati, l’errore del server e l’interferenza con il contenuto della memoria. Tutti questi bug sono stati risolti nello stesso aggiornamento.

Sebbene non vi siano prove che queste vulnerabilità siano state sfruttate in natura, dato il rischio e la natura dei componenti coinvolti, si consiglia alle organizzazioni che utilizzano Triton di aggiornare e rivedere immediatamente il modello di minaccia associato alla propria infrastruttura di intelligenza artificiale.

L'articolo Bug Critici su NVIDIA Triton consentono agli attaccanti di compromettere e rubare il modello AI proviene da il blog della sicurezza informatica.