Salta al contenuto principale


Un passo verso la guerra autonoma. Un drone può programmare in autonomia il suo “sistema cerebrale”


Per la prima volta, è stato dimostrato che un robot può non solo eseguire comandi, ma anche programmare il proprio “sistema cerebrale“, dall’inizio alla fine. Questa svolta è stata dimostrata da Peter Burke, professore di ingegneria elettrica e informatica presso l’Università della California, Irvine. Nel suo preprint, descrive come, utilizzando modelli di intelligenza artificiale generativa, sia possibile creare una stazione di comando e controllo completa per un drone, non posizionata a terra, come di solito accade, ma direttamente a bordo del velivolo.

L’idea è che il progetto chiami “robot” due oggetti contemporaneamente. Il primo è l’intelligenza artificiale che genera il codice del programma, il secondo è un drone basato su Raspberry Pi Zero 2 W che esegue questo codice. Il controllo del volo viene solitamente effettuato tramite una stazione di terra, ad esempio utilizzando i programmi Mission Planner o QGroundControl che comunicano con il drone tramite un canale di telemetria. Questo sistema svolge le funzioni di un “cervello” intermedio, dalla pianificazione della missione alla visualizzazione in tempo reale. Un firmware di basso livello, come Ardupilot, viene eseguito a bordo del drone, mentre un sistema di navigazione autonomo, come ROS, è responsabile delle attività più complesse.

Burke ha dimostrato che, con il giusto tasking, i modelli di intelligenza artificiale generativa possono essere incaricati di scrivere l’intera suite software, dall’interazione con MAVLink alla creazione di un’interfaccia web. Il risultato è WebGCS: un server web situato sulla scheda stessa del drone, che fornisce un ciclo di controllo completo in volo. L’utente può connettersi a questo sistema tramite rete e impartire comandi tramite un browser mentre il dispositivo è in volo.

Il progetto è stato implementato in più fasi, attraverso una serie di sprint con diversi strumenti di intelligenza artificiale: Claude , Gemini , ChatGPT , nonché ambienti di sviluppo specializzati come Cursor e Windsurf . Nella fase iniziale, le sessioni con Claude includevano richieste di scrittura di codice Python per far volare il drone a 15 metri, creare una pagina web con un pulsante di decollo, visualizzare una mappa con la posizione GPS e consentire di cliccare per specificare una destinazione. L’intelligenza artificiale avrebbe poi dovuto generare uno script di installazione, inclusa l’intera struttura dei file. Tuttavia, a causa della finestra di contesto limitata, Claude non è stato in grado di elaborare l’intera catena di richieste.

La sessione di Gemini 2.5 fallì a causa di errori negli script bash e Cursor ha prodotto un prototipo funzionante, che tuttavia richiese un refactoring, poiché il volume di codice superava i limiti del modello. Il quarto sprint con Windsurf ebbe successo: richiese 100 ore di lavoro umano in 2,5 settimane e si concluse con la creazione di 10.000 righe di codice. A titolo di confronto, il progetto Cloudstation, con funzionalità simili, fu sviluppato in 4 anni grazie all’impegno di diversi studenti.

Il risultato evidenzia un’importante limitazione dell’intelligenza artificiale moderna: la sua incapacità di gestire efficacemente dimensioni di codice superiori a 10.000 righe. Secondo Burke, questo è coerente con ricerche precedenti , che hanno dimostrato che l’accuratezza del modello Claude 3.5 di Sonnet su LongSWEBench scende dal 29% al 3% all’aumentare del contesto da 32.000 a 256.000 token.

Nonostante la natura futuristica del progetto, gli sviluppatori hanno previsto un elemento di controllo: l’intervento manuale tramite un trasmettitore di backup è sempre stato possibile durante il processo. Ciò è necessario dato il potenziale dei sistemi di navigazione autonoma, che stanno già attirando l’attenzione dell’industria militare e dell’intelligenza artificiale spaziale.

Geolava ha definito l’esperimento di Burke una pietra miliare: secondo l’azienda, l’assemblaggio autonomo di un centro di comando nel cielo apre la strada a un nuovo paradigma di intelligenza spaziale, in cui sensori, pianificazione e processo decisionale vengono combinati in un unico insieme in tempo reale. Anche piattaforme parzialmente automatizzate come Skydio stanno già iniziando a cambiare l’approccio all’analisi dell’ambiente.

L'articolo Un passo verso la guerra autonoma. Un drone può programmare in autonomia il suo “sistema cerebrale” proviene da il blog della sicurezza informatica.