The media in this post is not displayed to visitors. To view it, please log in.

Il Thread di @Matthew Green su Apple e il suo "Private Cloud Compute" e il bilanciamento tra elaborazione in locale e nel Cloud.

@Informatica (Italy e non Italy 😁)


Quindi Apple ha introdotto un nuovo sistema chiamato “Private Cloud Compute” che consente al telefono di scaricare attività complesse (tipicamente AI) su dispositivi sicuri specializzati nel cloud. Sto ancora cercando di capire cosa ne penso. Quindi ecco un thread. 1/

Apple, a differenza della maggior parte degli altri operatori di telefonia mobile, tradizionalmente esegue molte elaborazioni sul dispositivo. Ad esempio, tutto il machine learning e il riconoscimento del testo OCR su Foto vengono eseguiti direttamente sul tuo dispositivo. 2/


Esempi di apprendimento automatico effettuati in locale
Esempi di OCR effettuati in locale

Il problema è che, sebbene l’hardware “neurale” dei moderni telefoni stia migliorando, non sta migliorando abbastanza velocemente per sfruttare tutte le folli funzionalità che la Silicon Valley desidera dall’intelligenza artificiale moderna, inclusa l’intelligenza artificiale generativa e simili. Ciò richiede fondamentalmente server. 3/

Ma se invii le tue attività ai server nel "cloud" (dio che usa le virgolette mi fa sentire 80), ciò significa inviare dati incredibilmente privati ​​dal tuo telefono e su Internet. Ciò ti espone allo spionaggio, all’hacking e al modello di business affamato di dati della Silicon Valley. 4/

La soluzione che Apple ha trovato è provare a costruire hardware sicuro e affidabile nei propri data center. Il tuo telefono può quindi "esternalizzare" compiti pesanti a questo hardware. Sembra facile, vero? Bene: ecco il post sul blog. 5/

TL;DR: non è facile. Costruire computer affidabili è letteralmente il problema più difficile nella sicurezza informatica. Onestamente è quasi l'unico problema nella sicurezza informatica. Ma anche se rimane un problema impegnativo, abbiamo fatto molti progressi. Apple li utilizza quasi tutti. 6/

La prima cosa che Apple sta facendo è sfruttare tutti i progressi compiuti nella realizzazione di telefoni e PC sicuri nei suoi nuovi server. Ciò comporta l'utilizzo di Secure Boot e di un Secure Enclave Processor (SEP) per conservare le chiavi. Presumibilmente hanno attivato tutte le funzionalità di sicurezza del processore. 7/

Quindi lanciano tutti i tipi di processi sull'hardware del server per assicurarsi che l'hardware non venga manomesso. Non so dire se questo previene gli attacchi hardware, ma sembra un inizio. 8/

La sicurezza dell'hardware del Private Cloud Compute inizia dalla produzione, dove inventariamo ed eseguiamo l'imaging ad alta risoluzione dei componenti del nodo PCC prima che ciascun server venga sigillato e il relativo interruttore antimanomissione venga attivato. Quando arrivano nel data center, eseguiamo una riconvalida approfondita prima che sia consentito il provisioning dei server per PCC. Il processo coinvolge più team Apple che effettuano un controllo incrociato dei dati provenienti da fonti indipendenti e il processo viene ulteriormente monitorato da un osservatore di terze parti non affiliato ad Apple. Alla fine, viene emesso un certificato per le chiavi radicate nell'UID Secure Enclave per ciascun nodo PCC. Il dispositivo dell'utente non invierà dati ad alcun nodo PCC se non è in grado di convalidare i relativi certificati.

Usano anche una serie di protezioni per garantire che il software sia legittimo. Il primo è che il software è “senza stato” e presumibilmente non conserva le informazioni tra le richieste dell'utente. Per garantire ciò, ogni server/nodo si riavvia e reimposta le chiavi e cancella tutto lo spazio di archiviazione. 9/


• Il dispositivo di un utente invia dati a PCC al solo ed esclusivo scopo di soddisfare la richiesta di inferenza dell'utente. PCC utilizza tali dati solo per eseguire le operazioni richieste dall'utente.<br>• I dati dell'utente rimangono sui nodi PCC che stanno elaborando la richiesta solo finché non viene restituita la risposta. PCC elimina i dati dell'utente dopo aver soddisfatto la richiesta e nessun dato dell'utente viene conservato in alcuna forma dopo la restituzione della risposta.<br>I dati degli utenti non sono mai disponibili per Apple, nemmeno per il personale con accesso amministrativo al servizio di produzione o all'hardware.

Una seconda protezione è che il sistema operativo possa “attestare” l'immagine del software in esecuzione. Nello specifico, firma un hash del software e lo condivide con ogni telefono/cliente. Se ti fidi di questa infrastruttura, saprai che esegue un software specifico. 10/

Naturalmente, sapere che sul telefono è in esecuzione un software specifico non ti aiuta se non ti fidi del software. Pertanto Apple prevede di inserire ogni immagine binaria in un "registro di trasparenza" e di pubblicare il software.
Ma ecco un punto critico: non con il codice sorgente completo. 11/


Il nostro impegno per una trasparenza verificabile include:<br>1. Pubblicazione delle misurazioni di tutto il codice in esecuzione su PCC in un registro di trasparenza di sola aggiunta e crittograficamente a prova di manomissione.<br>2. Rendere il registro e le immagini software binarie associate disponibili al pubblico per l'ispezione e la convalida da parte di esperti di privacy e sicurezza.<br>3. Pubblicazione e mantenimento di una serie ufficiale di strumenti per i ricercatori che analizzano il software del nodo PCC.<br>4<br>. Premiare importanti risultati di ricerca attraverso il programma Apple Security Bounty.

I ricercatori della sicurezza riceveranno *del codice* e una VM che potranno utilizzare per eseguire il software. Dovranno quindi decodificare i binari per vedere se stanno facendo cose inaspettate. E' un po' subottimale. 12/

Quando il tuo telefono desidera esternalizzare un'attività, contatterà Apple e otterrà un elenco di server/nodi e le relative chiavi. Quindi crittograferà la sua richiesta su tutti i server e uno la elaborerà. Usano persino credenziali anonime fantasiose e un relè di terze parti per nascondere il tuo IP. 13/

La diffusione del target inizia con i metadati della richiesta,<br>che esclude qualsiasi identificazione personale<br>informazioni sul dispositivo o sull'utente di origine e<br>include solo dati contestuali limitati su<br>richiesta necessaria per abilitare l'instradamento al file<br>modello appropriato. Questi metadati sono l'unica parte<br>della richiesta dell'utente che è disponibile per il caricamento<br>bilanciatori e altri componenti del data center<br>in esecuzione al di fuori del confine di fiducia del PCC. IL<br>i metadati includono anche una credenziale monouso,<br>basato sulle firme cieche RSA, per autorizzare la validità<br>richieste senza legarle a un utente specifico.<br>Inoltre, le richieste PCC passano attraverso un OHTTP<br>relè - gestito da terzi - che nasconde<br>l'indirizzo IP di origine del dispositivo prima della richiesta<br>non raggiunge mai l'infrastruttura PCC. Questo<br>impedisce a un utente malintenzionato di utilizzare un indirizzo IP per<br>identificare le richieste o associarle ad un<br>individuale. Significa anche che un aggressore lo farebbe<br>devono compromettere sia il relè di terze parti che<br>il nostro bilanciatore del carico per indirizzare il traffico in base al<br>indirizzo IP di origine.

Ok, probabilmente ci sono una mezza dozzina di dettagli tecnici in più nel post del blog. È un design molto premuroso. In effetti, se dessi a un team eccellente un’enorme quantità di denaro e gli dicessi di costruire il miglior cloud “privato” al mondo, probabilmente sarebbe simile a questo. 14/

Ma ora le domande difficili. È una buona idea? Ed è sicuro quanto quello che fa Apple oggi? E, soprattutto:

Gli utenti possono rinunciare completamente a questa funzione? 15/

>>> Breve intervallo: ho anche pubblicato questo thread su Twitter, e poi è successo proprio in questa parte. Era... scomodo. <<<

Musk Risponde: "Questo è essenziale!"

Torniamo alla questione principale. Ammetto che quando ho appreso di questa funzionalità, mi ha reso un po' triste. Il pensiero che mi passava per la testa era: questa sarà una tentazione troppo grande. Una volta che puoi esternalizzare “in sicurezza” le attività sul cloud, perché preoccuparsi di svolgerle localmente? Esternalizzare tutto! 16/

Per quanto ne so, Apple non ha piani espliciti per annunciare quando i tuoi dati verranno trasferiti dal dispositivo al calcolo privato. Non opterai per questo, non ti verrà nemmeno necessariamente detto che sta accadendo. Succederà e basta. Magicamente.
Non amo quella parte. 17/

Infine, ci sono così tanti spigoli vivi invisibili che potrebbero esistere in un sistema come questo. Difetti hardware. Problemi con il framework di attenuazione crittografica. Exploit software intelligenti. Molti di questi saranno difficili da rilevare per i ricercatori di sicurezza. Anche questo mi preoccupa. 18/

Concludendo con una nota più positiva: vale la pena tenere presente che a volte la perfezione è nemica di ciò che è veramente buono.
In pratica l'alternativa al dispositivo on-device è: spedire i dati privati ​​a OpenAI o da qualche parte in Sketchier, dove chissà cosa potrebbe accadergli. 19/

E, naturalmente, tieni presente che le super spie non sono il tuo più grande avversario. Per molte persone il tuo più grande avversario è l'azienda che ti ha venduto il tuo dispositivo/software. Questo sistema PCC rappresenta un vero e proprio impegno da parte di Apple a non “sbirciare” i vostri dati. Questo è un grosso problema. 20/

In ogni caso, questo è il mondo verso cui ci stiamo muovendo. Potrebbe sembrare che il tuo telefono sia in tasca, ma una parte di esso vive in un data center a 2.000 miglia di distanza. Come addetti alla sicurezza probabilmente dobbiamo abituarci a questo fatto e fare del nostro meglio per assicurarci che tutte le parti siano sicure. //fine

Addendum su twitter: “attenuazione crittografica” dovrebbe essere letto “attestazione crittografica”, ma sono sicuro che la gente capirà il punto.


Il thread completo inizia qui

Questa voce è stata modificata (1 anno fa)

reshared this

in reply to Informa Pirata

Avevo letto il thread di Matthew, interessante.

Mentre lo leggevo, nel retro del mio pensiero continuavo a pensare "questo è il cloud per le persone normali".

"Il cloud" inteso come accentramento di risorse e tecnologia alle quali ci si affida perdendo ogni tipo di autonomia e dando sempre più potere alle stesse persone.
Il cloud che promette grandi risparmi e invece costa sempre più caro.

Il cloud che fino ad oggi ha contaminato le.infrastrutture IT adesso viene a prendersi anche i nostri dispositivi.

Sarà un futuro triste.

reshared this

in reply to noce72

feddit.it/u/noce72
feddit.it/u/informapirata@poli…

Non appena i dati lasciano il tuo dispositivo, diventa molto più vulnerabile.

Apple dice che si sta aprendo a recensioni indipendenti da parte dei ricercatori. Che suona bene. Ma cosa succede se questi ricercatori ti dicono cose che non vuoi sentire?

Apple e molte altre aziende stanno scommettendo che "le persone normali" (chi sono queste persone? Tutti noi?) concederanno i loro modelli di IA per lo più libero accesso ai dati privati. Questo è conveniente per l'utente (basta chiedere a Siri di riprodurre quella canzone che il vostro partner ha trovato così grande di ritardo, cose del genere). Ma anche se crediamo per un momento che Apple stia agendo in buona fede e non memorizza i dati, le vulnerabilità del software sono tenuti a venire. Se il software raccoglie dati, le vulnerabilità sono destinate a comparire. Apple non lo cambierà.

Lo amerò se mi sbaglio, ma sono d'accordo: sarà un futuro triste.

[Edit typo.]

Questa voce è stata modificata (1 anno fa)

reshared this