OpenAI sceglie i chip TPU di Google per ridurre i costi e la dipendenza da Nvidia
OpenAI ha iniziato a utilizzare i chip TPU di Google al posto delle tradizionali schede grafiche Nvidia per ridurre i costi e la dipendenza da un singolo fornitore.
Secondo Reuters, questa è la prima volta che l’azienda noleggia potenza di calcolo da Google Cloud invece di affidarsi esclusivamente all’infrastruttura Microsoft e Oracle con GPU Nvidia.
In precedenza, OpenAI si affidava alle GPU Nvidia per gestire ogni aspetto , dall’addestramento all’erogazione di ChatGPT. Ora, l’azienda sta aggiungendo un altro importante partner per ridurre i rischi associati ai vincoli di fornitura e al predominio di un singolo fornitore. Sebbene Google non fornisca ancora le TPU più potenti, anche i modelli disponibili sono sufficienti per elaborare le query in modo efficiente e a un costo inferiore rispetto all’hardware Nvidia. La motivazione principale di questo passaggio è la riduzione dei costi di inferenza, ovvero la parte del lavoro del modello in cui interagisce con gli utenti.
Questa partnership è significativa anche per Google. Per la prima volta, l’azienda offre i suoi chip TPU non solo per uso interno, ma anche per clienti esterni. OpenAI ha già visto l’adesione di attori del calibro di Apple, Anthropic e Safe Superintelligence.
Google sta gradualmente rafforzando la sua posizione nel cloud computing e compete sempre più con Nvidia , impegnandosi a offrire alternative più convenienti e a cambiare gli equilibri di potere nel mercato dei chip di intelligenza artificiale.
L’accordo tra OpenAI e Google riflette una tendenza più ampia: il mercato dell’intelligenza artificiale sta diventando meno centralizzato, gli operatori cercano flessibilità e la concorrenza si sta intensificando. Ciò potrebbe avere un impatto sui costi dell’hardware, sul ritmo dello sviluppo tecnologico e sull’equilibrio di potere nel settore.
Questa decisione sottolinea l’importanza della diversificazione e della flessibilità nel mercato dell’intelligenza artificiale, dove la competizione si sta intensificando e gli operatori cercano soluzioni più efficienti e convenienti.
In generale, la tendenza verso una maggiore decentralizzazione e competizione nel mercato dell’intelligenza artificiale potrebbe portare a una riduzione dei costi e a un aumento dell’innovazione. Le aziende come OpenAI e Google stanno lavorando per offrire soluzioni più efficienti e convenienti, il che potrebbe avere un impatto positivo sull’intero settore. Inoltre, la scelta di OpenAI di utilizzare i chip TPU di Google potrebbe essere vista come un esempio di come le aziende stiano cercando di diversificare le loro forniture e ridurre la dipendenza da un singolo fornitore, al fine di mitigare i rischi associati ai vincoli di fornitura e al predominio di un singolo fornitore.
La conclusione principale è che il mercato dell’intelligenza artificiale sta subendo una trasformazione significativa, con una maggiore competizione e decentralizzazione che potrebbero portare a soluzioni più efficienti e convenienti.
L'articolo OpenAI sceglie i chip TPU di Google per ridurre i costi e la dipendenza da Nvidia proviene da il blog della sicurezza informatica.
Joe Vinegar reshared this.