Salta al contenuto

Google e Anthropic annunciano un accordo cloud da miliardi di dollari

Adesso i principali fornitori sono Amazon, Nvidia e Google.

In breve:

Anthropic, azienda dietro Claude, ha siglato un accordo cloud da decine di miliardi con Google, ottenendo accesso a un milione di TPU (unità di elaborazione tensoriale). Anthropic avrà quindi Google per le TPU, Amazon per i chip Trainium e Nvidia per le GPU.

Riassunto completo:

  • Anthropic, un'azienda di intelligenza artificiale, ha ufficializzato una partnership cloud con Google per un valore stimato di decine di miliardi di dollari.
  • L'accordo concede ad Anthropic l'accesso a un massimo di un milione di unità di elaborazione tensoriale (TPUs) progettate da Google, previste per portare online oltre un gigawatt di capacità di calcolo per l'intelligenza artificiale nel 2026.
  • Anthropic adotta una strategia di infrastruttura multi-cloud, distribuendo i suoi modelli Claude su TPUs di Google, chip Trainium personalizzati di Amazon e GPU di Nvidia, assegnando ogni piattaforma a carichi di lavoro specifici.
  • Questa architettura multi-cloud consente ad Anthropic di ottimizzare i costi, le prestazioni e i vincoli di potenza, dimostrando resilienza durante un recente blackout di AWS che non ha impattato i servizi di Claude.
  • L'azienda sta registrando una crescita esplosiva, con ricavi annuali che si avvicinano ai 7 miliardi di dollari e un aumento di 300 volte delle aziende clienti (oltre 300.000) negli ultimi due anni.
  • Amazon rimane il partner più profondamente integrato di Anthropic, avendo investito 8 miliardi di dollari (rispetto ai 3 miliardi confermati da Google) ed essendo il principale fornitore cloud per il suo supercomputer Project Rainier.
  • Anthropic mantiene una posizione neutrale tra i fornitori di cloud, conservando il controllo sui pesi dei modelli, sui prezzi e sui dati dei clienti e non avendo esclusività con alcuna piattaforma.

Perché è importante?

Perché quest'anno stiamo assistendo a una caccia forsennata di potenza di calcolo, con accordi multimiliardari firmati dalle principali aziende AI — in prima linea, OpenAI.

TPU, GPU, chip Trainium

Le TPU (Tensor Processing Unit) sono chip progettati da Google apposta per addestrare e far funzionare modelli di intelligenza artificiale: sono molto efficienti nei calcoli con le reti neurali. Le GPU (Graphics Processing Unit), nate per i videogiochi, sono diventate lo standard per l’IA perché eseguono milioni di operazioni in parallelo. I chip Trainium, invece, sono l’equivalente sviluppato da Amazon per i propri server cloud: fanno lo stesso lavoro delle GPU ma sono ottimizzati per ridurre i costi e migliorare la velocità negli addestramenti dei modelli linguistici come Claude.

Questo testo è un riassunto del seguente articolo (eng):

Google and Anthropic announce cloud deal worth tens of billions of dollars
While Google is powering Anthropic’s next phase of compute expansion, Amazon remains its most deeply embedded partner.

Alternativa in italiano:

Anthropic sigla un accordo miliardario con Google per spingere Claude
Anthropic ha annunciato una nuova collaborazione strategica con Google Cloud che le dà accesso a un milione di unità di elaborazione tensoriale

Commenti

Più recenti