In breve:
Anthropic, azienda dietro Claude, ha siglato un accordo cloud da decine di miliardi con Google, ottenendo accesso a un milione di TPU (unità di elaborazione tensoriale). Anthropic avrà quindi Google per le TPU, Amazon per i chip Trainium e Nvidia per le GPU.
Riassunto completo:
- Anthropic, un'azienda di intelligenza artificiale, ha ufficializzato una partnership cloud con Google per un valore stimato di decine di miliardi di dollari.
- L'accordo concede ad Anthropic l'accesso a un massimo di un milione di unità di elaborazione tensoriale (TPUs) progettate da Google, previste per portare online oltre un gigawatt di capacità di calcolo per l'intelligenza artificiale nel 2026.
- Anthropic adotta una strategia di infrastruttura multi-cloud, distribuendo i suoi modelli Claude su TPUs di Google, chip Trainium personalizzati di Amazon e GPU di Nvidia, assegnando ogni piattaforma a carichi di lavoro specifici.
- Questa architettura multi-cloud consente ad Anthropic di ottimizzare i costi, le prestazioni e i vincoli di potenza, dimostrando resilienza durante un recente blackout di AWS che non ha impattato i servizi di Claude.
- L'azienda sta registrando una crescita esplosiva, con ricavi annuali che si avvicinano ai 7 miliardi di dollari e un aumento di 300 volte delle aziende clienti (oltre 300.000) negli ultimi due anni.
- Amazon rimane il partner più profondamente integrato di Anthropic, avendo investito 8 miliardi di dollari (rispetto ai 3 miliardi confermati da Google) ed essendo il principale fornitore cloud per il suo supercomputer Project Rainier.
- Anthropic mantiene una posizione neutrale tra i fornitori di cloud, conservando il controllo sui pesi dei modelli, sui prezzi e sui dati dei clienti e non avendo esclusività con alcuna piattaforma.
Perché è importante?
Perché quest'anno stiamo assistendo a una caccia forsennata di potenza di calcolo, con accordi multimiliardari firmati dalle principali aziende AI — in prima linea, OpenAI.
TPU, GPU, chip Trainium
Le TPU (Tensor Processing Unit) sono chip progettati da Google apposta per addestrare e far funzionare modelli di intelligenza artificiale: sono molto efficienti nei calcoli con le reti neurali. Le GPU (Graphics Processing Unit), nate per i videogiochi, sono diventate lo standard per l’IA perché eseguono milioni di operazioni in parallelo. I chip Trainium, invece, sono l’equivalente sviluppato da Amazon per i propri server cloud: fanno lo stesso lavoro delle GPU ma sono ottimizzati per ridurre i costi e migliorare la velocità negli addestramenti dei modelli linguistici come Claude.
Questo testo è un riassunto del seguente articolo (eng):

Alternativa in italiano:

