In breve:
Google ha deciso di separare in due processori diversi funzioni che finora gestiva con lo stesso chip: l’addestramento dei modelli AI, cioè la fase in cui il sistema impara dai dati, e l’inferenza, cioè la generazione delle risposte agli utenti. La scelta arriva con l’ottava generazione delle TPU, i processori sviluppati internamente da Google e offerti anche nel cloud. L’azienda punta così a migliorare efficienza e costi in un mercato dominato da Nvidia, in cui la domanda di chip capaci di gestire milioni di agenti software con tempi di risposta ridotti è sempre più crescente.
Questo testo è un riassunto del seguente articolo (eng):
Google unveils chips for AI training and inference in latest shot at Nvidia
Google is packing ample amounts of static random access memory into a dedicated chip for running artificial intelligence models, following Nvidia’s plans.
