Salta al contenuto

Google presenta chip per l'addestramento e l'inferenza dell'IA

Con l'ottava generazione di TPU.

In breve:

Google ha deciso di separare in due processori diversi funzioni che finora gestiva con lo stesso chip: l’addestramento dei modelli AI, cioè la fase in cui il sistema impara dai dati, e l’inferenza, cioè la generazione delle risposte agli utenti. La scelta arriva con l’ottava generazione delle TPU, i processori sviluppati internamente da Google e offerti anche nel cloud. L’azienda punta così a migliorare efficienza e costi in un mercato dominato da Nvidia, in cui la domanda di chip capaci di gestire milioni di agenti software con tempi di risposta ridotti è sempre più crescente.

Questo testo è un riassunto del seguente articolo (eng):

Google unveils chips for AI training and inference in latest shot at Nvidia
Google is packing ample amounts of static random access memory into a dedicated chip for running artificial intelligence models, following Nvidia’s plans.

Riassunto completo:

Questo post è solo per gli iscritti

Accedi

A quanto pare non sei loggato.

Più recenti