Nvidia sta costruendo di nuovo nuove CPU Arm: Nvidia Grace, per il data center

Per anni abbiamo a malapena sentito una sbirciatina da Nvidia sul fronte della CPU, dopo l’arrivo poco brillante della sua CPU Project Denver e dei suoi processori mobili Tegra K1 associati nel 2014. Ma ora, l’azienda sta tornando alle CPU in grande stile con la nuova Nvidia Grace, un chip di elaborazione basato su ARM specificamente progettato per i data center AI.

È un buon momento per Nvidia per mostrare il suo braccio: attualmente sta cercando di acquistare Arm stesso per $ 40 miliardi, proponendolo specificamente come un tentativo “di creare la principale azienda informatica al mondo per l’era dell’intelligenza artificiale”, e questo chip potrebbe essere primo punto di prova. Arm sta vivendo un momento anche nello spazio dei computer consumer, dove i chip M1 di Apple hanno recentemente ribaltato il nostro concetto di prestazioni dei laptop. È anche più concorrenza per Intel, ovviamente, le cui azioni sono diminuite dopo l’annuncio di Nvidia.

La nuova Grace prende il nome dal pioniere dell’informatica Grace Hopper, e arriverà nel 2023 per portare “10 volte le prestazioni dei server più veloci di oggi sui carichi di lavoro di AI e di calcolo ad alte prestazioni più complessi”, secondo Nvidia. Ciò lo renderà attraente per le società di ricerca che costruiscono supercomputer, naturalmente, quali lo Swiss National Supercomputing Center (CSCS) e il Los Alamos National Laboratory sei già registrato per creare anche nel 2023.

A Grace Next è già in programma anche per il 2025. Ecco una diapositiva dalla presentazione del GTC 2021 di Nvidia in cui ha annunciato la notizia:

Consiglierei di leggere cosa fanno i nostri amici AnandTech devi dire su dove Grace potrebbe inserirsi nel mercato dei data center e nelle ambizioni di Nvidia. Vale la pena notare che Nvidia non sta ancora rilasciando molto in termini di specifiche, ma Nvidia afferma che dispone di un NVLink di quarta generazione con un’interconnessione record di 900 GB / s tra CPU e GPU. “Fondamentalmente, questo è maggiore della larghezza di banda della memoria della CPU, il che significa che le GPU di NVIDIA avranno un collegamento coerente della cache alla CPU che può accedere alla memoria di sistema a piena larghezza di banda, consentendo anche all’intero sistema di avere una singola memoria condivisa spazio degli indirizzi “, scrive AnandTech.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *