top of page

ARGOMENTI

GPU PER SVILUPPO DELLE AI: NVIDIA REGISTRA UN +160% NEL 2023


Originariamente fondata come produttrice di GPU, Nvidia l'impresa statunitense occupa adesso un primato nella produzione dell'hardware dedicato all'intelligenza artificiale.

Secondo il CTO Michael Kagan: “L’IA è lo strumento più potente che l’umanità abbia mai avuto a disposizione”.


"Ritengo che stiamo vivendo un vero e proprio punto di svolta. L'espressione "Momento iPhone dell’intelligenza artificiale" mi sembra particolarmente indicata per descrivere l'epoca attuale": così ha dichiarato Michael Kagan, il Chief Technology Officer di Nvidia.

Egli è certo che l'ondata dell’IA non sia né una moda effimera né un fenomeno passeggero.

"L'IA sta portando a un reale cambiamento delle cose, analogamente a quanto accadde con l'avvento dell'iPhone, che rivoluzionò le vere potenzialità degli smartphone", ha sottolineato durante un'intervista a Italian Tech.

Cerchiamo di capire come Nvidia, una società famosa per le sue schede grafiche per il gaming, sia riuscita a guadagnarsi un posto d'onore in questo settore di sviluppo tecnologico.

Per essere più precisi, l’azienda senza la quale l’attuale rivoluzione dell’IA non sarebbe stata possibile.


Le GPU per le AI

Non è un’esagerazione: già nel 2019 si poteva trovare una GPU Nvidia praticamente in tutti i centri di elaborazione dei maggiori provider di cloud computing utilizzati per applicazioni IA, da Amazon AWS a Google, da Azure ad Alibaba.


Nel 2016, OpenAI optò per l'hardware Nvidia (un DGX AI) per formare le prime edizioni di ChatGPT. Ora, sia GPT-3.5 che GPT-4 operano sui supercomputer di Microsoft Azure, una struttura che, secondo quanto riportato da Redmond, comprende “migliaia di GPU Nvidia, ottimizzate per l'IA e connesse in una rete ad alta capacità e bassa latenza, basata su componenti di comunicazione Nvidia Quantum InfiniBand”.


Anche le finanze dell'azienda rispecchiano il suo rinnovato ruolo: sebbene Nvidia attribuisca ancora una quota significativa dei suoi ricavi all'hardware per il gaming (approssimativamente il 34%), nel 2022 ha avuto luogo un'importante inversione di tendenza.

Il settore enterprise e dei data center è cresciuto di oltre il 40% e l'anno passato, con i suoi 15 miliardi di dollari di entrate, ha rappresentato più della metà del fatturato totale.

Alla variazione della composizione del fatturato ha contribuito anche un ulteriore elemento, ossia la diminuzione dell'interesse nel cosiddetto mining di criptovalute, un'altra attività computazionale per la quale le schede grafiche di Nvidia (soprattutto quelle destinate al gaming) si sono rivelate eccezionalmente efficienti.



Dalle schede video per il gaming allo sviluppo delle AI

"Sì, è corretto affermare che Nvidia ha avuto origine come compagnia di schede e chip grafici, ma se vogliamo semplificare, la nostra attività principale è sempre stata l'accelerazione del calcolo - ci ha detto Kagan - In passato, l'applicazione principale era la grafica e la visualizzazione di immagini, processi che necessitano di gestire in parallelo un'immensa mole di dati.


Poi, circa vent'anni fa, è nato un nuovo metodo di elaborazione dati, ovvero le reti neurali.


Anche qui, c'è un'enorme quantità di dati da processare simultaneamente nel modo più efficiente possibile.

Quindi, l'esperienza acquisita nel campo della grafica poteva essere applicata a questo tipo di calcolo: Nvidia era in grado di fornire gli strumenti appropriati, e ha saputo farlo brillantemente".

Tuttavia, mentre Kagan ritiene che i vantaggi dell'intelligenza artificiale per l'umanità siano chiaramente positivi, il suo giudizio sulle criptovalute, parlando di mining è decisamente più critico: secondo il CTO, le criptomonete hanno portato pochi benefici all'umanità. Forse volendo sottolineare i consumi eccessivi generati dal mining di Ethereum e altri token che sfruttavano le GPU.


Pertanto, sebbene Nvidia abbia venduto le sue schede grafiche a molti miners (dopotutto, il business è business), l'azienda non ha mai ripensato la sua strategia aziendale per favorire questa tendenza, a differenza di quanto sta accadendo ora per l'intelligenza artificiale.


I Big Data Center di Nvidia

Per avere un'idea della mole di dati di cui parliamo quando ci riferiamo alla computazione per l'intelligenza artificiale, è sufficiente considerare l'esempio di OpenAI: GPT-3, lanciato nel 2020, è stato addestrato su 175 miliardi di parametri con un costo di training stimato superiore ai 4 milioni di dollari.

L'addestramento di GPT-4, l'ultima edizione del modello linguistico, ha comportato un insieme di dati di oltre 1000 miliardi di parametri.

"È evidente che per queste esigenze di calcolo non ci sono CPU che reggano. La legge di Moore è praticamente al capolinea, presto non sarà più possibile raddoppiare il numero di transistor in un chip mantenendo gli stessi costi, ma al contempo la richiesta per le capacità di elaborazione sta letteralmente esplodendo.

Noi forniamo quindi una risposta attraverso l'ottimizzazione dei processi grazie alle GPU - ha aggiunto Kagan - Va sottolineato che i computer che realizziamo per questi scopi non sono esattamente come i PC che si trovano sulle scrivanie, ma supercomputer che installiamo in strutture grandi quanto un hangar".


Cosa sarà in grado di fare Nvidia nei prossimi mesi? A quali ulteriori sviluppi assisteremo da parte delle Intelligenze artificiali?


Comments


POST RECENTI

bottom of page