Da TPU a Trainium, da Maia ai chip “in casa”: l’AI entra nell’era multi-acceleratore (e l’Europa prova a giocare la carta della sovranità di calcolo).
(Foto: a sinistra Jensen Huang, Ceo di Nvidia).
Per anni è sembrato che l’intelligenza artificiale avesse un unico motore “naturale”: le GPU di Nvidia. Oggi quel motore resta potentissimo, ma non è più l’unico in officina.
Il cambiamento è sotto gli occhi di chiunque paghi una fattura cloud o provi a prenotare capacità per addestrare modelli: attorno al calcolo AI sta nascendo un
mercato più competitivo, più frammentato e molto più politico.
Il punto non è che Nvidia “crolla”. Il punto è che i grandi consumatori di chip — i colossi del cloud e dell’AI — hanno deciso che dipendere da un solo fornitore
è un lusso che non si possono più permettere. E così, mentre Nvidia continua a correre, gli altri hanno iniziato a costruire strade alternative.
Perché Nvidia è diventata “la” piattaforma
La leadership di Nvidia non nasce solo dai transistor. È una storia di ecosistema: tool, librerie, ottimizzazioni, comunità di sviluppatori,
framework, driver e best practice. In una parola che nel settore pesa quanto una fabbrica: CUDA.
Questo “effetto piattaforma” ha creato un vantaggio pratico: quando un team deve mettere in produzione un modello, tende a scegliere ciò che
“funziona subito”, si integra con tutto e ha una filiera di competenze già formate. Ma proprio quel vantaggio si è trasformato nel bersaglio principale
dei concorrenti: non basta fare un chip veloce, bisogna rendere semplice usarlo.
La controffensiva degli hyperscaler: chip su misura e controllo dei costi
Il primo segnale della nuova fase è arrivato dai “padroni di casa” del cloud: Google, Amazon e Microsoft. La logica è brutale e lineare:
se sei tu a comprare (o affittare) enormi volumi di calcolo, vuoi decidere architettura, disponibilità, ottimizzazione e prezzo.
Google: TPU e l’assalto al problema chiave, la compatibilità software
Google lavora da anni sulle TPU, acceleratori progettati espressamente per il machine learning. La novità più interessante, però,
è meno “silicio” e più “ponte”: l’obiettivo è far girare meglio il mondo PyTorch sulle TPU, riducendo la frizione che ha finora favorito
Nvidia (dove PyTorch è storicamente “a casa”).
Secondo un’inchiesta Reuters, Google sta spingendo un progetto interno per migliorare l’esperienza PyTorch su TPU
e sta collaborando con Meta, attore chiave dell’ecosistema PyTorch: un’alleanza che, se funziona, non “uccide” Nvidia,
ma rende più economico cambiare strada.
Amazon: Trainium e Inferentia, il cloud che vuole smettere di pagare il pedaggio
AWS ha una strategia quasi didattica: separare il mondo dell’AI in due grandi capitoli — training e inference —
e offrire chip dedicati. Con Trainium2 (disponibilità annunciata il 3 dicembre 2024) AWS spinge l’idea di una
migliore “price performance” rispetto alle opzioni precedenti in cloud, e con la piattaforma Neuron prova a costruire
un’esperienza da “ecosistema”, non solo da componentistica.
Sullo sfondo c’è anche la geopolitica dell’infrastruttura AI: il Financial Times (articolo pubblicato a metà dicembre 2025) ha raccontato
colloqui preliminari su un possibile investimento di Amazon in OpenAI legato anche all’uso di chip AWS. In parallelo,
Data Center Dynamics ha riportato che l’ipotesi di un accordo includerebbe l’adozione delle soluzioni custom di AWS:
segnale che la partita non è solo “chi vende chip a chi”, ma chi controlla la capacità di calcolo.
Microsoft: Maia, il chip interno per non restare prigionieri della domanda
Microsoft ha annunciato Maia 100 nel contesto di Ignite e ha poi pubblicato dettagli tecnici e di approccio
“silicon-to-systems” in un approfondimento ufficiale .
L’idea è chiara: se Copilot e i servizi AI diventano infrastruttura quotidiana, l’azienda vuole una parte della catena sotto controllo.
Qui c’è una differenza importante rispetto a Google e Amazon: la disponibilità esterna su larga scala è meno esplicita.
Maia è soprattutto un tassello per ottimizzare workload interni e stabilizzare costi e disponibilità su Azure.
Il fronte “merchant”: AMD e l’arte di scardinare CUDA senza chiamarla guerra
Se gli hyperscaler giocano in casa, AMD punta a essere l’alternativa “generalista” nel data center: acceleratori della linea Instinct,
più piattaforma software ROCm. Il messaggio è pragmatico: prestazioni e memoria per il training moderno, ma soprattutto
un percorso di migrazione che riduca il costo di cambiare hardware.
La roadmap è stata ribadita in documenti e presentazioni corporate legate agli eventi “Advancing AI” (materiali AMD datati),
con enfasi su nuove generazioni di acceleratori e aggiornamenti dello stack software. Non è solo competizione su TFLOPS:
è competizione su tempo di porting, stabilità, tool di debugging, librerie ottimizzate.
Il ritorno degli ASIC: Broadcom, “custom silicon” e la tentazione del chip su misura
C’è poi una categoria che sta crescendo in silenzio: i chip progettati per un cliente specifico. Qui entrano in scena
player come Broadcom (e l’ecosistema dei partner di progettazione e packaging) con acceleratori cuciti su misura
per workload ripetibili e volumi enormi.
Nel caso di OpenAI, Reuters ha riportato che l’azienda stava accelerando sul design del suo primo chip interno
per ridurre la dipendenza da Nvidia, con un team dedicato e una tabella di marcia orientata alla produzione.
Il senso industriale è evidente: se il costo del calcolo è la voce più pesante, progettare anche solo una parte della filiera può cambiare i conti.
Training contro inference: la frattura che ridisegna il mercato
Un motivo per cui l’ecosistema si diversifica è che l’AI non è un monolite. Addestrare modelli giganteschi richiede molta memoria,
interconnessioni rapidissime e un software stack maturo; ma quando quei modelli arrivano agli utenti,
l’inference diventa una fabbrica fatta di volumi, latenza e costo per richiesta.
In questo contesto, è più facile vedere una convivenza: Nvidia forte nei cluster di training e nei sistemi integrati,
mentre acceleratori alternativi — spesso più mirati — guadagnano terreno dove conta il costo per output.
La frammentazione non è un incidente: è una conseguenza naturale di workload diversi.
Che cosa cambia davvero: prezzi, disponibilità e potere negoziale
La concorrenza non promette miracoli, ma produce tre effetti concreti:
-
Più opzioni di fornitura: se un acceleratore è introvabile o troppo caro, il cliente può negoziare sapendo che esiste un “piano B”.
-
Nuove dipendenze software: il lock-in non sparisce, si sposta. Ogni stack (CUDA, Neuron, TPU toolchain, ROCm) cerca di diventare lo standard.
-
Design dei data center: energia, raffreddamento e rete diventano parte della strategia. Non vince solo chi ha il chip migliore,
ma chi offre sistemi e integrazione.
Europa e Italia: la parola chiave è sovranità di calcolo
Se l’AI è infrastruttura, la domanda non è più solo “quanto costa?”, ma “chi la controlla?”.
In Europa il tema si traduce spesso in un’espressione destinata a diventare comune: compute sovereignty.
Sul piano pubblico, l’UE ha messo in fila strumenti e iniziative: il Chips Act è entrato in vigore e punta a rafforzare la resilienza della filiera dei semiconduttori.
Sul fronte specifico dell’AI, la rete EuroHPC sta costruendo un modello “infrastruttura + servizi” con le AI factories:
l’iniziativa è stata lanciata nel 2024 e nel dicembre 2024 sono stati selezionati i primi Paesi ospitanti; ulteriori selezioni sono state
annunciate nel 2025.
E c’è anche una dimensione finanziaria: la BEI ha comunicato un lavoro congiunto con la Commissione
per sostenere la nascita di AI gigafactories, esplicitando l’obiettivo di rafforzare indipendenza tecnologica e competitività.
Tradotto: il calcolo non è più solo “capex da data center”, è politica industriale.
Per l’Italia la partita è doppia: attrarre capacità (cluster, cloud region, supercalcolo) e formare competenze in grado di far girare modelli
su architetture diverse. Nella nuova era multi-acceleratore, chi sa orchestrare workload tra piattaforme differenti
avrà un vantaggio che vale quanto un brevetto.
La sintesi: il futuro è multi-chip, ma non per forza “anti-Nvidia”
L’idea più realistica non è un mondo “post-Nvidia”. È un mondo multi-acceleratore, in cui Nvidia resta un perno,
ma perde l’esclusiva psicologica e contrattuale. Google lavora per abbassare la barriera software, AWS spinge i suoi chip per addestramento e inference,
Microsoft ottimizza i propri workload, AMD alza la posta sul fronte “alternativa generalista”, e OpenAI esplora vie per controllare il costo del calcolo.
Il risultato finale è un ecosistema dove la potenza non si misura solo in prestazioni, ma in tre parole:
disponibilità, portabilità e governance.