Qualcomm ha annunciato il lancio dei suoi nuovi chip acceleratori per l’intelligenza artificiale, segnando l’ingresso ufficiale nel settore dei semiconduttori per data center, finora dominato da Nvidia. La notizia ha spinto il titolo Qualcomm a un rialzo dell’11%. La società, storicamente concentrata sui processori per la connettività wireless e i dispositivi mobili, punta ora al comparto più dinamico della tecnologia: l’infrastruttura hardware per l’intelligenza artificiale. I nuovi chip, denominati AI200 e AI250, arriveranno sul mercato rispettivamente nel 2026 e nel 2027 e saranno disponibili in configurazioni complete per server rack raffreddati a liquido, paragonabili ai sistemi ad alte prestazioni già offerti da Nvidia e AMD.
La strategia di Qualcomm
Secondo Durga Malladi, general manager di Qualcomm per data center ed edge computing, l’azienda ha voluto prima consolidare la propria leadership in ambiti come la telefonia mobile, per poi “salire di livello” verso le infrastrutture di calcolo più complesse. I nuovi chip si basano sulla tecnologia Hexagon NPU, già impiegata negli smartphone dell’azienda, ma ora adattata per fornire potenza di calcolo su scala rack. Questa evoluzione riflette la crescente domanda globale di infrastrutture AI: secondo le stime McKinsey, circa 6.700 miliardi di dollari saranno investiti in data center entro il 2030, la maggior parte dei quali destinata a sistemi basati su chip di intelligenza artificiale.
Efficienza, flessibilità e inferenza: i punti di forza di Qualcomm
A differenza di Nvidia, che domina il segmento dell’addestramento dei modelli AI, Qualcomm punta principalmente all’inferenza, ovvero l’esecuzione di modelli già addestrati. I nuovi chip sono progettati per offrire alte prestazioni con consumi energetici contenuti e un costo totale di proprietà (TCO) inferiore. Un rack basato su AI200 o AI250 assorbe circa 160 kW, un livello competitivo rispetto ai sistemi GPU di Nvidia. Le soluzioni offrono fino a 768 GB di memoria per scheda, superando i principali concorrenti, e introducono un’architettura di memoria innovativa nel modello AI250, capace di migliorare di oltre 10 volte la larghezza di banda effettiva e ridurre i consumi.
Un ecosistema software aperto
Oltre all’hardware, Qualcomm propone un ecosistema software completo, ottimizzato per l’inferenza AI e compatibile con i principali framework di machine learning e intelligenza artificiale generativa. La suite Qualcomm AI Inference consente il dispiegamento diretto dei modelli di Hugging Face con un solo clic, semplificando l’adozione per aziende e sviluppatori. Con un piano di rilascio annuale per le nuove generazioni di chip, Qualcomm mira a consolidarsi come terzo polo nella corsa all’hardware per l’AI, accanto a Nvidia e AMD. Se la promessa di efficienza e flessibilità sarà mantenuta, il colosso dei semiconduttori mobile potrebbe presto diventare un attore molto importante nella prossima fase della rivoluzione dell’intelligenza artificiale.