Negli ultimi dieci anni, le infrastrutture iperconvergenti (HCI) — un modello di infrastruttura IT software-defined che combina risorse di calcolo, storage e networking in un unico sistema integrato — hanno rappresentato la via principale per accelerare prestazioni e scalabilità nei data center. Ma con l’esplosione dell’intelligenza artificiale, sta avvenendo un cambiamento significativo: le nuove tecnologie, in particolare la generative AI (GenAI), stanno alimentando una crescita straordinaria della domanda di data center pronti per l’AI. Entro il 2030, si prevede che i carichi di lavoro avanzati basati sull’AI rappresenteranno il 70% dell’intera domanda globale di data center.
L’AI ruota attorno ai dati non strutturati, che costituiscono la base di ogni fase del ciclo per l’intelligenza artificiale: dall’ingestione e preparazione dei dati (inclusa la vettorizzazione e l’etichettatura), al training, all’inferenza, alla generazione di contenuti e al monitoraggio. Con questi nuovi carichi di lavoro e le nuove esigenze, non sorprende che, secondo IDC, il volume annuale di dati generati sia destinato a più che raddoppiare, raggiungendo i 527,5 zettabyte (ZB) nel 2029.
Per le aziende che stanno adottando l’AI e i relativi carichi di lavoro, gestire quantità così elevate di informazioni diventa una sfida quando si utilizzano le HCI, poiché queste infrastrutture possono generare colli di bottiglia nell’accesso ai dati distribuiti su server diversi. Per superare tali inefficienze in termini di agilità e prestazioni, sta emergendo un’alternativa concreta alle HCI per le imprese orientate all’AI: lo storage disaggregato.
La flessibilità non è solo una caratteristica: è un elemento fondamentale
Per anni, le grandi aziende che utilizzavano infrastrutture HCI sono state costrette a scalare storage e capacità di calcolo insieme, aggiungendo interi nuovi server anche quando era necessario espandere solo uno dei due componenti. Un po’ come acquistare un’auto da sette posti per una famiglia di due persone, i responsabili IT si sono trovati a pagare e gestire operazioni molto più grandi del necessario.
Con l’aumento dei carichi di lavoro legati all’AI e il ruolo sempre più centrale del calcolo accelerato, le architetture dei data center e i sistemi di storage devono tenere il passo con la crescente domanda di memoria e capacità di elaborazione. Tuttavia, i sistemi di High Performance Computing (HPC) e AI, in continua e rapida evoluzione, presentano esigenze differenti per quanto riguarda i vari componenti hardware dell’infrastruttura IT. Da un lato, i nodi basati su CPU (Central Processing Unit) e GPU (Graphic Processing Unit) devono essere aggiornati ogni pochi anni per sostenere i requisiti dei carichi di lavoro AI. Dall’altro, soluzioni di storage come gli HDD ad alta capacità offrono garanzie più lunghe (fino a cinque anni), sono progettate per durare diversi anni in più e non richiedono aggiornamenti così frequenti. Sulla base di queste dinamiche, un numero crescente di organizzazioni sta spostando lo storage al di fuori dei server e adottando infrastrutture disaggregate per evitare sprechi di risorse. Le previsioni indicano che il mercato dello storage disaggregato più che raddoppierà entro il 2033, offrendo un modello caratterizzato da una flessibilità, un’efficienza e un risparmio sui costi senza precedenti.
Perché la disaggregazione conviene: comprendere il valore per il business
Nell’era dell’AI e nell’epoca degli zettabyte, i responsabili IT si aspettano molto di più dai propri sistemi di storage. Cercano soluzioni scalabili e a basso rischio, in grado di evolvere insieme all’azienda e di garantire un costo ottimizzato per terabyte ($/TB), una migliore efficienza energetica per TB (kW/TB), una maggiore densità di storage, alta qualità e l’affidabilità necessaria per operare su larga scala.
Lo storage disaggregato può essere la risposta, offrendo esattamente questa flessibilità nello scaling, guidata dalla domanda, per soddisfare i requisiti specifici dei carichi di lavoro del data center e delle esigenze di business. Separando storage e potenza di calcolo e combinandoli dinamicamente secondo necessità, i responsabili IT possono ottenere i seguenti vantaggi:
- Scalabilità indipendente di risorse di calcolo, storage e networking per adattarsi ai carichi di lavoro.
- Efficienza dei costi grazie alla riduzione dell’overprovisioning e all’ottimizzazione dell’infrastruttura per un migliore TCO.
- Adattamento flessibile alle richieste in rapido cambiamento in base alle priorità aziendali.
- Ottimizzazione delle prestazioni attraverso l’utilizzo di tecnologie come l’NVMe-oF™ per un flusso di dati ad alta velocità ed efficiente.
- Infrastruttura IT a prova di futuro che supporta la transizione verso il calcolo accelerato. Ciò viene ottenuto separando lo storage dal server per fare spazio a maggiori risorse di CPU, GPU e DPU (Data Processing Unit), in modo da soddisfare i requisiti di prestazioni dei moderni carichi di lavoro AI.
Per le grandi organizzazioni, le infrastrutture disaggregate aiutano a controllare i costi, aumentare le prestazioni e massimizzare l’efficienza IT.
Il futuro è lo storage disaggregato
Con lo storage disaggregato, le aziende possono abbracciare l’AI e l’HPC senza essere più vincolate alle architetture HCI. Per queste realtà, esiste un motivo chiaro per separare storage e calcolo in un approccio disaggregato, soprattutto se osservato attraverso la lente dell’efficienza. Con l’aumento delle imprese guidate dall’AI, una maggiore flessibilità all’interno dell’infrastruttura IT diventerà una necessità per il successo.
