Negli ultimi anni la produzione di dati ha visto una vera e propria impennata: nel 2021 sono stati registrati 79 zettabyte globali, mentre per il 2025 ne sono previsti addirittura 181.
Una quantità d’informazione mai vista prima d’ora, che comprende anche la produzione di apparecchi per l’Internet of things (Iot) e di sensori hardware/software. A cambiare è anche la natura stessa dell’informatica, con un numero crescente di applicazioni critiche ad alta intensità di dati e la necessità sempre più impellente di trovare standard comuni. Completano un quadro complesso ma stimolante le nuove regole europee, che modificano lo scenario nel tentativo di regolarlo.
Una delle tecnologie che puo’ essere impiegata per gestire questa enorme quantità di dati è quella dei supercomputer. Denominati anche High-performance computing (Hpc), si tratta di strumenti davvero utili per elaborare e analizzare i dati che oggi vengono prodotti sempre più velocemente e presentano anche una notevole varietà. L’elaborazione di queste informazioni permette di sfruttarle al meglio, è un processo che porta vantaggi a tutti i settori della società e dell’economia.
L’Hpc contribuisce allo sviluppo di nuove applicazioni e prodotti, ma rappresenta uno strumento valido anche per la gestione e il monitoraggio della finanza, del trading, della catena di approvvigionamento digitale, della progettazione di nuovi materiali e del clima. Non sembra esserci un settore che non possa trarre vantaggio da questa tecnologia.
I supercomputer rappresentano quindi una risorsa chiave, che molti paesi stanno finanziando e gestendo. L’Unione europea, per esempio, considera l’Hpc come un elemento fondamentale per il “decennio digitale” ed ha investito ben 7 miliardi di euro di finanziamenti provenienti da Horizon Europe, dal Programma Europa digitale e dal connecting Europe facility.
Il settore dei supercomputer vive forti trasformazioni quasi quotidianamente, ma il trend più evidente in questo periodo è lo spostamento sempre più rapido di una gran parte dei supercomputer nel cloud.
Satish Kanagala, vicepresidente della società americana produttrice di software e servizi informatici Altair Engineering, ha spiegato che si tratta di una trasformazione molto importante “perché consente sia di avere modelli ibridi – con supercomputer sia presenti in azienda che risorse utilizzabili nel cloud – che totalmente nel cloud. Questo cambia la struttura dei costi e permette l’accesso a risorse di supercalcolo nel cloud anche alle piccole e medie imprese, soggetti che un tempo non avrebbero potuto permettersi l’acquisto di un supercomputer fisico”.
Oggi il panorama vede lo spostamento dei supercomputer nel cloud e l’esistenza di modelli ibridi, ma il futuro si delinea ancora più interessante con due tecnologie e fare da protagoniste: l’Intelligenza Artificiale e l’edge computing.
L’edge computing è una strategia il cui scopo è spostare in periferia l’esecuzione dei calcoli. Il “peso” dell’elaborazione viene quindi spostato più vicino all’utente finale di un determinato servizio grazie a processori sempre più potenti. Questo spostamento sostituisce il cloud ed i centri di calcolo dedicati. Adesso, grazie alle nuove generazioni di processori capaci di eseguire i calcoli necessari per far funzionare l’Intelligenza Artificiale, è diventato possibile svolgere i calcoli per il riconoscimento di un comando vocale o l’elaborazione di una foto direttamente sul dispositivo finale. Più veloce e pratico, questo sistema semplifica molto i problemi di privacy perché i dati non abbandonano mai i dispositivi degli utenti.
La collaborazione tra cloud e Hpc, nel frattempo, è indubbiamente vantaggiosa. Kanagala ha dichiarato che la sua azienda ha “costruito un software middleware per il funzionamento del sistema di Hpc in maniera che sia completamente neutrale. Infatti possiamo spostarci da Amazon web service ad Azure, a Oracle, e Google cloud senza nessun problema, e in maniera trasparente per i clienti […] l’aspetto più importante non è l’Hpc di per sé, che comunque continuerà a cambiare ed evolvere, ma il meccanismo di delivery, ossia il modello che c’è dietro e fa sì che l’Hpc sia consumabile dai clienti. È questo che è fondamentale per le aziende e che porta la vera innovazione. Alla fine, quando arriverà il computer quantistico, sarà sempre una questione di delivery e consumo delle risorse”.
M.M.