n.3 | Giugno 2025

Alte prestazioni, minore impatto:
il futuro del calcolo

Negli ultimi anni, la consapevolezza dell’importanza della sostenibilità come obiettivo fondamentale per il nostro futuro si è diffusa sempre di più tra l’opinione pubblica, le comunità scientifiche e le istituzioni. L’urgenza di mitigare i cambiamenti climatici ha spinto le comunità scientifiche ad affrontare la sostenibilità non solo come fenomeno da studiare ma anche come tema cruciale da incorporare in tutti i grandi progetti scientifici futuri. Dallo sviluppo di tecnologie per l’efficientamento energetico alla eco-progettazione delle nuove grandi infrastrutture di ricerca, passando per l’ideazione di strumenti per la comprensione e gestione delle sfide ambientali globali, la comunità della fisica si sta impegnando sulla questione sia direttamente sia indirettamente. Sempre più di attualità è il tema del calcolo per la sostenibilità ma anche, rovesciando la prospettiva, della sostenibilità del calcolo. Se infatti le modellizzazioni prodotte grazie al supercalcolo e all’intelligenza artificiale ci permettono di fronteggiare fenomeni complessi come le epidemie o gli impatti del cambiamento climatico, i centri di calcolo impiegano computer sempre più potenti per realizzarle. Questi computer, estremamente energivori, hanno un impatto energetico importante, e si prevede un costante aumento della loro domanda di energia nei prossimi anni; perciò, pur rappresentando una risorsa per la sostenibilità, pongono essi stessi un problema di sostenibilità ambientale. Di supercalcolo, prospettive future e gestione della crescente richiesta di energia dei data center, parliamo approfonditamente nell’intervista a Marco Aldinucci, coordinatore dell’High-Performance Centre for Artificial Intelligence (HPC4AI) dell’Università di Torino e co-leader dello Spoke 1 del Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC).

marco aldinicci

Marco Aldinucci è professore ordinario di Informatica e coordinatore del gruppo di ricerca sul Calcolo Parallelo presso l’Università di Torino. Ha fondato il laboratorio HPC4AI@UNITO e il laboratorio nazionale HPC del consorzio CINI di cui è direttore. È co-leader dello Spoke 1 del Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC), dedicato allo sviluppo di tecnologie altamente innovative, sia hardware sia software, per i supercalcolatori e i sistemi di calcolo del futuro

Intervista a

Marco Aldinucci

Intervista a Marco Aldinucci, coordinatore dell’High-Performance Centre for Artificial Intelligence (HPC4AI) dell’Università di Torino e co-leader dello Spoke 1 di ICSC, dedicato all’High Performance Computing (HPC) e ai Big Data

Di che cosa parliamo quando facciamo riferimento a HPC?

High Performance Computing significa usare una potenza di calcolo molto elevata per risolvere un problema più velocemente o per risolvere un problema più grande rispetto a quello di partenza nello stesso tempo. Nel primo caso, l’HPC entra in gioco per risolvere problemi scientifici o industriali in cui il valore dell’informazione degrada col tempo. Ne sono un esempio le previsioni meteorologiche o le simulazioni di fenomeni naturali che abilitano scenari operativi, la chimica farmaceutica e la scienza dei materiali, in cui la complessità del calcolo è enorme e occorre completare l’analisi in tempo ragionevole.

Nel secondo caso, invece, l’HPC consente di risolvere problemi in cui la griglia di calcolo è resa più fitta, per cui aumenta il numero di calcoli e la dimensione del problema. Rimanendo sulle previsioni meteorologiche, potrei aver bisogno di passare da una griglia di 1 km per 1 km a una griglia di 100 metri per 100 metri o di 1 metro per 1 metro, perché magari devo prevedere una bomba d’acqua o se un’auto a guida autonoma troverà ghiaccio a un determinato incrocio. Oppure, guardando all’Intelligenza Artificiale (IA), potrei voler aumentare il numero di parametri del mio Large Language Model (LLM) per renderlo capace di affrontare problemi più complessi, e quindi passare dalla traduzione di un testo al ragionamento, al capire l’ironia. Per farlo avrò bisogno di un modello più grande: dovrò passare da 7 a 70, o addirittura a 700 miliardi di parametri, che vuol dire una matrice con 700 miliardi di celle, una crescita non lineare in termini di tempo di calcolo (la complessità dell’operazione base, la moltiplicazione di matrici dense, è cubica), e una moltiplicazione dello spazio occupato. Se infatti per il modello base di computer, il laptop, la potenza si ottiene attraverso miniaturizzazione, nel caso di un computer che sia un milione di volte più potente di un laptop, non disponiamo di una tecnologia in grado di miniaturizzare un milione di volte in più. Allora, per ovviare al problema, poniamo uno di fianco all’altro tanti sistemi, fino a occupare un’area pari a un campo di calcio. A volte, scherzando, quando qualcuno mi chiede che cos’è HPC, rispondo “se si vede dal satellite è HPC”, ma potrei dire anche “se consuma più di 1 megawatt è HPC”. Insomma, è una roba grossa, e anche energivora.

Leggi l'intervista Leggi l'intervista

ISCRIVITI ALLA NEWSLETTER INFN

Per iscriverti gratuitamente alla newsletter INFN compila i campi sottostanti e invia. I campi con * sono obbligatori. Puoi annullare l'iscrizione in qualsiasi momento scrivendo a scrivi per grafica@list.infn.it con oggetto "Disiscrizione Newsletter INFN"

"*" indica i campi obbligatori

Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.

Particle Chronicle © 2025 INFN

Archivio Newsletter

REDAZIONE
Coordinamento  Martina Galli;
Progetto e contenuti Martina Bologna, Cecilia Collà Ruvolo, Eleonora Cossi,
Francesca Mazzotta, Antonella Varaschin;
Design e coordinamento tecnico Francesca Cuicchio; ICT service SSNN INFN