
Alte prestazioni, minore impatto:
il futuro del calcolo
Negli ultimi anni, la consapevolezza dell’importanza della sostenibilità come obiettivo fondamentale per il nostro futuro si è diffusa sempre di più tra l’opinione pubblica, le comunità scientifiche e le istituzioni. L’urgenza di mitigare i cambiamenti climatici ha spinto le comunità scientifiche ad affrontare la sostenibilità non solo come fenomeno da studiare ma anche come tema cruciale da incorporare in tutti i grandi progetti scientifici futuri. Dallo sviluppo di tecnologie per l’efficientamento energetico alla eco-progettazione delle nuove grandi infrastrutture di ricerca, passando per l’ideazione di strumenti per la comprensione e gestione delle sfide ambientali globali, la comunità della fisica si sta impegnando sulla questione sia direttamente sia indirettamente. Sempre più di attualità è il tema del calcolo per la sostenibilità ma anche, rovesciando la prospettiva, della sostenibilità del calcolo. Se infatti le modellizzazioni prodotte grazie al supercalcolo e all’intelligenza artificiale ci permettono di fronteggiare fenomeni complessi come le epidemie o gli impatti del cambiamento climatico, i centri di calcolo impiegano computer sempre più potenti per realizzarle. Questi computer, estremamente energivori, hanno un impatto energetico importante, e si prevede un costante aumento della loro domanda di energia nei prossimi anni; perciò, pur rappresentando una risorsa per la sostenibilità, pongono essi stessi un problema di sostenibilità ambientale. Di supercalcolo, prospettive future e gestione della crescente richiesta di energia dei data center, parliamo approfonditamente nell’intervista a Marco Aldinucci, coordinatore dell’High-Performance Centre for Artificial Intelligence (HPC4AI) dell’Università di Torino e co-leader dello Spoke 1 del Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC).

Marco Aldinucci è professore ordinario di Informatica e coordinatore del gruppo di ricerca sul Calcolo Parallelo presso l’Università di Torino. Ha fondato il laboratorio HPC4AI@UNITO e il laboratorio nazionale HPC del consorzio CINI di cui è direttore. È co-leader dello Spoke 1 del Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing (ICSC), dedicato allo sviluppo di tecnologie altamente innovative, sia hardware sia software, per i supercalcolatori e i sistemi di calcolo del futuro
Marco Aldinucci
Intervista a Marco Aldinucci, coordinatore dell’High-Performance Centre for Artificial Intelligence (HPC4AI) dell’Università di Torino e co-leader dello Spoke 1 di ICSC, dedicato all’High Performance Computing (HPC) e ai Big Data
Di che cosa parliamo quando facciamo riferimento a HPC?
High Performance Computing significa usare una potenza di calcolo molto elevata per risolvere un problema più velocemente o per risolvere un problema più grande rispetto a quello di partenza nello stesso tempo. Nel primo caso, l’HPC entra in gioco per risolvere problemi scientifici o industriali in cui il valore dell’informazione degrada col tempo. Ne sono un esempio le previsioni meteorologiche o le simulazioni di fenomeni naturali che abilitano scenari operativi, la chimica farmaceutica e la scienza dei materiali, in cui la complessità del calcolo è enorme e occorre completare l’analisi in tempo ragionevole.
Nel secondo caso, invece, l’HPC consente di risolvere problemi in cui la griglia di calcolo è resa più fitta, per cui aumenta il numero di calcoli e la dimensione del problema. Rimanendo sulle previsioni meteorologiche, potrei aver bisogno di passare da una griglia di 1 km per 1 km a una griglia di 100 metri per 100 metri o di 1 metro per 1 metro, perché magari devo prevedere una bomba d’acqua o se un’auto a guida autonoma troverà ghiaccio a un determinato incrocio. Oppure, guardando all’Intelligenza Artificiale (IA), potrei voler aumentare il numero di parametri del mio Large Language Model (LLM) per renderlo capace di affrontare problemi più complessi, e quindi passare dalla traduzione di un testo al ragionamento, al capire l’ironia. Per farlo avrò bisogno di un modello più grande: dovrò passare da 7 a 70, o addirittura a 700 miliardi di parametri, che vuol dire una matrice con 700 miliardi di celle, una crescita non lineare in termini di tempo di calcolo (la complessità dell’operazione base, la moltiplicazione di matrici dense, è cubica), e una moltiplicazione dello spazio occupato. Se infatti per il modello base di computer, il laptop, la potenza si ottiene attraverso miniaturizzazione, nel caso di un computer che sia un milione di volte più potente di un laptop, non disponiamo di una tecnologia in grado di miniaturizzare un milione di volte in più. Allora, per ovviare al problema, poniamo uno di fianco all’altro tanti sistemi, fino a occupare un’area pari a un campo di calcio. A volte, scherzando, quando qualcuno mi chiede che cos’è HPC, rispondo “se si vede dal satellite è HPC”, ma potrei dire anche “se consuma più di 1 megawatt è HPC”. Insomma, è una roba grossa, e anche energivora.
Leggi l'intervista Leggi l'intervista- dall'11/5/2025Padova, Museo Giovanni PoleniMostra: Modelli. Il sapere in 3 dimensioni Mostra: Modelli. Il sapere in 3 dimensioni
- 25Padiglione Italia, EXPO 2025 Osaka - 15:30 (JST)Conferenza pubblica: Sardegna. Un Territorio di ScienzaConferenza pubblica: Sardegna. Un Territorio di Scienza
Attualità
Particle Chronicle © 2025 INFN
REDAZIONE
Coordinamento Martina Galli;
Progetto e contenuti Martina Bologna, Cecilia Collà Ruvolo, Eleonora Cossi,
Francesca Mazzotta, Antonella Varaschin;
Design e coordinamento tecnico Francesca Cuicchio; ICT service SSNN INFN