Fin dagli albori dell’indagine scientifica sui fenomeni naturali, la costruzione di modelli semplificati della realtà fisica ha costituito uno strumento essenziale per studiare sistemi più o meno complessi. Tipicamente, i modelli catturano le caratteristiche essenziali di un sistema, consentendo di esplorare le leggi che ne governano il comportamento: un buon modello, pur essendo inevitabilmente un’approssimazione della realtà, deve riuscire a descrivere in modo sufficientemente preciso e rigoroso il sistema che vuole rappresentare. Oggi, la possibilità di avere a disposizione strumenti informatici e di calcolo molto avanzati offre l’opportunità a ricercatrici e ricercatori di modellizzare con uno straordinario livello di dettaglio un gran numero di sistemi complessi, sia per studiare problemi di fisica fondamentale, sia per applicazioni.
Un settore fondamentale è rappresentato dalle simulazioni computazionali, che permettono (grazie a potenti supercomputer) di ricreare il comportamento di sistemi fisici in modo dettagliato. Ciò è molto utile per esempio per simulare “in anticipo” i possibili risultati di un esperimento, orientando così la stessa definizione degli obiettivi sperimentali e confrontando poi le previsioni della simulazione con i dati reali. Anche nella fisica teorica le simulazioni sono importanti: la teoria delle interazioni forti, la QCD, discretizzata su un reticolo di punti dello spazio-tempo, può essere simulata per ottenere predizioni numeriche di processi fisici che non sono calcolabili altrimenti.
Un altro aspetto chiave delle simulazioni è la capacità di esplorare scenari che non possono essere riprodotti sperimentalmente: gran parte della ricerca in ambito astrofisico si basa su simulazioni, che possono modellare per esempio l’evoluzione delle galassie su scale temporali molto lunghe, consentendo ai ricercatori di studiare processi altrimenti impossibili da osservare direttamente. Un altro esempio molto importante dell’uso di modelli e simulazioni è rappresentato dalla fisica dell’atmosfera e dalla climatologia, dove l’integrazione di una vasta gamma di dati atmosferici, terrestri e oceanici può consentire di prevedere le variazioni climatiche nel tempo e i loro potenziali impatti sui sistemi ecologici e sociali.
I computer quantistici sono da tempo considerati una sorta di “santo graal” dell’innovazione tecnologica, capaci di rivoluzionare il mondo informatico e l’intera società grazie alle loro applicazioni.
I computer e i supercomputer sono oggi strumenti essenziali per la ricerca in fisica, allo scopo di analizzare dati sperimentali e implementare modelli teorici utili a studiare fenomeni spesso molto complessi, impossibili da indagare con strumenti analitici tradizionali.
L’aumento della sensibilità e dell’efficienza degli esperimenti di fisica, unita all’utilizzo di un’elettronica sempre più tecnologicamente avanzata, ha portato negli ultimi decenni a un’esplosione della quantità di dati raccolti durante gli esperimenti.
L‘INFN ha da molti anni sviluppato una propria infrastruttura dedicata al calcolo scientifico. Sia l’analisi dei dati prodotti dai grandi esperimenti che le simulazioni teoriche hanno infatti bisogno di potenza di calcolo, di grandi quantità di storage e di reti ultraveloci.
L’integrazione dell’apprendimento automatico o machine learning – ossia la capacità di una macchina di apprendere e migliorare le proprie performance con l’esperienza – nella modellizzazione di sistemi fisici e nell’analisi dei dati sperimentali sta offrendo opportunità molto interessanti (in alcuni casi rivoluzionarie) per la comunità scientifica.