L’aumento della sensibilità e dell’efficienza degli esperimenti di fisica, unita all’utilizzo di un’elettronica sempre più tecnologicamente avanzata, ha portato negli ultimi decenni a un’esplosione della quantità di dati raccolti durante gli esperimenti. Se da un lato questo aspetto gioca naturalmente a favore della precisione delle misure, dall’altro richiede di adottare soluzioni avanzate per la gestione e l’analisi di enormi dataset. Al tempo stesso, il paradigma dei “big data” influisce anche sulla progettazione degli stessi esperimenti e sugli strumenti computazionali necessari: in particolare, la simulazione di fenomeni complessi richiede la generazione di grandi quantità di dati virtuali, così da poter confrontare i risultati sperimentali con simulazioni dettagliate.
Un esempio significativo dell’impatto dei big data nella fisica contemporanea è rappresentato dall’acceleratore di particelle LHC, al CERN di Ginevra, che può essere considerata senza esagerazioni la più grande fabbrica di informazione del mondo. In piena operatività, la macchina realizza circa 25 collisioni tra protoni ogni 27 miliardesimi di secondo, pari a 600 milioni di collisioni al secondo. Attraverso opportuni software di controllo, oltre il 90% dei dati prodotti da queste collisioni viene eliminato perché non di interesse, mentre solo una piccola parte (scientificamente rilevante) viene salvata e poi studiata. Tuttavia, anche solo questa porzione di dati conservati corrisponde a una quantità di informazione pari all’intero traffico telefonico dell’Europa. Per studiare una tale quantità di dati non sono sufficienti i supercomputer presenti al CERN, né i centri di supercalcolo europei, ma è stato necessario strutturare una rete globale (worldwide LHC computing grid) composta da 1,4 milioni di computer e 1,5 exabytes di capacità di stoccaggio di dati, distribuiti in 42 paesi. L’INFN è uno dei promotori principali del progetto Grid e ospita al CNAF di Bologna uno degli 11 nodi di primo livello della rete globale.
I computer quantistici sono da tempo considerati una sorta di “santo graal” dell’innovazione tecnologica, capaci di rivoluzionare il mondo informatico e l’intera società grazie alle loro applicazioni.
I computer e i supercomputer sono oggi strumenti essenziali per la ricerca in fisica, allo scopo di analizzare dati sperimentali e implementare modelli teorici utili a studiare fenomeni spesso molto complessi, impossibili da indagare con strumenti analitici tradizionali.
L‘INFN ha da molti anni sviluppato una propria infrastruttura dedicata al calcolo scientifico. Sia l’analisi dei dati prodotti dai grandi esperimenti che le simulazioni teoriche hanno infatti bisogno di potenza di calcolo, di grandi quantità di storage e di reti ultraveloci.
L’integrazione dell’apprendimento automatico o machine learning – ossia la capacità di una macchina di apprendere e migliorare le proprie performance con l’esperienza – nella modellizzazione di sistemi fisici e nell’analisi dei dati sperimentali sta offrendo opportunità molto interessanti (in alcuni casi rivoluzionarie) per la comunità scientifica.
Fin dagli albori dell’indagine scientifica sui fenomeni naturali, la costruzione di modelli semplificati della realtà fisica ha costituito uno strumento essenziale per studiare sistemi più o meno complessi.