I computer quantistici sono da tempo considerati una sorta di “santo graal” dell’innovazione tecnologica, capaci di rivoluzionare il mondo informatico e l’intera società grazie alle loro applicazioni. Si tratta di elaboratori (ancora in fase di sviluppo) il cui funzionamento sfrutta le leggi della meccanica quantistica, superando i limiti dei computer classici. Questi ultimi adottano come unità minima di informazione il bit, che può assumere soltanto due valori (convenzionalmente chiamati 0 e 1).
Anche i computer quantistici hanno un’unità di informazione a due livelli, il qubit, ma con una differenza fondamentale: mentre il bit può assumere soltanto uno dei due valori permessi in un dato momento, il qubit può essere una combinazione di entrambi, in virtù del principio di sovrapposizione (un effetto peculiare della meccanica quantistica). Non solo: grazie al fenomeno dell’entanglement, una sorta di correlazione a distanza che può generarsi tra sistemi quantistici, ogni qubit può essere correlato a un altro, moltiplicando così la potenza computazionale. Queste condizioni, se moltiplicate per un gran numero di qubit, rendono la potenza di calcolo di un computer quantistico incomparabile con quella di un qualunque supercomputer classico.
Tuttavia, nonostante di computer quantistici si parli da oltre quarant’anni (il primo a intuirne le potenzialità fu il premio Nobel statunitense Richard Feynman nel 1982), gli ostacoli tecnologici da superare per arrivare a computer di uso pratico, utili per applicazioni, sono ancora enormi.
Negli ultimi anni, però, si è registrata in tutto il mondo una forte accelerazione negli investimenti e nei progetti di alto livello nell’ambito dell’informatica quantistica, con lo sviluppo di diverse tecnologie promettenti.
Il primo risultato già ottenuto è stata la realizzazione di alcuni esempi di “vantaggio quantistico”, ossia la dimostrazione che alcuni prototipi di computer quantistici sono già in grado di realizzare operazioni in modo estremamente più efficiente rispetto ai migliori computer classici (sebbene si tratti di dimostrazioni perlopiù simboliche, non legate ad applicazioni utili).
L’INFN è fortemente impegnato in importanti progetti nel campo dell’informatica quantistica: in particolare è l’unico partner non statunitense del Superconducting Quantum Materials and Systems Center, un centro di eccellenza con sede al Fermilab di Chicago, nato nel 2020, che punta a realizzare nei prossimi anni un computer quantistico d’avanguardia basato su tecnologie superconduttive. Ad esempio i laboratori del Gran Sasso sono l’ambiente ideale per misurare l’effetto dei raggi cosmici e della radioattività naturale sul tempo di decorrenza dei computer quantistici.
I computer e i supercomputer sono oggi strumenti essenziali per la ricerca in fisica, allo scopo di analizzare dati sperimentali e implementare modelli teorici utili a studiare fenomeni spesso molto complessi, impossibili da indagare con strumenti analitici tradizionali.
L’aumento della sensibilità e dell’efficienza degli esperimenti di fisica, unita all’utilizzo di un’elettronica sempre più tecnologicamente avanzata, ha portato negli ultimi decenni a un’esplosione della quantità di dati raccolti durante gli esperimenti.
L‘INFN ha da molti anni sviluppato una propria infrastruttura dedicata al calcolo scientifico. Sia l’analisi dei dati prodotti dai grandi esperimenti che le simulazioni teoriche hanno infatti bisogno di potenza di calcolo, di grandi quantità di storage e di reti ultraveloci.
L’integrazione dell’apprendimento automatico o machine learning – ossia la capacità di una macchina di apprendere e migliorare le proprie performance con l’esperienza – nella modellizzazione di sistemi fisici e nell’analisi dei dati sperimentali sta offrendo opportunità molto interessanti (in alcuni casi rivoluzionarie) per la comunità scientifica.
Fin dagli albori dell’indagine scientifica sui fenomeni naturali, la costruzione di modelli semplificati della realtà fisica ha costituito uno strumento essenziale per studiare sistemi più o meno complessi.