Rivoluzione IA

7 Novembre 2025

Le stagioni dell’IA

L’intelligenza artificiale sta attraversando una fase di progresso senza precedenti, affermandosi come una delle principali forze di trasformazione della società moderna. Negli ultimi anni si è assistito a un aumento significativo degli investimenti nel settore, al riconoscimento del suo valore strategico a livello internazionale e alla definizione di nuove regolamentazioni per garantirne un utilizzo etico e sicuro. Parallelamente, l’IA è entrata in modo sempre più capillare nella vita quotidiana: dai processi produttivi e decisionali al mondo della comunicazione, dal marketing all’istruzione, fino alle relazioni sociali. Una trasformazione che coinvolge tanto la dimensione individuale quanto quella collettiva e che sta avendo un impatto profondo anche sulla ricerca scientifica.

 

Ad oggi, quella dell’AI è una storia lunga circa mezzo secolo e alquanto discontinua.

Il termine fu coniato nel 1955 dall’esperto di informatica John McCarthy e inserito in una proposta per un seminario che si svolse alla conferenza di Dartmouth nell’estate del 1956 e che viene generalmente indicato come la nascita ufficiale dell’IA. McCarthy è invece conosciuto per aver sviluppato il linguaggio Lisp (1958) che diventa in pochi anni il linguaggio di programmazione più popolare utilizzato nella ricerca sull’AI. Sempre nel 1958, lo psicologo Frank Rosenblat realizza un dispositivo elettronico dal nome evocativo, il “Percettrone”. Si tratta del primo modello di strato di neuroni artificiali con capacità di apprendimento, l’antenato delle moderne reti neurali (modelli computazionali ispirati al cervello umano). Sfortunatamente, le performance di questa macchina furono deludenti o comunque non vennero comprese nel loro enorme potenziale con un conseguente calo dei finanziamenti e della fiducia in questa disciplina appena nata, dando origine a quello che spesso viene conosciuto come il primo inverno dell’intelligenza artificiale.

machine-learning-e-ai-2
Immagine illustrata sull'AI ©iStock

La seconda tappa cruciale è negli anni ‘80 quando vengono sviluppati metodi efficaci per addestrare le reti neurali, che nel frattempo si erano evolute, su dati reali. Questo avviene grazie allo sviluppo di una nuova classe di algoritmi che consentono ai computer di apprendere schemi e regole decisionali a partire dai dati, senza cioè la necessità di una programmazione esplicita basata su regole. Questi sistemi sono in grado di generalizzare dagli esempi osservati e fare previsioni o prendere decisioni su input mai visti prima. Nasce così l’apprendimento automatico da parte delle macchine chiamato appunto machine learning. La predizione che fece Alan Turing nel 1947 immaginando per il futuro “macchine che imparino dall’esperienza “diviene una realtà.

Trent’anni dopo, a partire dal 2010 si arriva a realizzare reti neurali artificiali profonde (deep), con molti strati di neuroni. Nel 2012, Alex Krizhevsky, Ilya Sutskever e Geoffrey E. Hinton presentavano AlexNet, una rete neurale profonda in grado di riconoscere immagini con una precisione mai raggiunta prima. La descrizione e i risultati di AlexNet furono pubblicati nel 2012 in uno degli articoli di ricerca più influenti nella storia della visione artificiale, citato in oltre 130 000 pubblicazioni al 2023, aprendo la strada all’uso estensivo dell’apprendimento profondo nella visione artificiale (fonte wikipedia). Si afferma il deep learning e queste architetture si dimostrano molto efficaci nell’elaborare anche dati non strutturati come immagini, video, audio e sono responsabili di molti dei risultati più spettacolari ottenuti nell’IA. Negli stessi anni si diffondono le GP-GPU (general purpose graphic processing unit), dispositivi con una potenza di calcolo che consente di svolgere in parallelo numerosissimi calcoli necessari all’addestramento delle reti neurali, riducendo drasticamente e i tempi e portando a maturazione il Deep learning, in grado ora di processare gigantesche quantità di dati digitali, i Big data. Inizia così una nuova stagione, la primavera dell’IA.

 

Ma il vero balzo dell’IA avviene quando si realizzano contemporaneamente alcune condizioni tecnologiche cruciali: reti veloci, grandi quantità di dati, sufficiente potenza di calcolo su architetture hardware dedicate e nuovi algoritmi. La chiave di volta dell’IA sono i supercomputer che sostengono un passaggio mai avvenuto prima, la creazione di una nuova realtà digitale. Si passa, infatti, dai modelli discriminativi di IA, progettati per distinguere e classificare dati esistenti, ai modelli generativi di IA capaci di produrre autonomamente nuovi contenuti altamente realistici. Si affermano i diffusion model.  Per addestrare questi modelli ci vuole una potenza di calcolo e una disponibilità di dati mai avuta prima, che rende possibile addestrare gli algoritmi nel giro di alcuni mesi e rilasciarli sul mercato pochi mesi dopo. Quando la ricerca fondamentale, lo sviluppo tecnologico e la fiducia dei mercati, che richiama ingenti investimenti, si incontrano comincia la rivoluzione che stiamo vivendo.

CERN Data Center (© Bennett, Sophia Elizabeth)
CERN Data Center (© Bennett, Sophia Elizabeth)

Viene quindi da interrogarsi sulla natura profonda di queste trasformazioni e chiedersi se quella che stiamo vivendo sia un’epoca di grandi cambiamenti o, piuttosto, il cambiamento di un’epoca. Una quarta rivoluzione fondata sui sistemi cibernetici e l’intelligenza artificiale che riscrive il futuro. La risposta ce la daranno le generazioni future di intelligenze umane e forse artificiali.

digital city- illustration of AI©iStock
Digital city- illustration of AI (©iStock)

Impatto socioeconomico dell’IA

Un indicatore discriminante per comprendere i fenomeni è guardare al loro impatto economico e socioculturale. Il 2024 ha segnato un anno record per gli investimenti privati nell’intelligenza artificiale. A livello globale, gli investimenti complessivi in intelligenza artificiale hanno raggiunto i 252,3 miliardi di dollari, con un incremento del 26% rispetto al 2023 e una concentrazione di investimenti globali sull’IA generativa che ha registrato 33,9 miliardi di dollari (+18,7% rispetto al 2023 ). (Fonte : l’AI Index Report 2025 , Stanford University HAI) .
Secondo le stime del nuovo rapporto “Generative AI Market Size, Share, Growth Trends and Forecast 2025–2032” pubblicato da DataM Intelligence, il mercato globale della IA generativa passerà da 45,56 miliardi di dollari nel 2024 a 1.022,41 miliardi nel 2032, con un tasso di crescita annuo composto (CAGR) del 47,53%. Un’accelerazione trainata dall’Asia e in particolare da Cina, Giappone, Corea del Sud e India.( fonte https://www.datamintelligence.com/research-report/generative-ai-market)

Quanto all’ambito culturale, un riconoscimento importante per la storia dell’IA è arrivato nel 2024, con l’attribuzione di premi Nobel che toccano l’IA da molto vicino. Il Nobel per la chimica 2024 è stato assegnato a Demis Hassabis e John M. Jumper per lo sviluppo di un modello di IA capace di prevedere la struttura tridimensionale delle proteine, mentre il Nobel per la fisica del 2024 è stato conferito a John J. Hopfield e Geoffrey E. Hinton per “le scoperte e invenzioni fondamentali che consentono l’apprendimento automatico (machin learning) con reti neurali artificiali”. Hopfield nel 1982 ha introdotto il modello di rete neurale che tuttora porta il suo nome.
Così anche il linguaggio e le parole incorporano la trasformazione e il termine “intelligenza artificiale” passa, in poco più di un decennio, da concetto puramente specialistico a espressione d’ampio uso quotidiano, così come quotidiano è l’uso e l’integrazione dell’IA nelle nostre vite, diventando probabilmente una delle espressioni più citate nel 2025.
Questa accelerazione senza precedenti promette di rivoluzionare a un livello ancora più profondo anche la ricerca, e nel nostro caso la ricerca in fisica. Una frontiera dell’IA potrebbe essere persino la capacità di scoprire nuove leggi fisiche o indirizzare nuove linee di ricerca, grazie alla possibilità di individuare correlazioni non evidenti, sia nell’analisi di dati sia nella simulazione computazionale di sistemi fisici.

sibilla-biotech
Studio preliminare dell'intermedio di folding di ACE2, per la ricerca anti-covid19 (©INFN-Sibylla Biotech)

IA e fisica delle particelle

Nella ricerca fondamentale in fisica, una delle sfide più importanti riguarda oggi la gestione e l’analisi dei grandi volumi di dati prodotti dalle collaborazioni scientifiche internazionali. Gli algoritmi di machine learning sono ormai strumenti fondamentali per individuare segnali significativi all’interno dei dati sperimentali, accelerando in modo sostanziale il processo di analisi rispetto agli approcci tradizionali. Queste tecniche trovano applicazione anche nel riconoscimento delle particelle prodotte nelle collisioni ad altissima energia, offrendo prestazioni più efficienti rispetto ai metodi convenzionali. Inoltre, l’apprendimento automatico consente di sviluppare e implementare modelli fisici sempre più complessi, rendendo le simulazioni numeriche più rapide, dettagliate e realistiche. Alla scienza dell’Intelligenza artificiale è dedicato anche l’ultimo numero di Asimmetrie, la rivista di informazione e divulgazione dell’INFN con articoli di approfondimento e infografiche.

Anche la storia dell’intelligenza artificiale affonda le sue radici nella fisica. Le basi teoriche dell’IA trovano, infatti, fondamento nella fisica statistica e nella teoria dei sistemi complessi. I primi modelli concettuali risalgono al secondo dopoguerra, ma è solo verso la fine del Novecento che le prime applicazioni pratiche diventano realmente possibili, grazie ai progressi dell’informatica e alla crescente disponibilità di potenza di calcolo.

Già dagli anni ’80, i fisici hanno impiegato reti neurali e altri algoritmi per analizzare dati sperimentali. Tecniche di questo tipo hanno avuto, ad esempio, un ruolo importante nella determinazione degli elementi della matrice Cabibbo-Kobayashi-Maskawa, che spiega la simmetria tra materia e antimateria nei quark (premio Nobel per la fisica del 2008 a Makoto Kobayashi e Toshihide Maskawa) e nella scoperta del bosone di Higgs, che spiega l’origine della massa delle particelle elementari (premio Nobel per la fisica del 2013 a Peter Higgs e François Englert).
Al CERN di Ginevra e al Fermilab (USA), alla fine degli anni ’80, gli scienziati iniziano a usare il machine learning per analizzare i dati e riconoscere le tracce delle particelle pesanti. In un articolo del 1992 si discute dell’impiego di reti neurali per l’identificazione dei quark b e c (due dei sei tipi “sapori” di quark conosciuti nel Modello Standard ) nei dati prodotti dall’esperimento Delphi all’acceleratore LEP del CERN. Pur con le limitazioni imposte dalla tecnologia di quegli anni, l’IA mostrò di essere uno strumento concorrenziale con gli altri approcci e si guadagnò un posto tra le tecniche per l’analisi dei dati utilizzate nella fisica delle particelle.

L’IA entra nel cuore della ricerca al CERN

Nel 2015 Al CERN, durante i preparativi per il nuovo ciclo di presa dati (run) dell’acceleratore LHC, un piccolo gruppo di fisici cominciò a esplorare l’utilizzo di tecniche di deep learning per l’analisi dei dati sperimentali. I primi esperimenti si basarono su AlexNet per il riconoscimento di particelle, in particolare nei dati di LHC e di esperimenti sui neutrini. Dal 2017, gli esperimenti ATLAS e CMS al CERN hanno iniziato a utilizzare modelli neurali più adatti a strutture di dati complesse, come le graph neural networks (GNN) e, più recentemente, i transformer, la stessa architettura usata per sviluppare ChatGPT. Queste reti sono in grado di cogliere relazioni complesse tra segnali, migliorando di un ordine di grandezza la capacità di identificare particelle o eventi rari nei dati.

Esperimento CMS ©CERN
Esperimento CMS (©CERN)

Questi progressi hanno portato alla formazione di una comunità all’interno degli esperimenti di LHC dedicata all’intelligenza artificiale che ha iniziato ad applicare il machine learning a problemi fino ad allora risolti con metodi classici: simulazione del comportamento dei rivelatori, identificazione automatica di eventi di interesse, ricostruzione di particelle dai segnali registrati. L’uso dell’IA sì è così affermato come uno standard ed è oggi considerato uno strumento essenziale per la ricerca.
Nel run 3, l’esperimento CMS ha compiuto un passo decisivo introducendo reti neurali profonde nel sistema di selezione in tempo reale dei dati (trigger).
A partire dal 2024, CMS sta costruendo un archivio dedicato agli eventi anomali, con l’obiettivo di identificare possibili segnali riconducibili a nuovi fenomeni fisici non ancora osservati, potenzialmente sfuggiti agli approcci di analisi tradizionali. Questa nuova strategia segna un’evoluzione significativa: l’intelligenza artificiale non è più soltanto uno strumento di supporto, ma diventa una protagonista attiva della ricerca di frontiera. Se da questi eventi dovessero emergere nuove scoperte, il ruolo dell’IA nella fisica delle particelle potrebbe diventare ancora più centrale di quanto non lo sia già oggi.

Vista aerea dell’inteferometro VIRGO (© EGO-INFN)
Vista aerea dell’inteferometro VIRGO (© EGO-INFN)

Onde gravitazionali e IA
La rivelazione delle onde gravitazionali rappresenta uno dei campi di ricerca più affascinanti e innovativi della fisica moderna. Dopo la fase delle prime scoperte, le onde gravitazionali sono oggi fondamentali per lo studio dell’universo dal punto di vista astrofisico e cosmologico. Però, i segnali registrati dagli interferometri, come Virgo, LIGO e KAGRA, sono estremamente deboli, spesso al limite della sensibilità degli strumenti. In queste condizioni, la capacità di distinguere i veri segnali cosmici dal rumore, generato dall’ambiente esterno o da altri fonti non pertinenti, è cruciale, soprattutto in un contesto di ricerca multimessaggera, dove l’obiettivo è combinare informazioni provenienti da diverse sorgenti astrofisiche. La classificazione tempestiva dei segnali sperimentali è quindi un processo complesso, che richiede metodi avanzati, difficilmente gestibili con approcci tradizionali. È qui che l’intelligenza artificiale gioca un ruolo sempre più importante: poiché i dati vengono rappresentati sotto forma di immagini tempo-frequenza (spettrogrammi), l’utilizzo delle reti neurali convoluzionali (CNN) si rivela particolarmente efficace per identificare e riconoscere i segnali reali con grande precisione.

Sempre nel campo delle onde gravitazionali, è stato pubblicato lo scorso settembre su Science uno studio in cui viene presentato “Deep loop shaping”, un nuovo metodo di IA essenziale per l’osservazione di onde gravitazionali con strumenti più sensibili e di nuova generazione come ET, e che è stato testato sull’interferometro LIGO di Livingston. La ricerca è il risultato del lavoro di un team internazionale di scienziati afferenti al Gran Sasso Science Institute (L’Aquila), all’INFN, al California Institute of Technology (Pasadena), e a Google DeepMind (Londra). Il metodo deep loop shaping riduce il rumore e migliora il controllo nel sistema di un osservatorio gravitazionale da 30 a 100 volte. Se applicato ai rivelatori attuali, LIGO negli Stati Uniti, Virgo in Italia, e KAGRA in Giappone, potrebbe aiutare gli astronomi a rivelare e raccogliere dati di centinaia di eventi di onde gravitazionali in più all’anno, con un livello di precisione assai maggiore.

 

L’integrazione dell’IA nelle ricerche dell’INFN

Con l’evoluzione tecnologica e algoritmica degli ultimi decenni, l’IA è diventata pervasiva in vari ambiti della ricerca di cui si occupa l’Istituto Nazionale di Fisica Nucleare. Non c’è ormai analisi dati complessa che non preveda un approccio basato sull’IA, dalla simulazione degli eventi alla ricostruzione delle particelle partendo dai segnali elettronici grezzi alle tecniche di analisi dati, dallo studio delle particelle elementari, alle astroparticelle, fino alle onde gravitazionali. In diversi casi, l’IA consente di accorciare i tempi delle analisi e, quindi, ridurre i costi. Il machine learning viene utilizzato con successo anche nella fenomenologia delle particelle e ci sono prospettive per l’applicazione dell’IA generativa a problemi più teorici. Altrettanto diffusa ed efficace è l’utilizzo dell’IA in vari campi della fisica applicata. In fisica medica, ad esempio, l’IA trova ampio impiego, dal folding proteico, alla diagnostica per immagini, dai gemelli digitali alla medicina di precisione.
L’INFN non è solo impegnato nello sviluppo e nell’applicazione di sistemi di intelligenza artificiale e machine learning nei diversi ambiti della fisica, ma promuove anche la crescita di competenze e infrastrutture dedicate a queste tecnologie. Negli ultimi anni, l’Istituto ha lanciato l’iniziativa nazionale ML_INFN, che coordina e sostiene l’uso diffuso del machine learning nelle attività di ricerca dell’ente, dalla fisica delle particelle alla fisica nucleare, dalla fisica teorica fino alle applicazioni interdisciplinari. L’obiettivo del progetto è rafforzare le competenze dei ricercatori e delle ricercatrici dell’INFN nell’impiego di tecnologie AI-driven, come il machine learning e il deep learning, mettendo a disposizione una piattaforma hardware comune ed espandibile e promuovendo la condivisione delle conoscenze all’interno della comunità scientifica.

Governance e infrastrutture per l’intelligenza artificiale

Sul piano istituzionale, si registra oggi una crescente mobilitazione internazionale per la definizione di regole e principi condivisi nella governance dell’intelligenza artificiale. Organizzazioni come l’OCSE, l’Unione Europea, le Nazioni Unite e l’Unione Africana hanno elaborato framework dedicati a promuovere trasparenza, sicurezza e affidabilità nell’uso delle tecnologie basate su IA. In questo contesto, l’Italia si prepara ad assumere un ruolo di primo piano a livello europeo. L’Unione Europea realizzerà, infatti, nel nostro Paese una delle proprie gigafactory dell’intelligenza artificiale, denominata IT4LIA AI Factory, con l’obiettivo di sostenere lo sviluppo e l’adozione di tecnologie avanzate nel continente.

Il data center del CNAF al Tecnopolo DAMA, Bologna
Il data center del CNAF al Tecnopolo DAMA, Bologna (©INFN)

IT4LIA AI Factory rappresenta l’evoluzione di una strategia avviata nel 2017 e consolidata grazie al contributo congiunto europeo e nazionale, in particolare del Ministero dell’Università e della Ricerca (MUR), con l’obiettivo di rendere l’Italia uno dei poli strategici per l’innovazione nel campo del calcolo avanzato e dell’intelligenza artificiale. Cuore del progetto sarà un supercomputer di nuova generazione, ottimizzato per applicazioni di IA, che verrà installato presso il DAMA Tecnopolo di Bologna. Questa infrastruttura si conferma come un punto di riferimento europeo per il supercalcolo, i big data, l’intelligenza artificiale e il calcolo quantistico, ospitando anche l’ICSC – Centro Nazionale di Ricerca in High Performance Computing, Big Data e Quantum Computing.

Alle applicazioni multidisciplinari dell’IA è dedicato FAIR, la rete nazionale di Università, centri di ricerca, imprese finanziata con il PNRR a cui partecipa anche l’INFN e l’Alma-Human Artificial Intelligence, Centro interdisciplinare dell’Università di Bologna di cui ci racconta la professoressa Michela Milano nell’intervista pubblicata sul numero corrente di Particle Chronicle, la newsletter dell’INFN.

Tra le sfide più rilevanti da affrontare vi è, inoltre, quella della sostenibilità energetica dell’intelligenza artificiale. L’elevato consumo di energia richiesto per alimentare la potenza di calcolo necessaria all’esecuzione dei modelli sui supercomputer impone, infatti, un ripensamento delle strategie di sviluppo. In questa prospettiva, diventa essenziale adottare un approccio “sustainability-by-design”, che integri la sostenibilità ambientale fin dalle fasi di progettazione degli algoritmi e delle infrastrutture di calcolo. Al tema della sostenibilità del calcolo è dedicato il progetto Spectrum di cui abbiamo parlato nell’approfondimento su Fisica e sostenibilità.

Verso una nuova comprensione dell’intelligenza artificiale

Quando fu inventata la macchina a vapore, la termodinamica, la scienza che ne spiega i principi, non era ancora stata sviluppata. Allo stesso modo, oggi ci troviamo in una fase storica in cui l’intelligenza artificiale funziona, ma non sempre comprendiamo fino in fondo perché e come lo faccia. Da qui nasce una delle aree più affascinanti e cruciali della ricerca contemporanea: “l’explainable AI”, ovvero lo studio dei meccanismi che permettono di interpretare e spiegare i risultati prodotti dagli algoritmi. Sarà proprio questa una delle grandi sfide per le ricercatrici e i ricercatori di domani, che possono già oggi formarsi attraverso percorsi di studio dedicati. In Italia sono attivi diversi programmi di eccellenza, tra cui il dottorato in Data Science and Computation dell’Università di Bologna e l’Italian National PhD Program in Artificial Intelligence, un’iniziativa congiunta che coinvolge l’Università Campus Bio-Medico di Roma, l’Università di Napoli Federico II, l’Università di Pisa, la Sapienza Università di Roma, il Politecnico di Torino e il CNR.

Rendering 3D di un paesaggio digitale (©mik38/iStock)
Rendering 3D di un paesaggio digitale (©mik38/iStock)

Il futuro dell’IA, come per ogni grande rivoluzione tecnologica del passato, passerà dunque non solo attraverso l’innovazione tecnologica, ma anche attraverso una nuova comprensione di questo fenomeno e dalla capacità di orientarne lo sviluppo verso principi di equità, sicurezza e trasparenza. Raggiungere questi obiettivi richiederà un impegno condiviso tra comunità scientifica, istituzioni, imprese e cittadini. L’IA non è solo una frontiera tecnologica: è una sfida sociale, culturale e politica che ci coinvolge tutti.

 


a cura di Ufficio Comunicazione INFN – COMUNICAZIONE ISTITUZIONALE E MEDIA


 

Potrebbero interessarti anche

La sfida della materia oscura

10 anni di onde gravitazionali

immagine news CNAO

Fisica e tecnologia

post thumbnail placeholder

La Strategia della fisica delle particelle

Grafica della sostenibilità

Fisica per la sostenibilità