Newsletter

Parisi: «La complessità non ha limiti. All’Europa serve un Cern per l’IA»

Tra la fine del 1984 e l’inizio del 1985, un gruppo di fisici italiani varcò le porte del Cern di Ginevra con un’idea in testa: costruire un supercalcolatore «che ancora non c’era». Una macchina per il calcolo parallelo capace di eseguire fino a un miliardo di operazioni al secondo, finalmente adatta allo studio delle interazioni forti tra particelle, che avrebbe permesso di spiegare la struttura e il comportamento di protoni e neutroni. E di spostare un po’ più in là le frontiere della fisica.

Quel gruppo, che riuscì nell’impresa costruendo nel 1985 il calcolatore APE, era guidato da Nicola Cabibbo – celebre fisico italiano in quel momento alla guida dell’Istituto nazionale di fisica nucleare (Infn) – e dal futuro premio Nobel per la fisica Giorgio Parisi, allora 36enne.

Quaranta anni dopo, Giorgio Parisi racconta al Sole 24 Ore l’esperienza che diede avvio all’avventura del supercalcolo in Italia, oggi primo paese europeo per potenza di calcolo installata, terzo al mondo dopo Stati Uniti e Giappone (fonte Top500). Analizza le conseguenze della convergenza tra supercalcolo e intelligenza artificiale. E spiega i dettagli della proposta che ha lanciato con un articolo su «Nature»: l’Europa deve costruire un Cern per l’intelligenza artificiale. Un luogo dedicato a questa frontiera, dove fare ricerca teorica e pratica, soprattutto su quello «che ancora non c’è».

Professor Parisi, come mai un gruppo di fisici decise di costruirsi un supercomputer?

Negli anni 80 volevamo studiare le proprietà di neutroni e protoni. C’era una teoria ben precisa, che contavamo di confermare attraverso simulazioni numeriche delle interazioni tra particelle. Ci rendemmo però conto che per predire le conseguenze della teoria con una certa approssimazione serviva una enorme quantità di calcolo. Così, sotto la guida di Nicola Cabibbo, abbiamo prima progettato e poi costruito il calcolatore parallelo APE, che è stato per pochi mesi il più veloce computer al mondo. Poteva eseguire fino a un miliardo di operazioni al secondo.

Come fu possibile ottenere quel risultato?

Avevamo ideato una architettura parallela: APE funzionava attraverso più unità di calcolo, coordinate tra loro e in grado di eseguire le istruzioni in modo distribuito. Una architettura molto simile a quella delle potenti GPU di Nvidia che si usano negli attuali supercomputer e nei videogiochi. Era così innovativo che dovemmo anche scrivere il software per farlo funzionare. La logica dei linguaggi di programmazione standard non poteva adattarsi a un computer parallelo, che aveva un’architettura hardware del tutto nuova. Per certi aspetti quella è stata la cosa più difficile. Ricordo che quando siamo andati con Nicola Cabibbo a Ginevra per esporre il progetto, un grande programmatore del Cern ci disse questa frase: «È possibile che l’hardware riuscirete a farlo, ma non riuscirete a scrivere il software per gestirlo». Invece ci siamo riusciti.

APE è considerato il primo supercomputer interamente progettato in Europa. Oggi, il nostro paese è terzo al mondo per potenza di calcolo. Possiamo dire che con quell’esperienza avete avviato l’avventura del supercalcolo in Italia?

Di certo, quello che è successo è che l’esperienza di APE ha sottolineato la necessità e i vantaggi della potenza di calcolo, creando una sensibilizzazione sul tema. È immaginabile che la sensibilità italiana per il supercalcolo venga da quell’esperienza. Da allora, all’Infn non abbiamo mai smesso di utilizzare il supercalcolo. Si tratta di una filiera scientifica che con APE abbiamo contribuito a far partire. Il nostro calcolatore parallelo ci permise di ottenere importanti risultati teorici, che raccogliemmo in una ventina di pubblicazioni. Fu così che APE mostrò l’importanza del supercalcolo. Sia alla comunità scientifica che all’industria, che presto comprese l’opportunità di investire sul calcolo parallelo massiccio. A quel punto c’erano le condizioni per l’industrializzazione di architetture di calcolo simili a quella di APE.

Attualmente, il supercomputer più potente al mondo, l’americano El Capitan, è in grado di eseguire un quintilione di operazioni al secondo. Ci sarà un momento in cui avremo più potenza del necessario, oppure la complessità dei problemi non ha limiti? 

Io direi che la complessità dei problemi non ha limiti. Oggi disponiamo di una enorme capacità di calcolo. Ma abbiamo anche di fronte problemi sempre più complicati da risolvere. Prendiamo un esempio tipico. L’analisi dei grandi database di proteine o del genoma umano. Più passa il tempo, più questi database diventano grandi, perché gli scienziati ci lavorano. E poi, avendo i computer che permettono di farle, gli studiosi avviano ricerche sempre più sofisticate: dal clima allo studio di nuovi materiali, dai fenomeni quantistici all’astronomia. È come lo spazio in una casa: se si costruisce una stanza in più, dopo uno o due anni questa stanza sarà piena. Lo stesso accade con la potenza di calcolo. Pensi a quello che sta succedendo con l’intelligenza artificiale.

Si osserva una convergenza tra supercalcolo e intelligenza artificiale generativa: due tecnologie sempre più interconnesse.

Esatto. Molte delle idee dell’intelligenza artificiale che vediamo adesso erano in nuce già negli anni 90. Ma ora vengono abilitate dal supercalcolo. È già successo in passato. Nel 2012 un team dell’Università di Toronto sviluppò un software per il riconoscimento delle immagini applicando per la prima volta le reti neurali profonde alla visione artificiale. Anche in quel caso i fondamenti teorici erano noti da tempo, ma si riuscì a farli funzionare solo perché nel frattempo erano arrivati supercomputer abbastanza potenti. Quello che succede adesso, con l’intelligenza artificiale generativa, è che le due cose si rincorrono. E questo potrebbe anche essere pericoloso.

Perché è pericoloso?

Bisogna evitare di pensare che l’unico progresso sia un progresso di forza bruta. L’innovazione non si fa solo inseguendo microprocessori sempre più veloci. Come dimostra il caso DeepSeek. Non abbiamo ancora tutti i dettagli, ma è bastato che questa società con sede ad Hangzhou, nel sud della Cina, rilasciasse un software che sfrutta le reti neurali profonde molto più veloce di quelli sviluppati dalle compagnie americane e capace di funzionare con meno potenza di calcolo, perché i titoli dei produttori americani di chip, a cominciare da Nvidia, registrassero un crollo in borsa.

Il 22 ottobre lei ha cofirmato un articolo su «Nature» intitolato «Costruire un “telescopio” internazionale sull’intelligenza artificiale per frenare il potere delle big tech», che ha aperto un dibattito anche a Bruxelles. Ci può spiegare i dettagli della proposta?

La potenza di calcolo è un fattore abilitante per l’intelligenza artificiale. Ma non bisogna limitarsi all’hardware. Quello che io vedo, in Europa, e che ritengo sia da correggere, è la mancanza di una attività di ricerca pubblica che sia in grado di produrre applicazioni pratiche nell’intelligenza artificiale. La ricerca accademica è rimasta indietro in assenza di una struttura organizzativa. Non vedo per esempio un large language model (LLM) capace di competere con quelli americani e cinesi che sia stato progettato da ricercatori europei. Per colmare questo divario penso, come ho scritto anche su «Nature», che sia necessario creare un centro europeo dedicato all’intelligenza artificiale, organizzato e gestito sul modello del Cern. Questo è quello che ritengo assolutamente necessario.

La presidente della Commissione Europea Ursula Von der Leyen ha proposto un piano per l’IA da 200 miliardi, di cui 50 pubblici, facendo anche un riferimento alla storia di successo del Cern. C’è poi l’alleanza OpenEuroLLM: unisce centri di ricerca, imprese e istituti di calcolo per dar vita a un LLM europeo. L’Europa è l’unico continente al mondo ad avere una legge sull’IA. 

Tutto questo è meritorio. Ma se non siamo in grado di capire come funziona nel profondo un LLM, o quello che verrà dopo, non siamo nemmeno bene in grado di capire come si possa fare una regolamentazione. Ripeto: è assolutamente fondamentale, per non rimanere schiacciati tra americani e cinesi, che ci sia uno sviluppo della ricerca pubblica europea sull’intelligenza artificiale. Concentrata in un unico luogo: un centro di ricerca pubblico e aperto, capace di attirare i migliori scienziati e di portare avanti studi teorici avanzati. Proprio come il Cern. Un luogo dove possano lavorare, fianco a fianco fisici, informatrici, matematici, linguisti: ovvero gli scienziati di tutte le discipline che oggi convergono nella ricerca per l’intelligenza artificiale.

In questa avventura l’Italia che ruolo potrebbe svolgere?

C’è certamente una immensa capacità a livello sia teorico che pratico in molti paesi europei. A cominciare dall’Italia. Che si unisce a una grande disponibilità di potenza di calcolo pubblica, che sarà sempre più una risorsa strategica. Il problema è focalizzare tutto questo in una grande iniziativa di scala europea. In una situazione in cui l’America di Trump, oggi in vantaggio, vuole investire 500 miliardi in infrastrutture private per l’intelligenza artificiale, la forza bruta di cui dicevo prima, è chiaro che noi abbiamo la necessità, ma anche l’opportunità, di fare un grosso investimento – non necessariamente di 500 miliardi – per la nascita di un grande laboratorio pubblico per l’IA: immagino un centinaio di ricercatori riuniti in uno stesso luogo per lo sviluppo di un’intelligenza artificiale europea. Un’iniziativa di questo tipo va molto al di là delle capacità di un singolo paese, ma è certamente alla portata dell’Unione Europea.

Tornando all’esperienza del calcolatore APE, voi andaste al Cern con il progetto di un computer che non esisteva, per fare calcoli fisici che fino a quel momento era impossibile fare. Se fosse già una realtà, cosa suggerirebbe di studiare nel Cern dell’IA? 

Per progredire servono idee nuove. È possibile che fra cinque anni i large language model siano qualcosa di abbandonato. Per questo bisogna fare ricerca pura sul nuovo che deve ancora arrivare. Nella mia visione, dentro al Cern dell’IA i ricercatori europei dovrebbero rimboccarsi le maniche e iniziare a condurre studi teorici e pratici su software e algoritmi della prossima intelligenza artificiale. Quella che ancora non c’è.

*da Il Sole 24 Ore 16/02/2025

Condividi su:

Scarica PDF:

image_pdf
Cerca

Altri post

Iscriviti alla newsletter

E ricevi gli aggiornamenti periodici

NEWSLETTER NUOVI LAVORI – DIRETTORE RESPONSABILE: PierLuigi Mele – COMITATO DI REDAZIONE: Maurizio BENETTI, Cecilia BRIGHI, Giuseppantonio CELA, Mario CONCLAVE, Luigi DELLE CAVE, Andrea GANDINI, Erika HANKO, Marino LIZZA, Vittorio MARTONE, Pier Luigi MELE, Raffaele MORESE, Gabriele OLINI, Antonio TURSILLI – Lucia VALENTE – Manlio VENDITTELLI – EDITORE: Associazione Nuovi Lavori – PERIODICO QUINDICINALE, registrazione del Tribunale di Roma n.228 del 16.06.2008

Iscriviti alla newsletter di nuovi lavori

E ricevi gli aggiornamenti periodici