Skip to main content

11 Ott 2024

Nobel 2024: Fisica, matematica e intelligenza artificiale

Pierluigi Contucci

Pierluigi Contucci
Leggi gli altri articoli

Home Rubriche Fisica e Tecnologia

L’annuncio del Premio Nobel per la Fisica a due pionieri dell’Intelligenza Artificiale (AI), John Hopfield e Geoffrey Hinton, ha causato diverse reazioni oltre a quella di soddisfazione e entusiasmo. Le perplessità che sono emerse, sia da ambienti della fisica che da quelli dell’informatica, sono soprattutto una reazione del pensiero conservatore che obietta come AI sia un dominio dell’informatica, mentre la fisica dovrebbe occuparsi delle leggi della natura.

 

Un esempio di metodo scientifico

I fatti stanno diversamente. Le scoperte premiate appartengono di diritto anche al mondo della fisica per una semplice ragione: le macchine “intelligenti” sono state costruite osservando il funzionamento del cervello biologico e umano, almeno quel poco che conosciamo di esso, e inventando dei modelli matematici ispirati ad esso. In seguito quei modelli matematici sono stati implementati in silico, nei computer, attraverso degli algoritmi che cercano la loro soluzione.

Questo processo, che è partito dall’osservazione sperimentale della struttura e del funzionamento della rete neuronale e sinaptica, che ha portato alla formulazione matematica, il modello, del sistema fino all’identificazione degli algoritmi numerici per risolverlo, è il tipico esempio del metodo scientifico utilizzato dalla fisica.

È lo stesso metodo con cui Archimede ha dimostrato la legge del galleggiamento o quella della leva, con cui Newton ha dimostrato le leggi di Keplero, o con cui Carnot ha dimostrato la legge del rendimento ideale di un motore. Ognuna di quelle scoperte ha rivoluzionato la fisica estendendola oltre i suoi confini naturali (ne ho parlato meglio qui). Da notare che nel caso dell’intelligenza artificiale il metodo scientifico ha considerato un fenomeno biologico, l’ha modellizzato in modo matematico, e l’ha risolto in modo informatico.

Considerare la teoria delle reti neurali e la tecnologia prodotta con essa come qualcosa di estraneo alla fisica non è molto diverso dal ritenere che i fenomeni celesti siano un tema di cui si occupa la religione, mentre la fisica deve limitarsi a quelli terrestri. Quelle rigidità mentali, di natura semplicistica o corporativa, sono – o dovrebbero essere – superate da tempo.

 

Il modello di Hopfield

Dai primi anni ’80, l’antico desiderio di comprendere la mente umana riesce a proporre dei modelli del funzionamento del cervello basandosi su alcune semplici idee. Queste poggiano sull’osservazione della plasticità sinaptica sia per i fenomeni della memoria, che nel caso del cervello è di tipo associativo, che per quelli di apprendimento. Uno dei due premiati, John Hopfield, è il pioniere del modello matematico della memoria che porta il suo nome (modello di Hopfield appunto, teorizzato nel 1982). La nostra memoria non ricorda bit per bit come fa quella dell’archivio del calcolatore. Il metodo con cui memorizza è invece collettivo, cioè le interazioni tra neuroni codificate attraverso la regola di Hebb, nel loro complesso, sono in grado di richiamare le memorie delle nostre esperienze pregresse.

 

Hinton e il deep learning

Il contributo di Hinton è invece alla teoria, e soprattutto alla realizzazione tecnologica, del processo di apprendimento delle macchine sempre ispirato al cervello umano. Hinton ha resistito al cosiddetto inverno dell’AI non facendosi scoraggiare dal fatto che per decenni quella tecnologia non producesse risultati rilevanti. Con l’arrivo dei nuovi database dalla rete e la nuova potenza di calcolo sviluppata per i videogiochi, le sue idee hanno generalizzato il prototipo del modello di apprendimento chiamato percettrone fino a farlo diventare apprendimento automatico profondo, deep learning, la base del funzionamento di tutta l’AI moderna. Anche in questo modello, talvolta descritto come Macchina di Boltzmann, l’apprendimento non viene parcellizzato in concetti singoli e logicamente concatenati, come tentava di fare l’AI classica di carattere logico-deduttivo. Al contrario, è l’intera rete neurale che apprende in modo collettivo, non localizzato, attraverso le interazioni sinaptiche.

Un’ultima nota: le due scoperte premiate, in particolare i due modelli di riferimento, hanno in comune il formalismo matematico usato dalla meccanica statistica dei sistemi disordinati, la stessa disciplina all’interno della quale è stato assegnato il premio Nobel a Giorgio Parisi nel 2022.

 

Immagine di copertina: Niklas Elmehed © Nobel Prize Outreach

Pierluigi Contucci
Pierluigi Contucci
Fisico matematico, professore ordinario all’Università di Bologna, visiting professor al Politecnico di Tokyo, all’Institut Henri Poincaré di Parigi e alla New York University, Pierluigi Contucci si occupa di meccanica statistica e delle sue applicazioni
DELLO STESSO AUTORE

© 2024 Edizioni Dedalo. Tutti i diritti riservati. P.IVA 02507120729