Roma, 8 ott. (askanews) – Il Premio Nobel per la Fisica 2024 è stato assegnato all’americano John Hopfield dell’Università di Princeton e al canadese Geoffrey Hinton dell’Università di Toronto “per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali”. Lo ha annunciato l’Accademia dei Nobel.
La motivazione dell’Accademia spiega come i due ricercatori abbiano utilizzato gli strumenti della
fisica per ideare i metodi su cui si basa l’apprendimento automatico, il pilastro dell’Intelligenza Artificiale. “John Hopfield ha creato una memoria associativa che può archiviare e ricostruire immagini e altri tipi di schemi presenti nei dati. Geoffrey Hinton ha inventato un metodo che consente di trovare delle determinate proprietà nei dati in modo automatico, e realizzare in questo modo compiti come ad e esempio l’identificazione di elementi specifici nelle immagini”, si legge nel comunicato. Sebbene i computer non possano pensare, le macchine possono ora imitare funzioni come la memoria e l’apprendimento, il che è stato reso possibile dalle ricerche dei due premiati. L’apprendimento automatico differisce dal software tradizionale, che funziona come una ricetta di cucina: riceve dei dati che vengono elaborati secondo delle chiare istruzioni per produrre i risultati. Nell’apprendimento automatico invece il computer “impara” tramite degli esempi, il che gli consente di affrontare problemi troppo vaghi e complessi per essere gestiti con istruzioni passo passo. Un esempio è l’interpretazione di un’immagine per identificare gli oggetti in essa contenuti. Grazie al loro lavoro dagli anni Ottanta in poi, Hopfield e Hinton hanno contribuito a gettare le basi per la rivoluzione dell’apprendimento automatico iniziata intorno al 2010. Lo sviluppo a cui stiamo assistendo oggi è stato reso possibile dall’accesso alle enormi quantità di dati che possono essere utilizzate per addestrare le reti e dall’enorme aumento della potenza di calcolo. Le reti neurali artificiali odierne sono spesso enormi e costruite da molti strati: vengono chiamate reti neurali profonde e il modo in cui vengono addestrate è chiamato apprendimento profondo. Una rapida occhiata all’articolo di Hopfield sulla memoria associativa del 1982, dà un’idea di questo sviluppo: veniva descritta una rete con 30 nodi, che se tutti collegati tra loro formavano 435 connessioni. I nodi hanno i loro valori, le connessioni hanno diverse intensità e, in totale, vi erano meno di 500 parametri di cui tenere traccia; una rete di 100 nodi era troppo complicata per i computer in suo all’epoca. Oggi i grandi modelli linguistici sono costruiti da reti che possono contenere più di un trilione di parametri (un milione di milioni). Se è stata la fisica a fornire gli strumenti per lo sviluppo dell’apprendimento automatico, ha anche
beneficiato dell’apporto delle reti neurali artificiali. L’apprendimento automatico è stato a lungo utilizzato in ricerche (premiate da Nobel precedenti) come l’elaborazione delle grandi quantità di dati necessarie per scoprire la particella di Higgs. Altre applicazioni includono la riduzione del rumore nelle misurazioni delle onde gravitazionali provenienti dalla collisione di buchi neri o la ricerca di esopianeti. Negli ultimi anni, questa tecnologia ha iniziato a essere utilizzata anche per calcolare e prevedere le proprietà di molecole e materiali, ad esempio per calcolare la struttura delle molecole proteiche, che ne determina la funzione, o per capire quali nuove versioni di un materiale potrebbero avere le migliori proprietà per l’uso in celle solari più efficienti.
fisica per ideare i metodi su cui si basa l’apprendimento automatico, il pilastro dell’Intelligenza Artificiale. “John Hopfield ha creato una memoria associativa che può archiviare e ricostruire immagini e altri tipi di schemi presenti nei dati. Geoffrey Hinton ha inventato un metodo che consente di trovare delle determinate proprietà nei dati in modo automatico, e realizzare in questo modo compiti come ad e esempio l’identificazione di elementi specifici nelle immagini”, si legge nel comunicato. Sebbene i computer non possano pensare, le macchine possono ora imitare funzioni come la memoria e l’apprendimento, il che è stato reso possibile dalle ricerche dei due premiati. L’apprendimento automatico differisce dal software tradizionale, che funziona come una ricetta di cucina: riceve dei dati che vengono elaborati secondo delle chiare istruzioni per produrre i risultati. Nell’apprendimento automatico invece il computer “impara” tramite degli esempi, il che gli consente di affrontare problemi troppo vaghi e complessi per essere gestiti con istruzioni passo passo. Un esempio è l’interpretazione di un’immagine per identificare gli oggetti in essa contenuti. Grazie al loro lavoro dagli anni Ottanta in poi, Hopfield e Hinton hanno contribuito a gettare le basi per la rivoluzione dell’apprendimento automatico iniziata intorno al 2010. Lo sviluppo a cui stiamo assistendo oggi è stato reso possibile dall’accesso alle enormi quantità di dati che possono essere utilizzate per addestrare le reti e dall’enorme aumento della potenza di calcolo. Le reti neurali artificiali odierne sono spesso enormi e costruite da molti strati: vengono chiamate reti neurali profonde e il modo in cui vengono addestrate è chiamato apprendimento profondo. Una rapida occhiata all’articolo di Hopfield sulla memoria associativa del 1982, dà un’idea di questo sviluppo: veniva descritta una rete con 30 nodi, che se tutti collegati tra loro formavano 435 connessioni. I nodi hanno i loro valori, le connessioni hanno diverse intensità e, in totale, vi erano meno di 500 parametri di cui tenere traccia; una rete di 100 nodi era troppo complicata per i computer in suo all’epoca. Oggi i grandi modelli linguistici sono costruiti da reti che possono contenere più di un trilione di parametri (un milione di milioni).
beneficiato dell’apporto delle reti neurali artificiali. L’apprendimento automatico è stato a lungo utilizzato in ricerche (premiate da Nobel precedenti) come l’elaborazione delle grandi quantità di dati necessarie per scoprire la particella di Higgs. Altre applicazioni includono la riduzione del rumore nelle misurazioni delle onde gravitazionali provenienti dalla collisione di buchi neri o la ricerca di esopianeti. Negli ultimi anni, questa tecnologia ha iniziato a essere utilizzata anche per calcolare e prevedere le proprietà di molecole e materiali, ad esempio per calcolare la struttura delle molecole proteiche, che ne determina la funzione, o per capire quali nuove versioni di un materiale potrebbero avere le migliori proprietà per l’uso in celle solari più efficienti.