Direttamente dagli anni ’80 della West Coast, se oggi l’AI è capace di scrivere, parlare, disegnare e, soprattutto, stupire, lo dobbiamo a due menti geniali: Geoffrey Hinton e John Hopfield. Due Nobel non per caso, ma per aver insegnato alle macchine a fare ciò che un tempo era solo umano: imparare.
Hopfield, fisico teorico, ha aperto la strada alle reti neurali capaci di funzionare come memorie associative, ispirandosi al cervello biologico e in grado di ricostruire informazioni a partire da frammenti.
Hinton, informatico di origine britannico-canadese, ha dato invece all’intelligenza artificiale la capacità di migliorarsi da sola. È stato tra gli ideatori dell’algoritmo di backpropagation, alla base del deep learning moderno, e ha poi sviluppato le Boltzmann Machines e gli autoencoder, aprendo la strada al riconoscimento automatico e alla rappresentazione compatta dei dati. Le sue ricerche hanno gettato le basi dei modelli generativi di oggi, da ChatGPT ai sistemi predittivi che usiamo senza nemmeno accorgercene.
Il valore di questi contributi non è solo tecnico, ma anche culturale. Collegare il funzionamento delle reti neurali artificiali al cervello umano ha dato legittimità scientifica a un campo che, fino a pochi anni fa, era spesso guardato con sospetto.
In un’epoca in cui l’intelligenza artificiale è parte integrante delle nostre vite, riscoprire le origini teoriche e biologiche di questi strumenti non è solo un esercizio di memoria, ma un invito alla riflessione sulle direzioni future dell’innovazione tecnologica e sulle responsabilità etiche che essa comporta.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.