Geoffrey Hinton, psicologo cognitivo e scienziato informatico britannico-canadese, è considerato il pioniere delle ricerche sull’apprendimento profondo e le reti neurali ed è stata la persona che ha aperto la strada agli attuali sistemi di intelligenza artificiale come ChatGPT. Nel 2012 ha infatti sviluppato le reti neutrali che sono diventate la base per lo sviluppo dell’intelligenza artificiale nei prodotti odierni. Da quando ha iniziato a collaborare con Google sono sorte delle preoccupazioni per la tecnologia e il suo ruolo nel farla progredire, per questo motivo annuncia le sue dimissioni e mette in guardia sui pericoli dell’AI.
Uno dei ricercatori più influenti nello sviluppo dell’Artificial Intelligence fa quindi un passo indietro: al New York Times dichiara di essersi pentito del suo lavoro, alla Bbc spiega di ritenere che alcuni dei pericoli dei chatbot di intelligenza artificiale siano “abbastanza spaventosi”. Secondo le sue teorie il chatbot potrebbe presto superare il livello di informazioni detenuto da un cervello umano: “In questo momento, quello che stiamo vedendo è che cose come GPT-4 eclissano una persona nella quantità di conoscenza generale che ha e le eclissa di gran lunga. Dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene”.
Nell’articolo del New York Times, Hinton ha fatto riferimento alla possibilità di usare queste nuove tecnologie per scopi come ottenere più potere perché il sistema è progettato per fare delle copie quindi “è come se avessi 10.000 persone e ogni volta che una persona ha imparato qualcosa, tutti lo sapessero automaticamente. Ed è così che questi chatbot possono sapere molto di più di qualsiasi essere umano”, permettendo quindi la diffusione di particolari credenze nella collettività.
Come dichiara lui stesso su Twitter, “me ne sono andato per poter parlare dei pericoli dell’IA senza considerare l’impatto sull’azienda. Google ha agito in modo molto responsabile”. Jeff Dean, capo scienziato di Google, ha affermato che Hilton “ha fatto progressi fondamentali nell’intelligenza artificiale. Rimaniamo impegnati in un approccio responsabile all’IA, stiamo imparando a comprendere i rischi emergenti e nel contempo a innovare con coraggio”.
(C.D.G.)