OpenAI ha sempre dichiarato che il suo scopo fosse quello di sviluppare un sistema di Intelligenza Artificiale destinato a portare benefici globali. Tuttavia, dopo il lancio di ChatGPT l’anno scorso e la recente crisi interna, sono emerse anche le ovvie aspirazioni commerciali dell’azienda.
I risultati particolarmente positivi che si registrano attualmente sono dovuti al lavoro di un nuovo team di ricerca, denominato Superalignment ed incaricato di gestire le future Intelligenze Artificiali super-advanced.
Leopold Aschenbrenner, un ricercatore di OpenAI coinvolto nel gruppo di ricerca Superalignment, ha dichiarato che “si prevede l’emergere di modelli dall’intelligenza sovrumana, dotati di notevoli capacità e quindi anche potenzialmente pericolosi. Attualmente, mancano ancora i metodi adeguati per il controllo di tali entità. In linea con questa consapevolezza, OpenAI ha annunciato l’impegno del 20% della sua capacità di calcolo per il progetto Superalignment.”
A dicembre 2023 la società ha pubblicato i risultati di alcuni esperimenti che hanno valutato come un modello di Intelligenza Artificiale possa influenzare il comportamento di un modello molto più avanzato senza comprometterne le performance. La tecnologia alla base di questo metodo non è ancora in grado di eguagliare la flessibilità umana, ma lo scenario che si prospetta fa pensare che in futuro l’umanità potrebbe trovarsi ad interagire con sistemi di Intelligenza Artificiale dotati di una maggiore intelligenza rispetto agli individui.
Gli esperimenti condotti da OpenAI sollevano questioni sull’affidabilità dei sistemi di controllo: la nuova tecnica si basa sulla capacità di un sistema AI di decidere autonomamente quali indicazioni ignorare tra quelle che gli vengono proposte attraverso un modello meno avanzato, ma questo solleva interrogativi sulla possibile esclusione di informazioni cruciali che potrebbero influenzare il comportamento futuro del sistema.
I ricercatori di OpenAI hanno analizzato anche il procedimento di “supervisione”, impiegato per migliorare l’utilità di sistemi come GPT-4. Attualmente tale processo coinvolge il feedback umano: gli individui indicano quali risposte sono realmente utili e quali invece possono risultare dannose. Gli studiosi ora vogliono automatizzare tale processo, per ottimizzare il tempo impiegato e anche perché ritengono che, con l’aumento della potenza dell’AI, diverrà sempre più difficile per gli esseri umani fornire feedback efficaci.
In generale l’idea di utilizzare un modello AI meno avanzato per controllarne uno più potente esiste da tempo ma, nonostante i progressi compiuti da OpenAI, la validità dei metodi attuali per insegnare all’Intelligenza Artificiale a comportarsi correttamente è ancora incerta.
M.M.