AURORA-M si basa su StarCoderPlus e conta ben 15 miliardi di parametri. Si tratta di un nuovo modello addestrato utilizzando oltre 2000 miliardi di token in varie lingue, tra cui inglese, finlandese, hindi, giapponese e vietnamita, oltre al codice di programmazione. L’obiettivo è creare un’Intelligenza Artificiale in grado di comunicare naturalmente in contesti multilinguistici e di generare codice efficiente.
La vera innovazione sta nell’approccio alla sicurezza: il team ha affermato di aver sottoposto AURORA-M a un processo di “red teaming” conforme all’Ordine Esecutivo sull’AI firmato dal presidente americano Biden. Hanno utilizzato un dataset specifico chiamato “The Biden-Harris Redteam Dataset”, contenente circa 5000 istruzioni progettate per testare l’eticità del modello. Dopo l’addestramento su questo dataset, AURORA-M ha dimostrato di ottenere migliori prestazioni su alcune metriche di sicurezza e non di non dare dannosità.
Tuttavia, analizzando attentamente, sorgono alcune incertezze: il dataset sembra basarsi su un lavoro precedente di Anthropic, sviluppato prima dell’Ordine Esecutivo stesso. Non è chiaro se contiene esempi sufficientemente dettagliati e mirati per testare la conformità a tale ordine. La reale conformità dichiarata da AURORA-M è quindi messa in discussione.
Il caso di AURORA-M solleva interrogativi significativi su come valutare e certificare l’eticità e la conformità normativa dei modelli di AI. Con l’aumento delle leggi e delle linee guida, c’è il rischio che si crei un divario tra conformità dichiarata e effettiva, rendendo difficile per utenti e autorità di regolamentazione distinguere tra Intelligenza Artificiale autenticamente “etica” da quelle che invece sono solo operazioni di facciata.
Nonostante le incertezze, l’esperimento di AURORA-M rappresenta comunque un passo significativo verso l’allineamento dello sviluppo dell’AI a standard normativi esterni, che mettono l’etica al centro. Nei prossimi mesi si vedrà se iniziative come questa porteranno a modelli effettivamente più sicuri, o se saranno necessari approcci più rigorosi. La strada verso un’AI pienamente affidabile sembra essere ancora lunga.
LG