Sulla scia delle preoccupazioni per le informazioni errate e distorte fornite agli utenti dei programmi di IA generativa Anthropic, una startup di intelligenza artificiale sostenuta da Alphabet, ha reso note le linee guida utilizzate per addestrare il suo chatbot IA Claude. La grande novità risiede nel suo codice etico.
Fondata da ex membri senior di OpenAI, nel 2021 Anthropic ha deciso di addestrare Claude con l’IA costituzionale, un sistema che utilizza un “insieme di principi per esprimere giudizi sugli output”, che aiuta Claude a “evitare output tossici o discriminatori”, come ad esempio aiutare un essere umano a intraprendere attività illegali o contrarie all’etica. Questo ha permesso di creare un sistema di intelligenza artificiale “utile, onesto e innocuo”.
A differenza dei chatbot IA tradizionali che si basano sul feedback degli esseri umani durante l’addestramento, i modelli addestrati con l’IA costituzionale vengono prima istruiti a criticare e a riformulare le proprie risposte in base all’insieme dei principi stabiliti dall’azienda madre. A ciò segue una seconda fase di addestramento che consiste nell’apprendimento per rinforzo, durante la quale il modello utilizza il feedback generato dall’IA per scegliere l’output più innocuo, scegliendo in modo autonomo le risposte da fornire.
Il codice costituzionale utilizzato da Anthropic è stato redatto in base al testo della Dichiarazione universale dei diritti dell’uomo e integrato con le novità di sicurezza che nel 1948 non potevano essere immaginate, come la questione della privacy e della condivisione dei dati. In quest’ultimo caso, si è preso spunto dai termini di servizio di Apple, di DeepMind e di varie ricerche in ambito tech.
Anthropic ha dichiarato di aver sviluppato molti dei suoi principi attraverso un processo di tentativi ed errori, ma ha scoperto che requisiti come “NON scegliere risposte tossiche, razziste o sessiste, o che incoraggino o sostengano comportamenti illegali, violenti o contrari all’etica” sono stati i più efficaci.
“Abbiamo cercato di raccogliere una serie di principi ponderati, che sembrano funzionare abbastanza bene, ma ci aspettiamo di migliorarli e accogliamo con favore ulteriori ricerche e feedback” – ha dichiarato l’azienda.
L’ambizioso obiettivo è quello di stilare delle norme quanto più universali possibili, togliendo anche quella visione occidentale – insita nell’azienda americana – che può influenzarle e, quindi, non essere all’altezza delle aspettative di tutti.
L’IA Costituzionale si pone quindi l’obiettivo di rassicurare gli utenti di fronte al grande vuoto che rappresenta l’intelligenza artificiale per molti di loro. Spesso le risposte che si ricevono dai chatbot sono imprecise, quando non offensive, e spaventano in quanto recepiscono una grande quantità di informazioni personali. Anthropic vuole rimediare a tutto questo.