“La sorveglianza degli americani senza la supervisione di un giudice e lo sviluppo di armi autonome meritavano una riflessione maggiore rispetto a quello che abbiamo avuto”. Con queste le parole Caitlin Kalinowsky, ex responsabile della divisione robotica di OpenAI, ha motivato la sua decisione di interrompere il sodalizio con l’azienda americana.
Lo scorso 28 febbraio infatti, giorno del primo attacco all’Iran, OpenAI ha firmato un contratto con il Pentagono, che prevede l’impiego dei modelli di Intelligenza Artificiale per applicazioni legate alla sicurezza nazionale, quindi anche per il supporto logistico alle operazioni militari. Secondo la ricercatrice, tuttavia, la decisione sarebbe stata presa in maniera eccessivamente rapida e senza un adeguato dibattito interno sui risvolti etici e politici, opinione assecondata anche dallo stesso amministratore delegato di OpenAI, Sam Altman, che ha riconosciuto che l’annuncio dell’accordo è stato gestito con troppa fretta.
Il caso ha fatto ancora più scalpore se confrontato con la posizione presa da Anthropic, altro colosso nel campo dell’Intelligenza Artificiale. La società guidata dal CEO Dario Amodei aveva rifiutato alcune condizioni dettate dal governo statunitense riguardo all’uso senza limitazioni dei suoi modelli Claude, soprattutto in tema di sorveglianza di massa e sviluppo di armi completamente autonome. “Abbiamo perso il contratto perché non riserviamo elogi da dittatore a Trump”, aveva affermato duramente Amodei.
Il fallimento delle trattative ha aperto la strada all’accordo tra Dipartimento della Difesa e OpenAI, scatenando polemiche all’interno della comunità tecnologica e tra i ricercatori che, come ha risposto la Kalinowsky, hanno espresso preoccupazioni per il rischio che i sistemi di AI possono essere utilizzati a scopi poco virtuosi senza un adeguato controllo umano.
In un’ epoca in cui l’Intelligenza Artificiale sta rapidamente prendendo il sopravvento come strumento strategico per i governi, la vicenda fa sorgere una domanda che attraversa tutta la Silicon Valley: fino a che punto le aziende tecnologiche possono o devono controllare l’uso delle proprie innovazioni? La risposta non riguarda più soltanto ciò che la tecnologia è in grado di fare, ma chi decide come e perché debba essere utilizzata.
L. P.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/

















