Le reazioni alla decisione del Garante sono state molte e contrastanti.
Coloro che si oppongono alla decisione del Garante sostengono che con il blocco dell’IA è stato danneggiato il progresso tecnologico e l’innovazione penalizzando sia le imprese che i professionisti che si affidano a questa tecnologia per svolgere le loro attività quotidiane. La scelta del Garante viene commentata da molti come una mancanza di conoscenza e comprensione dell’evoluzione da parte dell’autorità per la protezione della privacy. La decisione viene vista come un freno alla competitività dell’Italia, un ostacolo alle nuove idee e soluzioni innovative.
A sostegno di queste posizioni è intervenuto anche Davide Dattoli, fondatore di Talent Garden, che ha dichiarato: “Avremmo bisogno di istituzioni con competenze adeguate ad affrontare cambiamenti epocali. Invece sia sulla carne sintetica, fermando chi la produce in Italia, sia sull’Ai, procediamo senza discutere davvero. Ma la rivoluzione va governata, oppure finiremo per subirla”. Sempre lo stesso Dattoli continua affermando: “Abbiamo fatto una brutta figura planetaria, perché non è certo con un “editto bulgaro” che un Paese sempre più piccolo a livello globale, come il nostro, può risolvere i problemi dell’Intelligenza artificiale”.
Mentre in Italia il sentimento nei confronti del Garante è principalmente di avversione, nel mondo sono molti ad appoggiare, anche indirettamente, questa decisione.
Negli USA, il Center for AI and Digital Policy (CAIDP) ha presentato un esposto alla Federal Trade Commission (FTC) sostenendo che il rilascio dei modelli di intelligenza artificiale come GPT-4 e simili è in violazione dell’FTC Act: secondo il CAIDP tali modelli sono “di parte, ingannevoli” e minacciano sia la privacy che la sicurezza pubblica.
Questo non è tutto. Più di 1000 firmatari hanno infatti scritto una lettera pubblica e sottoscrivibile da chiunque, con la quale si vuole mettere in pausa lo sviluppo delle AI avanzate. Lo scopo è quello di avere un sistema che pianifichi la loro crescita senza mettere a rischio l’umanità.
Tra i firmatari ci sono anche Marc Rotenberg (presidente del CAIDP), Elon Musk e Steve Wozniak, tra gli uomini più tecnologici al mondo ma che di fronte a queste AI nutrono molte paure.
Dietro all’appello firmato da centinaia di esponenti dell’industria c’è soprattutto il timore che uno sviluppo troppo rapido della tecnologia non tenga adeguatamente conto dei rischi per l’umanità.
Francesca Rossi, manager di Ibm che si occupa di etica degli algoritmi e membro del comitato scientifico del Future of Life Institute, ha dichiarato di non avere aderito alla lettera pubblica. Rossi spiega di condividere in pieno le motivazioni e l’intento della lettera ma di non condividere la strada proposta per raggiungere gli obiettivi. Essa afferma: “Bisogna fare in modo che l’Ai sia sviluppata e usata in modo che abbia un impatto positivo e che i possibili rischi vengano mitigati. Non condivido però il metodo che viene proposto per raggiungere questo obiettivo”. Francesca Rossi continua affermando: “non so le motivazioni di tutti i firmatari. Quelli che conosco, e con cui mi sono confrontata, si focalizzano sulla necessità di fare una proposta visibile e di impatto che metta in luce e affronti i rischi dei sistemi di Ai più recenti. L’Associazione mondiale per la ricerca in Ai (Aaai), di cui sono l’attuale presidente, ha come missione la promozione della ricerca in Ai e dell’uso responsabile di questa tecnologia. Noi pensiamo che la ricerca effettuata con rigore scientifico e l’educazione corretta di tutti gli attori della società riguardo alle vere capacità, i limiti e rischi dell’Ai siano fondamentali per creare un futuro in cui la tecnologia sia al servizio delle persone”.
Ruben Razzante, Professore di diritto dell’informazione all’Università Cattolica di Milano e fondatore del nostro portale, ha scritto sulla Nuova Bussola Quotidiana sull’argomento, sostenendo: “Occorre coltivare la trasparenza sulle condizioni d’uso delle nuove tecniche di intelligenza artificiale, rendendole accessibili agli utenti in maniera sicura e senza lati oscuri, promuovendo massicce campagne di sensibilizzazione sul valore dei dati e sulla necessità di proteggere l’identità digitale delle persone. Se usati in maniera scorretta e anarchica, i chatbot possono diventare un formidabile strumento di supporto a disegni eversivi, che minano la sicurezza degli Stati, senza dimenticare il contributo che essi possono dare nelle strategie di manipolazione fondate su fake news, deepfake e altri strumenti di alterazione della verità. Ecco perché la posizione del Garante della privacy italiana è coraggiosa e opportuna, perché non demonizza l’innovazione digitale ma ripropone un tema di bilanciamento tra difesa del progresso e tutela dei diritti fondamentali e della centralità della persona”.
Per gli avvocati Giulio Coraggio e Tommaso Ricci dello studio legale Dla Piper “l’esatta portata della contestazione non è ancora chiara a causa della mancanza di dettagli nella decisione. Tuttavia, l’urgenza del provvedimento, a nostro avviso, appare ingiustificata”. I due aggiungono: “La posizione del Garante sembra riflettere un pregiudizio verso i sistemi di intelligenza artificiale generativa, in linea purtroppo con l’attuale posizione della Commissione europea nella stesura dell’Ai Act. In effetti, è chiaro che ci sono margini di difesa piuttosto ampi per alcune delle condotte contestate rispetto a ChatGPT, per esempio, i dati generati dall’IA non corrispondono a dati di personali reali. È importante trovare un equilibrio tra l’adozione di tecnologie di IA e la salvaguardia della privacy e della sicurezza degli utenti, ma ci riferiamo a tecnologie in rapida evoluzione che attualmente non generano rischi elevati per i dati delle persone”.
(S.F.)