L’IA è una disciplina scientifica e tecnologica con lo scopo di costruire macchine in grado di risolvere problemi che richiedono intelligenza umana. L’intelligenza artificiale offre moltissime opportunità per migliorare la nostra vita. Ormai tutte le aziende riconoscono la sua capacità di ottimizzare le loro operazioni e di creare nuovi servizi che prima non esistevano. L’IA è anche usata per accelerare le scoperte scientifiche e capire come combattere il cambiamento climatico. Supporta molte attività, sia online che offline.
I vantaggi di questa tecnologia sono chiari, ma bisogna riconoscere che essa porta con sé anche alcuni rischi, dovuti in parte alla tecnologia stessa e in parte al fatto che provoca una trasformazione molto rapida della nostra vita.
L’etica dell’IA si occupa di identificare i problemi etici dell’uso dell’IA nella nostra società e di fornire possibili soluzioni a questi problemi. È un campo di lavoro multi-disciplinare e multi-stakeholder, dove esperti di varie discipline e vari attori nella società collaborano per generare soluzioni che includono principi, linee guida, strumenti, sistemi di governance, standard internazionali, sistemi di analisi del rischio, e leggi per affrontare da diverse angolazioni i problemi etici dell’intelligenza artificiale e fornire soluzioni, possibilmente globali.
A causa dell’IA molti valori umani importanti potrebbero correre il rischio di essere compromessi. Tra i rischi più importanti c’è la gestione dei dati, che spesso includono anche dati personali da parte dei sistemi di IA. Sono centrali le questioni legate alla privacy visto che le tecniche di machine learning hanno bisogno di grandi quantità di dati. È importante anche la questione dell’equità e dell’inclusione: l’IA potrebbe prendere decisioni che discriminano gruppi di persone. Inoltre, il suo uso e la possibile eccessiva digitalizzazione potrebbero escludere alcune categorie. Un’altra criticità è dettata dal fatto che spesso non è chiaro come la macchina arriva alla sua decisione a partire dai dati in input. Questo impatta sia sul controllo umano delle proprie decisioni sia sulla fiducia verso l’IA.
La capacità dell’IA di generare contenuti (come testi e immagini) introduce anche rischi legati all’impatto sul sistema educativo, sui lavori creativi e sull’apprendimento consapevole di meccanismi di ragionamento logico. Inoltre, ChatGPT e sistemi simili a volte generano contenuti non veri, pericolosi o inappropriati. Senza un controllo attento, la condivisione di tali contenuti può creare false credenze. Infine, l’IA non deve mettere in pericolo la sicurezza fisica e psicologica, e in generale il benessere dell’utente.
I problemi etici legati all’utilizzo dell’intelligenza artificiale sono anche molti altri. C’è grande preoccupazione in merito a diversi temi, tra cui la perdita di posti di lavoro a causa dell’automazione, la protezione dei dati, il riconoscimento facciale, il video deepfake, la sicurezza informatica, l’uso improprio dell’IA e delle tecnologie robotiche. Queste sono solo alcune delle nuove (e grandi) sfide etiche portate dalla digitalizzazione e dell’IA.
Molte persone sono critiche nei confronti dell’IA e lo scetticismo cresce anche nella società. L’industria è già nel mezzo di una rivoluzione: big data, intelligenza artificiale, Internet delle cose (IoT), stampanti 3D stanno cambiando le esigenze dei dipendenti. Lavori semplici o ripetitivi sono sempre più spesso delegati alle macchine. In questa discussione i consumatori sono spesso dubbiosi sulle applicazioni di IA. Secondo alcuni studi, tuttavia, non si preoccupano del fatto che l’IA possa spazzare via o controllare l’umanità, ma piuttosto della sicurezza dei loro dati.
Viste queste criticità sono ormai molti gli attori che sollecitano la redazione di uno standard vincolante a livello globale. Anche il Parlamento europeo si sta occupando intensamente della questione dei rischi e dei vantaggi dell’IA. Alla luce delle grandi differenze tra i valori etici di base che si applicano nei singoli paesi, regna grande incertezza sulla possibilità di realizzare una regolamentazione IA uniforme in un contesto internazionale. Comunque, in più della metà delle dichiarazioni esistenti sono stati menzionati cinque valori fondamentali: trasparenza, giustizia ed equità, prevenzione dei danni, responsabilità, protezione dei dati e della privacy.
Sono sempre di più le aziende, associazioni, governi e istituzioni che hanno pubblicato o stanno lavorando a documenti con l’intento di studiare e affrontare i problemi etici legati all’IA. Alcuni esempi sono le Nazioni Unite, il Foro Mondiale Economico, la Commissione Europea, la Casa Bianca, singole aziende (come Google, Microsoft o IBM), convegni scientifici come AIES (IA, Ethics and Society), Organizzazioni come l’OECD (Organizzazione per lo Sviluppo e la Cooperazione Economica) e il Vaticano.
(S.F.)