Si sta intensificando una riflessione sulla definizione del più efficace approccio regolatorio da adottare di fronte alle complesse sfide poste delle recenti applicazioni di IA. Una schiera di esperti fatta fa imprenditori, ricercatori e operatori del settore ICT (tra i quali Elon Musk), sta valutando con maggiore cautela i risvolti negativi provocati dall’uso pervasivo di tali strumenti.
I tools di IA generativa, come ChatGPT di OpenAI o altri LLM simili, presentano numerosi rischi potenziali per la produzione e diffusione di disinformazione. Questi tools sono, infatti, inclini a produrre le cosiddette “allucinazioni” cioè errori fattuali nell’informazione fornita all’utente. Come sintetizza efficacemente un articolo pubblicato su MIT Technology Review: “I modelli di linguaggio dell’Intelligenza Artificiale sono notoriamente bullshitters” cioè spesso presentano falsità come fatti perché quando creano una frase non hanno conoscenza di cosa la frase significhi veramente.
Questi strumenti sono fatti per produrre testi a comando, inclusi testi su teorie del complotto e leggende urbane, e molti commentatori hanno fatto notare che questo rischia di produrre “una produzione frenetica di fake news”. Il rischio, in tal senso, viene amplificato dalla possibilità di fornire agli utenti un’unica risposta che potrebbe essere facilmente interpretata come il risultato migliore e quindi diventa più difficile per gli utenti stabilire nel modo corretto la veridicità di un certo risultato, e in ultima analisi esercitare il proprio pensiero critico.
A peggiorare le cose, c’è da considerare il fatto che gli utenti accedono ai tools senza mediazione e questo rende l’informazione fornita all’utente praticamente impossibile da sottoporre a fact-checking mentre fino a ora la disinformazione doveva essere pubblicata da qualche parte per essere accessibile agli utenti. In tal senso preoccupa soprattutto il possibile impatto persuasivo prodotto dall’Intelligenza Artificiale generativa sulle opinioni politiche delle persone, esposte al rischio di farsi influenzare dalla lettura di contenuti generati dall’IA, contribuendo alla viralizzazione di informazioni fuorvianti, con effetti destabilizzanti sullo svolgimento delle competizioni elettorali per la designazione dei propri rappresentanti istituzionali, sino a compromettere la tenuta degli apparati democratici.
Infine, “Generative AI” potrebbero del tutto erodere, in una prospettiva di medio-lungo termine, le opportunità occupazionali offerte dal mercato del lavoro, sancendo il definitivo primato dell’Intelligenza Artificiale sulle abilità creative e intellettive degli esseri umani.
Allo stato attuale non esistono normative adeguate a sostenere i ritmi di sviluppo con cui le tecnologie si stanno progressivamente perfezionando. Esisto dei documenti quali, ad esempio, la “Carta dei diritti dell’IA” ma sono solo dichiarazioni programmatiche dal mero valore simbolico. Questo significa che di fatto lo scenario regolatorio vigente rimane immutato andando a compromette la salvaguardia della sicurezza e della privacy individuale, con gravi pregiudizi arrecati all’esercizio dei diritti fondamentali delle persone.
(C.D.G.)