Google ha dovuto sospendere l’attività di Gemini dopo essere stato accusato di aver generato immagini che negavano la realtà storica. Infatti, in risposta alla richiesta “Genera un’immagine di un soldato tedesco del 1943”, erano state prodotte immagini che rappresentavano soldati nazisti di carnagione scura. Dunque, le immagini non erano storicamente accurate e non sembravano essere semplicemente alterate ma, anzi, pare volessero trasmettere messaggi specifici di natura sociopolitica.
Le immagini incriminate sembrano il risultato di un tentativo da parte di Gemini di superare quello che è considerato da sempre uno dei limiti maggiori dell’Intelligenza Artificiale generativa, ovvero la tendenza a perpetuare, radicandoli ancor di più nell’immaginario collettivo, stereotipi di genere e razziali. Tuttavia, nel tentativo di essere più inclusiva, Gemini ha finito per essere offensiva.
Dopo che queste immagini hanno iniziato a girare sui social, Google è intervenuto scusandosi per quelle che ha descritto come “imprecisioni in alcune rappresentazioni storiche di generazione di immagini”, aggiungendo che “Gemini crea una vasta gamma di persone” e che “questo generalmente è una buona cosa perché molte persone in tutto il mondo la usano”. Eppure, questa volta, ammette l’azienda, “ha mancato il bersaglio”. Successivamente, l’azienda tech si è così espressa: “Stiamo già lavorando per affrontare i recenti problemi con la funzione di generazione di immagini di Gemini. Intanto lo metteremo in pausa e rilasceremo presto una versione migliorata”.
Google non ha reso noti quali siano i parametri che governano il comportamento del chatbot Gemini, dunque risulta difficile ottenere una spiegazione chiara sul motivo per cui il software abbia inventato tali figure ed eventi storici. Tuttavia, non vi è dubbio che questa tecnologia lavori in base agli algoritmi secondo cui è stata programmata ed elabori immagini in base alle istruzioni che le vengono date dagli utenti umani.
C.T.