Il chatbot Gemma di Google ha attribuito un’accusa di violenza sessuale mai esistita alla parlamentare repubblicana Marsha Blackburn, dichiarazione completamente falsa che ha spinto la Blackburn a diffidare Google, chiedendo la sospensione dell’applicazione finché l’azienda non ne avesse recuperato il pieno controllo. Google ha quindi ritirato il chatbot, presentandolo come uno strumento destinato solo agli sviluppatori, nel tentativo di contenere le possibili conseguenze legali.
Il tema centrale di questo avvenimento è se e in quale misura un’azienda che sviluppa un sistema di AI possa essere ritenuta responsabile per contenuti diffamatori generati dal suo software. Non si tratta di un caso isolato, anche Meta, infatti, ha raggiunto un accordo extragiudiziale dopo che un suo bot aveva falsamente coinvolto un attivista di destra nell’assalto al Campidoglio del 6 gennaio 2021.
Negli Stati Uniti esistono risarcimenti punitivi molto elevati per la diffamazione e a complicare il quadro interviene la sezione 230 del Communication Decency Act del 1996, che da quasi trent’anni tutela i fornitori di servizi online esonerandoli dalla responsabilità per contenuti generati da terzi.
Questa protezione, tuttavia, mostra limiti evidenti di fronte ai nuovi modelli generativi che non si limitano a ospitare contenuti altrui, ma “creano” risposte basate sui dati di addestramento. Per questo i fornitori inseriscono nei loro Termini di Servizio clausole che escludono la responsabilità per informazioni errate o fuorvianti, anche se ciò non impedisce a molti studi legali statunitensi di iniziare a considerare le software house come potenziali responsabili di diffamazione.
In Europa, una condanna penale per diffamazione contro i manager o i programmatori delle big tech è invece improbabile, sia per l’assenza dell’elemento soggettivo del dolo, sia per la complessità dei processi aziendali che renderebbe difficile attribuire responsabilità individuali.
Diverso il discorso sul piano civile. L’art. 2043 c.c., combinato con l’art. 2 della Costituzione, consente infatti di chiedere il risarcimento del danno per lesioni alla reputazione anche quando l’informazione diffamatoria proviene da un sistema di AI.
La responsabilità della software house rimane più sfumata, anche se il Codice Privacy apre uno spiraglio: il trattamento dei dati è considerato attività pericolosa ai sensi dell’art. 2050 c.c., e il danno causato tramite dati personali, anche se gestiti dall’AI, può essere risarcibile ai sensi dell’art. 15 del D.lgs. 196/2003.
Il futuro rimane però incerto: la giurisprudenza sulla diffamazione online si è sempre confrontata con comportamenti di persone fisiche, mentre ora deve misurarsi con contenuti prodotti da sistemi algoritmici e con aziende protette da clausole di esonero di responsabilità. La sfida sarà quindi decidere se accettare una sostanziale “impunità” delle software house o avviare un percorso che le renda corresponsabili, senza frenare lo sviluppo tecnologico.
S.B.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















