È del 30 ottobre la pubblicazione del Libro bianco “How the pervasive copying of expressive works to train and fuel generative artificial intelligence systems is copyright infringement and not a fair use”, redatto da News Media Alliance, all’interno del quale l’analisi tecnica – con relativi commenti inviati al Copyright Office sul tema dell’uso non autorizzato dei contenuti degli editori da parte degli sviluppatori di intelligenza artificiale generativa (AI) – arriva a conclusioni che non lasciano alcun dubbio.
Nel documento si chiarisce la necessità di trasparenza da parte degli sviluppatori, oltre alla necessità di combattere l’uso non autorizzato di contenuti per formare i cosiddetti “Large Language Model”. Gli editori – si legge nel testo – devono “essere in grado di concedere in licenza l’uso dei loro contenuti in modo efficiente a condizioni eque”.
Da quanto emerge è indubbio che al momento l’impiego di contenuti editoriali nel training di algoritmi di intelligenza artificiale come ChatGPT è la questione centrale nel panorama digitale. In merito ai materiali sopracitati, i gruppi editoriali tradizionali richiedono un compenso per l’utilizzo dei loro articoli, ritenuti fondamentali nella formazione degli avanzati sistemi di apprendimento automatico.
È in questo quadro che si inserisce il dialogo fra OpenAI, azienda fondata da Sam Altman che sta dietro a ChatGPT e Dall-E, e i “grandi” dell’editoria americana, dal New York Times al Washington Post.
In gioco c’è la possibilità di conquistare una porzione di mercato globale che – secondo Bloomberg Intelligence – nel 2032 potrebbe valere 1.300 miliardi di dollari.
Tuttavia l’esito delle trattative è tutto fuorché certo. Da agosto, infatti, almeno 535 società editoriali, tra cui il New York Times, Reuters e il Washington Post, hanno installato blocchi per impedire che i loro contenuti vengano raccolti e utilizzati per addestrare ChatGPT.
Ad ogni modo il dibattito si estende ben oltre una semplice transazione economica, offrendo due distinte prospettive. Da un lato, si discute del “fair value of data”, un concetto già affrontato dal Gdpr e ripreso nel Data Act. Questa visione sostiene che, se i dati rappresentano l’elemento fondamentale dei servizi AI, coloro che li hanno generati meritano una giusta remunerazione. La produzione di contenuti originali, infatti, comporta investimenti significativi e il loro uso da parte di terzi dovrebbe essere riconosciuto e valutato economicamente.
Dall’altro lato, si profila una prospettiva più complessa. I Large Language Models richiedono enormi quantità di dati per il loro addestramento, rendendo impraticabile il consenso e la remunerazione individuale come strumenti giuridici.
Carlo Nardello, docente di Digital marketing all’Università La Sapienza di Roma, commenta: “Nel futuro prossimo i nostri dati e i prodotti digitali che saremo in grado di produrre faranno parte del nostro patrimonio, un asset intangibile che potrà contribuire al nostro reddito. I giornali e i singoli cittadini devono avere la possibilità di essere remunerati per il valore che creano alle big tech”.
C.L.