OpenAI è ormai da tempo al centro di controversie legali con artisti, scrittori ed editori che accusano l’azienda di utilizzare i loro lavori senza autorizzazione per addestrare i suoi modelli di Intelligenza Artificiale, incluso ChatGPT. In risposta a ciò, l’azienda ha annunciato il lancio nel 2025 di Media Manager, uno strumento che permetterà agli editori di contenuti di escludere il loro lavoro dalla formazione degli algoritmi AI.
Media Manager fornirà ai creatori un maggiore controllo sull’utilizzo dei loro contenuti da parte di OpenAI, consentendo loro di specificare come desiderano che le loro opere siano incluse o escluse dalla ricerca e dalla formazione sull’apprendimento automatico. L’azienda ha dichiarato di collaborare con creator, proprietari di contenuti e autorità di regolamentazione per sviluppare uno standard industriale per questo strumento.
Restano comunque delle incertezze riguardo al suo funzionamento preciso, per esempio in molti si chiedono se potranno presentare un’unica richiesta a copertura di tutte le proprie opere oppure se sarà possibile fare richieste inerenti a sistemi AI già addestrati e lanciati. Ed Newton-Rex, CEO di Fairly Trained, che certifica le aziende di AI che utilizzano dati di addestramento di provenienza etica, ha accolto positivamente il cambiamento annunciato da OpenAI, sollevando tuttavia alcuni dubbi sull’effettiva implementazione dello strumento. “Sono lieto di vedere OpenAI impegnata su questo tema. Se questo aiuterà o meno gli artisti dipenderà dai dettagli dello strumento, che non sono ancora stati forniti”, ha commentato.
Altre aziende, come Adobe e Tumblr, offrono già strumenti per l’opt-out dalla raccolta di dati e dall’apprendimento automatico. Spawning, una startup, ha lanciato un registro chiamato Do Not Train, che ha già raccolto le preferenze per 1,5 miliardi di opere.
A.L.R.
Get real time update about this post categories directly on your device, subscribe now.