Il Codice, dietro al quale troviamo figure di primo piano come Yoshua Bengio (uno dei padri fondatori delle reti neurali), e Marietje Schaake (ex europarlamentare ora concentrato sulle politiche digitali di Stanford), rappresenta uno strumento fondamentale per orientare il comportamento degli sviluppatori dei modelli di AI di uso generale (GPAI).
La Commissione propone alle imprese un’alternativa netta: firmare volontariamente il Codice, segnalando così la propria disponibilità a conformarsi alle regole europee, oppure a partire dal 2 agosto 2025 dimostrare per ogni nuovo modello introdotto nel mercato comunitario che questo non violi i principi dell’AI Act. L’adesione non è quindi obbligatoria, ma segna una linea di separazione tra chi intende collaborare con Bruxelles e chi preferisce restare ai margini del processo regolatorio.
Le linee guida ufficiali sono attese nei prossimi giorni, ma si conoscono già i tre pilastri su cui esse posano: trasparenza, copyright e sicurezza. In merito alla trasparenza verrà introdotto un modello standard di documentazione e i fornitori di GPAI avranno l’obbligo di spiegare in maniera chiara e accessibile il funzionamento dei loro modelli e in che modo essi rispettano le regole europee.
Il punto legato al copyright invece, intende porsi come ponte tra l’AI Act e la legislazione europea sul diritto d’autore: le aziende dovranno dotarsi di politiche interne per evitare l’uso improprio di contenuti protetti durante l’addestramento dei modelli e, in caso di eventuali violazioni, dovranno rispondere ai titolari dei diritti.
In ambito di sicurezza le regole più stringenti si applicheranno in particolare ai modelli ad alto impatto. Ogni sei mesi verrà richiesto di produrre un report sulle misure adottate e sulla governance interna, comprese politiche volte a proteggere i dipendenti che segnalano problemi di sicurezza.
S. B.