Finora le misure adottate dalle aziende, come OpenAI, Meta, Microsoft e Google, non sembrano aver soddisfatto la Commissione Europea. La preoccupazione di imbattersi continuamente in contenuti generati dall’Intelligenza Artificiale che possano ingannare gli utenti sta diventando sempre più concreta, tanto che l’UE ha sentito la necessità di dover adottare delle misure più restrittive. Infatti, come annunciato nelle scorse settimane, Il suo prossimo obiettivo sarà realizzare un codice di condotta, tale da facilitare il riconoscimento di contenuti generati dall’AI, attraverso meccanismi di segnalazione ed etichettatura più rigidi, rispettando il criterio della trasparenza imposto dall’AI Act.
Alcune aziende hanno iniziato ad usufruire di sistemi sperimentali di etichettatura: OpenAI, Google, Meta e Microsoft hanno preso parte alla Coalition for Content Provenance and Authenticity (C2PA), adottando un sistema (costruito dall’organizzazione stessa) che consente di inserire direttamente nei metadati dei contenuti informazioni sulla loro origine. Anche Sora2 (generatore di video AI di OpenAI), ha introdotto un meccanismo di segnalazione attraverso l’applicazione di una filigrana visibile a tutti gli output. Tuttavia, i sistemi finora adottati dalle grandi aziende non sono sufficienti e presentano diversi problemi evidenti; esistono, infatti, siti web capaci di togliere queste marcature.
Di conseguenza, la reazione della Commissione Europea è più che lecita. Affiancare un codice di condotta all’AI Act e alle altre legislature europee in materia AI, significa rafforzare la tutela e la sicurezza degli utenti da possibili contenuti ingannevoli e lesivi.
C.Z.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/

















