INDAGINE CONOSCITIVA DELLA COMMISSIONE CULTURA DEL SENATO SULL’AI

Per valutare l’impatto dell’Intelligenza Artificiale, la Commissione Cultura del Senato condurrà una indagine conoscitiva e analizzerà anche ChatGPT. In una nota i senatori della Lega in commissione Cultura (Roberto Marti, presidente, e Andrea Paganella, capogruppo e relatore) hanno parlato di questa novità. Si legge nella nota: “L’intelligenza artificiale, con particolare riferimento a quella di tipo generativo, appare come una rivoluzione tecnologica epocale con applicazioni di automazione in numerosi campi: creazione, organizzazione, classificazione di contenuti testuali e multimediali, ricerca e sviluppo, medicina e sanità, robotica, customer-care e assistenti digitali, traduzione automatica, formazione e istruzione, gaming, intrattenimento e promozione culturale, produzione di software, cybersecurity. Insieme alle opportunità, vi sono rischi e preoccupazioni, non solo nell’ambito del trattamento dei dati personali, che non va confuso con la più ampia discussione sulla natura delle tecnologie di intelligenza artificiale: tra gli altri, produzione di informazioni non accurate, bias culturali e discriminazioni, abusi e attività criminali, proprietà intellettuale, impatto sull’occupazione e sulla trasformazione del sistema produttivo”.

Nel frattempo, in Europa, quarantadue associazioni e sindacati tedeschi, che rappresentano più di 140.000 autori e artisti, hanno sottolineato le crescenti preoccupazioni per l’uso non autorizzato di materiale didattico protetto tramite le applicazioni di intelligenza artificiale generativa come ChatGPT. La preoccupazione maggiore riguarda la responsabilità e la remunerazione dell’autore dell’opera, questione da affrontare prima che si verifichi un danno irreversibile.

La Commissione europea sarà quindi chiamata a chiarire velocemente i dettagli finali della legge di regolamentazione dell’AI. Le regole dovrebbero rafforzare la regolamentazione dell’AI generativa lungo l’intero ciclo del prodotto. In particolare i fornitori di modelli di base potrebbero essere identificati come responsabili di tutti i contenuti generati e diffusi dall’AI, specie  per violazione dei diritti personali e dei diritti d’autore, disinformazione e discriminazione.

(C.D.G.)