Gianluigi Greco è professore ordinario di Informatica presso l’Università della Calabria, ove ricopre dal 2018 il ruolo di Direttore del Dipartimento di Matematica e Informatica.
Parallelamente alle attività scientifiche, il prof. Greco è attivo sul fronte del trasferimento tecnologico, coordina alcune iniziative con partnership industriali focalizzate sull’impiego di tecnologie AI in specifiche filiere produttive, partecipa a board scientifici di poli per l’innovazione e per l’accelerazione d’impresa, e promuove alcune iniziative di start-up basate su sistemi AI.
Nel 2022 Gianluigi Greco è diventato il nuovo presidente di AIxIA, l’Associazione Italiana per l’Intelligenza Artificiale che dal 1988 promuove lo studio e la ricerca sull’Intelligenza Artificiale e coordina l’attività nel settore in Italia.
Da gennaio 2023 è membro del nostro comitato scientifico e lo abbiamo intervistato per approfondire il tema dell’Intelligenza Artificiale da diversi punti di vista, un argomento centrale nel dibattito attuale.
Di cosa si occupa l’Associazione Italiana per l’Intelligenza Artificiale?
L’Associazione Italiana per l’Intelligenza Artificiale (AIxIA) è una associazione scientifica senza fini di lucro, fondata nel 1988, con lo scopo di promuovere la ricerca e la diffusione delle tecniche proprie dell’Intelligenza Artificiale. L’Associazione – che ad oggi conta circa 1500 associati – si pone l’obiettivo di aumentare la conoscenza dell’Intelligenza Artificiale, incoraggiarne l’insegnamento e promuovere la ricerca teorica e applicata nel campo attraverso seminari, iniziative mirate e sponsorizzazione di eventi. In seno all’Associazione sono presenti gruppi di lavoro focalizzati su temi di ricerca specifici. L’Associazione organizza un evento scientifico annuale, una conferenza dedicata a far parlare il mondo della ricerca e quello delle aziende, promuove iniziative dirette al pubblico, offre premi e borse di studio per favorire la partecipazione degli studenti e dei giovani ricercatori agli eventi che si tengono in Italia. Inoltre, organizza conferenze scientifiche tenute dai più importanti ricercatori italiani e internazionali su temi di frontiera, dedicate ai ricercatori e ai dottorandi. Numerose sono infine le iniziative editoriali promosse dall’AIxIA. In particolare, nel 2019 ha realizzato un fumetto divulgativo, uscito nella collana comics and science del CNR, con lo scopo di affrontare i temi dell’etica dell’IA in modo comprensibile ed adatto anche ai ragazzi; nel 2021 ha pubblicato un volume che tratta i temi degli impatti positivi e negativi che l’Intelligenza Artificiale può avere sui 17 obiettivi di sviluppo sostenibile dell’ONU.
Qual è la sua opinione sul blocco da parte del Garante di ChatGPT e in generale su provvedimenti restrittivi di questo tipo?
L’iniziativa del Garante è sostanzialmente allineata con il regolamento europeo sulla protezione dei dati, ed ha contributo ad avviare in Italia la discussione sui benefici e i possibili rischi delle attuali tecnologie di Intelligenza Artificiale. Specifici provvedimenti restrittivi rischiano tuttavia di risultare inefficaci, forse finanche producenti se non inquadrati in un contesto più ampio di regolamentazione dell’Intelligenza Artificiale e di posizioni coralmente assunte a livello internazionale. In particolare, giova ricordare che l’Europa è attualmente in prima linea nel cercare di contrastare possibili effetti distopici che potrebbero emergere dall’uso dell’Intelligenza Artificiale attraverso l’AI Act, una proposta di legge che regolamenta lo sviluppo e l’utilizzo di sistemi basati su queste tecnologie. Entro fine anno, l’AI Act – che ha avuto una lunga gestazione – dovrebbe finalmente essere approvato dal Parlamento Europeo divenendo quindi la cornice regolamentare in cui inquadrare sistematicamente il vorticoso sviluppo tecnologico al quale stiamo assistendo.
Quali sono, a suo avviso, i principali rischi attuali e futuri dell’IA?
La molla propulsiva allo sviluppo dell’Intelligenza Artificiale, sin dalle prime intuizioni di Alan Turing, è l’idea di poter sviluppare macchine, basate su sistemi software e hardware, in grado di simulare il comportamento umano e manifestare caratteristiche intelligenti. Ad oggi, abbiamo raggiunto straordinari successi nell’Intelligenza Artificiale ristretta, cioè in applicazioni che simulano il comportamento umano in specifici campi o funzionalità, ma siamo ben lontani da una macchina in grado di sostituire nel loro complesso l’intero spettro delle capacità cognitive umane. Evidentemente, queste applicazioni non sono dotate di volontà propria, di autocoscienza o di sentimenti; e pur tuttavia sono in grado di manifestare un elevato grado di autonomia nel raggiungere gli obiettivi per le quali tali applicazioni sono state progettate. Se vi è dunque un rischio prospettico, ma tutto sommato concreto, nell’utilizzo delle tecniche di Intelligenza Artificiale è che esse vengano programmate per raggiungere obiettivi “sbagliati”, mal formulati o che possano arrecare danno alle persone e alla società. Ecco perché, in un momento di frenetici cambiamenti ed evoluzioni, è pressante l’esigenza di una efficace regolamentazione che non lasci all’etica dei singoli la decisione su quale strada indirizzare lo sviluppo delle tecnologie.
Che scenari futuri si prevedono per l’IA e quali saranno, secondo lei, le principali evoluzioni?
La storia dell’Intelligenza Artificiale ha visto diversi momenti di forte entusiasmo, alternarsi a momenti di disillusione, ha visto alcune primavere seguire ad altrettanti inverni. Nel tempo, durante le primavere, abbiamo imparato a sviluppare sistemi di Intelligenza Artificiale in grado di emulare – per usare termini cari a Daniel Kahneman, premio Nobel per l’economia nel 2002 – i pensieri “lenti”, cioè il ragionamento razionale, basato sulla logica e sulle nostre capacità deduttive; abbiamo poi più recentemente sviluppato tecniche di machine e deep learning in grado di emulare i pensieri “veloci”, cioè quelli basati si stimoli sensoriali e che determinano decisioni impulsive. Ciò che però manca e ciò su cui molti ricercatori stanno impegnandosi a definire nuove strade è lo sviluppo di sistemi di Intelligenza Artificiale che, proprio come le persone, sappiano coordinare l’utilizzo di pensieri lenti e veloci, sviluppando capacità di percezione e di astrazione. La realizzazione di questi sistemi consentirà di realizzare, ad esempio, sistemi conversazionali in grado di generare testo non solo su base statistica, ma anche sfruttando forme di ragionamento sofisticato e meccanismi argomentativi.
L’IA generativa che impatto avrà sulle professioni e in particolare su quella giornalistica?
Esistono molti studi sul potenziale impatto dell’Intelligenza Artificiale nel mondo del lavoro, che giungono spesso a conclusioni differenti. Non vi è consenso, con alcuni che alimentano scenari catastrofistici e altri che invece pensano a scenari in cui progressivamente scompariranno alcune specifiche professioni ma per far posto ad altre, con un bilancio finanche positivo in termini di occupazione. Una delle professioni che ad oggi sembra maggiormente temere lo sviluppo delle tecniche di Intelligenza Artificiale è quella giornalistica, in virtù di sistemi quali ChatGPT che stanno dimostrando incredibili capacità nel sintetizzare documenti e nel produrre testi sintatticamente accurati. Questi sistemi, tuttavia, per loro natura sono manipolatori “sintattici”, che non hanno alcuna competenza specifica, che potrebbero produrre testi completamente inaffidabili in termini di fondatezza delle notizie, e che non hanno alcuna capacità creativa. Il giornalista resta dunque assolutamente essenziale nell’analizzare le fonti e nel ragionare sull’elaborazione critica di una visione d’insieme, ma potrebbe trovare in tali strumenti un valido supporto per semplificare parti del proprio lavoro.