Da mesi stiamo dedicando ampio spazio all’evoluzione dell’Intelligenza Artificiale e dunque abbiamo deciso di promuovere un confronto tra alcuni docenti titolari di insegnamenti collegati a questa nuova frontiera della trasformazione digitale.
Oggi pubblichiamo l’intervista di Gian Luca Marcialis, Professore associato di Sistemi di Elaborazione delle Informazioni, Dipartimento di Ingegneria Elettrica ed Elettronica, Università degli Studi di Cagliari, ascoltato da noi sull’evoluzione dell’Intelligenza Artificiale.
- In qualità di docente del corso di Laurea magistrale in Computer Engineering, Cybersecurity and Artificial Intelligence potrebbe descrivere come valuta lo stato attuale dell’Intelligenza Artificiale e quali crede possano essere le sue declinazioni nell’ambito della sicurezza informatica?
L’Intelligenza Artificiale ha potenzialità enormi da contestualizzare rispetto agli scopi che essa si prefigge. Gli ultimi avanzamenti sono stati dati più che altro dai significativi miglioramenti tecnologici nel dominio del principale collo di bottiglia associato al computer: le memorie. La produzione e miniaturizzazione di memorie non più dotate di parti meccaniche in movimento (il “disco rigido”, ormai un ricordo del “passato”), ha permesso una espansione notevole, alla quale si è potuto associare lo sviluppo di tecnologie multi-processore, con elementi dedicati all’elaborazione grafica (GPU) e computazionale sempre più efficienti (FPU). Sono state soprattutto le grandi aziende del settore che, una volta dotate massicciamente dei prodotti dalle nuove tecnologie, unito a una incredibile disponibilità di dati in forma di video, immagini, suoni, documenti, hanno potuto sviluppare quanto in gran parte già noto in potenza agli studiosi del settore, estendendo le straordinarie capacità di “apprendere” concetti complessi a ciò che prima si poteva realizzare in modo molto limitato. La più stupefacente conquista sono stati i motori di generazione del linguaggio naturale (NPL), quello parlato e scritto da tutti noi, in una forma che per alcuni già è considerata indistinguibile da quello realizzato da un essere umano.
Nel dominio della sicurezza informatica, il potenziale può essere visto sia nella direzione di possibili nuove minacce, sia nella capacità di adattarsi e mutarsi per poterle fronteggiare. Una volta che digitalizziamo ogni forma della nostra presenza ed esistenza nel dominio delle transazioni, dei dati, delle nostre preferenze e desideri, una volta che ci portiamo, consapevolmente o meno, nel cosiddetto “metaverso”, siamo esposti a manipolazione. Se un “avversario”, un “attaccante”, un malintenzionato ha mezzi e competenze per poter avvantaggiarsi di questi dati, mutarli e trasformarli, offuscarli, mascherarli impedendocene l’accesso tramite tecniche di AI, allora siamo di fronte a nuove categorie di attacchi, non più rappresentabili mediante caratteristiche misurabili in forma rigorosa e tempo invariante, e quindi più difficilmente modellabili in termini di contromisure. Uscendo dal “metaverso”, potremmo essere investiti da dati complessi corrotti ed indistinguibili al punto da ingenerare e diffondere falsi ovunque, i più evidenti dei quali sono tristemente noti come “fake news”, di cui qualche esempio la stampa ha già dato notizia.
- In che modo ritiene che le tecnologie biometriche possano avere delle applicazioni nel dominio della cybersecurity?
La biometria è uno degli elementi a mio parere fondamentali nel panorama variegato della cybersecurity. Con la biometria garantiamo caratteristiche di unicità ad ogni nostro passaggio nella vita reale e nella rete, ogni volta che accediamo ad un determinato servizio o risorsa. Non c’è verso, in linea di principio, che un terzo possa compiere azioni a nostro danno senza lasciare la propria traccia biometrica. Ogni medaglia però ha il suo rovescio. Da anni è noto che i sistemi biometrici di vecchia generazione non sono intrinsecamente sicuri, che dati biometrici portano con sé informazioni di altra natura, e così via. Fortunatamente, questa consapevolezza ha portato ad un nuovo paradigma di progetto, il cosiddetto “secure-by-design”, a cui ho dedicato forse il primo capitolo di libro pubblicato in italiano per la fruizione di certi concetti in senso multidisciplinare; ciò implica la capacità di concepire un sistema biometrico cercando di caratterizzarlo anche attraverso i suoi moduli preposti a proteggere i dati che esso tratta fino alle caratteristiche intrinseche al suo essere spesso scatola nera: mi riferisco per esempio agli attacchi che derivano da chi potrebbe essere in grado di replicare una biometria, o da chi potrebbe essere in grado di corrompere il segnale biometrico dall’interno attraverso appunto manipolazione digitale (un esempio recente, i “deepfake”, alla base di “fake news” audio e video), ma anche l’offuscamento di caratteristiche ancillari talora estraibili dal dato biometrico in sé (età, etnia, stato di salute).
- Crede che le tecnologie biometriche e l’AI si influenzino reciprocamente? L’una può trarre vantaggio dall’altra e viceversa? In che modo?
Fino a metà della decade 2010-2020, la biometria ha viaggiato su binari propri e solo in applicazioni specifiche faceva uso di tecniche di AI. Ora, l’AI ha esteso le sue applicazioni al riconoscimento biometrico, quindi le stesse problematiche che l’AI ha in altri contesti giungono, immutate, quando si parla di sistemi biometrici: 1) la comprensione dell’uomo legata ai processi decisionali: per esempio, quello che porta alla decisione che il volto presente in un’immagine corrisponda al volto di un’altra immagine; 2) l’esposizione all’errore nello stesso processo in dipendenza di piccoli ed impercettibili cambiamenti associati al dato da elaborare: per esempio, l’immagine del volto di una certa persona diventa, per il sistema, quella del volto di una persona completamente diversa; 3) la possibilità di generare dati parzialmente o totalmente “sintetici”, immagini di volti senza corrispondenza nella realtà ma associabili dall’AI a volti reali.
D’altra parte, vale anche il contrario: se tecniche basate sull’AI possono generare nuove tipologie di attacchi, sempre quelle tecniche possono aiutarci a snidarli. Come la biometria ci permette di certificare il nostro operato in senso positivo, anche la manipolazione digitale lascia le proprie tracce, ed in particolare quelle basate sull’AI. Sono tracce caratteristiche, come caratteristiche ci paiono talora le immagini di scene o paesaggi generati da alcuni sistemi per il nostro divertimento. E’ lì che lo scienziato e l’ingegnere “della cybersecurity” agiscono, e possono concorrere a rivelarle.
- Qual è la sua opinione sull’evoluzione del ruolo dell’Intelligenza Artificiale nel tempo? Potrebbe identificare i momenti cruciali di questa evoluzione e spiegarci come pensa che abbiano influenzato il panorama attuale dell’AI?
L’AI ha una vita quasi centenaria, ormai, e forse di più. Ha avuto alterne vicende, legate più che altro al fatto che certi limiti non potevano superarsi se non superando prima intrinseche limitazioni tecnologiche, come quella delle memorie che ho citato all’inizio. A pensarci bene, l’AI potremmo farla risalire ai giochi dell’imitazione di Alan Turing tra gli anni 20 e gli anni 40 del Novecento, ma potremmo addirittura pensare agli automi che pullulavano nelle corti settecentesche, ai congegni realizzati da straordinari artigiani ed ingegneri per il divertimento degli autocrati e sovrani di quell’Età, in ossequio all’antico sogno dell’uomo di produrre qualcosa “a sua immagine e somiglianza”.
Per restare con i piedi un po’ più piantati per terra, penserei per primi ai modelli computazionali ed alla teoria della “liveness” di Alan Turing, e, in seguito all’affermarsi del modello di calcolatore noto “macchina di Von Neumann” in quegli stessi anni (40-50 del Novecento), ai linguaggi di programmazione dell’AI come Lisp (1958) e Prolog (1972) che permisero ai programmatori una più naturale formalizzazione del linguaggio assiomatico e logico connettendolo ai processi di calcolo, alla formulazione del “percettrone”, ovvero il neurone artificiale, e dei suoi limiti grazie agli studi del grande Marvin Minsky, scomparso nel 2016, nonché l’ideazione dell’algoritmo di apprendimento a ritroso, la “backpropagation” amata e odiata da tanti studenti, fondamentale tassello delle reti neurali più conosciute (il percettrone multi-livello, MultiLayer Perceptron), e base per lo sviluppo di molte altre (reti ricorrenti e ricorsive, per esempio). Dopo una pausa “decennale”, dovuto per lo più allo stallo tecnologico, l’AI si è ripresa il suo posto nella ricerca e ora accompagna il progresso delle tecnologie associate allo sviluppo degli automi, al supporto alla diagnosi medica, allo sviluppo del linguaggio, alla cybersecurity e persino all’aspetto educativo. Molte cose che oggi si insegnano a scuola o all’università potrebbero ben presto diventare obsolete o irrilevanti grazie alla (o a causa della) tecnologia basata sui metodi e modelli dell’AI. Per non parlare di aspetti più metafisici connessi al nostro concetto dell’arte e della forma, della letteratura, che i modelli generativi metteranno senz’altro alla prova in un futuro non troppo lontano. Per non dire dell’impatto sul lavoro umano, in merito al quale è ancora prematuro soffermarsi. Come in tutti i processi evolutivi, e mi auguro in senso migliorativo, perderemo qualcosa per guadagnare qualcos’altro. L’importante è esserne consapevoli e guidare tale processo, non farsene travolgere.
Teniamo dunque presente che questo futuro molto stimolante ed interessante sarà comunque a guida umana, che si occuperà di risolvere le sue problematiche non solo tecnologiche, ma quelle che investono tutti gli altri campi dell’esistenza, incluse quindi quelle etiche, giuridiche, filosofiche. Ricordiamolo sempre: l’AI niente altro è che un prodotto dell’intelligenza più varia, quella dell’Uomo.