UN ALGORITMO CONSIGLIA IL FUTURO PROFESSIONALE AGLI STUDENTI

Web Page visualization. Protocol procedure. Dynamic software workflow. Full Stack development, markup, administrate system. Driver for shared memory. Vector isolated concept metaphor illustration.

“Grazie a strumenti di esplorazione dei propri interessi, preferenze, abilità e un database con schede dettagliate su oltre 450 percorsi di carriera, Sorprendo permette di individuare obiettivi di studio e lavoro e costruire dei piani d’azione per raggiungerli”, si legge sul sito del software.

A ogni domanda posta dal software per individuare la professione, il settore e l’ambito di lavoro più adatto agli studenti, si può rispondere con un giudizio che va da “non mi piace assolutamente” a “mi piace molto”. E così, scoprire se si vuole diventare un poliziotto, un facchino, un addetto al guardaroba, un cuoco o altro ancora.

Sorprendo è stato impiegato in alcune scuole della Liguria all’interno dell’ambito del programma di orientamento “Progettiamoci il Futuro”, compresa una classe di 12enni la cui esperienza è stata raccontata da una madre sul sito Comune, concentrandosi anche su alcune problematiche legate alla privacy e al trattamento dei dati personali immessi all’interno di questa piattaforma.

Le accuse sollevate nei confronti di questo software sono: può davvero essere un algoritmo a orientare il futuro professionale dei ragazzi? Ha senso condizionare così profondamente il percorso formativo sulla base di risposte fornite da studenti ancora preadolescenti? Non si rischia di dare il via alla più classica delle “profezie che si autoavverano”? E ancora: non sarebbe meglio lasciare questo compito di orientamento a insegnanti che conoscono meglio di un qualunque algoritmo le predisposizioni, peculiarità (anche sociali e familiari) e potenzialità dei loro studenti?

 Per quanto siano ancora circondati dal mito di “oggettività e neutralità” che deriva dalle loro fondamenta statistiche e da una scarsa conoscenza che spesso causa un utilizzo poco consapevole, le situazioni in cui gli algoritmi predittivi si sono rivelati una soluzione peggiore sono ormai innumerevoli: software di polizia predittiva e di riconoscimento facciale che perpetuano stereotipi razzisti e classisti, sistemi per prevedere il rischio di violenza di genere che sollevano inquietanti problematiche, algoritmi per l’erogazione di sussidi che “automatizzano la diseguaglianza” e moltissimi altri casi ancora, che nel corso degli anni hanno dimostrato come affidarsi a software che hanno la pretesa di prendere decisioni “oggettive” (quando non addirittura di prevedere il futuro) non fanno altro che nascondere all’interno di una scatola nera algoritmica gli stessi pregiudizi che piagano la società.

Il software Sorprendo viene accusato di ricreare questa pericolosa dinamica in un ambito delicatissimo, come quello dell’orientamento di ragazzi non ancora adolescenti. Un’accusa rigettata da Anita Montagna, esperta del centro studi Pluriversum (la società che ha sviluppato Sorprendo). “Il nostro obiettivo non è né di dare consigli né di guidare le decisioni degli studenti, ma soltanto di aiutarli a riflettere sui propri interessi e le proprie competenze in maniera autovalutativa – ha spiegato nel corso dell’evento online Automazione & Education, organizzato da Privacy Network. Siamo lontanissimi dall’idea che se ti piacciono alcune cose allora devi fare il lavoro che viene mostrato. Quello che vedono gli studenti non è un consiglio, ma è solo materiale per la riflessione”.

Vale anche la pena chiedersi quanto possa essere utile mostrare dei potenziali percorsi professionali a studenti di 12 anni, parecchi dei quali inizieranno a lavorare attorno al 2035, quando molti dei lavori oggi esistenti si saranno estinti. Il rischio è che questi “spunti di riflessione” professionale nascano già vecchi e diventino obsoleti nel giro di pochi anni.