Lo scorso marzo è stata approvata dall’Unione Europea l’AI Act, la prima legislazione al mondo sull’Intelligenza Artificiale con l’obiettivo di “limitare i rischi e aumentare le opportunità” di questa tecnologia. Rispetto al nuovo strumento progettato dalla startup svizzera però, molte grandi aziende, quali Meta e OpenAI, non sembrano essere conformi alle normative europee in settori come la resilienza informatica e l’output discriminatorio.
Il nuovo strumento progettato dalla LatticeFlow AI, con l’aiuto degli istituti di ricerca ETH di Zurigo e INSAIT di Sofia, è un test. Questo ultimo valuta i modelli di Intelligenza Artificiale generativa (IAg) tenendo conto dei criteri previsti dalla normativa europea.
Inoltre, serve ad ottimizzare le risorse e destinarne di migliori nelle aree in cui sono più carenti. La violazione delle norme sull’AI prevede sanzioni fino a 35 milioni di euro o pari al 7% del fatturato annuo globale.
Il test verrà presto reso disponibile gratuitamente per gli sviluppatori, consentendogli di testare online la conformità dei loro modelli. È stato realizzato in linea con il testo dell’AI Act, e sarà poi ampliato per includere ulteriori misure di applicazione man mano che verranno implementate.
Reuters, riportando la classifica pubblicata da LatticeFlow AI, mostra che i modelli di Alibaba, Anthropic, OpenAI, Meta e Mistral hanno ottenuto un punteggio di 0.75 o superiore su una scala da 0 a 1. I risultati definiti “discriminatori” rappresentano una problematica persistente nello sviluppo dei modelli di IAg, poiché riflettono i pregiudizi umani legati a gente, etnia e altre aree.
Per quanto riguarda copyright e privacy, il CEO e cofondatore di LatticeFlow AI ha espresso due limiti: “Questo approccio non tiene conto delle potenziali violazioni del copyright che coinvolgono materiali diversi da questi libri specifici e si basa sulla quantificazione della memorizzazione del modello, che è notoriamente difficile”.
M.M.