I ricercatori accademici stanno studiando dei metodi che permettano di determinare se una stringa di parole è stata generata o meno da un programma come ChatGpt. Al momento, l’indicatore decisivo per capire se quello che stiamo leggendo è stato creato con l’aiuto dell’intelligenza artificiale è la mancanza di sorpresa.
Il riconoscimento potrebbe avvenire mediante watermarks, ossia segni nascosti appositamente seminati nei testi generati dall’AI. I modelli linguistici AI funzionano prevedendo e generando una parola alla volta. Dopo ogni parola, l’algoritmo di rilevamento divide il vocabolario del modello linguistico in parole in una “lista verde” e una “lista rossa”. Maggiore è il numero di parole della lista verde in un passaggio, maggiore è la possibilità che il testo sia stato generato da una macchina. Il testo scritto da una parte tende a contenere un mix più casuale di parole.
Anche OpenAI ha sviluppato un nuovo strumento che è stato addestrato a distinguere tra il testo scritto da un essere umano e quello scritto da vari tipi di AI, non solo ChatGpt. I ricercatori di OpenAI hanno affermato che, mentre sarebbe impossibile rilevare in modo affidabile tutto il testo scritto dall’AI, si potrebbero rilevare alcune prove che il testo sia stato scritto da quest’ultima. Lo strumento potrebbe essere utile nei casi di disonestà accademica e quando i chatbot si fingono esseri umani.
La tecnologia digitale ha reso più rapido ed efficiente qualunque processo ma ha al contempo sovraccaricato di oneri gli esseri umani.
(V.M)