ChatGPT rappresenta la nuova evoluzione dell’intelligenza artificiale. Per questo ha attirato velocemente l’attenzione dei media, facendo però emergere, oltre ai grandi vantaggi apportati dallo strumento, anche alcuni punti di criticità degni di nota.
Innanzitutto, sebbene ChatGPT sia in grado di fornire risposte corrette dal punto di vista grammaticale e in tempi brevi, non è detto che queste risposte siano corrette. La risposta può essere errata a causa di errori nell’elaborazione delle informazioni o a causa di input non chiari e completi da parte dell’utente che portano il software a interpretare in modo errato i dati in ingresso. È fondamentale quindi avere la capacità di distinguere le informazioni e assumersi la responsabilità di valutare e giudicare la loro qualità.
Un altro elemento discusso e contrastante è legato alle tecniche di filtro che considerano alcuni temi sensibili e altri no, alcune risposte possibili e altre non fornibili. Questo è chiaramente un problema perché la macchina definisce cosa è lecito in base alla cultura predominante.
Infine, il terzo grande pericolo è costituito da un forte aumento di crimini informatici da parte di hacker, i quali sfruttano ChatGPT per aiutarsi nella scrittura dei codici da utilizzare per rubare informazioni sui computer delle vittime. Vari esperti hanno dimostrato come l’utilizzo del bot aumenta il numero degli attori di cybercrime e permette di ridurre i costi di creazione per questi crimini.
Tra i vari casi l’utilizzo del bot per creare codici di malware, per crittografare e de-crittografare dati o per creare contenuti di phishing. Ad oggi, il caso più grave è quello di un criminale informatico che ha utilizzato ChatGPT per creare un marketplace nel Dark Web completamente automatizzato per lo scambio di dati di conti bancari e di carte di pagamento rubati, strumenti di malware, droghe e munizioni con pagamenti in criptovalute.
(S.F.)