L’INTELLIGENZA ARTIFICIALE STA INQUINANDO I RISULTATI DI GOOGLE

La qualità dei risultati forniti dai motori di ricerca sta peggiorando, e non è solamente una questione di percezione. Uno studio durato un anno, condotto da informatici provenienti da diverse università tedesche ha analizzato a fondo le procedure di navigazione online ed è giunto a una conclusione: i risultati di Google sono peggiori perché internet è qualitativamente peggiore.

Questi sono i risultati di un esperimento iniziato poco dopo l’avvento di ChatGPT a fine 2022. Un gruppo di ricercatori tedeschi ha passato un anno ad analizzare i link restituiti da Google e altri motori di ricerca per poi concludere che i principali risultati di alcuni tipi di ricerca sono di qualità nettamente inferiori, semplificati, ripetitivi e potenzialmente sintetici, e i segnali fanno pensare a un testo generato dall’AI.

La tecnica non è nulla di nuovo, ma lo sono quantità e qualità dei contenuti. L’AI generativa, di fatto, può agire come moltiplicatore d’effetto per le operazioni di frode. È emerso come i contenuti di spam, ossia quelli ingannevoli e meno significativi, abbiano via via guadagnato posizioni, spingendo ai margini le informazioni utili e di qualità. Nel migliore dei casi si tratta di clickbait, o annunci mirati ingannevoli e siti web di bassa qualità, costruiti apposta per apparire in cima alla pagina dei risultati e raggranellare proventi dagli spazi pubblicitari. Nel peggiore, si parla di siti fasulli pensati per sottrarre all’utente informazioni personali o dati finanziari, come il numero della carta di credito.

Il problema è bifronte. Da una parte la possibilità di inondare i motori di ricerca con quantità massicce di contenuti come testi, immagini, voci e persino video ultra-realistici interamente generati dall’AI e il conseguente processo di degradazione delle informazioni che circolano nell’infosfera. Dall’altra, l’AI sta impattando il modo in cui i motori di ricerca fanno risaltare le informazioni perché i modelli linguistici alla base dei risultati raffinati dall’AI potrebbero finire per “informarsi” su contenuti sintetici a loro volta generando un circolo vizioso che può amplificare la degradazione dei risultati.

Le Big Tech si stanno muovendo per diminuire il rischio disinformazione parlando di progresso nella creazione di strumenti per identificare il contenuto generato ma il miglioramento dell’AI generativa continua ad assottigliare la differenza tra contenuti genuini e sintetici.

 

C.T.