lunedì, 15 Dicembre, 2025
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

CHATGPT PUO’ INDIVIDUARE LE INFORMAZIONI PERSONALI DEGLI UTENTI

I modelli linguistici alla base dei chat bot AI sono in grado di dedurre i dati sensibili degli utenti, anche quando la conversazione appare del tutto innocua

by Redazione
24 Ottobre 2023
in Ai, Etica AI, Privacy
0 0
0
CHATGPT PUO’ INDIVIDUARE LE INFORMAZIONI PERSONALI DEGLI UTENTI
0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

Il politecnico di Zurigo è autore di una ricerca che dimostra come i modelli linguistici di grandi dimensioni (Llm), alimentatori dei chat bot più sofisticati, possano dedurre con estrema precisione una quantità allarmante di informazioni personali sugli utenti (come etnia, posizione, occupazione ecc.) partendo da conversazioni apparentemente innocue.

Secondo Vechev, professore di informatica al Politecnico di Zurigo, il fenomeno potrebbe dipendere dal modo in cui vengono addestrati gli algoritmi, ma al momento “non è chiaro come questo problema si possa risolvere”.

È innegabile il rischio che i truffatori sfruttino questa capacità dei chat bot allo scopo di raccogliere i dati degli utenti, ma Vechev sostiene anche che il fenomeno potrebbe dare inizio ad una nuova era della pubblicità, in cui le aziende utilizzano i sistemi di chat bot per carpire informazioni e quindi costruire profili estremamente dettagliati degli utenti-target. Secondo l’informatico, infatti, c’è addirittura la possibilità che le società che sviluppano i chat bot AI lo stiano già facendo visto che la pubblicità è uno degli strumenti che utilizzano per i loro profitti.

I ricercatori di Zurigo per il momento hanno testato i modelli linguistici sviluppati da OpenAI, Google, Meta e Anthropic. A seguito della segnalazione di tale problema, il portavoce di OpenAI ha dichiarato che la società lavora per rimuovere le informazioni personali dai dati di addestramento che utilizza per creare i suoi modelli. Infatti OpenAI vuole che i propri modelli “imparino a conoscere il mondo, non le persone”. Anthropic ha ribadito che la propria informativa sulla privacy assicura di non raccogliere o “vendere” informazioni personali, mentre per il momento c’è silenzio da parte di Google e Meta.

Questo problema a livello di privacy sembra nascere dallo stesso processo che ha reso possibile il salto di qualità per ChatGPT e gli altri chat bot. I modelli di intelligenza artificiale in questione, infatti, vengono addestrati utilizzando enormi quantità di dati raccolti sul web. Tra i testi utilizzati figurano anche informazioni personali e conversazioni, dati che permettono ai sistemi di sviluppare una sensibilità rispetto agli schemi del linguaggio, che a loro volta consentono ai modelli linguistici di formulare ipotesi sul conto di una persona in base delle frasi che scrive.

Taylor Berg-Kirkpatrick, professore associato presso l’University California San Diego ed esperto di apprendimento automatico e linguaggio, ha dichiarato che non è sorprendente il fatto che i modelli linguistici siano in grado di ottenere informazioni private. A destare preoccupazione è l’accuratezza con cui lo fanno.

I ricercatori hanno quindi dimostrato che talvolta i modelli linguistici di grandi dimensioni possono dedurre dati personali specifici, ma l’informatico Vechev ha anche sottolineato come la capacità degli Llm di dedurre dati personali sia fondamentale per il loro funzionamento.

La situazione è complessa e ci spinge a porci delle domande sulla quantità di informazioni personali che inavvertitamente lasciamo trapelare in situazioni in cui non pensiamo che la nostra privacy sia a rischio.

 

M.M.

Tags: ChatGPTdati sensibilitutela della privacy
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

COME PENSA L’AI: LA SCIENZA DELLE DISTANZE E DELLE SOMIGLIANZE
Ai

COME PENSA L’AI: LA SCIENZA DELLE DISTANZE E DELLE SOMIGLIANZE

12 Dicembre 2025
AI E SMARTWATCH: SONO AFFIDABILI?
Ai

AI E SMARTWATCH: SONO AFFIDABILI?

12 Dicembre 2025
AI E FINANZA
Ai

AI E FINANZA

12 Dicembre 2025
AI SUL WEB: CI STA RENDENDO PIGRI?
Ai

AI SUL WEB: CI STA RENDENDO PIGRI?

11 Dicembre 2025
L’ENERGIA DEL FUTURO PARLA UN LINGUAGGIO INTELLIGENTE
Ai

L’ENERGIA DEL FUTURO PARLA UN LINGUAGGIO INTELLIGENTE

11 Dicembre 2025
GROKIPEDIA È UN FLOP?
Ai

GROKIPEDIA È UN FLOP?

11 Dicembre 2025

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

IL POTENZIALE DELL’INTELLIGENZA ARTIFICIALE NELLA CURA DELLE MALATTIE

IL POTENZIALE DELL’INTELLIGENZA ARTIFICIALE NELLA CURA DELLE MALATTIE

18 Settembre 2023
Proteggere la privacy nella didattica a distanza

Proteggere la privacy nella didattica a distanza

2 Aprile 2020
COME PREVENIRE LE TRUFFE ONLINE

COME PREVENIRE LE TRUFFE ONLINE

19 Agosto 2025
LA CONDIVISIONE DI VIDEO INTIMI RIENTRA NEL REATO DI “DIFFUSIONE DI RIPRESE FRAUDOLENTE”

LA CONDIVISIONE DI VIDEO INTIMI RIENTRA NEL REATO DI “DIFFUSIONE DI RIPRESE FRAUDOLENTE”

23 Gennaio 2025
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • 2025, un anno di sangue per il giornalismo: 67 cronisti uccisi nel mondo 12 Dicembre 2025
  • IL FASCINO LETALE DELL’INTELLIGENZA ARTIFICIALE: IL CASO HEXSTRIKE AI 12 Dicembre 2025
  • COME PENSA L’AI: LA SCIENZA DELLE DISTANZE E DELLE SOMIGLIANZE 12 Dicembre 2025

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Dicembre 2025
L M M G V S D
1234567
891011121314
15161718192021
22232425262728
293031  
« Nov    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata?

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra