Una foto, un click e in pochi secondi diventi un’action figure stilizzata con tappetino da yoga e borraccia personalizzata. Il nuovo generatore di immagini di OpenAI ha invaso di social a inizio aprile con caricature in stile Ghibli e pupazzetti digitali sorprendentemente realistici. Il tutto, gestito da GPT-4o e accessibile anche con l’account gratuito di ChatGPT.
L’entusiasmo, però, nasconde una realtà meno evidente: la raccolta massiva di dati personali. Ogni volta che carichiamo una foto su ChatGPT, cediamo consapevolmente un vasto pacchetto di metadati (dalle coordinate GPS alle informazioni sul dispositivo utilizzato). Il tutto, spiega l’esperto Tom Vazdar, può essere utilizzato, e lo è, per migliorare i modelli AI.
OpenAI smentisce di sfruttare strategicamente questi trend per ottenere dati, ma ammette che i contenuti inviati possono essere usati per l’addestramento, salvo esplicita opposizione da parte dell’utente. Intanto, i dati biometrici restano una zona grigia: protetti dal GDPR solo se trattati per riconoscere una persona, ma vulnerabili se “stilizzati”.
Cosa possiamo fare per proteggerci? Disattivare la cronologia, leggere l’informativa sulla privacy, rimuovere metadati dalle immagini e non condividere mai nulla che non pubblicheremo su un muro. Perché tra filtri, API e modelli multimodali, la creatività si paga e non sempre con un abbonamento.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!