La recente introduzione della verifica dell’età tramite riconoscimento facciale arriva infatti dopo una serie di azioni giudiziarie negli Stati Uniti, che accusavano l’azienda di non aver garantito misure adeguate contro i predatori sessuali e altri rischi.
La piattaforma non è un videogioco tradizionale, ma un universo aperto composto da mondi generati dagli utenti, sistemi economici interni e chat pubbliche e private. Questa natura ibrida ha favorito una crescita enorme, trasformando Roblox in uno spazio sociale globale, ma ha reso altrettanto elevate le vulnerabilità: contatti indesiderati tra minori e adulti, dinamiche di grooming e ambienti ambigui difficili da moderare su larga scala.
La presenza massiccia di minori rappresenta un fattore giuridico decisivo: quando l’utente medio è un bambino o un adolescente, il livello di cura richiesto alla piattaforma aumenta proporzionalmente. Il rischio di adulti che si fingono coetanei era ampiamente prevedibile, e proprio questa prevedibilità è alla base delle cause intentate negli USA, dove più Stati hanno accusato Roblox di aver privilegiato la crescita rispetto alla sicurezza.
Ecco perché Roblox ha introdotto un nuovo sistema di verifica dell’età, basato sul riconoscimento facciale o sulla presentazione di un documento.
Una volta identificati, gli utenti vengono suddivisi in fasce d’età che definiscono con chi possono interagire. Gli adulti non possono più scrivere direttamente ai bambini e la chat dei più piccoli è disattivata di default e può essere riattivata solo dai genitori, mentre un nuovo meccanismo di “connessione fidata” permette ai familiari e agli amici già conosciuti di continuare a comunicare anche se appartengono a gruppi anagrafici diversi.
Queste nuove misure però non risolvono ogni criticità. L’identificazione tramite volto infatti limita gli abusi nella chat, ma non elimina i rischi che possono annidarsi nei mondi virtuali creati dagli utenti, dove le interazioni possono avvenire anche senza messaggi testuali.
L’uso di dati biometrici inoltre, soprattutto in Europa, è ancora oggetto di dibattito, e viene sottoposto a rigidi requisiti di proporzionalità e trasparenza previsti dal GDPR.
La questione solleva quindi un interrogativo più ampio: fino a che punto una piattaforma basata su contenuti generati dagli utenti può essere ritenuta responsabile dei rischi che emergono dalle interazioni tra i membri? Le cause statunitensi potrebbero contribuire a definire un nuovo standard, imponendo obblighi più severi di prevenzione, identificazione e moderazione.
Roblox diventa così un esempio concreto delle sfide che attendono tutte le piattaforme frequentate da minori e conferma una direzione ormai inevitabile: la sicurezza dei più giovani non può più essere un accessorio, ma il fondamento stesso su cui costruire i servizi digitali del futuro.
S.B.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















