Di queste buone intenzioni potrebbe parlarne A., 10 anni, morta soffocata nel 2021 a Palermo probabilmente mentre partecipava alla challenge “Black out” su TikTok, che consisteva nel soffocarsi cercando di resistere il più a lungo possibile senza perdere i sensi. Alla stessa sfida, con esiti altrettanto tragici, hanno partecipato anche M. e L., 8 e 9 anni, due bambine americane.
Nella denuncia contro il social network, presentata dai genitori assistiti dal Social Media Victim Law Centre, si legge che “l’algoritmo pericoloso ha spinto intenzionalmente e ripetutamente i video della sfida nel feed dei bambini […] anteponendo il profitto alla salute degli utenti”. È risaputo che il valore di un contenuto sui social aumenta in termini di monetizzazione quanto più a lungo riesce a trattenere gli utenti sulla piattaforma, indipendentemente dall’età.
Il Gdpr (Regolamento generale sulla protezione dei dati) stabilisce, all’art. 8, le condizioni per il consenso dei minori ai servizi della società dell’informazione. La norma stabilisce che il minore che abbia compiuto 16 anni (o un’età non inferiore ai 13 anni, stabilita dallo Stato nazionale), può validamente prestare il consenso per il trattamento dei propri dati. L’Italia ha fissato questa età a 14 anni, per coerenza con l’ordinamento giuridico.
Si ricordi che il minore sotto i 14 anni ha un’autonoma legittimazione attiva in tema di cyberbullismo e ha diritto a prestare consenso all’adozione. Di conseguenza, permettergli di iscriversi autonomamente a un social network è apparso logico. Il legislatore, sia nazionale che comunitario, si è preoccupato di offrire specifiche garanzie e una protezione rafforzata per i minori, data la scarsa consapevolezza delle conseguenze dei propri atti e dei rischi connessi all’uso della rete.
Tuttavia, i fatti di cronaca raccontano una realtà diversa, in cui i minori e i soggetti fragili vengono lasciati soli a guardare contenuti relativi al suicidio, all’autolesionismo e all’odio. Adulti disorientati validano la loro genitorialità postando continuamente sui social network foto e successi dei loro figli, manifestando quella che gli studiosi chiamano “sindrome da sharenting”, rischiando di esporre i più piccoli a predatori sessuali. O ancora, noti consulenti si dimettono dai board delle grandi piattaforme perché queste preferiscono “chiudere un occhio” sui temi della prevenzione del suicidio o dell’autolesionismo per favorire il profitto.
Non basta un parere o una sentenza ogni tanto. Se si deve parlare di etica, soprattutto per tutelare i minori, essa deve essere fondamentale, utilizzata come base per quei sistemi che stanno orientando il mondo verso un baratro. Accanto alla privacy by design e by default sarebbe opportuno che i legislatori nazionali e sovranazionali imponessero un’etica by design alla base dei sistemi di business, strutturati per tenere in alta considerazione i diritti e la personalità umana e proteggere i più piccoli da pericoli sempre più vicini e incontrollabili.
LG