La Commissione europea ha presentato i Digital markets act (Dma) e Digital services act (Dsa) che andranno a comporre un quadro normativo che consentirà alle autorità di intervenire in modo rapido e preventivo, di mettere ordine nei mercati online, proteggere i cittadini dai comportamenti abusivi online e di emettere sanzioni efficaci attribuendo maggiori responsabilità alle piattaforme. Una volta ultimato, il regolamento europeo sostituirà la direttiva ecommerce del 2000, che non richiedeva alle piattaforme di monitorare attivamente ciò che i loro utenti caricano.
Già da alcuni anni la Commissione chiede ai colossi della Rete di aderire a un codice di condotta e di pubblicare dei report periodici su come gestiscono la moderazione dei contenuti illegali e di hate speech.
Molti Stati – come la Germania – hanno introdotto leggi nazionali più vincolanti per imporre alle piattaforme di rimuovere i contenuti in poche ore.
Tenendo conto dell’insufficienza del sistema di autoregolamentazione per gestire la situazione e della frammentazione ulteriore che sarebbe derivata se ogni Stato avesse scritto la sua legge, la Commissione europea si è adoperata per l’elaborazione di un regolamento europeo con regole uguali per tutti i 27 Paesi membri con l’obiettivo di stabilire uno standard di riferimento condiviso, che prescriva cosa debbano fare le piattaforme per non incorrere in sanzioni e garantire uno spazio sicuro per gli utenti.
Stando a quanto affermato dalla Commissaria alla concorrenza Margrethe Vestager, il DSA (Digital Services Act), o regolamento sui servizi digitali, “fisserà nuovi obblighi e responsabilità per gli intermediari digitali, e soprattutto per le piattaforme online, riguardo ai contenuti che essi ospitano – ovunque si trovino nell’UE. Legislazioni settoriali nazionali o europee potranno inserirsi in questo quadro orizzontale, in particolare per definire quali sono i contenuti illegali – come l’incitamento all’odio o alla violenza, il terrorismo, la pornografia infantile o la vendita di prodotti illegali o contraffatti – nonché eventuali rimedi specifici”. Il DMA (Digital Markets Act), o regolamento sui mercati digitali, “si occuperà in modo più specifico dei comportamenti delle aziende che hanno assunto una rilevanza sistemica. Dimensioni maggiori significano responsabilità maggiori. I gatekeeper digitali dovranno rispettare una serie di obblighi ben definiti che mirano a evitare comportamenti sleali”.
Il Digital Markets Act costituisce uno strumento normativo ex ante (contrariamente alla normativa antitrust attuale, che è applicata ex post, ossia solo dopo che la condotta anticoncorrenziale è stata posta in essere e includerebbe principalmente: divieti o restrizioni nell’esecuzione di specifiche pratiche commerciali inserite dalla Commissione “nella lista nera” (blacklist), nuovi obblighi (“nella whitelist”) in capo alle piattaforme per modificarne le pratiche commerciali e facilitare la concorrenza, oltre a rimedi ad hoc da applicarsi, caso per caso, in capo alle Large online Platforms (case by case assessment).
Il Dsa andrà ad affiancare e completare la direttiva sul copyright, la direttiva sulla protezione dei consumatori e il regolamento sul terrorismo online, delineando un nuovo set di regole per stabilire quando le piattaforme sono esenti da responsabilità. Per godere di questa esenzione, le piattaforme dovranno dimostrare la loro due diligence e cooperare con il Digital Services Coordinator, la nuova autorità preposta.
Le nuove regole si applicheranno ai servizi di intermediazione online come social network, piattaforme per la vendita si servizi come quelli alberghieri o della ristorazione, siti per guardare i video on-demand. Anche nel caso in cui non ci fosse una sede in Europa, le piattaforme dovranno avere un legale rappresentante che possa interagire celermente con le autorità dello stato membro, il Digital Services Coordinator e la Commissione.
Obblighi aggiuntivi sono previsti per le grandi piattaforme (quelle con una media di oltre 45 milioni di utenti mensili in Europa).
Gli utenti avranno a disposizione maggiore trasparenza e più informazioni sulle piattaforme che dovranno usare un linguaggio semplice e chiaro nei termini e nelle condizioni e almeno una volta all’anno dovranno pubblicare dei report sulla moderazione dei contenuti che riportino i numeri delle richieste da parte delle autorità e del tempo impiegato per rispondere, delle volte che hanno agito in base ai loro termini e condizioni, delle volte che gli utenti si sono opposti a una loro scelta.
In caso di rimozione di un contenuto, le piattaforme dovranno informare gli utenti in modo chiaro e specifico. Oggi, quando un contenuto viene rimosso, arriva solo una comunicazione generica che informa che il contenuto violava le norme del sito senza dare una spiegazione. Se il contenuto è considerato illegale, il Dsa prevede che si citino le norme di riferimento e si spieghi come è possibile contestare la rimozione. Le contestazioni dovranno essere gestite senza ritardo e in modo gratuito per l’utente, che potrà rivolgersi a mediatori esterni che devono essere certificati e riconosciuti dal Digital Services Coordinator.
Dovrà essere evidenziato chiaramente quali sono i contenuti sponsorizzati, chi li sponsorizza e perché un utente vede quel post e non un altro.
Inoltre, la piattaforma che ospita un negozio virtuale dovrà identificare i venditori chiedendo loro nome, indirizzo, mail e telefono, un documento di identità, il conto corrente per i pagamenti dei clienti e un numero di registro che potrebbe essere il registro delle imprese o la partita Iva. In caso di dati scorretti, e nel caso il venditore non provvedesse alle modifiche richieste, potrebbe essere sospeso dalla piattaforma. Questo permetterà di identificare il venditore con meno rischi di frodi.
Almeno una volta all’anno le grandi piattaforme dovranno elaborare una valutazione del rischio di diffusione di contenuti illegali e volti a manipolare l’opinione pubblica, oltre che dell’impatto sui diritti fondamentali come la privacy e la libertà d’espressione. In base al risultato i big tech dovranno adottare le necessarie misure correttive e sottoporsi almeno una volta all’anno a un audit esterno da parte di un soggetto certificato.
Ogni Stato Membro dovrà individuare un Digital Services Coordinator, ovvero un’autorità preposta al controllo del rispetto del regolamento, e avrà un rappresentante a Bruxelles per formare il board. L’autorità avrà potere ispettivo e potrà comminare sanzioni che siano efficaci, proporzionate e deterrenti e che potranno arrivare fino al 6% del fatturato globale o, nel caso del Dma, al 10%.
L’ammontare delle sanzioni dipenderà dal numero di utenti, di Paesi coinvolti e dalla prontezza e completezza delle risposte all’Autorità.