Digital Service Act, luci e ombre del futuro digitale europeo

Col Digital Service Act le piattaforme online diventano legalmente responsabili dei contenuti pubblicati. Quali saranno gli effetti e le ripercussioni sul digitale

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

Con il Digital Service Act le piattaforme online diventano legalmente responsabili dei contenuti pubblicati. Gli effetti del Digital Service Act non interesseranno solo l’Europa, ma avranno ripercussioni di più ampia portata a livello globale.

Perché il Digital Service Act

Abbiamo già tracciato il contenuto del Digital Service Act nell’articolo “Via libera del Parlamento europeo al Digital Services Act (Dsa), più di un anno fa. Ora è importante, oltre rivedere le linee guida che lo caratterizzano, comprendere perché la sua entrata in vigore il 25 agosto desta non poche perplessità, agita i colossi tecnologici e fa agitare la bandiera della democrazia, laddove si vede limitato se non addirittura in pericolo il pluralismo.

Il Digital Service Act si presenta come un passo importante per la difesa dei valori europei nello spazio online, dando rilievo al rispetto delle norme internazionali in materia di diritti umani e contribuendo a proteggere la democrazia, l’uguaglianza e lo Stato di diritto.

Il regolamento sui servizi digitali:

  • fissa standard elevati per interventi efficaci per il giusto processo e per la tutela dei diritti fondamentali online;
  • mantiene un approccio equilibrato alle responsabilità degli intermediari;
  • stabilisce misure efficaci per contrastare i contenuti illegali e i rischi per la società online.  In tal modo, il regolamento sui servizi digitali mira a stabilire un parametro di riferimento normativo rispetto agli intermediari online anche a livello mondiale

Le norme si applicano nel mercato unico dell’UE, senza discriminazioni, anche agli intermediari online stabiliti al di fuori dell’Unione europea che offrono i propri servizi nel mercato unico. Se non sono stabiliti nell’UE, tali intermediari dovranno nominare un rappresentante legale, come già fanno molte imprese nell’ambito degli obblighi previsti da altri strumenti giuridici. Allo stesso tempo gli intermediari online che forniscono i propri servizi nell’UE beneficeranno anche della chiarezza giuridica delle deroghe alla responsabilità e di un unico insieme di norme.

Quando è entrato in vigore il Digitale Service Act

Il Digital Service Act è entrato in vigore il 16 novembre 2022, dopo essere stato pubblicato nella Gazzetta ufficiale dell’UE il 27 ottobre 2022, producendo i suoi effetti dal 25 agosto 2023, e interessando, in prima istanza, le Big Tech, o meglio un dettagliato elenco stilato dalla Commissione europea.

Il regolamento sui servizi digitali è direttamente applicabile in tutta l’UE, garantendo così un quadro unico e uniforme in tutta l’UE.

La classificazione di piattaforme e motori di ricerca

Il Digital Service Act classifica le piattaforme o i motori di ricerca che hanno più di 45 milioni di utenti al mese nell’UE come:

  • piattaforme online di dimensioni molto grandi (VLOP, ovvero very large online platforms)
  • motori di ricerca online molto grandi (VLOSE, very large online search engines).

Una volta che la Commissione designa una piattaforma come VLOP o un motore di ricerca come VLOSE si hanno a disposizione quattro mesi per conformarsi al Digital Service Act.

La Commissione revoca la sua decisione se la piattaforma o il motore di ricerca non raggiunge più la soglia di 45 milioni di utenti mensili per un anno intero.

Il 25 aprile 2023 la Commissione ha, appunto, designato come VLOP e VLOSE le seguenti piattaforme e motori di ricerca:

Piattaforme online di dimensioni molto grandi:

  • Alibaba AliExpress, con riferimento alle informazioni in esso contenute
  • Amazon Store
  • Apple AppStore
  • Booking.com, con riferimento alle offerte di hotel
  • Facebook, con riferimento alle informazioni in esso contenute
  • Google Play
  • Google Maps, con riferimento alle informazioni in esso contenute
  • Google Shopping, con riferimento alle informazioni in esso contenute
  • Instagram, con riferimento alle informazioni in esso contenute
  • LinkedIn, con riferimento alle informazioni in esso contenute
  • Pinterest, con riferimento alle informazioni in esso contenute
  • Snapchat, con riferimento alle informazioni in esso contenute
  • TikTok, con riferimento ai giochi
  • Twitter, con riferimento alle informazioni in esso contenute
  • Wikipedia, con riferimento alle informazioni in esso contenute
  • YouTube, con riferimento alle informazioni in esso contenute
  • Zalando

Motori di ricerca online di dimensioni molto grandi:

  • Bing
  • Google Search

Obblighi per i VLOP e VLOSE

Una volta che la Commissione ha designato una piattaforma o un motore di ricerca, questi dispongono di quattro mesi per conformarsi alla DSA.

E’ necessario, per esempio:

  • stabilire un punto di contatto
  • segnalare reati penali
  • avere termini di condizioni facili da usare
  • essere trasparenti per quanto riguarda la pubblicità, i sistemi di raccomandazione o le decisioni di moderazione dei contenuti.

E’ necessario seguire le regole che si concentrano sui VLOP e sui VLOSE a causa delle loro dimensioni e del potenziale impatto che possono avere sulla società. Ciò significa che devono identificare, analizzare e valutare i rischi sistemici collegati ai loro servizi. Essi dovrebbero esaminare, in particolare, i rischi connessi a:

  • contenuti illegali
  • diritti fondamentali, quali la libertà di espressione, la libertà dei media e il pluralismo, la discriminazione, la protezione dei consumatori e i diritti dei minori
  • sicurezza pubblica e processi elettorali
  • violenza di genere, salute pubblica, protezione dei minori e benessere mentale e fisico.

Una volta individuati i rischi e comunicati alla Commissione per la sorveglianza, i VLOP e i VLOSE sono tenuti a mettere in atto misure che mitigano tali rischi. Ciò potrebbe significare adattare la progettazione o il funzionamento dei loro servizi o cambiare i loro sistemi di raccomandazione, così come rafforzare la piattaforma internamente con maggiori risorse per identificare meglio i rischi sistemici.

Quelli designati come VLOP o VLOSE dovranno inoltre:

  • stabilire una funzione interna di conformità che garantisca che i rischi individuati siano mitigati
  • essere controllati da un revisore indipendente almeno una volta all’anno e adottare misure che rispondano alle raccomandazioni del revisore
  • condividere i loro dati con la Commissione e le autorità nazionali in modo che possano monitorare e valutare la conformità alla DSA
  • consentire ai ricercatori controllati (Fact Checker) di accedere ai dati delle piattaforme quando la ricerca contribuisce all’individuazione, all’identificazione e alla comprensione dei rischi sistemici nell’UE
  • fornire un’opzione nei loro sistemi di raccomandazione che non si basa sulla profilazione dell’utente
  • disporre di un archivio pubblico di annunci pubblicitari.

Cosa vuol dire rendere più sicuro il mondo online con il Digital Service Act

Il Digital Service Act si pone come obiettivi:

  • proteggere dalle merci pericolose e dai contenuti illegali. Il Digital Service Act renderà più facile segnalare contenuti illegali, come l’incitamento all’odio o prodotti contraffatti, introducendo sistemi obbligatori di segnalazione di facile utilizzo. Le piattaforme dovranno trattare le segnalazioni in modo tempestivo e diligente e tenere aggiornato chi le ha presentate. Inoltre, sarà possibile ottenere informazioni chiare sui fornitori di beni o servizi online dai quali si effettuano gli acquisti
  • combattere il cyberbullismo. Il bullismo e la violenza online sono un problema sempre più diffuso e di crescente complessità e gravità sia per i bambini che per gli adulti. Il Digital Service Act proteggerà in modo più incisivo le vittime di molestie e bullismo online, anche garantendo che qualsiasi immagine privata condivisa in modo non consensuale e altri contenuti abusivi e illeciti condivisi possano essere segnalati tempestivamente dagli utenti
  • limitare la pubblicità mirata. Il Digital Service Act introduce trasparenza per la pubblicità, assicurandosi che sia chiaramente identificata e che siano disponibili informazioni su chi pubblica un annuncio e sul motivo per cui lo si sta visualizzando. Istituisce, inoltre, un divieto per determinati tipi di pubblicità sulle piattaforme online, ad esempio gli annunci basati su categorie di dati sensibili, tra cui la sessualità, la religione o la razza, e proibirà del tutto la pubblicità mirata destinata ai minori e basata sui loro dati personali
  • comprendere e contestare le decisioni di moderazione dei contenuti. Il Digital Service Act consentirà di interpellare le piattaforme attraverso un meccanismo di reclamo gratuito e di facile utilizzo
  • semplificare termini e condizioni. Quando un sito web o un’app chiede di leggere i termini e le condizioni, solitamente, ci si trova di fronte un testo scritto in caratteri minuscoli che dobbiamo scorrere fino alla fine. Questo rende difficile concentrarsi su ciò che stiamo accettando. Il Digital Service Act garantirà che le piattaforme online, con oltre 45 milioni di utenti nell’UE, mettano a disposizione sintesi concise e inequivocabili dei loro termini e condizioni nella lingua locale dell’UE, in modo che tutti sappiano ciò che stanno accettando.

 

Perché la necessità di un Digital Service Act

Il regolamento sui servizi digitali non definisce ciò che è illegale online, ma introduce nuove norme a livello dell’UE riguardanti l’individuazione, la segnalazione e la rimozione di contenuti illegali, nonché un nuovo quadro di valutazione dei rischi, per le piattaforme e i motori di ricerca online di dimensioni molto grandi, relativi alle modalità di diffusione di contenuti illegali tramite i loro servizi.

Ciò che costituisce un contenuto illegale è definito in altre normative a livello dell’UE o a livello nazionale, ad esempio i contenuti terroristici o il materiale pedopornografico o le forme illegali di incitamento all’odio online sono definiti a livello dell’UE. Se un contenuto è illegale solo in un determinato Stato membro, di norma dovrebbe essere rimosso solo nel territorio in cui è illegale.

Il Digital Service Act stabilisce quelle norme orizzontali che coprono tutti i servizi e tutti i tipi di contenuti illegali, tra cui merci e servizi.

Non si pone come obiettivo di sostituire o modificare, bensì di integrare le normative settoriali quali:

  • la direttiva sui servizi di media audiovisivi
  • la direttiva sul diritto d’autore nel mercato unico digitale
  • l’acquis relativo alla tutela dei consumatori
  • la proposta di regolamento relativo alla prevenzione della diffusione di contenuti terroristici online.

Un passo avanti nella direttiva sul commercio elettronico

Il Digital Service Act si pone come ulteriore passo in avanti, o forse un aggiornamento della direttiva sul commercio elettronico, adottata nel 2000, che ha costituito il quadro giuridico principale per la fornitura di servizi digitali nell’UE, gettando le basi per la regolamentazione dei servizi digitali nel mercato unico europeo.

Dopo un ventennio si è considerato opportuno aggiornare la normativa, alla luce del fatto che, se, da un lato, le piattaforme online hanno portato vantaggi notevoli ai consumatori e hanno promosso l’innovazione, hanno agevolato gli scambi transfrontalieri entro e oltre i confini dell’Unione e offerto nuove opportunità a molteplici imprese e operatori commerciali europei, al contempo, da un altro lato, sono usate in modo improprio per diffondere contenuti illegali o per vendere merci o servizi illegali online.

Inoltre, la direttiva sul commercio elettronico non prevedeva alcun meccanismo di cooperazione tra le autorità. Il principio del “paese di origine” ha fatto sì che la vigilanza fosse affidata al paese di stabilimento.

Il regolamento sui servizi digitali si basa sulle norme della direttiva sul commercio elettronico e affronta le problematiche specifiche che emergono nell’ambito dei servizi di intermediazione online. Gli Stati membri hanno regolamentato tali servizi in modo eterogeneo, il che ha creato ulteriori ostacoli per le piccole imprese desiderose di espandersi e crescere in tutta l’UE e ha generato livelli di tutela disomogenei per i cittadini europei.

Con il regolamento sui servizi digitali saranno eliminati gli oneri giuridici superflui dovuti a differenze tra le legislazioni e ciò promuoverà un ambiente più fertile per l’innovazione, la crescita e la competitività e favorirà l’espansione delle PMI e delle start-up e proteggerà tutti gli utenti dell’UE, sotto il profilo della sicurezza dei contenuti, delle merci e dei servizi illegali.

Contenuti e censura

Se per le scene chiaramente violente l’interdizione può essere già richiesta ed effettuata dalle autorità competenti e a tale riguardo le piattaforme avevano già implementato modelli per limitarne al massimo la diffusione, permane il problema per l’incitamento all’odio e le fake news che appaiono come fattispecie a volte dai contorni un po’ sfumati, molto spesso privi di una codificazione diffusa in Europa e che vanno a collocarsi in quella zona grigia tra la libertà di espressione e la manifestazione del pensiero.

La creazione di un reticolato di controlli, che va dalla minor reddittività dei contenuti di odio alla cancellazione del contenuto, ai controlli condotti da fact checker indipendenti porta ad un sistema che è possibile chiamare di censura, temperato da ricorsi che possono essere promossi dalle piattaforme o da sistemi di conciliazione.

Se i propri contenuti o i propri canali venissero limitati o fosse effettuato un taglio ai profitti pubblicitari per la pubblicazione di un contenuto ritenuto non conforme si potrà fare ricorso direttamente nei confronti della piattaforma e, poi, in caso negativo, adire un soggetto abilitato alla conciliazione o le autorità indipendenti preposte, che verranno, però, designate non prima di febbraio 2024.

L’intento del legislatore europeo, in realtà, è volto a prevenire situazioni di impatto in contesti sensibili, come è avvenuto per Cambridge Analytica o altre situazioni dove si è palesata una vera e propria manipolazione dell’elettorato mediante diffusione di informazioni non veritiere durante le campagne elettorali.

Se il sistema posto in essere dal Digital Service Act porterà al tanto auspicato equilibrio tra limitazione dei contenuti e libertà di manifestare il proprio pensiero, lo dirà il trascorrere del tempo e la sua applicazione pratica.