Digital Service Act, quali saranno gli impatti per gli utenti

Protezione dei minori, libertà di espressione, pubblicità online: quali vantaggi avrà il Digital Service Act sugli utenti? Come li proteggerà? Scopriamolo insieme

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

Il Digital Service Act definisce strumenti efficaci che consentono a tutte le parti dell’ecosistema online di contrastare i contenuti illegali, ma anche le merci e i servizi illegali. Scopriamo quali sono i vantaggi per i cittadini e come il Digital Service Act proteggerà gli utenti.

I vantaggi del Digital Service Act per i cittadini

È indiscutibile che l’uso delle piattaforme online svolga un ruolo sempre più rilevante nel panorama europeo. Proprio di fronte a questo scenario si colloca il Digital Service Act, che si pone, tra i suoi obiettivi, quello di rendere l’esperienza online degli utenti più sicura, in modo da consentire a tutti i cittadini europei la possibilità di trarre una serie di vantaggi, con una esposizione alle attività illegali sempre più ridotta e una tutela dei diritti fondamentali sempre più estesa e rafforzata.

In concreto cosa vuol dire tutto ciò per gli utenti?

Il ruolo dei marketplace online

I marketplace online dovranno individuare i propri utenti commerciali e chiarire chi vende un prodotto o offre un servizio. Ciò aiuterà a rintracciare le attività fraudolente e proteggerà gli acquirenti online da merci illegali, quali prodotti contraffatti e pericolosi. I marketplace online controlleranno la documentazione dei prodotti venduti sulla propria piattaforma e dovrebbero fare sempre più   affidamento  su soluzioni che consentono una migliore tracciabilità con lo scopo di garantire che sempre meno merci non conformi raggiungano i consumatori europei. I marketplace online saranno tenuti a informare i consumatori che hanno acquistato un prodotto o servizio quando vengono a conoscenza dell’illegalità di tali prodotti o servizi, in merito

  1. all’illegalità stessa
  2. all’identità dell’operatore commerciale
  3. a qualsiasi mezzo di ricorso pertinente.

Nuovi diritti per gli utenti

I cittadini potranno segnalare i contenuti illegali in cui si imbattono, compresi i prodotti, e contestare le decisioni prese dalle piattaforme online in caso di rimozione dei loro contenuti. Le piattaforme sono tenute a notificare agli utenti qualsiasi decisione, nonché le relative motivazioni e a prevedere un meccanismo di contestazione.

  • Maggiore trasparenza sulla pubblicità. Gli utenti riceveranno maggiori informazioni sugli annunci pubblicitari che vedono sulle piattaforme online, ad esempio se e perché un annuncio pubblicitario li riguarda specificamente. Le piattaforme non pubblicheranno più annunci pubblicitari mirati per i minori e non presenteranno più annunci ai loro utenti fondati su una profilazione basata su categorie particolari di dati personali, quali l’origine etnica, l’opinione politica o l’orientamento sessuale.
  • Maggiori responsabilità per le piattaforme di dimensioni molto grandi. Abbiamo già visto nell’articolo “Digital Service Act, luci e ombre del futuro digitale europeo la disciplina di specifico interesse per le piattaforme online e i motori di ricerca online, che raggiungono più di 45 milioni di utenti. Tale particolare attenzione nasce dal loro impatto sul dibattito pubblico, sulle transazioni economiche e sulla diffusione di informazioni, opinioni e idee. Quando le piattaforme consigliano contenuti agli utenti, questi ultimi potranno modificare i criteri utilizzati e scegliere di non ricevere contenuti personalizzati. I cittadini non avranno più un approccio acritico, ma potranno esaminare l’operato delle piattaforme grazie alle relazioni di revisori indipendenti e ricercatori controllati.
  • Il risarcimento. Gli utenti potranno chiedere un risarcimento ai prestatori di servizi di intermediazione per eventuali danni o perdite subite a causa di una violazione del regolamento sui servizi digitali da parte di tali prestatori.

Le misure per contrastare i contenuti illegali

Il Digital Service Act definisce strumenti efficaci che consentono a tutte le parti di contrastare i contenuti illegali, ma anche le merci e i servizi illegali, nell’ecosistema online.

Gli strumenti sono:

  • la facoltà di segnalare i contenuti illegali in modo semplice ed efficace
  • la creazione di un canale prioritario affinché i segnalatori attendibili, cioè le entità che hanno dimostrato particolare esperienza e competenza, possano segnalare contenuti illegali e le piattaforme dovranno reagire in via prioritaria a tali segnalazioni
  • la possibilità per gli Stati membri di dare ordine a qualsiasi piattaforma che opera nell’UE di rimuovere i contenuti illegali, indipendentemente dal paese in cui è stabilita
  • le piattaforme online di dimensioni molto grandi dovranno adottare misure di attenuazione, a livello dell’organizzazione generale dei loro servizi, per proteggere gli utenti da contenuti, merci e servizi illegali.

Come il Digital Service Act proteggerà gli utenti da merci non sicure o contraffatte

Il Digital Service Act definisce strumenti efficaci che consentiranno a tutte le parti dell’ecosistema online di contrastare le merci illegali. Infatti:

  • le piattaforme disporranno di procedure obbligatorie per rimuovere le merci illegali
  • i marketplace online saranno tenuti a rintracciare i loro operatori commerciali secondo il principio della “conoscenza dei propri clienti”. Ciò garantirà un ambiente sicuro, trasparente e affidabile per i consumatori e ostacolerà la vendita di merci non sicure o contraffatte da parte di operatori commerciali che abusano delle piattaforme
  • le piattaforme online saranno invitate a organizzare le loro interfacce online in modo da consentire agli operatori commerciali di adempiere i loro obblighi di informazione nei confronti dei consumatori
  • sarà disponibile un nuovo sistema di segnalatori attendibili, ad esempio per i proprietari di marchi soggetti a contraffazione, al fine di segnalare e rimuovere le merci contraffatte in modo più rapido e semplice
  • le autorità pubbliche disporranno di nuovi strumenti per disporre direttamente la rimozione dei prodotti non sicuri
  • i marketplace online saranno tenuti a compiere sforzi ragionevoli per verificare in modo casuale se i prodotti o i servizi siano stati identificati come illegali in qualsiasi banca dati ufficiale e adottare le misure appropriate
  • le piattaforme online di dimensioni molto grandi saranno soggette a una valutazione dei rischi sottoposta ad audit, che comprenderà un’analisi della loro vulnerabilità nei confronti di merci illegali. Anche le misure di attenuazione predisposte dalle piattaforme a livello organizzativo saranno sottoposte ad audit annuali.

La protezione dei minori

In base al Digital Service Act, i provider di piattaforme online accessibili ai minori saranno tenuti a mettere in atto misure adeguate a garantire un elevato livello di tutela della vita privata e della sicurezza dei minori che usufruiscono dei loro servizi.

Le nuove norme vieteranno la pubblicità mirata ai minori basata sulla profilazione che utilizza i dati personali degli utenti quando è possibile stabilire con ragionevole certezza che il destinatario del servizio è un minore.

I contenuti nocivi ma non illegali

Nella misura in cui non sono illegali, i contenuti nocivi non dovrebbero essere messi sullo stesso piano dei contenuti illegali. Le nuove norme impongono soltanto misure per rimuovere o invitare alla rimozione di contenuti illegali, nel pieno rispetto della libertà di espressione.

Allo stesso tempo, il Digital Service Act disciplina le responsabilità delle piattaforme online di dimensioni molto grandi e dei motori di ricerca online di dimensioni molto grandi per quanto riguarda questioni sistemiche quali la disinformazione, le fake news e la manipolazione, i danni ai gruppi vulnerabili e altri danni sociali emergenti.

Dopo essere state designate come tali dalla Commissione europea, le piattaforme online di dimensioni molto grandi e i motori di ricerca online di pari dimensioni, che raggiungono 45 milioni di utenti, dovranno effettuare una valutazione annuale dei rischi e adottare le corrispondenti misure di attenuazione dei rischi derivanti dalla progettazione e dall’uso dei loro servizi. Tutte le misure di questo tipo dovranno essere attentamente soppesate alla luce delle restrizioni alla libertà di espressione. Dovranno, inoltre, essere sottoposte ad un audit indipendente.

Inoltre, si istituisce un quadro di co-regolamentazione in cui i fornitori di servizi possono operare secondo codici di condotta per far fronte alle ripercussioni negative della diffusione virale di contenuti illegali, nonché alle attività di manipolazione e abuso, che danneggiano soprattutto i destinatari vulnerabili del servizio, come i bambini e i minori.

Il regolamento sui servizi digitali promuoverà un quadro di co-regolamentazione per i danni online, che comprende codici di condotta quali un codice di buone pratiche sulla disinformazione, riveduto, e protocolli di crisi.

La libertà di espressione

Il Digital Service Act è incentrato sulla tutela della libertà di espressione e prevede anche la protezione dalle interferenze governative nella libertà di espressione e di informazione dei cittadini.

Le norme orizzontali contro i contenuti illegali sono attentamente calibrate e coadiuvate da solide garanzie per la libertà di espressione e da un effettivo diritto al ricorso, al fine di evitare che gli interventi di rimozione dei contenuti per motivi di illegalità siano insufficienti o al contrario eccessivi.

Il Digital Service Act offre agli utenti la possibilità di contestare le decisioni prese dalle piattaforme online circa la rimozione dei loro contenuti, anche quando tali decisioni si basano sulle condizioni generali delle piattaforme stesse.

Gli utenti possono presentare un reclamo direttamente alla piattaforma, scegliere un organismo per la risoluzione extragiudiziale delle controversie e/o adire gli organi giurisdizionali.

Il Digital Service Act propone norme in materia di trasparenza delle decisioni di moderazione dei contenuti. Per le piattaforme di dimensioni molto grandi, gli utenti e i consumatori saranno in grado di comprendere meglio il modo in cui esse incidono sulle nostre società e tali piattaforme saranno obbligate ad attenuare tali rischi, anche per quanto riguarda la libertà di espressione. Saranno chiamate a rispondere del loro operato attraverso relazioni di audit indipendenti e un controllo specializzato e pubblico.

Tutti gli obblighi previsti dal regolamento sui servizi digitali, compreso il meccanismo di risposta alle crisi, sono attentamente calibrati per promuovere il rispetto dei diritti fondamentali, come la libertà di espressione.

La disinformazione

Grazie alle norme proposte sul modo in cui le piattaforme moderano i contenuti, sulla pubblicità, sui processi algoritmici e sull’attenuazione dei rischi, il Digital Service Act mira a garantire che le piattaforme siano rese maggiormente responsabili delle azioni che intraprendono e dei rischi sistemici che pongono, anche per quanto riguarda la disinformazione e la manipolazione dei processi elettorali.

Il regolamento sui servizi digitali promuoverà un quadro di co-regolamentazione, unitamente al codice di buone pratiche sulla disinformazione aggiornato e ai nuovi orientamenti della Commissione, come annunciato nel Piano d’azione per la democrazia europea. 

La pubblicità online

Il Digital Service Act contempla qualsiasi tipo di pubblicità, dal marketing digitale alle campagne di sensibilizzazione fino agli annunci di natura politica ed è volto ad integrare le norme già in vigore, come il regolamento generale sulla protezione dei dati, che già stabilisce norme sul consenso degli utenti o sul loro diritto di opporsi al marketing digitale mirato.

Il Digital Service Act introduce due nuove restrizioni riguardanti la pubblicità mirata sulle piattaforme online, ovvero:

  • vieta la pubblicità mirata rivolta ai minori basata sulla profilazione
  • vieta la pubblicità mirata basata sulla profilazione che utilizza categorie particolari di dati personali, quali l’orientamento sessuale o le convinzioni religiose.

Le nuove norme consentiranno agli utenti di comprendere meglio gli annunci che visualizzano e prendere decisioni consapevoli in merito. Dovranno ricevere informazioni chiare sul fatto di essere o meno destinatari di ciascun annuncio, sulle relative motivazioni e su chi ha pagato l’annuncio pubblicitario.

Dovrebbero, inoltre, poter distinguere molto chiaramente i contenuti sponsorizzati o pubblicati in modo organico su una piattaforma e anche i messaggi di promozione commerciale degli influencer. Gli obblighi di notifica e di intervento si applicano anche agli annunci potenzialmente illegali come a qualsiasi altro tipo di contenuto.

Poiché nel caso delle piattaforme online di dimensioni molto grandi la posta in gioco per la società è più alta, le norme prevedono misure supplementari per attenuare i rischi e consentire attività di sorveglianza.

Queste piattaforme dovranno mantenere archivi accessibili degli annunci pubblicitari, in modo da consentire ai ricercatori, alla società civile e alle autorità di ispezionare il modo in cui gli annunci sono stati visualizzati e come è stato scelto il gruppo target.

Esse dovranno, poi, valutare se e in che modo i loro sistemi pubblicitari siano stati manipolati o costituiscano in altro modo un rischio sociale e adottare misure per attenuare tali rischi.

Le norme sono integrate da misure contenute nel regolamento sui mercati digitali (DMA), che affronta le preoccupazioni economiche relative ai modelli pubblicitari dei gatekeeper, ovvero quei soggetti che controllano l’accesso.

Il regolamento è stato concepito nel pieno rispetto delle norme vigenti sulla protezione dei dati, compreso il regolamento generale sulla protezione dei dati (GDPR) e la direttiva sulla ePrivacy e non modifica le garanzie previste da queste normative.

La questione dei dark patterns

In base alle nuove norme, i dark patterns sono vietati.

I fornitori di piattaforme online saranno tenuti a non progettare, organizzare o gestire le loro interfacce online in modo tale da ingannare, manipolare o altrimenti falsare o compromettere la capacità degli utenti dei loro servizi di prendere decisioni libere e informate.

Il divieto integra, ma non annulla, i divieti già stabiliti dalle norme in materia di protezione dei consumatori e protezione dei dati, in base alle quali è già vietato nell’UE un gran numero di percorsi oscuri che inducono in errore i consumatori.