DSA – I nuovi poteri di vigilanza della Commissione Europea sulle piattaforme e motori di ricerca di grandi dimensioni
di Caterina Bo
L’adozione definitiva del Digital Services Act e del Digital Market Act nei mesi di marzo e aprile 2022 ha segnato la fine di un percorso legislativo avviato dalla Commissione Europea nel dicembre 2020 e concluso in tempi molto brevi, considerato l’impatto che tali legislazioni avranno sul mercato digitale dell’Unione.
Come dichiarato nella Comunicazione denominata “Bussola per il digitale 2030: il modello europeo per il decennio digitale”, la Commissione con tali normative si è proposta di promuovere condizioni di parità nei mercati digitali, un ciberspazio sicuro e la tutela dei diritti fondamentali online.
Il Digital Services Act (Regolamento (UE) 2022/2065 o “DSA”), in particolare, mira a responsabilizzare i servizi di intermediazione online – tra cui piattaforme di condivisione di contenuti e motori di ricerca – rispetto alle attività illecite che vengono compiute attraverso di esse. Lo scopo è di rendere concreto il principio per cui ciò che è illegale nel mondo analogico lo è anche nel mondo digitale, e deve essere individuato e punito con la medesima efficacia.
Le piattaforme online e i motori di ricerca di grandi dimensioni
Per raggiungere l’obiettivo di un web sicuro, la nuova architettura normativa del DSA parte da una constatazione: oltre al tipo di servizio offerto, anche le dimensioni dei prestatori dei servizi contano.
Il Regolamento prevede dunque quattro categorie di obblighi via via crescenti in base, da un lato, al grado di coinvolgimento del prestatore del servizio rispetto alle attività degli utenti finali e, dall’altro lato, alle dimensioni dei servizi stessi, in particolare con riferimento al numero di utenti attivi che di essi si avvalgono all’interno dell’Unione. Più nel dettaglio, sono considerate “di grandi dimensioni” piattaforme e motori di ricerca che hanno un numero medio mensile di utenti attivi nell’Unione pari o superiore a 45 milioni[1].
Lo scopo è quello di allineare i ricavi economici delle grandi piattaforme online con le responsabilità che derivano dal fatto di essere gli attori dominanti del mercato. Nelle parole del Commissario UE Thierry Breton, l’Unione intende essere il primo mercato nel contesto globale a voltare pagina rispetto all’era delle piattaforme “too big to care”.
Le piattaforme online come soggetti regolamentati: i nuovi poteri della Commissione Europea
Gli obblighi introdotti rispetto alle piattaforme e motori di ricerca di grandi dimensioni mirano specificamente a delineare regole certe per la gestione del dibattito e della pubblicità online, con l’obiettivo di sottrarli alla buona volontà e quindi all’arbitrio delle aziende che li gestiscono. Il ragionamento sotteso è che, benché formalmente restino dei soggetti privati il cui scopo è quello di generare profitto per i propri stakeholder, in realtà essi ospitano il dibattito pubblico, oltre che le interazioni personali dei singoli cittadini dell’Unione.
Gli articoli da 34 a 43 del DSA prevedono dunque una serie di obblighi aggiuntivi rispetto a quelli previsti per le piattaforme di dimensioni inferiori o per altri tipi di servizi di intermediazione online. Tra questi, l’obbligo di produrre delle valutazioni circa le distorsioni e i rischi che possono comportare i sistemi di raccomandazione e moderazione dei contenuti, nonché di proporre delle soluzioni che moderino i rischi suddetti, se del caso anche modificando i propri algoritmi e il funzionamento delle piattaforme stesse.
In via preliminare, inoltre, tutte le piattaforme i motori di ricerca operanti nell’Unione hanno dovuto fornire alla Commissione già entro febbraio 2023 il numero di utenti attivi mensili nel territorio dell’UE, al fine di essere designati quali servizi “di grandi dimensioni” o meno. A tale proposito è interessante segnalare che vi sono state già delle complicazioni nell’attuazione della norma di legge, poiché talune piattaforme si sono limitate a dichiarare di non raggiungere la soglia di utenti rilevanti (45 milioni) invece che comunicarne il numero effettivo[2].
Agli obblighi imposti corrispondono penetranti poteri di controllo e attuazione in capo alla Commissione Europea, sul modello dei poteri attribuiti alle Banche centrali rispetto agli istituti di credito.
Si prevede, ad esempio, che la Commissione possa imporre alle piattaforme e ai motori di ricerca misure per prevenire o contrastare una “grave minaccia per la sicurezza pubblica o la salute pubblica nell’Unione o in parti significative di essa”, qualora tale crisi venga alimentata o generata dall’utilizzo distorto di tali intermediari. Non è difficile a tale riguardo cogliere un riferimento alla recente diffusione di fake news e incitamento a delinquere avvenute durante la pandemia da Covid-19.
Ancora, a fronte dell’obbligo di rendere facilmente consultabili dagli utenti le informazioni relative alla pubblicità mirata che viene loro proposta utilizzando le piattaforme o i motori di ricerca, corrisponde il potere della Commissione di richiedere l’accesso ai dati necessari per monitorare l’attuazione degli obblighi, di disporre ispezioni, ottenere spiegazioni in merito al funzionamento degli algoritmi di raccomandazione dei contenuti e irrogare multe. Lo scopo è evitare che, attraverso gli algoritmi di raccomandazione, di fatto vengano poste in essere delle discriminazioni vietate dal diritto dell’Unione, o che vengano presi di mira soggetti “deboli” quali i minori (nei cui confronti, infatti, la pubblicità mirata è espressamente vietata).
Aspetto non meno rilevante nel valutare complessivamente la nuova legislazione è che il costo della predisposizione del sistema di obblighi e financo dei controlli da parte delle autorità preposte dovrà ricadere interamente sui soggetti regolati: il DSA prevede infatti espressamente che tali attività dovranno essere sostenute economicamente dalle piattaforme e dai motori di ricerca. A tale impegno peraltro naturalmente devono aggiungersi i costi derivanti dalla necessità di dedicare un cospicuo numero di risorse alla progettazione, supervisione e attuazione delle misure di controllo, nonché alla gestione delle richieste di informazioni che perverranno da Commissione e autorità locali, nonché da organismi di revisione indipendenti.
Conclusioni
Il DSA entrerà in vigore nella sua interezza a partire da febbraio 2024. È evidente fin da ora tuttavia che l’Unione ha inteso prendere una posizione netta sul tema della regolamentazione delle c.d. big tech, riconoscendo la loro rilevanza pubblica e dunque la necessità che esse siano regolate in tutti gli aspetti del loro funzionamento che hanno un impatto sull’esercizio dei diritti fondamentali dei cittadini europei.
Trattandosi di soggetti di diritto privato aventi sede legale principale in paesi extracomunitari (gli Stati Uniti, ma anche la Cina), c’è da chiedersi tuttavia se l’ingente peso economico che tale regolamentazione comporta a carico di piattaforme e motori di ricerca valga il profitto che esse possono trarre dal mercato europeo.
Quel che è certo è che la Commissione europea non sembra intenzionata ad accettare uno standard di tutela che non garantisca appieno i diritti fondamentali tutelati dall’Unione. In questa prospettiva, pare dunque che se ciò comporterà la diminuzione del numero di grandi attori nel mercato europeo e la nascita di un panorama di piattaforme e di motori di ricerca maggiormente differenziato, tanto meglio.
Note bibliografiche:
[1] Regolamento (UE) 2022/2065, articolo 33;
[2] Si veda a tale riguardo l’intervento del Commissario Thierry Breton alla Conferenza Annuale della Commissione Europea: https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_23_1761.
Autrice:
Caterina Bo