Digital Services Act, la svolta Ue per utenti, aziende e big tech

Il DSA è stato creato con l’obiettivo di proteggere gli utenti online, garantire la libertà di espressione e le opportunità per le imprese, obbligando le Big Tech ad assumere maggiore responsabilità sui contenuti illegali o nocivi.

futuro dei media 2022

Il DSA si prospetta come una grande rivoluzione per i cittadini digitali, per le aziende e per le Big Tech, un tentativo di un cambio di rotta dalla sperequazione di posizione dell’utente rispetto ai giganti del web ad un rapporto paritario improntato da regole comuni e dall’osservanza dei diritti fondamentali anche e soprattutto online. Sembra proprio che l’era del “Too Big to Care” (“troppo grande per preoccuparsene”) stia assumendo gradualmente i colori rossastri del tramonto.


DSA: le tappe che hanno portato a un accordo “storico”


L’Unione europea – all’esito di un’estenuante maratona di trattative lunga ben sedici ore – è giunta ad un accordo politico sul “Digital Services Act” (“DSA”), il regolamento che imporrà alle “Big Tech” una maggiore responsabilità sui contenuti illegali o nocivi che circolano sulle loro piattaforme e che comprenderà interventi avverso la disinformazione online. Secondo la presidente della Commissione Europea, Ursula von der Leyen, si tratta di un “accordo storico. Le nostre nuove regole proteggeranno gli utenti online, garantiranno libertà di espressione e opportunità per le imprese”.


A partire dall’ormai lontano dicembre 2020, la Commissione europea aveva formulato due proposte legislative atte a disciplinare il settore digitale: il regolamento sui servizi digitali – Digital Services Act (DSA) – e il regolamento sui mercati digitali – Digital Markets Act (“DMA”).


Entrambi i provvedimenti costituiscono i pilastri fondanti della regolamentazione digitale, con la precipua finalità di definire una cornice adeguata allo sviluppo economico dei giganti del digitale e alla protezione dei loro utenti in conformità ai principi del diritto dell’Unione.

Lo scorso 23 aprile, dopo un anno e mezzo di trattative, l’Unione Europea ha raggiunto un accordo politico su un pacchetto legislativo ineguagliato che imporrà alle Big Tech di monitorare l’offerta dei siti, rimuovendone il contenuto illegale.


Gli obiettivi del DSA


“L’accordo sul Dsa è storico”, ha commentato su Twitter Ursula von der Leyen, presidente della Commissione Ue. “Le nostre nuove regole proteggeranno gli utenti online, garantiranno libertà di espressione e opportunità per le imprese”, ha aggiunto.

Tale accordo obbliga le Big Tech ad assumere maggiore responsabilità sui contenuti illegali o nocivi che circolano sulle loro piattaforme.


Oggi sulla rete circolano prodotti difettosi, fake news, tentativi di frode, immagini pornografiche, incitazioni alla violenza e molto altro ancora.


Invero, oltre a regolamentare meglio la rete, lo scopo delle istituzioni comunitarie è anche quello di offrire nuovi standard normativi che possano rappresentare un esempio anche a livello transeuropeo, soprattutto in relazione al peculiare e, purtroppo, grave contesto di disinformazione attuale generato dalla guerra in Ucraina.


Attraverso il DSA, si auspica l’estensione del diritto commerciale e del diritto civile alle piattaforme online. Regole più rigide e ben precise che, secondo Ursula von der Leyen, garantiranno che “ciò che è illegale offline sarà effettivamente illegale online nell’Ue” ai fini della tutela dei diritti fondamentali degli utenti.


L’ambito di applicazione e le principali regole


Una delle principali finalità del provvedimento in parola è quello di imporre alle piattaforme online obblighi di sorveglianza e di eliminazione dei contenuti fuorvianti, fraudolenti, violenti, pornografici, razzisti, sessuofobi ospitati. Il Consiglio dell’UE ha predisposto che il DSA si applicherà “a tutti gli intermediari online che forniscono servizi nei paesi dell’Unione Europea” a prescindere dal loro luogo d’origine. I destinatari sono tutti gli intermediari online, come i prestatori di servizi di hosting, motori di ricerca, piattaforme e mercati della rete.

I doveri stabiliti sono proporzionati e adeguati alle audience, ossia alla portata dell’impatto che l’intermediario in questione possiede rispetto al numero di utenti che usufruiscono del servizio.


Ciò comporta l’esigenza per le grandi piattaforme (individuate con l’acronimo “VLOPS” che sta per “Very Large Online Platforms”) e per i principali motori di ricerca (“VLOSE” che sta per “Very Large Online Search Engines”) di possedere determinati requisiti.

Pertanto, specifici meccanismi risk-based saranno imperativi per le piattaforme con più di 45 milioni di utenti attivi mensili nell’area UE, come Google, Meta, Apple, Amazon, Spotify, Microsoft e molte altre. Con il DSA, i giganti digitali diventano responsabili di quanto “pubblicano” e sono tenuti a cancellare tempestivamente i contenuti illegali e ad indentificare e bloccare i recidivi che non rispettano le misure previste. Le violazioni, infatti, saranno punite con sanzioni fino al 6 per cento del fatturato annuo. Per contro, le aziende con meno di 45 milioni di utenti attivi mensili dovranno seguire regole meno stringenti, ma altrettanto efficaci ed efficienti, così come stabilito dal Consiglio e dal Parlamento europeo per salvaguardare lo sviluppo delle start-up nel mercato interno.


Per quel che concerne, invece, il contenuto normativo del DSA, occorre precisare che, stando alle indiscrezioni ufficiose, le indicazioni delle istituzioni comunitarie si concentrano principalmente sulla previsione di clausole contrattuali che contengano obblighi a tutela dei diritti fondamentali degli utenti, specie in relazione alle modalità di informazione e all’utilizzo dei dati per la fornitura dei servizi; la condivisione adeguata dei dati con le autorità pubbliche; la verifica delle credenziali dei fornitori che rappresentino terze parti; la diffusione del contenuto dei codici di condotta eventualmente adottati; la trasparenza sulle possibilità di scegliere gli specifici servizi offerti.


DSA e privacy


Ulteriore scopo del DSA, non meno rilevante, è la protezione della privacy dei consumatori. Sebbene per avere piena cognizione di quanto statuito occorra attendere la diffusione del testo approvato nella notte del 23 aprile 2022, è già noto che verranno attuate restrizioni sulla pubblicità mirata, basata sul monitoraggio dell’utenza, sul targeting e sulla profilazione. In particolare, gli annunci profilati non potranno più essere erogati ai minori e né ai soggetti fragili.


A tanto si aggiunga che, al fine di potenziare quanto predisposto dal Regolamento UE 2016/679 (GDPR), dovranno essere esclusi dalle attività di profilazione degli utenti i dati di natura sensibile disciplinati dall’art. 9 del medesimo Regolamento, come l’orientamento sessuale, quello religioso, politico, filosofico, l’origine razziale o etnica.

È vieppiù stabilito il divieto d’uso di dark patterns, tecniche contenutistiche e di interfacce utente che rendono inefficaci le condizioni legali, privacy e cookies per manipolare o influenzare le scelte degli utenti.


DSA e “fake news”


Nella redazione di una fonte normativa di tale portata, non è possibile prescindere dal contesto storico, culturale e sociale in cui viviamo: il conflitto russo-ucraino, che ha avuto il supporto preventivo di campagne di fake news, ha spinto il Consiglio e il Parlamento ad inserire nel DSA una specifica previsione in grado di permettere alla Commissione di adottare misure proporzionate ed efficaci nei riguardi delle “big platform” che contribuiscono alla diffusione di notizie false e dannose per l’informazione, attraverso la predisposizione di un meccanismo di gestione delle attività di disinformazione e propagandistiche per scopi illegittimi.


Tale meccanismo potrà essere attivato solamente dalla Commissione su raccomandazione del comitato dei coordinatori nazionali dei servizi digitali, inteso come autorità indipendente – collocata all’interno di ogni singolo Stato membro – soggetta all’obbligo di svolgere i propri compiti in modo imparziale e trasparente, primo fra tutti quello di monitorare la conformità dei servizi stabiliti sul proprio territorio alle nuove norme e partecipare al meccanismo di cooperazione dell’Unione istituito dal DSA.


Cosa è previsto in termini di governance?


Per assicurare un’esecuzione operativa e coerente degli imperativi previsti dal provvedimento sui servizi digitali, le istituzioni europee hanno deciso di attribuire alla Commissione il potere esclusivo di vigilanza degli obblighi specifici da parte delle piattaforme e dei motori di ricerca di dimensioni molto grandi, che riguardano oltre il dieci per cento della popolazione dell’Unione. In particolare, è previsto una sorta di doppio meccanismo di vigilanza: da una parte l’istituzione di un gruppo consultivo indipendente, il cosiddetto “Consiglio europeo per i servizi digitali”, preposto a fornire una guida sulle questioni che rientrano nel campo di applicazione del DSA, oltre ad assistere nelle indagini congiunte e nella supervisione delle piattaforme sistemiche; dall’altra la Commissione cui spetta il delicato ruolo di vigilanza sulle grandi piattaforme unitamente all’espressione del potere sanzionatorio.


Le mire dei grandi player digitali trovano terreno fertile nella sfera economica, com’è naturale che sia. Attraverso i dati, infatti, gli utenti generano valore e ciò produce significative ripercussioni anche su altri contesti della vita quotidiana, basti pensare al settore informatico e alla iper accelerata circolazione delle informazioni. Non è più possibile discorrere in maniera semplicistica di asset materiali che generano ricchezza, dal momento che sempre più frequentemente i dati vengono equiparati a “beni” che garantiscono produttività. Basti pensare all’elezione dell’ex presidente statunitense Donald Trump e al verificarsi della “brexit” nel Regno Unito per comprendere il potere detenuto dai grandi colossi online: tramite la diffusione deliberata di fake news, era stato raggiunto l’obiettivo di manipolare il dibattito politico.


Appare, pertanto, evidente che l’intenzione dell’Unione Europea si sostanzi nella volontà di proteggere il cittadino nel “cyberspazio” e di ristabilire un rapporto equo ed equilibrato tra l’utente e le piattaforme.


A questo punto, l’accordo politico dovrà essere approvato dal Consiglio e dal Parlamento prima di giungere alla fase formale di completamento della procedura mediante l’adozione da parte di ciascuna istituzione.

#Ue #web #DSA