L’evoluzione del mercato unico digitale attraverso il digital services act

Articolo a cura del Dott. Gentilini Giulio

Digital services act

1. Premessa

In un solo anno la pandemia COVID-19 ha radicalmente cambiato il ruolo e la percezione del settore digitale nella nostra società ed economia, facendo emergere la necessità di accelerarne lo sviluppo.
Le tecnologie digitali sono ora necessarie per il lavoro, lo studio, l’intrattenimento, la socializzazione, gli acquisti e l’accesso a ogni tipo di servizi, che spaziano dalla salute alla cultura.
La pandemia ha tuttavia fatto venire alla luce anche la vulnerabilità del nostro spazio digitale, la sua dipendenza dalle tecnologie non europee e l’impatto che la disinformazione ha sulla nostra società democratica. (1)
Alla luce di queste sfide, l’ambizione dichiarata dell’Unione Europea è perseguire delle politiche digitali che supportino le persone e le aziende, per conquistare un futuro digitale più incentrato sull’uomo, sostenibile e prosperoso. (2)
L’Unione Europea dovrà costruire con le proprie forze un Mercato Unico Digitale aperto e competitivo, che incarni i valori europei.
Allo stesso tempo dovrà valutare attentamente le debolezze strategiche, le vulnerabilità e gli elementi che possono mettere a rischio la riuscita del piano.
La definizione di Mercato Unico Digitale è fornita dalla Commissione europea nella sua comunicazione ‘Strategia per il Mercato Unico Digitale in Europa’:

Il mercato unico digitale è un mercato in cui è garantita la libera circolazione delle merci, delle persone, dei servizi e dei capitali e in cui, quale che sia la loro cittadinanza o nazionalità o il luogo di residenza, persone e imprese non incontrano ostacoli all’accesso e all’esercizio delle attività online in condizioni di concorrenza leale e potendo contare su un livello elevato di protezione dei consumatori e dei dati personali.” (3)

L’Unione Europea ha sottolineato la necessità di eliminare le barriere normative che ostacolano la libera circolazione e di armonizzare le diverse politiche nazionali.
Per far rispettare le proprie normative, l’Unione Europea dovrà adottare nei confronti dei soggetti che operano all’interno del mercato digitale delle sanzioni conformi con l’art. 6 della CEDU, relativo al diritto a un equo processo.
In base alla CEDU, infatti, si ha un processo equo solo quando le sanzioni di natura penale sono disposte da un organismo indipendente e imparziale.
Nella giurisprudenza della Corte EDU si afferma che le multe e il pagamento periodico di penalità nei procedimenti amministrativi hanno una natura penale, pur senza essere formalmente definiti come tali. (4)
Poichè la Commissione difficilmente può essere qualificata come un organo indipendente e imparziale, sarebbe opportuno prevedere l’istituzione di una sezione penale all’interno della Commissione che sia indipendente e imparziale, al fine di irrogare sanzioni di tale tipo.

2. Il Digital Services Act

Nel 15 dicembre 2020 la Commissione europea ha presentato due proposte di regolamento fondamentali per lo sviluppo della strategia digitale dell’UE, si tratta del Digital Services Act (DSA)(5) e del Digital Markets Act (DMA). (6)
In particolare, il Digital Services Act mira a regolare la responsabilità delle piattaforme online, tenendo conto della crescente importanza che esse stanno assumendo.
Sin da quando la direttiva e-commerce è stata adottata nel 2000, le piattaforme online sono diventate degli intermediari chiave nell’economia digitale, nonchè delle risorse essenziali e delle fonti di informazione. (7)
Le piattaforme online nel corso del tempo hanno subito un’evoluzione significativa.
All’inizio ricoprivano un ruolo di intermediario passivo e neutro, mentre oggi tali piattaforme sono creatrici attive all’interno della sfera digitale.
Soprattutto nella sfera economica, i servizi digitali e i relativi contenuti sono stati ottimizzati affinché le piattaforme online possano beneficiare di un modello di business legato alla pubblicità.
Un elemento centrale di questo modello è il fatto che la moderazione dei contenuti incoraggia gli utenti a spendere più tempo sulla piattaforma, così come a condividere più dati personali.
I motori di ricerca odierni, i social media network e le piattaforme di e-commerce determinano non solo quale utente può partecipare all’ecosistema online, o in quali modi le transazioni devono essere effettuate attraverso la piattaforma, ma anche quali informazioni possono ricevere gli utenti.
I modelli di business delle piattaforme online si sono rivelati vulnerabili ai nuovi rischi, sia per la società nel suo complesso, sia per i singoli utenti.
Le piattaforme, infatti, si sono dimostrate un terreno fertile per le attività illegali, come la distribuzione illegale di materiale coperto da copyright, la vendita di beni contraffatti attraverso le piattaforme di e-commerce, oppure la disseminazione di discorsi che incitano all’odio o alla violenza attraverso i social media.
L’incremento della disinformazione e delle fake news attraverso le piattaforme online è una problematica che diventa ogni giorno più preoccupante. (8)
Per questo motivo la Commissione, con il DSA, ha proposto delle nuove regole orizzontali con le quali intende modernizzare la direttiva e-commerce.
Nel DSA si è scelto di lasciare invariato il regime delle responsabilità previsto nella direttiva e-commerce, andando a regolare le modalità di rimozione dei contenuti illegali da parte delle piattaforme. (9)
Il DSA fornisce una regolamentazione più stringente rispetto a quella prevista attualmente per gli intermediari, i prestatori di servizi di hosting, e le piattaforme online.
Sono inoltre previste delle regole aggiuntive per le piattaforme online di grandi dimensioni.
I nuovi obblighi per i prestatori di servizi digitali includono misure per contrastare i contenuti online illegali, attraverso un procedimento di notifica e di rimozione.
Viene introdotto un sistema interno di gestione dei reclami che permette agli utenti di contestare le decisioni prese dalle piattaforme online sul blocco o sulla rimozione dei contenuti.
In base all’approccio previsto dal DSA, a prima vista, potrebbe sembrare che gli obblighi previsti stabiliscano essenzialmente uno standard di responsabilità per le piattaforme, ma prendendo in considerazione anche il regime delle sanzioni si capisce come non è questo il caso.
Effettivamente le sanzioni per il mancato adempimento degli obblighi imposti dal DSA prevedono delle multe e dei pagamenti di penalità periodici, e non una semplice perdita dell’esenzione dalla responsabilità.
L’obiettivo di prevenire un blocco eccesivo dei contenuti da parte delle piattaforme potrebbe spiegare il perché si è preferito un approccio normativo che cerca di assicurare un certo controllo sulle decisioni delle piattaforme relative alla rimozione dei contenuti illegali.

3. L’oggetto e la struttura del Digital Services Act

Il DSA è strutturato in modo tale da possedere degli effetti extraterritoriali, perciò trova applicazione in tutti i casi in cui il destinatario di un servizio di intermediazione sia posizionato all’interno dell’UE, a prescindere dal posto in cui è stabilito o dalla residenza del prestatore del servizio. (10)
In aggiunta si richiede che il prestatore di servizi possieda una connessione sostanziale con l’UE, tale condizione si considera verificata quando il servizio d’intermediazione ha un numero significativo di utenti nell’UE, oppure se il prestatore indirizza le proprie attività verso uno o più Stati membri. (11)
Per raggiungere i suoi obiettivi il DSA prevede dei nuovi obblighi per i prestatori di servizi digitali in relazione ai contenuti illegali. (12)
La definizione di contenuto illegale viene interpretata estensivamente, infatti vengono ricomprese anche le informazioni relative ai beni, ai contenuti, ai servizi, o alle attività illegali. (13)
Vengono incluse dunque sia le informazioni che di per sé sono illegali, sia le informazioni collegate alle attività illegali, quali ad esempio la condivisione di immagini che mostrano degli abusi sessuali, la diffusione illecita di immagini private senza il consenso del soggetto interessato, il cyberstalking (14) o l’utilizzo non autorizzato di materiale coperto da copyright.
In ogni caso, il contenuto illegale continua ad essere definito in base alle leggi nazionali degli Stati membri.
I contenuti che risultano dannosi, ma che non sono necessariamente illegali, quali la disinformazione, non sono definiti nel DSA e non sono soggetti a rimozione obbligatoria, in quanto si tratta di un’area molto sensibile che possiede delle serie implicazioni per la protezione della libertà di espressione.
Per affrontare il problema relativo alla disinformazione e ai contenuti dannosi, la Commissione ha deciso di concentrarsi su come questi contenuti vengono diffusi e mostrati alle persone, piuttosto che forzare la loro rimozione. (15)
Una delle maggiori differenze che il DSA propone rispetto alla direttiva e-commerce riguarda la differenziazione all’interno delle categorie dei servizi intermediari.
In aggiunta alle disposizioni che si applicano a tutti i prestatori di servizi intermediari, il DSA prevede degli obblighi più stringenti per i prestatori di servizi di hosting e per le piattaforme online. (16) Nel DSA viene implementata una struttura piramidale che prevede degli obblighi generali di due diligence applicabili a un vasto gruppo di prestatori di servizi intermediari, e degli obblighi aggiuntivi che si applicano cumulativamente, riguardanti solo determinati prestatori che fanno parte di una categoria limitata di servizi intermediari.
Quindi le piattaforme di grandi dimensioni non solo dovranno rispettare gli obblighi previsti per la propria specifica categoria, ma anche quelli previsti per le piattaforme online ordinarie.
La principale caratteristica innovatrice del DSA, dunque, è la previsione di obblighi separati e addizionali per la sottocategoria delle piattaforme online.
La differenza maggiore tra i servizi di hosting e le piattaforme online sta nella diffusione delle informazioni immagazzinate al pubblico.
Mentre i servizi di hosting si limitano a immagazzinare le informazioni, le piattaforme online si occupano anche di rendere queste informazioni disponibili per il pubblico.
In generale il DSA intende completare il quadro normativo formato dalla direttiva e-commerce e dagli altri strumenti normativi predisposti più di recente.
Anziché abrogare la direttiva vigente ne vengono modificate solo alcune disposizioni.
L’obiettivo pertanto non è quello di rimpiazzare le normative attualmente vigenti, ma piuttosto di coesistere con esse.

4. Il ruolo del Digital Services Act nella lotta alla disinformazione

Il DSA segna un passo in avanti nella politica dell’UE per la lotta alla disinformazione online. Finora le iniziative dell’UE avevano portato a una auto-regolamentazione delle imprese, insieme ad azioni mirate di monitoraggio basate sul Code of Practice on Dsinformation, emanato nel 2018.
L’ambizione del DSA è di passare da un regime di auto-regolamentazione a uno di co-regolamentazione, al fine di rendere le Big Tech più responsabili per le proprie politiche di moderazione dei contenuti, e per ripristinare la sicurezza e la fiducia nell’ambiente online. (17)
Grazie all’attuale vuoto normativo, le piattaforme online più importanti possono decidere liberamente quale contenuto possono mostrare o meno in rete, unicamente sulla base dei propri termini e delle condizioni generali di servizio, salvo che si tratti di un contenuto manifestamente illegale, che dunque vìoli in maniera palese un diritto umano fondamentale.
Il DSA mira a riempire questo vuoto normativo.
Infatti, il suo obiettivo primario è assicurarsi che la rimozione delle informazioni illegali avvenga rapidamente, in maniera effettiva e nei soli casi in cui risulta giustificata.
Si cerca di rispondere anche alle preoccupazioni sociali legate ai contenuti dannosi ma non necessariamente illegali, quali la disinformazione.
La struttura adottata per cercare di contrastare questa problematica prevede una combinazione tra gli obblighi aggiuntivi previsti per le piattaforme di grandi dimensioni, la possibilità per la Commissione di invitare le piattaforme online e altri stakeholder (18) a sottoscrivere dei codici di condotta per mitigare i rischi sistematici nei casi in cui risulta necessario, e infine l’istituzione di meccanismi di controllo, pubblici e indipendenti.
Nel DSA vengano elencate un numero significativo di tecniche con le quali è possibile diffondere la disinformazione online, quali ad esempio l’utilizzo di account fake, tramite bot presenti sui social, oppure con il furto d’identità.
Eppure, questo elenco sembra trascurare altre forme di manipolazione delle informazioni. (19)
In effetti la disinformazione è un fenomeno sfaccettato, il cui impatto dipende dalla velocità nell’evoluzione delle tecnologie, dalle vulnerabilità dei servizi online e dalla continua evoluzione delle tattiche di manipolazione. (20)
Le forme più comuni di strategia di manipolazione delle informazioni non implicano necessariamente uno sfruttamento artificiale o non autentico del servizio fornito dalla piattaforma, ma piuttosto un suo utilizzo strategico.
Le bufale o le teorie cospirazioniste spesso sono costruite attraverso una manipolazione successiva di informazione reperite da varie risorse online (ad esempio siti web fasulli, blog, forum), prima di essere diffuse nei social più mainstream, cercando di far apparire legittime le fonti di informazione attraverso delle autentiche interazioni tra gli utenti.
Questa tipologia di situazioni ci suggerisce che i rischi legati alla disinformazione sono endemici rispetto all’intero ecosistema.
Per questo motivo le valutazioni dei rischi sistemici delle piattaforme online di grandi dimensioni non dovrebbero coprire solo quelle forme di manipolazione che possono colpire direttamente la sicurezza e l’integrità dei propri servizi.
Sarebbe necessario includere anche le manipolazioni relative ai contenuti e alle fonti esterne ai propri servizi, ma che permettono comunque di diffondere la disinformazione attraverso la stessa base di utenti propria della piattaforme online.
Questo è un aspetto chiave della problematica, in quanto una definizione troppo ristretta dei rischi sistemici potrebbe limitare gravemente la portata e l’effettività delle misure di mitigazione dei rischi e delle altre tutele presenti nel DSA.
Si auspica che il dialogo con le parti interessate che accompagna il processo legislativo della proposta di regolamento possa fornire delle indicazioni più dettagliate riguardo a una serie di criticità lasciate in sospeso. (21)
La previsione di principi per la moderazione dei contenuti, per lo sviluppo di algoritmi responsabili e per la demonetizzazione dei siti web che sfruttano la disinformazione come click-bait per generare profitti dalle pubblicità, sono tutte tematiche importanti in cui l’intervento della Commissione sarà essenziale per evitare di lasciare troppa discrezionalità nelle mani delle piattaforme online di grandi dimensioni, e per fornire una base normativa robusta, che garantisca una supervisione indipendente delle politiche da esse adottate.

digital services act

1. Premessa

In un solo anno la pandemia COVID-19 ha radicalmente cambiato il ruolo e la percezione del settore digitale nella nostra società ed economia, facendo emergere la necessità di accelerarne lo sviluppo.
Le tecnologie digitali sono ora necessarie per il lavoro, lo studio, l’intrattenimento, la socializzazione, gli acquisti e l’accesso a ogni tipo di servizi, che spaziano dalla salute alla cultura.
La pandemia ha tuttavia fatto venire alla luce anche la vulnerabilità del nostro spazio digitale, la sua dipendenza dalle tecnologie non europee e l’impatto che la disinformazione ha sulla nostra società democratica. (1)
Alla luce di queste sfide, l’ambizione dichiarata dell’Unione Europea è perseguire delle politiche digitali che supportino le persone e le aziende, per conquistare un futuro digitale più incentrato sull’uomo, sostenibile e prosperoso. (2)
L’Unione Europea dovrà costruire con le proprie forze un Mercato Unico Digitale aperto e competitivo, che incarni i valori europei.
Allo stesso tempo dovrà valutare attentamente le debolezze strategiche, le vulnerabilità e gli elementi che possono mettere a rischio la riuscita del piano.
La definizione di Mercato Unico Digitale è fornita dalla Commissione europea nella sua comunicazione ‘Strategia per il Mercato Unico Digitale in Europa’:

Il mercato unico digitale è un mercato in cui è garantita la libera circolazione delle merci, delle persone, dei servizi e dei capitali e in cui, quale che sia la loro cittadinanza o nazionalità o il luogo di residenza, persone e imprese non incontrano ostacoli all’accesso e all’esercizio delle attività online in condizioni di concorrenza leale e potendo contare su un livello elevato di protezione dei consumatori e dei dati personali.” (3)

L’Unione Europea ha sottolineato la necessità di eliminare le barriere normative che ostacolano la libera circolazione e di armonizzare le diverse politiche nazionali.
Per far rispettare le proprie normative, l’Unione Europea dovrà adottare nei confronti dei soggetti che operano all’interno del mercato digitale delle sanzioni conformi con l’art. 6 della CEDU, relativo al diritto a un equo processo.
In base alla CEDU, infatti, si ha un processo equo solo quando le sanzioni di natura penale sono disposte da un organismo indipendente e imparziale.
Nella giurisprudenza della Corte EDU si afferma che le multe e il pagamento periodico di penalità nei procedimenti amministrativi hanno una natura penale, pur senza essere formalmente definiti come tali. (4)
Poichè la Commissione difficilmente può essere qualificata come un organo indipendente e imparziale, sarebbe opportuno prevedere l’istituzione di una sezione penale all’interno della Commissione che sia indipendente e imparziale, al fine di irrogare sanzioni di tale tipo.

2. Il Digital Services Act

Nel 15 dicembre 2020 la Commissione europea ha presentato due proposte di regolamento fondamentali per lo sviluppo della strategia digitale dell’UE, si tratta del Digital Services Act (DSA)(5) e del Digital Markets Act (DMA). (6)
In particolare, il Digital Services Act mira a regolare la responsabilità delle piattaforme online, tenendo conto della crescente importanza che esse stanno assumendo.
Sin da quando la direttiva e-commerce è stata adottata nel 2000, le piattaforme online sono diventate degli intermediari chiave nell’economia digitale, nonchè delle risorse essenziali e delle fonti di informazione. (7)
Le piattaforme online nel corso del tempo hanno subito un’evoluzione significativa.
All’inizio ricoprivano un ruolo di intermediario passivo e neutro, mentre oggi tali piattaforme sono creatrici attive all’interno della sfera digitale.
Soprattutto nella sfera economica, i servizi digitali e i relativi contenuti sono stati ottimizzati affinché le piattaforme online possano beneficiare di un modello di business legato alla pubblicità.
Un elemento centrale di questo modello è il fatto che la moderazione dei contenuti incoraggia gli utenti a spendere più tempo sulla piattaforma, così come a condividere più dati personali.
I motori di ricerca odierni, i social media network e le piattaforme di e-commerce determinano non solo quale utente può partecipare all’ecosistema online, o in quali modi le transazioni devono essere effettuate attraverso la piattaforma, ma anche quali informazioni possono ricevere gli utenti.
I modelli di business delle piattaforme online si sono rivelati vulnerabili ai nuovi rischi, sia per la società nel suo complesso, sia per i singoli utenti.
Le piattaforme, infatti, si sono dimostrate un terreno fertile per le attività illegali, come la distribuzione illegale di materiale coperto da copyright, la vendita di beni contraffatti attraverso le piattaforme di e-commerce, oppure la disseminazione di discorsi che incitano all’odio o alla violenza attraverso i social media.
L’incremento della disinformazione e delle fake news attraverso le piattaforme online è una problematica che diventa ogni giorno più preoccupante. (8)
Per questo motivo la Commissione, con il DSA, ha proposto delle nuove regole orizzontali con le quali intende modernizzare la direttiva e-commerce.
Nel DSA si è scelto di lasciare invariato il regime delle responsabilità previsto nella direttiva e-commerce, andando a regolare le modalità di rimozione dei contenuti illegali da parte delle piattaforme. (9)
Il DSA fornisce una regolamentazione più stringente rispetto a quella prevista attualmente per gli intermediari, i prestatori di servizi di hosting, e le piattaforme online.
Sono inoltre previste delle regole aggiuntive per le piattaforme online di grandi dimensioni.
I nuovi obblighi per i prestatori di servizi digitali includono misure per contrastare i contenuti online illegali, attraverso un procedimento di notifica e di rimozione.
Viene introdotto un sistema interno di gestione dei reclami che permette agli utenti di contestare le decisioni prese dalle piattaforme online sul blocco o sulla rimozione dei contenuti.
In base all’approccio previsto dal DSA, a prima vista, potrebbe sembrare che gli obblighi previsti stabiliscano essenzialmente uno standard di responsabilità per le piattaforme, ma prendendo in considerazione anche il regime delle sanzioni si capisce come non è questo il caso.
Effettivamente le sanzioni per il mancato adempimento degli obblighi imposti dal DSA prevedono delle multe e dei pagamenti di penalità periodici, e non una semplice perdita dell’esenzione dalla responsabilità.
L’obiettivo di prevenire un blocco eccesivo dei contenuti da parte delle piattaforme potrebbe spiegare il perché si è preferito un approccio normativo che cerca di assicurare un certo controllo sulle decisioni delle piattaforme relative alla rimozione dei contenuti illegali.

3. L’oggetto e la struttura del Digital Services Act

Il DSA è strutturato in modo tale da possedere degli effetti extraterritoriali, perciò trova applicazione in tutti i casi in cui il destinatario di un servizio di intermediazione sia posizionato all’interno dell’UE, a prescindere dal posto in cui è stabilito o dalla residenza del prestatore del servizio. (10)
In aggiunta si richiede che il prestatore di servizi possieda una connessione sostanziale con l’UE, tale condizione si considera verificata quando il servizio d’intermediazione ha un numero significativo di utenti nell’UE, oppure se il prestatore indirizza le proprie attività verso uno o più Stati membri. (11)
Per raggiungere i suoi obiettivi il DSA prevede dei nuovi obblighi per i prestatori di servizi digitali in relazione ai contenuti illegali. (12)
La definizione di contenuto illegale viene interpretata estensivamente, infatti vengono ricomprese anche le informazioni relative ai beni, ai contenuti, ai servizi, o alle attività illegali. (13)
Vengono incluse dunque sia le informazioni che di per sé sono illegali, sia le informazioni collegate alle attività illegali, quali ad esempio la condivisione di immagini che mostrano degli abusi sessuali, la diffusione illecita di immagini private senza il consenso del soggetto interessato, il cyberstalking (14) o l’utilizzo non autorizzato di materiale coperto da copyright.
In ogni caso, il contenuto illegale continua ad essere definito in base alle leggi nazionali degli Stati membri.
I contenuti che risultano dannosi, ma che non sono necessariamente illegali, quali la disinformazione, non sono definiti nel DSA e non sono soggetti a rimozione obbligatoria, in quanto si tratta di un’area molto sensibile che possiede delle serie implicazioni per la protezione della libertà di espressione.
Per affrontare il problema relativo alla disinformazione e ai contenuti dannosi, la Commissione ha deciso di concentrarsi su come questi contenuti vengono diffusi e mostrati alle persone, piuttosto che forzare la loro rimozione. (15)
Una delle maggiori differenze che il DSA propone rispetto alla direttiva e-commerce riguarda la differenziazione all’interno delle categorie dei servizi intermediari.
In aggiunta alle disposizioni che si applicano a tutti i prestatori di servizi intermediari, il DSA prevede degli obblighi più stringenti per i prestatori di servizi di hosting e per le piattaforme online. (16) Nel DSA viene implementata una struttura piramidale che prevede degli obblighi generali di due diligence applicabili a un vasto gruppo di prestatori di servizi intermediari, e degli obblighi aggiuntivi che si applicano cumulativamente, riguardanti solo determinati prestatori che fanno parte di una categoria limitata di servizi intermediari.
Quindi le piattaforme di grandi dimensioni non solo dovranno rispettare gli obblighi previsti per la propria specifica categoria, ma anche quelli previsti per le piattaforme online ordinarie.
La principale caratteristica innovatrice del DSA, dunque, è la previsione di obblighi separati e addizionali per la sottocategoria delle piattaforme online.
La differenza maggiore tra i servizi di hosting e le piattaforme online sta nella diffusione delle informazioni immagazzinate al pubblico.
Mentre i servizi di hosting si limitano a immagazzinare le informazioni, le piattaforme online si occupano anche di rendere queste informazioni disponibili per il pubblico.
In generale il DSA intende completare il quadro normativo formato dalla direttiva e-commerce e dagli altri strumenti normativi predisposti più di recente.
Anziché abrogare la direttiva vigente ne vengono modificate solo alcune disposizioni.
L’obiettivo pertanto non è quello di rimpiazzare le normative attualmente vigenti, ma piuttosto di coesistere con esse.

4. Il ruolo del Digital Services Act nella lotta alla disinformazione

Il DSA segna un passo in avanti nella politica dell’UE per la lotta alla disinformazione online. Finora le iniziative dell’UE avevano portato a una auto-regolamentazione delle imprese, insieme ad azioni mirate di monitoraggio basate sul Code of Practice on Dsinformation, emanato nel 2018.
L’ambizione del DSA è di passare da un regime di auto-regolamentazione a uno di co-regolamentazione, al fine di rendere le Big Tech più responsabili per le proprie politiche di moderazione dei contenuti, e per ripristinare la sicurezza e la fiducia nell’ambiente online. (17)
Grazie all’attuale vuoto normativo, le piattaforme online più importanti possono decidere liberamente quale contenuto possono mostrare o meno in rete, unicamente sulla base dei propri termini e delle condizioni generali di servizio, salvo che si tratti di un contenuto manifestamente illegale, che dunque vìoli in maniera palese un diritto umano fondamentale.
Il DSA mira a riempire questo vuoto normativo.
Infatti, il suo obiettivo primario è assicurarsi che la rimozione delle informazioni illegali avvenga rapidamente, in maniera effettiva e nei soli casi in cui risulta giustificata.
Si cerca di rispondere anche alle preoccupazioni sociali legate ai contenuti dannosi ma non necessariamente illegali, quali la disinformazione.
La struttura adottata per cercare di contrastare questa problematica prevede una combinazione tra gli obblighi aggiuntivi previsti per le piattaforme di grandi dimensioni, la possibilità per la Commissione di invitare le piattaforme online e altri stakeholder (18) a sottoscrivere dei codici di condotta per mitigare i rischi sistematici nei casi in cui risulta necessario, e infine l’istituzione di meccanismi di controllo, pubblici e indipendenti.
Nel DSA vengano elencate un numero significativo di tecniche con le quali è possibile diffondere la disinformazione online, quali ad esempio l’utilizzo di account fake, tramite bot presenti sui social, oppure con il furto d’identità.
Eppure, questo elenco sembra trascurare altre forme di manipolazione delle informazioni. (19)
In effetti la disinformazione è un fenomeno sfaccettato, il cui impatto dipende dalla velocità nell’evoluzione delle tecnologie, dalle vulnerabilità dei servizi online e dalla continua evoluzione delle tattiche di manipolazione. (20)
Le forme più comuni di strategia di manipolazione delle informazioni non implicano necessariamente uno sfruttamento artificiale o non autentico del servizio fornito dalla piattaforma, ma piuttosto un suo utilizzo strategico.
Le bufale o le teorie cospirazioniste spesso sono costruite attraverso una manipolazione successiva di informazione reperite da varie risorse online (ad esempio siti web fasulli, blog, forum), prima di essere diffuse nei social più mainstream, cercando di far apparire legittime le fonti di informazione attraverso delle autentiche interazioni tra gli utenti.
Questa tipologia di situazioni ci suggerisce che i rischi legati alla disinformazione sono endemici rispetto all’intero ecosistema.
Per questo motivo le valutazioni dei rischi sistemici delle piattaforme online di grandi dimensioni non dovrebbero coprire solo quelle forme di manipolazione che possono colpire direttamente la sicurezza e l’integrità dei propri servizi.
Sarebbe necessario includere anche le manipolazioni relative ai contenuti e alle fonti esterne ai propri servizi, ma che permettono comunque di diffondere la disinformazione attraverso la stessa base di utenti propria della piattaforme online.
Questo è un aspetto chiave della problematica, in quanto una definizione troppo ristretta dei rischi sistemici potrebbe limitare gravemente la portata e l’effettività delle misure di mitigazione dei rischi e delle altre tutele presenti nel DSA.
Si auspica che il dialogo con le parti interessate che accompagna il processo legislativo della proposta di regolamento possa fornire delle indicazioni più dettagliate riguardo a una serie di criticità lasciate in sospeso. (21)
La previsione di principi per la moderazione dei contenuti, per lo sviluppo di algoritmi responsabili e per la demonetizzazione dei siti web che sfruttano la disinformazione come click-bait per generare profitti dalle pubblicità, sono tutte tematiche importanti in cui l’intervento della Commissione sarà essenziale per evitare di lasciare troppa discrezionalità nelle mani delle piattaforme online di grandi dimensioni, e per fornire una base normativa robusta, che garantisca una supervisione indipendente delle politiche da esse adottate.

Note

(1) Cfr. D. Frau-Meigs, Societal costs of “fake news” in the Digital Single Market, Study for the Committee on the Internal Market and Consumer Protection, in Policy Department for Economic, Scientific and Quality of Life Policies, Parlamento Europeo, Lussemburgo, 2018.
(2) Cfr. Comunicazione della Commissione europea, del 19 febbraio 2020, COM (2020) 67 final, ‘Shaping the digital transformation in Europe’, p. 7.
(3) Cfr. Comunicazione della Commissione europea, del 6 maggio 2015, COM (2015) 192 final, Strategia per il mercato unico digitale in Europa, p. 3.
(4) Cfr. Corte Europea dei Diritti dell’Uomo, sent. 23 novembre 2006, ricorso n. 73053/01, Jussila c. Finlandia.
(5) Proposta di Regolamento del Parlamento Europeo e del Consiglio, del 15 dicembre 2020, 825 final, Relativo a un mercato unico dei servizi digitali (legge sui servizi digitali) e che modifica la direttiva 2000/31/CE.
(6) Cfr. M. Leistner, The Commission’s vision for Europe’s digital future: proposals for the Data Governance Act, the Digital Markets Act and the Digital Services Act—a critical primer, in Journal of Intellectual Property Law & Practice, 23 febbraio 2021. Disponibile su: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3789041
(7) Cfr. M. Buiten, The Digital Services Act: From Intermediary Liability to Platform Regulation, 21 giugno 2021, pp. 2 e ss. Disponibile su: https://ssrn.com/abstract=3876328
(8) Si veda lo studio richiesto dalla Commissione europea, Flash Eurobarometer 464 Report on Fake News and Online Disinformation, 12 marzo 2018.
(9) Cfr. M. Buiten, A. De Streel e M. Peitz, Rethinking Liability Rules for Online Hosting Platforms Rethinking Liability Rules for Online Hosting Platforms, in International Journal of Law And Information Technology (IJLIT), 11 marzo 2019. Disponibile su: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3350693;
N. Helberger e altri, The Information Society An International Journal Governing Online Platforms: From Contested to Cooperative Responsibility, in The Information Society, 27 dicembre 2017. Disponibile su: https://www.academia.edu/35617076/The_Information_Society_Governing_online_platforms_From_contested_to_coo perative_responsibility.
(10) Cfr. Digital Services Act, op. cit., p. 19.
(11) Ibidem.
(12) Cfr. G. M. Ruotolo, Le proposte di disciplina di digital services e digital markets della Commissione, in DPCE Online, 15 dicembre 2020. Disponibile su: http://www.dpceonline.it/index.php/dpceonline/article/view/1225.
(13) Cfr. Digital Services Act, op. cit., p. 21.
(14) Il cyberstalking può essere definito come una condotta di stalking commessa mediante l’utilizzo della rete: lo stalker, mediante tale mezzo, pone in essere svariate condotte tali da molestare la propria vittima direttamente o indirettamente. Cfr. B. Indovina, Cyber Stalking che cosa è e come difendersi, in medialaws.eu, 14 aprile 2011.
(15) Cfr. S. Stolton, Content removal unlikely to the part of the EU regulation on digital services, Jourova says, in euractiv.com, 23 settembre 2020. Disponibile su: https://www.euractiv.com/section/digital/news/content-removal- unlikely-to-be-part-of-eu-regulation-on-digital-services-jourova-says/
(16) Cfr. D. Savova, A. Mikes e K. Cannon, The Proposal for an EU Digital Services Act. A closer look from a European and three national perspectives: France, UK and Germany, in Computer Law Review international, vol. 22, n. 2, pp. 38- 45, 15 aprile 2021. Disponibile su: https://doi.org/10.9785/cri-2021-220203;
Si veda anche: J. Morais Carvalho, F. Arga e M. Farinha, Introduction to the Digital Services Act, Content Moderation and Consumer Protection, in Revista de Direito e Tecnologia, vol. 3, n. 1, pp. 71-104, 2021. Disponibile su: https://blook.pt/publications/publication/079dbcfa6aea/
(17) Cfr. P. Cesarini, The Digital Services Act: a Silver Bullet to Fight Disinformation?, in medialaws.eu, 8 febbraio 2021. Disponibile su: https://www.medialaws.eu/verso-il-digital-services-act-the-digital-services-act-a-silver-bullet-to-fight- disinformation/
(18) Gli stakeholder sono le parti interessate.
(19) Cfr. P. Cesarini, The Digital Services Act: a Silver Bullet to Fight Disinformation?, op. cit.
(20) Cfr. P. Cesarini, Regulating Big Tech to Counter Online Disinformation: Avoiding Pitfalls while Moving Forward, in medialaws.eu, 11 aprile 2021. Disponibile su: https://www.medialaws.eu/rivista/regulating-big-tech- to-counter-online-disinformation-avoiding-pitfalls-while-moving-forward/
(21) Cfr. P. Cesarini, The Digital Services Act: a Silver Bullet to Fight Disinformation?, op. cit.

Bibliografia

M. Buiten, A. De Streel e M. Peitz, Rethinking Liability Rules for Online Hosting Platforms Rethinking Liability Rules for Online Hosting Platforms, in International Journal of Law And Information Technology (IJLIT), 11 marzo 2019;
M. Buiten, The Digital Services Act: From Intermediary Liability to Platform Regulation, 21 giugno 2021;
P. Cesarini, The Digital Services Act: a Silver Bullet to Fight Disinformation?, in
medialaws.eu, 8 febbraio 2021;
P. Cesarini, Regulating Big Tech to Counter Online Disinformation: Avoiding Pitfalls while Moving Forward, in medialaws.eu, 11 aprile 2021;
N. Helberger e altri, The Information Society An International Journal Governing Online Platforms: From Contested to Cooperative Responsibility, in The Information Society, 27 dicembre 2017;
D. Frau-Meigs, Societal costs of “fake news” in the Digital Single Market, in Policy Department for Economic, Scientific and Quality of Life Policies, Parlamento Europeo, Lussemburgo, 2018;
M. Leistner, The Commission’s vision for Europe’s digital future: proposals for the Data Governance Act, the Digital Markets Act and the Digital Services Act—a critical primer, in Journal of Intellectual Property Law & Practice, 23 febbraio 2021;
J. Morais Carvalho, F. Arga e M. Farinha, Introduction to the Digital Services Act, Content Moderation and Consumer Protection, in Revista de Direito e Tecnologia, vol. 3, n. 1, pp. 71-104, 2021;
G. M. Ruotolo, Le proposte di disciplina di digital services e digital markets della Commissione, in DPCE Online, 15 dicembre 2020;
D. Savova, A. Mikes e K. Cannon, The Proposal for an EU Digital Services Act. A closer look from a European and three national perspectives: France, UK and Germany, in Computer Law Review international, vol. 22, n. 2, pp. 38-45, 15 aprile 2021;
S. Stolton, Content removal unlikely to the part of the EU regulation on digital services, Jourova says, in euractiv.com, 23 settembre 2020;