Piattaforme digitali e responsabilità dei contenuti: cosa dice la legge
Quando una piattaforma rimuove un tuo contenuto, sospende il tuo account o non rimuove un contenuto che viola i tuoi diritti, chi è responsabile? La risposta è cambiata profondamente negli ultimi anni. Il Digital Services Act (DSA) — il Regolamento UE 2022/2065, in vigore dal 17 febbraio 2024 per tutte le piattaforme — ha ridefinito le regole del gioco in modo strutturale.
Il quadro prima del DSA: il modello dell’hosting passivo
Per oltre vent’anni le piattaforme digitali hanno operato sotto un regime di sostanziale irresponsabilità per i contenuti pubblicati dagli utenti. La logica era quella del provider neutro: chi ospita contenuti altrui senza selezionarli o modificarli non ne risponde, salvo l’obbligo di rimuoverli quando viene notificata l’illiceità.
In Italia questo principio era sancito dal D.Lgs. 70/2003 (che recepiva la Direttiva e-Commerce del 2000): la piattaforma era responsabile solo se era “a conoscenza” dell’illecito e non aveva agito prontamente per rimuoverlo.
Il problema è che questo sistema lasciava quasi tutto il potere alle piattaforme — che potevano decidere autonomamente cosa rimuovere, con procedure opache, senza obblighi di motivazione e senza meccanismi di ricorso reali per l’utente.
Il Digital Services Act: un cambio di paradigma
Il DSA non elimina l’esenzione di responsabilità per i provider — la mantiene come regola generale — ma impone una serie di obblighi procedurali e di trasparenza che cambiano radicalmente il rapporto tra piattaforme e utenti.
Obblighi per tutte le piattaforme
Qualsiasi piattaforma che offre servizi nell’UE — indipendentemente da dove ha sede — deve ora:
Istituire un meccanismo di segnalazione chiaro e accessibile per i contenuti illegali, con possibilità per chiunque di segnalare contenuti che violano la legge o i termini di servizio.
Fornire motivazione scritta quando rimuove un contenuto, limita la visibilità di un account o sospende un utente. La motivazione deve essere specifica — non può limitarsi a richiamare genericamente i termini di servizio.
Offrire un sistema di reclamo interno gratuito che permetta all’utente di contestare la decisione entro termini ragionevoli.
Accettare la risoluzione extragiudiziale delle controversie tramite organismi certificati da ogni Stato membro.
Obblighi aggiuntivi per le piattaforme molto grandi (VLOP)
Le piattaforme con più di 45 milioni di utenti attivi mensili nell’UE — Google, Meta, X, TikTok, YouTube, Amazon, tra le altre — sono soggette a obblighi più stringenti:
Valutazione del rischio sistemico — devono analizzare annualmente i rischi che i loro sistemi di raccomandazione, moderazione e pubblicità comportano per la società (diffusione di contenuti illegali, manipolazione del dibattito pubblico, rischi per i minori).
Audit indipendenti — la valutazione del rischio è soggetta a verifica da parte di revisori esterni certificati.
Trasparenza algoritmica — gli utenti hanno il diritto di sapere perché un contenuto viene raccomandato e di scegliere alternative ai sistemi di raccomandazione basati sulla profilazione.
Accesso ai dati per i ricercatori — le piattaforme devono consentire l’accesso ai dati agli enti di ricerca che studiano fenomeni come la disinformazione e l’hate speech.
Cosa può fare un utente quando un contenuto viene rimosso
Prima del DSA, l’utente che subiva una rimozione ingiustificata aveva pochissimi strumenti. Ora la situazione è diversa.
Primo passo: il reclamo interno — ogni piattaforma deve avere un sistema di reclamo gratuito. L’utente può contestare la rimozione indicando le ragioni per cui ritiene il contenuto lecito. La piattaforma deve rispondere in tempi ragionevoli con una motivazione.
Secondo passo: la risoluzione extragiudiziale — se il reclamo interno non risolve la questione, l’utente può rivolgersi a un organismo di risoluzione extragiudiziale certificato. In Italia l’autorità competente per la supervisione del DSA è l’AGCOM.
Terzo passo: il ricorso giudiziario — il DSA non esclude il diritto di agire in giudizio. In Italia, un utente che ritiene di aver subito una rimozione illegittima può rivolgersi al giudice ordinario. I tribunali italiani hanno già affrontato il tema: il Tribunale di Roma ha riconosciuto in vari casi che le piattaforme, pur essendo soggetti privati, svolgono un’attività di “indubbio rilievo sociale” che ne limita la discrezionalità nella moderazione.
Libertà di espressione e moderazione: il bilanciamento difficile
La libertà di espressione — garantita dall’art. 21 della Costituzione italiana, dall’art. 10 della CEDU e dall’art. 11 della Carta dei Diritti Fondamentali UE — si applica storicamente nei confronti dello Stato, non dei privati. Una piattaforma privata non è vincolata dalla Costituzione nello stesso modo in cui lo è il legislatore.
Questo significa che Facebook, X o YouTube possono legittimamente rimuovere contenuti che non violano alcuna legge ma che contraddicono i loro termini di servizio — purché lo facciano nel rispetto delle procedure previste dal DSA.
Il confine però non è assoluto. La giurisprudenza italiana ha riconosciuto che quando una piattaforma raggiunge una posizione dominante nell’infrastruttura del dibattito pubblico, la sua discrezionalità nella moderazione si restringe. Un account rimosso senza motivazione adeguata da una piattaforma con potere di mercato significativo può configurare un abuso.
Contenuti che violano i tuoi diritti: cosa fare
Se sei il titolare di diritti che vengono violati online — copyright su una fotografia, diritto di immagine, reputazione — il DSA rafforza anche le tue posizioni.
Per violazioni di copyright — le piattaforme devono rispondere alle notifiche di rimozione (notice and takedown) in tempi ragionevoli. Il D.Lgs. 177/2021, che ha recepito la Direttiva Copyright, impone alle piattaforme di condivisione di contenuti di dotarsi di sistemi per prevenire il caricamento di opere già segnalate come protette.
Per violazioni del diritto di immagine — la rimozione di un contenuto che usa la tua immagine senza consenso può essere richiesta sia tramite i meccanismi della piattaforma che, in caso di urgenza, con ricorso cautelare al giudice ex art. 700 c.p.c.
Per contenuti diffamatori — la segnalazione alla piattaforma è il primo passo. Se il contenuto non viene rimosso e il danno reputazionale è documentabile, è possibile agire in giudizio per ottenere la rimozione e il risarcimento.
→ Approfondimento: Diritto di autore e internet → · Violazione del diritto d’autore: come agire → · Diritto all’immagine →
Cosa non è cambiato
Il DSA non trasforma le piattaforme in editori responsabili di tutto ciò che pubblicano i loro utenti. L’esenzione di responsabilità rimane — le piattaforme non rispondono dei contenuti degli utenti salvo che abbiano avuto conoscenza effettiva dell’illecito e non abbiano agito prontamente.
Non esiste un “diritto assoluto” a mantenere un account su una piattaforma privata. Le piattaforme possono ancora applicare i propri termini di servizio e rimuovere contenuti leciti che violano le loro policy — a patto di farlo con le procedure previste dal DSA.
Hai subito la rimozione di un contenuto o la sospensione di un account e vuoi capire se hai strumenti legali? Prenota una consulenza con DANDI — assistiamo creator, aziende e professionisti nei rapporti con le piattaforme digitali.
Leggi anche: Diritto d’autore e internet → · Copyright su fotografie e immagini online → · Pubblicità online e obblighi di trasparenza →
Lo Studio Legale Dandi fornisce assistenza legale in diverse aree di competenza. Dai un'occhiata ai nostri servizi oppure contattaci!


