Facebook e l’obbligo di rimuovere i contenuti equivalenti: il caso Glawischnig-Piesczek

responsabilità dell’hosting provider

Facebook e l’obbligo di rimuovere i contenuti equivalenti: il caso Glawischnig-Piesczek


Un hosting provider come Facebook è obbligato a rimuovere solo il commento specifico dichiarato illecito da un giudice — o deve cercare e rimuovere anche tutti i commenti identici o equivalenti pubblicati da altri utenti, anche al di fuori del territorio nazionale?

La risposta della Corte di Giustizia dell’Unione Europea, arrivata il 3 ottobre 2019, ha spostato in modo significativo i confini degli obblighi delle piattaforme. E il Digital Services Act del 2024 ha completato la trasformazione, introducendo un sistema strutturato di obblighi procedurali che va ben oltre il singolo contenuto illecito.


I fatti: Eva Glawischnig-Piesczek contro Facebook Ireland

Eva Glawischnig-Piesczek era presidente del gruppo parlamentare dei Verdi austriaci e portavoce federale del partito quando, nel 2016, un utente di Facebook pubblicò sulla propria pagina personale un commento che la definiva “fascista da strapazzo”, “membro corrotto” e capo di “un partito traditore del popolo”. Accanto al commento compariva la foto di Glawischnig-Piesczek, che i social network generano automaticamente quando si condivide un link che contiene l’immagine di una persona pubblica.

Il commento era stato condiviso e visibile a chiunque accedesse alla pagina dell’utente. Glawischnig-Piesczek aveva chiesto a Facebook Ireland di rimuoverlo. Facebook non aveva dato seguito alla richiesta.

La politica austriaca si era rivolta al giudice. Il Tribunale commerciale di Vienna le aveva accordato un’ingiunzione provvisoria con cui ordinava a Facebook di cessare la diffusione delle fotografie accompagnate da affermazioni di contenuto identico o equivalente a quelle contenute nel commento originale. Facebook aveva rimosso il contenuto in Austria ma non a livello globale, sostenendo che un’ingiunzione di portata mondiale fosse incompatibile con il diritto dell’Unione.

La questione era arrivata alla Corte Suprema austriaca, che aveva sospeso il procedimento e sottoposto alla CGUE tre questioni pregiudiziali.


Le questioni poste alla CGUE

Le tre domande che la Corte Suprema austriaca ha posto alla CGUE erano:

Prima questione: Un giudice nazionale può ordinare a un hosting provider di rimuovere non solo il contenuto dichiarato illecito, ma anche contenuti di identico significato — anche se pubblicati da utenti diversi rispetto a quello che aveva pubblicato il commento originale?

Seconda questione: L’obbligo di rimozione può estendersi a contenuti “equivalenti” — cioè non identici ma di significato lesivo analogo — che non siano ancora stati dichiarati illeciti da un giudice?

Terza questione: L’obbligo di rimozione può avere portata mondiale, estendendosi oltre il territorio dello Stato membro del giudice che lo emette?


La risposta della CGUE

Sì alla rimozione dei contenuti identici e equivalenti

La Corte ha risposto affermativamente alla prima e alla seconda questione, con una distinzione importante.

Un giudice nazionale può ordinare a un hosting provider di rimuovere le informazioni dichiarate illecite, ma anche di ricercare e rimuovere i contenuti identici a quello dichiarato illecito — indipendentemente dall’utente che li ha pubblicati — e i contenuti equivalenti, cioè quelli che veicolano un messaggio di identico significato lesivo, anche se formulati in modo leggermente diverso.

Il limite è cruciale: la ricerca dei contenuti equivalenti non può tradursi in un obbligo di sorveglianza generalizzata. La piattaforma non deve monitorare preventivamente tutti i contenuti degli utenti. Deve però — su ordine del giudice — cercare i contenuti che riproducono il medesimo messaggio illecito, se questa ricerca può essere condotta con strumenti tecnici automatizzati senza richiedere una valutazione autonoma di ogni singolo contenuto.

In pratica: una piattaforma come Facebook ha strumenti tecnici per rilevare automaticamente contenuti identici (per hash o per corrispondenza testuale esatta). Per i contenuti equivalenti ma non identici, la valutazione è più complessa — ma la Corte ritiene che il giudice possa ordinare anche questa ricerca, purché sia tecnicamente praticabile senza un’analisi caso per caso che ricadrebbe nell’obbligo di sorveglianza generale vietato.

Sì alla portata mondiale, con un limite

Sulla terza questione — la portata geografica dell’ordine — la Corte ha adottato una posizione di principio: il diritto dell’Unione non osta a che un giudice nazionale emetta un’ingiunzione di portata mondiale.

Tuttavia ha aggiunto una condizione rilevante: gli Stati devono tenere conto delle norme internazionali applicabili e verificare che l’ingiunzione sia compatibile con il diritto degli altri paesi interessati. In assenza di strumenti internazionali specifici che regolino la portata delle ingiunzioni di rimozione transfrontaliere, la portata mondiale è ammessa ma va calibrata caso per caso.


Cosa cambia per le piattaforme e per i titolari di diritti

Per le piattaforme. La sentenza trasforma l’obbligo di rimozione da puramente reattivo (rimuovi il contenuto che ti viene segnalato) a parzialmente proattivo (cerca e rimuovi anche i contenuti equivalenti, su ordine del giudice). Non è un obbligo di sorveglianza continua — ma è un obbligo di azione attiva su un perimetro definito dal giudice.

Per chi ha subito un contenuto diffamatorio. L’ingiunzione giudiziaria diventa uno strumento più potente: non si limita a rimuovere il singolo commento originale, ma può coprire tutte le sue repliche e versioni equivalenti, anche pubblicate da utenti diversi, anche su scala globale. Questo riduce significativamente il rischio che il contenuto illecito continui a circolare attraverso condivisioni e riformulazioni dopo la prima rimozione.

Per le persone note o pubbliche. Il caso riguardava una persona con un certo profilo pubblico, ma i principi si applicano a chiunque subisca diffamazione online sistematica. L’obbligo di rimozione dei contenuti equivalenti è particolarmente rilevante nei casi di campagne di odio organizzate, in cui lo stesso messaggio viene pubblicato da molti utenti in forme leggermente diverse per aggirare i sistemi di rilevamento automatico.


Il DSA: dall’ingiunzione giudiziaria agli obblighi strutturali

La sentenza del 2019 ha definito cosa i giudici possono ordinare alle piattaforme in casi specifici. Il Digital Services Act (Reg. UE 2022/2065), applicabile dal 17 febbraio 2024, ha fatto un passo ulteriore: ha introdotto obblighi strutturali che le piattaforme devono rispettare indipendentemente da qualsiasi ingiunzione giudiziaria.

Obblighi per tutte le piattaforme

Sistemi di segnalazione accessibili. Ogni piattaforma deve predisporre meccanismi chiari e facilmente accessibili per segnalare contenuti illeciti — inclusi quelli diffamatori. Le segnalazioni devono essere trattate con tempestività e le decisioni motivate.

Obbligo di motivazione delle decisioni di moderazione. Quando una piattaforma rimuove un contenuto, sospende un account o applica restrizioni, deve comunicare all’utente interessato la motivazione e informarlo dei mezzi di ricorso disponibili. Questo vale sia per l’utente che ha pubblicato il contenuto rimosso, sia — in certi casi — per chi ha segnalato il contenuto.

Meccanismo interno di reclamo. Gli utenti possono contestare le decisioni di moderazione attraverso un meccanismo interno che la piattaforma è obbligata a predisporre.

Obblighi aggiuntivi per le piattaforme molto grandi

Facebook, Instagram, YouTube, TikTok, X e le altre piattaforme con più di 45 milioni di utenti mensili nell’UE sono soggette a obblighi ulteriori: valutazione annuale dei rischi sistemici, audit indipendenti, trasparenza algoritmica, cooperazione con il Coordinatore dei Servizi Digitali.

In Italia il Coordinatore è AGCOM, che ha poteri di vigilanza, indagine e sanzione sulle piattaforme che non rispettano il DSA. Le sanzioni possono arrivare fino al 6% del fatturato mondiale annuo della piattaforma.

Il rapporto tra sentenza CGUE e DSA

La sentenza del 2019 e il DSA del 2024 si completano senza sovrapporsi. La sentenza stabilisce cosa può ordinare un giudice in risposta a un contenuto illecito specifico già identificato. Il DSA stabilisce come le piattaforme devono strutturare i propri sistemi di gestione dei contenuti in via generale, indipendentemente da qualsiasi ingiunzione.

In pratica: se hai subito un contenuto diffamatorio online, hai ora due percorsi paralleli. Il percorso giudiziario — ingiunzione che ordina la rimozione del contenuto e dei suoi equivalenti, sulla base dei principi CGUE 2019. E il percorso amministrativo — segnalazione ad AGCOM se la piattaforma non rispetta i propri obblighi procedurali DSA nella gestione della tua segnalazione.


Cosa fare se subisci contenuti diffamatori su una piattaforma

Segnala immediatamente tramite i sistemi della piattaforma. Ogni piattaforma ha un sistema di segnalazione — usalo e conserva la ricevuta. Dal momento in cui la piattaforma riceve la segnalazione, inizia a decorrere il termine entro cui deve agire. Se non agisce con la dovuta tempestività, è responsabile.

Invia una diffida formale. Parallelamente alla segnalazione in piattaforma, una diffida formale — preferibilmente via PEC — certifica la data in cui la piattaforma ha avuto conoscenza legale dell’illiceità. È il presupposto per qualsiasi azione risarcitoria successiva.

Documenta il contenuto prima della rimozione. Screenshot con data e ora, URL, nome dell’utente che ha pubblicato il contenuto. Una volta rimosso, non è più recuperabile dalla piattaforma.

Valuta l’ingiunzione giudiziaria se il contenuto continua a essere condiviso in forme equivalenti nonostante la rimozione dell’originale. Sulla base dei principi CGUE 2019, un giudice italiano può ordinare la rimozione di tutti i contenuti equivalenti, anche su scala globale.

Segnala ad AGCOM se la piattaforma non rispetta i propri obblighi procedurali DSA — non risponde alla segnalazione, non motiva le proprie decisioni, non mette a disposizione un meccanismo di reclamo adeguato.

→ Leggi anche: Responsabilità del provider e delle piattaforme online — guida completa → Leggi anche: Diritto d’autore su internet — come difenderti


Hai subito contenuti diffamatori o lesivi della tua reputazione su una piattaforma online e la piattaforma non li ha rimossi nonostante la tua segnalazione? Prenota una consulenza o scrivici direttamente.


Articoli correlati:

Lo Studio Legale Dandi fornisce assistenza legale in Diritto d'autore. Dai un'occhiata ai nostri servizi oppure contattaci!

Sono Claudia Roggero, avvocata specializzata in Proprietà Intellettuale, Diritto d’Autore e dello Spettacolo. La mia missione non è solo guidarti attraverso il labirinto normativo che governa il mondo delle arti, della musica, dell’audiovisivo, dell’editoria e del digitale. Con bravura ed una competenza d’eccellenza, mi dedico a trasformare le complessità legali in opportunità strategiche, sempre con un approccio profondamente umano.

Site Footer