Nuovi poteri di censura online per i paesi europei con il TERREG – un’analisi

0 Commenti
4376 Visualizzazioni

Autrice: Leila Belhadj Mohamed

Il Regolamento sulla prevenzione della diffusione di contenuti terroristici online

Il 12 settembre 2018, la Commissione europea ha presentato una proposta di regolamento sulla prevenzione della diffusione di contenuti terroristici online – ribattezzata regolamento sul terrorismo, o TERREG – contenente alcune misure allarmanti per la libertà di espressione.

In origine, la proposta prevedeva l’obbligo per le piattaforme di rimuovere i contenuti considerati potenzialmente “a fini terroristici” entro un’ora dalla loro pubblicazione, a seguito di un ordine esecutivo da parte delle autorità nazionali competenti.

Questo genere di proposte è in linea con gli sforzi comunitari di creare delle linee guida comuni in materia di antiterrorismo. Già nel 2016 ci fu il tentativo della Commissione Europea di creare un accordo volontario per le aziende di rimuovere certi contenuti – compresa l’espressione terroristica – entro 24 ore.

All’interno dei Paesi membri i legislatori si sono mossi nella stessa direzione, come ad esempio in Germania con la promulgazione e il Network Enforcement Act (NetzDG). Il modello tedesco ha generato decine di emulatori in tutto il mondo, anche in Paesi come la Turchia, che sfruttano queste norme per censurare e limitare attivisti e cittadini, più che per bloccare e combattere le organizzazioni terroristiche.

In seguito agli ultimi attentati di Nizza e Vienna dello scorso autunno, si sono velocizzati i lavori, fino al 10 dicembre 2020, quando il Parlamento europeo e la presidenza tedesca, a nome del Consiglio, hanno raggiunto un accordo provvisorio sul TERREG.

Oltre al requisito della rimozione entro un’ora, la bozza originaria conteneva anche un’ampia definizione di ciò che costituisce contenuto terroristico:

qualsiasi “materiale che incita o sostiene la commissione di reati terroristici, promuove le attività di un gruppo terroristico o fornisce istruzioni e tecniche per commettere reati terroristici”.

Inoltre, tutte le piattaforme erano vincolate a monitorare il proprio flusso di contenuti al fine di evitare di essere usate impropriamente per la diffusione di materiale terroristico. Questo includeva l’obbligo di prendere misure proattive per prevenire la diffusione di questi contenuti, misure da applicare in cooperazione tra gli Stati membri.

I rischi

Il legislatore non ha tenuto conto di un dettaglio fondamentale: gli algoritmi che dovrebbero monitorare il flusso delle informazioni online non sono in grado di differenziare tra contenuto terroristico e – ad esempio – informazione giornalistica.

Il TERREG è stato creato senza una reale consultazione della società civile, dei gruppi di libera espressione e dei diritti umani e può avere gravi ripercussioni sull’espressione online. Ancora peggio, la proposta è stata adottata sulla base di spinte politiche piuttosto che su ricerche e analisi puntuali.

Già nel 2019, l’Agenzia per i Diritti Fondamentali dell’UE (ADF) – incaricata di un parere dal Parlamento europeo – ha espresso preoccupazione per il regolamento.

L’ADF ha evidenziato la necessità di modificare la definizione di “contenuto terroristico” ritenuta troppo ampia, al punto di interferire con la libertà di espressione. Inoltre, secondo L’ADF, la proposta non garantiva né il coinvolgimento della magistratura nel meccanismo di controllo né l’obbligo degli Stati membri di proteggere i diritti fondamentali online.

Insieme a molti altri gruppi della società civile, abbiamo espresso la nostra profonda preoccupazione per la legislazione proposta e abbiamo sottolineato che le nuove regole sarebbero una seria minaccia ai diritti fondamentali delle persone e alla libertà di espressione.

Le richieste

Il messaggio ai responsabili politici dell’UE era chiaro. Abbiamo chiesto di modificare il limite di tempo della rimozione dei contenuti, dato che un’ora è un lasso di tempo troppo stretto affinché le piattaforme potessero analizzare e rimuovere i contenuti.

Oltre a questo, è staato richiesto di rispettare i principi di territorialità e garantire l’accesso alla giustizia nei casi di rimozione transfrontaliera, assicurando che solo lo Stato membro in cui il fornitore di servizi di hosting ha la sua sede legale possa emettere ordini di rimozione. Allo stesso modo, di garantire un giusto processo e chiarire che la legalità dei contenuti sia determinata da un tribunale o da un’autorità amministrativa indipendente.

Infine, di non imporre l’uso di filtri di upload o re-upload – tecnologie di riconoscimento automatico dei contenuti – ai servizi che rientrano nel campo di applicazione del regolamento, e di esentare alcune forme di espressione protette, come i materiali educativi, artistici, giornalistici e di ricerca.

Tuttavia, mentre le commissioni responsabili del Parlamento europeo hanno mostrato la volontà di prendere in considerazione le preoccupazioni dei gruppi della società civile, la questione è diversa in Consiglio.

Durante i negoziati a porte chiuse tra le istituzioni per trovare un accordo, sono state discusse diverse versioni di TERREG, che sono culminate in ulteriori lettere da parte dei gruppi della società civile, che sollecitavano i legislatori a tutelare la libertà di espressione e lo stato di diritto.

Alcune delle richieste sono state accolte come, ad esempio, la tutela di contenuti pubblicati per scopi giornalistici, artistici e educativi e, soprattutto, la modifica della definizione di contenuto terroristico – che ora corrisponde alla definizione più ristretta della direttiva UE 2017/541 sulla lotta al terrorismo. Il lavoro fatto non è, però, abbastanza.

Il testo finale del Regolamento presentato lo scorso 16 marzo contiene ancora misure pericolose che finiranno per indebolire la protezione dei diritti fondamentali nell’UE, oltre ad avere il potenziale per creare un pericoloso precedente per la regolamentazione dei contenuti online in tutto il mondo.

Nonostante l’accoglimento di alcune richieste, il testo è ancora inadeguato

In primo luogo, il testo mantiene il limite di un’ora per la rimozione dei contenuti. Lasciando un lasso di tempo così breve ai provider per provvedere alla rimozione dei contenuti segnalati, incentiva le piattaforme ad utilizzare degli strumenti di moderazione automatica per la rimozione dei contenuti, come – ad esempio – i filtri sull’upload.

La questione è legata alle pratiche di moderazione che già ora sono caratterizzate da mancanza di trasparenza nel processo decisionale automatizzato, ancora più problematico sarà con i tempi di analisi ristretti.

Essendo impossibile per i software differenziare sistematicamente l’attivismo, il counter-speech e la satira sul terrorismo dal contenuto considerato terrorismo stesso, l’aumento dell’automazione porterà alla fine alla rimozione di contenuti legittimi, come i resoconti giornalistici o le notizie sul trattamento discriminatorio delle minoranze e dei gruppi sottorappresentati.

Le piattaforme rimuovono già una grande quantità di contenuti che documentano la violenza nelle zone di guerra, caricati da sopravvissuti, civili o giornalisti, come tracciato dagli archivi siriani, libici e yemeniti, il che può ostacolare gli sforzi per indagare sulle responsabilità.

Il Regolamento proposto, privo di salvaguardie per prevenire tali pratiche quando sono in uso strumenti automatizzati, finirà per rafforzare questa tendenza censoria. I filtri sugli upload possono inoltre avere un effetto negativo su Internet, soprattutto per quanto riguarda la sua architettura aperta e le componenti interoperabili.

In secondo luogo, e non meno importante c’è una grave carenza di controllo giudiziario indipendente.

Nella proposta, si invitano gli Stati membri a designare delle “autorità nazionali competenti” pertinenti nell’applicazione delle misure del regolamento, in particolare per ciò che concerne gli ordini di cancellazione dei contenuti. Tuttavia, non c’è nessun criterio nell’individuazione di queste autorità, che saranno, quindi, designate dal singolo Stato seguendo il criterio della discrezionalità.

Anche se la proposta prevede che le autorità siano essere obiettive, che seguano il principio di non discriminazione e che rispettino i diritti fondamentali, riteniamo che solo i tribunali o le autorità amministrative indipendenti, soggette a controllo giudiziario, dovrebbero avere il mandato di emissione di ordini di cancellazione dei contenuti.

La mancanza di controllo giudiziario pone un grave rischio per diversi diritti fondamentali, tra cui la libertà di espressione, riunione, associazione, religione e accesso all’informazione. Inoltre, mina la Carta dei diritti fondamentali, che all’art.11 protegge “la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera”.

Ed è proprio legata alla frontiera l’ultimo punto, ma non meno importante. Infatti, agli Stati membri è concessa la possibilità di emettere ordini di cancellazione di contenuti transfrontalieri senza il minimo controllo da parte di terzi

Ogni autorità competente statale avrà la facoltà di ordinare la cancellazione di contenuti online in qualsiasi luogo dell’Unione entro un’ora dalla loro pubblicazione. In altre parole: extraterritorialità della giurisdizione di uno Stato oltre il proprio territorio, senza alcun controllo giudiziario preventivo, senza tenere in considerazione i diritti degli individui. Alla luce delle gravi minacce allo Stato di diritto in alcuni Paesi Membri, come la Polonia e l’Ungheria, ma anche la Francia in seguito alle ultime legislazioni securitarie, ci chiediamo come sia possibile garantire il rispetto dei diritti senza un organo giudiziario incaricato di monitorare l’applicazione di queste misure.

Inoltre, il termine minimo della procedura di notifica e di verifica da parte dello Stato interessato, previsto nel testo attuale, non contiene sufficienti garanzie contro l’abuso di potere dello Stato stesso, e non risolverà i disaccordi tra i Paesi membri su ciò che costituisce terrorismo, ironia, arte, o cronaca giornalistica.

Insomma, la normativa è estremamente problematica ed è per questo motivo che il 25 marzo, abbiamo inviato, insieme ad altre 60 associazioni di giornalisti e di diritti umani, una lettera congiunta ai membri del Parlamento europeo, esortandoli a votare contro la proposta di regolamento per affrontare la diffusione di contenuti terroristici online.

Non siamo stati ascoltati, al punto che il testo del TERREG, che avrebbe dovuto essere analizzato nel dettaglio, discusso e approvato con doppia votazione il 28 aprile, è stato relegato in un angolo della discussione parlamentare e approvata senza voto in plenaria.

I rischi per i diritti umani creati da questa legge avrebbero meritato un esame ulteriore e approfondito. Questa, però, non è la fine del percorso: continueremo a lavorare e a monitorare la sua attuazione per proteggere i diritti fondamentali dei cittadini europei.