L'Europa continua a dettare la linea quando si tratta di Internet, e la materia si fa più intricata. Ieri la Corte di giustizia dell’Unione europea ha stabilito che i singoli Paesi europei possono imporre a Facebook e alle piattaforme analoghe di cancellare o disabilitare l’accesso a contenuti illeciti. E che l’intervento può riguardare tutto il mondo.
Questo vuol dire che se una persona si rivolge a un giudice perché ritiene di essere stata diffamata (o altro) con un post, una fotografia o un video pubblicati su un social network il tribunale può decidere di chiedere di cancellare l’esternazione incriminata e anche di cercare ed eliminare quelle identiche spuntate su altre bacheche e quelle equivalenti. A livello globale, e non solo europeo. L’ultimo aspetto è quello che fa più rumore: va innanzitutto nella direzione opposta alla decisione della scorsa settimana — sempre della Corte — su Google e il diritto all’oblio, che limita le deindicizzazioni delle informazioni vere ma non più rilevanti al territorio comunitario.
Secondo la nuova sentenza — relativa a una causa risalente al 2016 dell’allora presidente austriaca dei Verdi Eva Glawischnig-Piesczek —, invece, i discorsi d’odio, la già citata diffamazione e altri contenuti illegali e le loro copie vanno considerati tali senza alcun confine e le piattaforme ne sono responsabili, essendo così sempre più equiparate a editori di contenuti. È una presa di posizione importante: al momento non c’è una legge comune a tutta l’Europa, ma si sono mossi singoli Paesi autonomamente, come la Germania. Per Facebook, la Corte «mina il consolidato principio secondo cui un Paese non ha il diritto di imporre le proprie leggi sulla libertà di parola ad un altro Paese». Dello stesso avviso Thomas Hughes dell’organizzazione per la libertà di espressione Article 19, che aveva applaudito l’epilogo sul diritto all’oblio. Siamo al cospetto, dice Hughes, di «un pericoloso precedente in cui i tribunali di un Paese possono controllare ciò che gli utenti di Internet di un altro Paese possono vedere».
Altro tema delicato è quello delle definizioni. La sentenza precisa che le piattaforme non devono essere messe in condizione di fare «una valutazione autonoma». Menlo Park scrive che «i tribunali nazionali dovranno prevedere definizioni molto chiare su cosa significhino “identico” ed “equivalente” concretamente. Speriamo che adottino un approccio proporzionato e misurato».
Poi, come faranno le piattaforme a intervenire tempestivamente senza agire in modo censorio o errato? Come spiega l’avvocato Ernesto Belisario, il quesito è ormai annoso: «I rischi sono quelli di cui parliamo da tempo, almeno dall’approvazione della direttiva copyright, sulla satira o sui commenti critici: legislatori e giudici ripongono evidentemente totale fiducia nella capacità di selezione degli algoritmi, ma la possibilità di imbattersi in falsi positivi e rimozioni errate esiste».
C’è un recente esempio pratico: la settimana scorsa Facebook ha oscurato la popolare pagina di satira politica «Socialisti Gaudenti» per poi però rendersi conto nel giro di poche ore dell’errore (lo ha raccontato qui Chiara Severgnini). Non c’era alcun ordine di un giudice, ma l’interpretazione sbagliata da parte dell’algoritmo e poi dei moderatori del regolamento che devono applicare. Quello della piattaforma. Una sorta di monitoraggio proattivo e automatizzato è dunque di fatto già attivo per far rispettare le norme interne. I critici della sentenza sono preoccupati che, a fronte di obblighi normativi, le piattaforme lo adottino con maggiore frequenza con effetti negativi sulla libertà d’espressione.
Nessun commento:
Posta un commento