Disinformazione e sezione 230: serve un cambiamento

0 Commenti
2300 Visualizzazioni

Autrice: Anna Sofia Zanada


Giovedì 25 marzo 2021 il CEO di Facebook Inc Mark Zuckerberg, Sundar Pichai, l’amministratore delegato della casa madre di Google, Alphabet Inc, e Jack Dorsey, CEO di Twitter hanno affrontato le critiche dei membri del Congresso sulla loro gestione della disinformazione e dell’estremismo online. 

Questa è stata la loro prima apparizione davanti ai legislatori, dopo i disordini dello scorso 6 gennaio al Campidoglio e il lancio del vaccino contro il COVID-19.

Il Comitato per l’Energia e il Commercio, una realtà chiave della Camera, ha sferrato un vero e proprio attacco bipartisan alle tre più grandi piattaforme del mondo.

Sì o no?

La domanda a cui i tre amministratori delegati sono stati sottoposti, riguarda la responsabilità delle rispettive piattaforme nell’aver fomentato il clima di odio e incoraggiato la folla pro-Trump nell’intraprendere l’azione sconsiderata dello scorso 6 gennaio.

Mark Zuckerberg, ha detto che l’unica vera responsabilità della sua azienda è quella di aver costruito sistemi efficaci.

Pochi giorni prima dell’udienza, il CEO di Facebook aveva infatti affermato che “Le conversazioni online rifletteranno sempre le conversazioni che si svolgono nei salotti, in televisione, e nei messaggi di testo e telefonate in tutto il Paese. […] La nostra società è profondamente divisa, e lo vediamo di conseguenza anche sulle nostre piattaforme”. In quest’ottica, la sua opinione è che i reali responsabili della rivolta siano solamente i rivoltosi stessi. 

Sundar Pichai ha riportato il senso di responsabilità che la sua azienda sente costantemente, ma affermando a sua volta che la domanda necessita di una risposta ampia ed articolata.

Solo Jack Dorsey ha risposto in maniera affermativa, ma ha sottolineato come sia necessario considerare tutto l’ecosistema, che ha dimensioni decisamente più ampie.

Secondo il CEO di Twitter siamo davanti ad un evidente deficit di fiducia, cresciuto negli Stati Uniti così come in tutto il mondo, che “non ha solo un impatto sulle aziende sedute al tavolo oggi, ma esiste in tutto l’ecosistema dell’informazione”.

Di teatralità tipicamente americana, ad un certo punto dell’udienza, Dorsey ha sfogato la sua frustrazione lanciando un sondaggio sul suo account Twitter @jack, scrivendo semplicemente “?” e chiedendo ai suoi utenti di votare sì o no.

La questione è più ampia: il problema della disinformazione

In realtà il dibattito del 25 marzo era indirizzato sia a definire il quadro di responsabilità di quanto accaduto a Capitol Hill, ma anche a riflettere, nuovamente, sulla disinformazione, di cui Facebook, Twitter e Google sono riconosciuti ambasciatori.

Le piattaforme tecnologiche, che avevano già affrontato un’intensa pressione per sconfiggere la disinformazione e le interferenze prima delle elezioni del 2020, sono state sottoposte a un maggiore esame nei mesi successivi.

Nei giorni precedenti l’udienza, le aziende hanno però sostenuto di aver agito aggressivamente per sconfiggere la disinformazione

Facebook ha detto che ha rimosso 1,3 miliardi di account falsi lo scorso autunno e che ora ha più di 35.000 persone che lavorano sulla moderazione dei contenuti. 

Twitter ha assicurato durante il mese di marzo 2021 avrebbe iniziato ad applicare etichette di avvertimento alla disinformazione sul vaccino per il COVID-19. 

YouTube (Google) ha affermato di aver rimosso, questo mese, decine di migliaia di video contenenti disinformazione sul vaccino e, a gennaio, dopo le rivolte di Capitol Hill, ha annunciato che avrebbe limitato i canali che condividono false affermazioni che dubitano del risultato delle elezioni del 2020.

Ma queste affermazioni di progresso, accanto a conosciuti mezzi in continua implementazione, quali per esempio Birdwatch e l’Oversight Board, non sono certo sufficienti. 

Come confermano osservatori del settore, che registrano un progressivo aumento del fenomeno disinformativo, è dunque imprescindibile un tempestivo e netto cambiamento di rotta, che segni una definitiva cesura con le pratiche del passato e delinei le prospettive di un quadro maggiormente equo, protetto e sicuro.

E l’affermazione del rappresentante democratico Frank Pallone, Presidente della Commissione Energia e Commercio, sembrerebbe aprire il dibattito in questa direzione Il vostro modello di business stesso è diventato il problema e il tempo dell’autoregolamentazione è finito. È ora di legiferare per rendervi responsabili”.

La necessità di riforma della Sezione 230

Tra le ragioni per cui non si è ancora agito con una linea dura contro l’autoregolamentazione delle Big Tech, possiamo sicuramente annoverare l’azione lobbistica che questi colossi riescono a muovere a difesa della Sezione 230 del Communications Decency Act del 1996.

Per quanto con letture prospettiche differenti, su una cosa Facebook, Twitter e Google concordano: è la legge fondamentale di internet e il livello di prosperità che ad oggi hanno raggiunto è in buona parte grazie a questo vero e proprio scudo legale.

Cosa fa la Sezione 230?

Protegge i siti web dalla responsabilità per i contenuti creati dai loro utenti; permette alle compagnie internet di moderare i loro siti senza essere legalmente responsabili di tutto ciò che ospitano; non fornisce una protezione generale dalla responsabilità legale per alcuni atti criminali, come la pubblicazione di pornografia infantile o le violazioni della proprietà intellettuale.

What is Section 230? Legal Shield for Websites is Targeted by Lawmakers -  The New York Times

Quindi, mettendo in semplici termini la questione: se vi accusassi di omicidio su Facebook, potreste farmi causa, ma non potete fare causa a Facebook.

Se comprate un oggetto difettoso da un commerciante su Amazon, potreste essere in grado di portare il venditore in tribunale, ma non Amazon. “Infinitamente semplicistico” diranno la maggior parte dei giuristi, ma questo è il succo.

La Sezione 230 sta creando ad oggi non poche complicazioni e aprendo un gran dibattito sulle prospettive di modifica, sia tra le Big che nelle istituzioni.

Dal lato delle Companies, Zuckerberg ha esortato il Congresso a compiere una riforma prudente della Sezione 230.

Ha proposto che la protezione della responsabilità per le aziende sia condizionata alla loro capacità di combattere la diffusione di alcuni tipi di contenuti illegali. Ha suggerito che sia stabilita una terza parte per determinare ciò che è adeguato in base alle dimensioni della piattaforma e per identificare pratiche eque e chiare per le aziende da capire e implementare.

Sundar Pichai si è dimostrato favorevole alla necessità di rinnovare la legge per creare un ecosistema maggiormente equo, accusando però le recenti proposte di modifica della sezione 230 di danneggiare, non intenzionalmente, la libera espressione e limitare la capacità delle aziende di controllare le piattaforme.

Jack Dorsey ha ribadito di sostenere una maggiore trasparenza e responsabilità.

Sul fronte pubblico, alcuni repubblicani hanno sostenuto che le aziende tecnologiche non dovrebbero più godere delle protezioni perché hanno censurato i conservatori e quindi violato lo spirito stesso della legge.

Dall’altra parte, alcuni democratici hanno sostenuto che siti e piattaforme non siano stati “seri”, proprio avvalendosi della protezione della Sezione 230. 

Propongono così due vie:

  • Rise the bar: le aziende dovrebbero soddisfare una serie di criteri per poter godere della protezione della Sezione 230
  • Fix-it: limitare la possibilità delle aziende di appellarsi alla Sezione 230, soprattutto in caso di violazione di diritti civili, molestie, morti ingiuste, abusi sessuali e sui minori

Quali prospettive?

A mio avviso, un innovativo progetto di legge dovrebbe essere comprensivo sia della via rise the bar che della fix-it, andando in verità a porre la Sezione 230 come uno degli strumenti che regolino l’azione delle Big Tech. Contemporaneamente però, andrebbe stabilita ed implementata la “terza parte” a cui Zuckerberg ha fatto riferimento.

Visti i minimi risultati di azioni unilaterali delle Big Tech come i già citati Oversight Board e il Birdwatch, andrebbe istituito un organo realmente super partes, che non venga commissionato dalla singola Company e non si limiti quindi a giudicare e controllare ciò che avviene sulla propria piattaforma, ma in un’ottica di maggiore condivisione di standard e criteri, poiché un cittadino è tale sia che sottoscriva un’iscrizione a Twitter a Facebook o a Youtube. 

Proporre e attivare uno strumento complesso di questo tipo sarebbe un reale cambio di rotta rispetto al regime di autoregolazione sino ad ora lasciato liberamente crescere.