Facebook ha istituito un Consiglio di sorveglianza indipendente che giudicherà, in appello, le decisioni dell’azienda quando questa valuta, sospende o cancella i contenuti degli utenti; e nel caso in cui il social network non agisca per tutelare i diritti degli utenti lesi dai contenuti di qualcun altro. Sollecitato in modi differenti, in buona sostanza, questo Consiglio potrà chiedere a Facebook di cancellare un contenuto per razzismo, discriminazione o altre ragioni; oppure potrà chiedere al social network di ripubblicare un post cancellato per errore, perché la decisione di Facebook non era legittima. L’organismo sembra essere una via di mezzo tra una Corte d’Appello e una Corte di Cassazione, perché sarà sia giudice di merito – sui singoli post – che di legittimità, perché l’organismo potrà giudicare della corretta applicazione delle norme che regolano la vita nel social network, e cioè gli Standard di comunità.
«Le decisioni del Consiglio saranno vincolanti – ha spiegato Mark Zuckerberg in una lettera che ha accompagnato l’annuncio – anche se io non sono d’accordo o se qualcuno di Facebook non è d’accordo. Il Consiglio utilizzerà i nostri valori che saranno alla base delle sue decisioni e motiverà le decisioni, proteggendo la privacy delle persone». L’organismo potrà anche fornire pareri e indicazioni su come gestire il newsfeed di Facebook e Instagram. Non solo, volendo potranno accedere all’organismo anche altri social network che hanno problemi simili, come Twitter e Snapchat.
Il Consiglio sarà indipendente, controllato da un trust (una specie di fondazione), e i suoi 40 membri, retribuiti, saranno scelti tra esperti di diritto, giornalisti, giudici, docenti universitari; potranno rimanere in carica fino a un massimo di 9 anni. Sarà il trust e non Facebook e nemmeno gli utenti a indicare i membri, e dovrebbe essere operativo nella prima metà del 2020.
La definizione di meta-nazione digitale si arricchisce di un ulteriore tassello, dopo i confini, le norme fondamentali, ovviamente i sovrani, la politica estera, i conflitti con gli Stati e gli organismi internazionali e da ultimo, con Libra, la possibilità di battere moneta, adesso siamo arrivati alla costituzione di organismi giudiziari semi-indipendenti.
La novità possiede comunque una portata rilevante e globale.
Quando Zuckerberg nella lettera scrive: «prendiamo milioni di decisioni ogni settimana», egli rappresenta con una semplice considerazione quanto il social network sia diventato in poco più di 10 anni lo spazio del dibattito pubblico in centinaia di paesi al mondo, quanto esso sia il luogo privilegiato in cui si forma il discorso pubblico e si generano molte emozioni collettive, in virtù di una libertà di espressione ampia. E perciò stesso il social network rappresenta anche il luogo in cui il discorso pubblico, il dibattito politico e la libertà di espressione vengono messi a repentaglio quotidianamente in molte forme. Costituire un organismo che tenti di proteggere la libertà degli utenti sembrava doveroso per Facebook.
Va ammesso che l’azienda fondata da Mark Zuckerberg è giunta a questo traguardo con serietà e sembra con un impegno dello stesso fondatore, attraverso un percorso lungo, articolato, complesso, gestito in maniera che potremo definire partecipata; con una fase di ascolto e con prospettive future ignote. Facebook ha investito sul Consiglio risorse economiche e intellettuali, di tempo e di credibilità, con un team di 100 persone che si è riunito per mesi, ha organizzato 6 seminari e 22 tavole rotonde, ha simulato decisioni sui post di 650 persone da 88 paesi del mondo. Dopo tutta questa fatica, oggi ha deciso di consegnare una qualche forma di potere a un organismo che – sebbene l’azienda lo controlli attraverso il trust – potrebbe creargli più di un problema. Chiedendo, ad esempio, che Facebook faccia delle cose che Facebook non vuole fare. È presto per fare ipotesi, ma potrebbe succedere, come ha spiegato al Wall Street Journal Kate Klonick, docente di diritto alla St. John’s University di New York, tra gli esperti consultati negli ultimi mesi da Facebook, che il Consiglio chieda di «sbarazzarsi del news feed» perché il news feed sta distruggendo la democrazia. Immaginiamo che un esito simile sia improbabile, ma sulla carta non è impossibile.
Il gioco, però, vale la candela di una reputazione messa fortemente a rischio nell’ultimo anno e mezzo. Ha più valore lasciare a un organismo – più o meno – terzo, la risoluzione di temi importanti come quelli legati al discorso d’odio, alla libertà di parola, che finire costantemente sotto assedio perché l’azienda non è stata in grado di risolvere questi stessi temi. Assisteremo a una dialettica tra l’azienda e il suo Consiglio di sorveglianza, non sappiamo quanto sarà autentica, e quanto sarà frutto di un sapiente gioco della parti. Lo scopriremo presto.
Niente può mutare la natura del social network per come è stato progettato e sviluppato nel corso del tempo. Nel business dei social network peraltro la sincerità è una qualità richiesta per lo più nelle relazioni trimestrali; per il resto abbiamo visto quanto sia complicato per un’azienda così complessa riconoscere le proprie numerose debolezze. E quindi l’ammissione che grazie a Facebook la libertà di espressione ha raggiunto un livello mai raggiunto nella storia dell’umanità, e che a questo livello di apertura corrisponde una enorme responsabilità, e soprattutto si corrono rischi equivalenti, ecco questa ammissione Zuckerberg non potrà mai farla per intero. Non potrà mai confessare che Facebook è naturalmente hackerabile, e cioè che chiunque può sfruttare a proprio piacimento la piattaforma per diffondere notizie false e contenuti inventati, dal momento che non esiste una contromisura tecnologica e tantomeno umana. Non può confessarlo perché dovrebbe ammettere che la sua creatura, nata per rendere il mondo più aperto e connesso, può trasformare il mondo anche nell’esatto contrario. Ricordiamo sempre che Facebook non fa politica, anche se l’algoritmo per come è progettato produce effetti politici; in generale tutti i social network costituiscono una specie di sistema nervoso globale, attraverso il quale circolano rapidamente le idee, anche le più radicali, e soprattutto quelle che stimolano reazioni emotive radicali. Tuttavia l’altra metà di questa ammissione, quella sull’enorme responsabilità, il fondatore di Facebook sembra averla presa sul serio: perché non aveva altra scelta e perché gli conviene.
Esiste un’altra e ulteriore ammissione che non può fare Mark Zuckerberg, e cioè che per quanto l’idea del Consiglio di sorveglianza sia ben congegnata, non potrà sconfiggere in alcun modo il discorso d’odio. Soprattutto per ragioni di tempo: per quanto rapido possa essere l’accesso all’organismo e una sua pronuncia, un contenuto falso, razzista, fascista sarà sempre più veloce a diffondersi, a contagiare milioni di utenti, di quanto possa esserlo una decisione del Consiglio. Questo è un dato di fatto.
In ogni caso, per la prima volta il giovane uomo che chiudeva le riunioni al grido di “domination!“, sta provando a correggere l’elemento distorsivo più importante che il suo algoritmo ha prodotto. Quella naturale hackerabilità da cui discende l’impossibilità di sconfiggere troll russi, notizie false, l’utilizzo di pagine con contenuti manipolati promosse alla perfezione grazie a Facebook Business Manager, lo strumento pubblicitario del social network. Oggi assistiamo a un tentativo di correzione. Giudicheremo gli effetti.
Eppure questo tipo di correzione evidenzia anche un’eccezione rispetto alla cultura della Silicon Valley, perché non è riparare un bug, non è fixare, come dicono in gergo gli informatici, ma è una correzione politica. Che tenta di trascinare rischi, polemiche, danni e contenzioso fuori dal perimetro dell’azienda; l’obiettivo è allontanarli da Facebook, socializzarli, renderli oggetto di dibattito, e parte del discorso pubblico. Fin qui va ricordato, il social network decideva a suoi insindacabile (e spesso oscuro) giudizio sulla legittimità dei contenuti degli utenti, da adesso le cose cambiano.
Una correzione di questo tipo equivale a riconoscere l’impossibilità di riparare Facebook in altra maniera. Equivale a dire una cosa che per i titani della Silicon Valley è una sconfitta che potremmo definire teoretica: la tecnologia non rappresenta la soluzione per tutto. La tecnologia non è taumaturgica, anzi.
Nelle intenzioni e nelle ultime azioni di Facebook, compreso l’annuncio della costituzione del Consiglio di sorveglianza, si rintraccia un costante tentativo di ripulire la reputazione di Facebook stesso. Reputazione necessaria quando si arriverà al redde rationem delle tante inchieste aperte da organismi giudiziari statunitensi, reputazione necessaria anche per far partire il progetto Libra, che senza la fiducia degli utenti non andrà da nessuna parte. Ecco perché la correzione era doverosa.
Altre considerazioni – e chi legge questo blog conosce da tempo la riflessione sulle meta-nazioni digitali – riguardano la dimensione sempre più statuale del social network. Sempre più si va nella direzione di una tutela dello spazio digitale affidata a chi lo spazio digitale governa e recita, e da chi vi estrae denaro. Sempre più si ricorre a soggetti privati decisioni su diritti fondamentali. Vi rimando a quanto scritto per la vicenda Facebook vs.CasaPound, con la novità che da adesso la formazione neofascista potrà rivolgersi al Consiglio di sorveglianza del social network per chiedere una revisione della decisione di cancellarne le pagine e i profili.
Certo da oggi, molti avvocati dovranno studiare, come hanno studiato le regole del diritto all’oblio per Google, i meccanismi di funzionamento del Consiglio. Per tutelare i diritti di clienti lesi da post diffamatori, converrà rivolgersi prima all’organismo di Facebook che alla giustizia, anche qui in considerazione dei tempi di giudizio.
Purtroppo oggi abbiamo letto pochi commenti a questa importante novità sui giornali di stamattina. Sebbene l’istituzione del Consiglio di sorveglianza di Facebook avrà effetto su come discutono, si confrontano, e si informano, un minimo di 2.5 miliardi di persone.