Web e guardiani delle nostre town square: vite in balìa del «capitalismo della sorveglianza» 

“L’ho letto su internet” ha sostituito “l’ho visto in televisione”

Facebook dedica 35.000 addetti a “moderare” i contenuti degli utenti. Youtube rimuove, ogni trimestre, decine di milioni di video e oltre due miliardi di post. Lo stesso fanno Twitter e Tiktok. Le ricerche su internet vengono filtrate da algoritmi sulla base dei dati dell’utente, la sua geo localizzazione, le sue passate ricerche. Digitando voci come ‘vaccini’, ‘immigrazione’, ‘controllo armi’, compaiono risultati diversi a seconda della provenienza o delle preferenze dell’utente. L’individuo viene separato da informazioni che contraddicono scelte precedenti, è isolato in una “bolla” ideologico-culturale e il filtro algoritmico sostituisce credibilità ed esattezza delle notizie con la loro efficacia narrativa


L’analisi di FABRIZIO AROSSA, giurista

SOFIA, 11 ANNI, non ha mai letto un giornale, né mostra interesse ai notiziari in televisione. Eppure ha rivelato ai genitori che nel 2030 il mondo sarà interamente governato da robot: «l’ho letto su internet», ha detto. Valentina ha parecchi anni in più ma trae le sue informazioni dalla stessa fonte, ed è convinta che la pandemia da Covid 19 sia una macchinazione escogitata e messa in atto da oscuri poteri per controllare la nostra esistenza. Un suo commento al gruppo di discussione cui partecipava accanitamente è stato rimosso dalla piattaforma di social media che utilizzava.

Quali sono le nuove minacce alla libertà di pensiero gestita in rete?

A fine ottobre, lEconomist si chiedeva in copertina: «chi controlla il discorso pubblico? (Who controls the conversation?)». La libertà di espressione nasce nel ‘600, come corollario della libertà di coscienza, in antitesi all’assolutismo del sovrano. Col tempo ha trovato posto nelle costituzioni e nelle varie carte sui diritti dell’uomo. Ancora oggi l’informazione è spesso imbavagliata, quando non uccisa, dal potere statale: Hong Kong ne è solo l’ultimo esempio. Ma quali sono le nuove minacce alla libertà di pensiero, in un’epoca in cui l’informazione è attinta principalmente da internet e il pensiero si forma in rete?

Si sono già versati fiumi di inchiostro sull’impatto dell’era digitale sui media tradizionali, a partire dal drenaggio di risorse. L’editor del New York Times, nel settembre 2019, ammoniva che «il modello di business basato sulla pubblicità che sosteneva il giornalismo è fallito», con la perdita di oltre la metà dei posti di lavoro, da quando Google e Facebook «sono diventati i più potenti distributori di notizie nella storia dell’umanità». Quando l’Australia, quest’anno, ha tentato di obbligarli a pagare i media per le news distribuite, si basava sulle conclusioni dell’antitrust locale, secondo cui, per ogni 100 dollari spesi da inserzionisti, 73 andavano a Google e Facebook. E il 13 luglio l’antitrust francese ha comminato a Google una multa di 500 milioni di euro per non avere adempiuto al provvedimento che l’obbligava a remunerare media e agenzie di stampa per i diritti d’autore.  

Più di recente il dibattito si è concentrato sul modo in cui le grandi piattaforme esercitano un controllo sull’informazione, rimuovendo ciò che ritengono inaccettabile. Prima delle elezioni presidenziali americane, Twitter ha bloccato la condivisione di un articolo del New York Post, uno dei più antichi giornali del paese, che rilanciava le accuse al figlio di Biden. In Italia si è avuto il caso di Byoblu, emittente fuori dal coro, “spenta” da Youtube. Facebook ha oscurato messaggi no-vax, ed è notizia fresca l’azione legale annunciata da Trump contro i social media che l’hanno bandito. «Un gruppo di managers non eletti stanno fissando i confini della libertà di espressione», ha scritto l’Economist. Mark Zuckerberg, fondatore di Facebook, ama definire la sua creatura la nuova “piazza della città” (town square). Ma i guardiani della piazza restano loro, i padroni delle piattaforme, e a dispetto delle dichiarazioni di intenti si ergono ad arbitri della verità e della correttezza dell’informazione. Facebook dedica 35.000 addetti a “moderare” i contenuti. Youtube rimuove, ogni trimestre, decine di milioni di video e oltre due miliardi di post degli utenti. Lo stesso fanno, con numeri diversi, Twitter e Tiktok.

Le infrastrutture private della rete si sono avocate i criteri di “integrità civica”

D’altra parte, va considerata l’incertezza normativa sulla responsabilità editoriale delle piattaforme online per il contenuto pubblicato attraverso di loro: l’esonero da responsabilità stabilito dalla Sezione 230 del Communications decency act non è previsto in tutti i paesi e anche in America è in via di progressiva erosione. E le piattaforme sono sotto attacco per le fake news distribuite online, per i “fatti alternativi” che sono accusate di nutrire. Sta di fatto che le infrastrutture private assurte a sostegno globale del libero pensiero si sono in sostanza avocate il compito di applicare le leggi e i criteri di “integrità civica” (come recitano le regole di Twitter). Con risultati talvolta paradossali, perché alimentati da algoritmi incapaci di distinguere tra un video di denuncia e un’istigazione alla violenza, tra una notizia falsa e un’opinione minoritaria.  

E la vera minaccia alla libertà di espressione è ben più sottile. Già nel 2011 un attivista della rete, Eli Pariser, metteva in guardia sulle “bolle da filtro” (filter bubble): le ricerche su internet vengono filtrate da algoritmi che selezionano le informazioni sulla base dei dati raccolti sull’utente, la sua geolocalizzazione, le sue passate ricerche. Sicché, digitando voci come ‘vaccini’, ‘immigrazione’, ‘controllo armi’, compaiono risultati diversi a seconda della provenienza o delle preferenze dell’utente. Allo stesso modo i social media “personalizzano” le notizie “rilevanti” inviate all’utente con il newsfeed. L’individuo viene così separato da informazioni che potrebbero contraddire le scelte precedenti o da opinioni in disaccordo con quella che l’algoritmo calcola essere la sua, rimanendo isolato in una “bolla” ideologico-culturale. L’algoritmo secerne la notizia su cui ritiene possa ritrovarsi il singolo individuo, non il punto di vista diverso che potrebbe stimolarlo. Anche quando la logica è commerciale, il risultato è un impoverimento dell’informazione. E il “pubblico” della bubble democracy si dissolve in una miriade di “bolle” autoreferenziali in cui si rafforzano i meccanismi di polarizzazione e si amplifica la credenza in fake news (Palano, 2020).

Il filtro algoritmico del web dissolve il “pubblico” della bubble democracy in una miriade di “bolle” autoreferenziali

Il filtro algoritmico del web ci chiude così a idee diverse, ostacola l’accesso a informazioni importanti, sostituisce credibilità ed esattezza delle notizie con la loro efficacia narrativa, nell’inconsapevolezza di molti utenti dell’editing del loro news feed da parte delle piattaforme digitali e dei social media. Eppure, l’algoritmo viene addestrato con input umani (Consiglio di stato, 4 febbraio 2020, n. 881).

Gli stessi media tradizionali usano gli algoritmi di intelligenza artificiale per raccogliere, produrre e − soprattutto − distribuire informazione. Nelle parole di David Graus di Google digital news initiative: «offri l’articolo giusto alla persona giusta al momento giusto, sulla base di ciò che ha letto in passato». Ma in tal modo si alimenta il tribalismo identitario, si restringe l’orizzonte culturale, si affievolisce il pluralismo delle fonti informative, si irrobustisce il pregiudizio confermativo.

Crolla così l’illusione pionieristica di internet come uno spazio inclusivo che massimizza le possibilità di espressione e tende alla diffusione democratica della conoscenza, celebrato sino a un decennio fa: l’auto-comunicazione di massa di cui parlava Manuel Castells (Comunicazione e potere, 2009), un contropotere informativo in una rete sotto il “blando controllo” della comunità globale di utenti. Oggi il web da cui attingiamo le conoscenze a formazione del pensiero, saldamente sotto il controllo di colossi tecnologici, ci “nutre” con informazioni selezionate secondo calcoli meccanici impostati da ignoti, contribuendo in questo modo − che sarebbe apparso paradossale sino a pochi anni fa − a inaridire il pensiero. E la storia non finisce qui, come vedremo meglio nel seguito dell’analisi. © RIPRODUZIONE RISERVATA

Domani: “L’utopia del libero arbitrio nell’era della bubble democracy e del tribalismo identitario”

About Author

Fabrizio Arossa è un giurista di formazione internazionale, con lauree a Torino, Strasburgo e Harvard ed esperienze professionali a San Francisco, Parigi e Bruxelles. Partner fondatore in Italia di un primario studio legale internazionale, è stato professore di diritto del commercio internazionale all’Università di Trento e collabora con varie istituzioni accademiche.