Web: l’utopia del libero arbitrio nell’era della bubble democracy e del tribalismo identitario

La rivoluzione informativa fiorisce a spese dell’essere umano, ponendo una sfida radicale al nostro “diritto al futuro”. Come si può parlare di libero pensiero se un residente in Alabama, cercando sul web notizie sul cambiamento climatico, viene informato che è una bufala, al contrario del suo connazionale di New York? E i rapporti internazionali ci dicono che una larga percentuale di italiani è analfabeta funzionale, sa leggere ma non riesce a comprendere, valutare, interpretare il testo, non ha capacità critica, tende a credere in ciò che legge. Attraverso i social non siamo clienti, siamo “il prodotto” per gli inserzionisti. L’Europa punta a proteggere i nostri diritti digitali con la “digital governance”


L’analisi di FABRIZIO AROSSA, giurista

I ‘guardiani del cancello’  impoveriscono il nostro pensiero col ‘filtro’ degli algoritmi

LA LIBERA MANIFESTAZIONE del pensiero, soffocata un tempo soprattutto da sovrani temporali o spirituali, da governi autoritari o da squadracce violente, si trova da qualche anno a fronteggiare le minacce insidiose poste dalla nuova architettura della rete globale, in cui gli stessi ‘guardiani del cancello’ (gatekeepers) cresciuti a suo apparente presidio ne ‘moderano’ i contenuti e ne smussano i toni. Nel farlo, eliminano ciò che per i loro criteri − spesso applicati da macchine − si giudica ‘pericoloso’, e lo stesso pensiero può essere influenzato (e in ultima analisi impoverito) da informazioni selezionate per un dato utente dal ‘filtro’ degli algoritmi. Ma le accuse mosse alla rete non si fermano qui.

Sotto il faro oggi è il “capitalismo della sorveglianza” di cui parla Shoshana Zuboff, docente a Harvard, che estrae dati per imparare e prevedere il nostro comportamento e li condivide con altri (a noi ignoti) per vendite o messaggi mirati, utilizzando l’esperienza umana come materia prima da tradurre in “plusvalore comportamentale”, processato da macchine per produrre modelli predittivi che anticipano che cosa faremo e sono negoziati su un mercato di futures comportamentali. L’obiettivo ultimo è indirizzare i nostri pensieri e le nostre scelte verso fini scelti da altri, e plasmarli (anche mediante le “raccomandazioni”), in una logica non solo di profitto. Si creano asimmetrie informative senza precedenti: le piattaforme digitali sanno tutto di noi, ma le loro attività dietro le quinte ci sono ignote. Accumulano conoscenza da noi, ma non per noi. Tutto viene digitalizzato e restituito alla società attraverso il filtro degli algoritmi. Ma come viene riallocata la conoscenza, e chi decide?

La rivoluzione industriale è fiorita a spese della natura, la rivoluzione informativa fiorisce a spese dell’essere umano

Zuboff teme che, come la rivoluzione industriale è fiorita a spese della natura, così la rivoluzione informativa modellata dal capitalismo della sorveglianza possa fiorire a spese dell’essere umano, ponendo una sfida radicale al nostro “diritto al futuro”, alla capacità autonoma del singolo di immaginare, intendere, promettersi e costruirsi l’esistenza, e di fatto una compressione del libero arbitrio. La tesi è rilanciata dal recente documentario The social dilemma, animato dai “pentiti” del Big Tech. Come si può parlare di libero pensiero, come si può arricchire il discorso pubblico, se un residente in Alabama, cercando notizie sul cambiamento climatico, viene informato che si tratta di una bufala, al contrario del suo connazionale di New York? 

È lo stesso concetto di libertà di espressione – che presuppone coscienza e autonomia dell’individuo – a essere minacciato. L’autonomia viene meno se il nostro pensiero è inconsapevolmente manipolato, se l’informazione che ricerchiamo è selezionata da altri, filtrata da algoritmi, se le idee sono influenzate, condizionate e quasi costruite al nostro esterno e a nostra insaputa. Tanto più che i rapporti internazionali ci dicono che una larga percentuale di italiani è analfabeta funzionale, sa leggere ma non riesce a comprendere, valutare, interpretare il testo, non ha capacità critica, tende a credere in ciò che legge, ha già dunque le proprie difficoltà ad articolare un pensiero autonomo. 

Quando compriamo un servizio sul web non siamo clienti ma siamo “il prodotto” per inserzionisti

Gli strumenti giuridici esistenti sono stati congegnati in un’epoca anteriore all’era digitale, e sono inadeguati ad affrontare una sfida senza precedenti. Per dire, la protezione dei dati personali rischia di ridursi a un mero schermo formale: chi legge i privacy terms prima di dare il consenso? Chi riflette prima di accettare i cookies? E non è in gioco il dato personale in sé, ma l’autonomia individuale. Anche le norme a tutela dei consumatori sono insufficienti, giacché non compriamo un servizio: non siamo clienti, siamo “il prodotto” – o la fonte del prodotto – per gli inserzionisti e altri soggetti. E le norme non proteggono lo “spirito critico” minato dagli algoritmi. Lo stesso diritto antitrust ha dei limiti, come evidenziava il paper Amazon e il paradosso antitrust” della giovane studiosa Lina Khan, appena posta dall’amministrazione Biden a capo della Federal trade commission (da cui non a caso Amazon ha chiesto sia ricusata): l’antitrust mira a beneficiare i consumatori, ridurre i prezzi e preservare condizioni concorrenziali dinamiche in un dato mercato, non a evitare che si rimuovano contenuti dalla rete, sia limitata la libertà di espressione o sia influenzato il pensiero. 

Due nuovi regolamenti in arrivo in Europa per proteggere gli utenti digitali [credit GettyImages]

E allora l’Europa ha compiuto un passo importante. A dicembre, la Commissione ha proposto due regolamenti, sui servizi digitali e sui mercati digitali (Digital services act e Digital markets act). Accanto alle classiche misure di promozione della concorrenza (impedendo alle grandi piattaforme di discriminare a vantaggio dei propri servizi o agevolando i cambi di piattaforma o l’interoperabilità con servizi alternativi), si proteggono gli utenti, che vanno informati della rimozione di contenuti e possono contestarla nel proprio paese. Esentando, però, le piattaforme da responsabilità per gli illeciti degli utenti, a meno che ne siano consapevoli e non agiscano per eliminarli. Le grandi piattaforme dovranno dotarsi di sistemi di analisi e mitigazione dei rischi, anche per la libertà di espressione, e consentire l’accesso a qualificati ricercatori per valutare pericoli per la società e i diritti fondamentali. Per contrastare l’inconsapevolezza del modo in cui gli utenti vengono profilati e il contenuto viene generato, con manipolazione delle raccomandazioni, abuso di pubblicità mirata e disinformazione, vengono imposte trasparenza e condivisione dei dati generati dall’interazione sulla piattaforma, e un’opzione per gli utenti di non ricevere raccomandazioni di contenuti basate sulla profilazione, con un ruolo di supervisione della Commissione sulle grandi piattaforme e pesanti sanzioni in caso di violazioni. La proposta è ora al vaglio del Parlamento e del Consiglio europeo.

Analoghe iniziative legislative sono state promosse negli Stati Uniti. C’è chi pensa che ciò non basti, e si debbano trattare le grandi piattaforme come infrastrutture essenziali da sottoporre al controllo di un regolatore, o si debbano riallineare gli incentivi finanziari, tassando i dati personali (o il plusvalore comportamentale) come se fossero un cespite produttivo, o ancora che gli utenti siano remunerati per i propri dati e possano deciderne le modalità di utilizzo.

La Commissione europea ha presentato la prima proposta al mondo per regolamentare l’intelligenza artificiale

Nel frattempo, la Commissione europea è andata oltre: ad aprile, ha presentato la prima proposta al mondo di regolamento sull’intelligenza artificiale, a seconda dei livelli di rischio che questa comporta in base ai principi fondanti dell’Unione Europea. Sarà vietato, tra l’altro, l’uso di sistemi di A.I. «progettati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso». Ed è in corso di consultazione pubblica una dichiarazione Ue sui diritti digitali. La parola d’ordine è digital governance: nelle parole di un alto funzionario della Commissione, «se consegno i miei dati a un’organizzazione, devo sapere che lo sto facendo, a chi li consegno, come e perché li usano – e se posso fidarmi dell’organizzazione – altrimenti, devo potermeli riprendere». 

Stay tuned, come si dice in rete. Perché, nelle parole di Castells, «i meccanismi che consentono di plasmare le menti rappresentano un sistema di dominio più potente e duraturo della sottomissione dei corpi per mezzo dell’intimidazione o della violenza». © RIPRODUZIONE RISERVATA

La prima parte di questa analisi (“Web e guardiani delle nostre town square: vite in balìa del «capitalismo della sorveglianza»”) è stata pubblicata qui ieri

About Author

Fabrizio Arossa è un giurista di formazione internazionale, con lauree a Torino, Strasburgo e Harvard ed esperienze professionali a San Francisco, Parigi e Bruxelles. Partner fondatore in Italia di un primario studio legale internazionale, è stato professore di diritto del commercio internazionale all’Università di Trento e collabora con varie istituzioni accademiche.