Carico...

Gli algoritmi di Google modificano la nostra concezione del mondo e pongono forti minacce alla trasparenza del rapporto tra istituzioni e cittadini, sempre più decisi a dar voce alle loro preoccupazioni.

In Rapporto di minoranza, Philip K. Dick immagina un futuro in cui tre mutanti (i precog) possono prevedere tutti i crimini. Per questo la polizia ha creato una squadra speciale guidata dal commissario John Anderton, la divisione Precrimine, in grado di inviare un gruppo di agenti pochi secondi prima che un evento accada, evitando così che un omicidio venga portato a termine. In Conflitto evitabile, Isaac Asimov racconta un mondo in cui migliaia di potenti macchine usate per gestire la produzione di cibo e l’economia riescono a influenzare in modo inconsapevole gli sviluppi e il pensiero dell’umanità. Questi due racconti, scritti attorno alla metà del secolo scorso, estremizzano un tema molto attuale—il rapporto tra gli uomini e gli algoritmi, una serie finita di istruzioni che permette a una macchina di portare a termine in modo automatico il proprio compito. Gli algoritmi sono la base del linguaggio dei computer e le speculazioni sulle loro caratteristiche sociali e culturali sono emerse sin dall’inizio della loro storia. Sono un insieme di codici oggettivi oppure sono la trasposizione numerica di un pensiero soggettivo? Sono del tutto neutrali o nascondono pregiudizi?

Nel 2013 in un lungo articolo sulla privacy scritto dal giornalista Evgeny Morozov e apparso sulla MIT Technology Review si faceva riferimento a come tali processi, pur essendo diventati essenziali per il funzionamento delle democrazie, continuino a porre forti minacce alla trasparenza nel rapporto tra le istituzioni e i cittadini. Morozov attacca il concetto di “algorithmic regulation” coniato da Tim O’Reilly, un editore della Silicon Valley, che propone una forma alternativa di governo in cui i dati dei cittadini sono gestiti in modo efficiente attraverso algoritmi. Per Morozov si tratta di una china pericolosa: attraverso queste pratiche i governi tendono a diventare meno trasparenti e a risolvere questioni di interesse pubblico senza spiegare ai cittadini attraverso quali processi e con quali regole lo facciano.

Yuri Pattison, the ideal (still), 2015. Courtesy: the artist; Helga Maria Klosterfelde, Berlin; mother’s tankstation, Dublin.

“Gli algoritmi non sono neutrali, sono pezzi di codici che prendono decisioni e in ogni decisione che prendono danno la priorità ad alcune informazioni rispetto ad altre. L’algoritmo di Google, ad esempio, dà priorità a informazioni che sono più recenti, che sono state cercate da molte persone, che sembrano essere più accurate, anche se non è ancora chiaro come riuscire a definire se una informazione è accurata o meno”, sostiene Kelly McBride del Poynter Institute di St. Petersburg, in Florida. In una discussione telefonica McBride mi spiega che nella migliore delle ipotesi le aziende che scrivono gli algoritmi possono contribuire alla diminuzione dello spettro delle idee e dei punti di vista, tralasciando alcune informazioni e dando la precedenza ad altre. Nella peggiore, invece, possono usare i codici per filtrare alcuni pezzi di informazione e così arrivare a influenzare l’opinione pubblica, anche senza avere un obiettivo o un piano preciso.

Nella migliore delle ipotesi le aziende che scrivono algoritmi, dando la precedenza a certe informazioni, possono contribuire alla diminuzione dello spettro di idee. Nella peggiore, possono usare i codici per filtrare pezzi di informazione e influenzare l’opinione pubblica, anche senza un obiettivo preciso.

In un articolo pubblicato la scorsa estate da Politico, Robert Epstein, ricercatore dell’American Institute for Behavioral Research and Technology e PhD ad Harvard, fa riferimento a questa seconda eventualità. “Il prossimo presidente americano—scrive Epsteinpotrebbe essere eletto non solo grazie alle pubblicità in tv o ai suoi discorsi, ma a decisioni segrete prese da Google, e nessuno—oltre a me e a un piccolo numero di ricercatori sconosciuti—saprà in che modo questo è stato possibile”. La sua visione è stata duramente attaccata da Google in una risposta apparsa sullo stesso Politico. In un altro articolo, lo stesso Epstein sostiene che Google avrebbe la capacità di influenzare le elezioni del Lok Sabha, la camera bassa dell’India. Secondo il ricercatore basterebbe cambiare i risultati delle ricerche per spostare milioni di voti. Nel maggio 2014 il Guardian ha smentito la posizione del ricercatore in un pezzo intitolato: “No, Google non ha influenzato le elezioni in India”, mostrando come lo studio era basato solo su una serie di ipotesi che a ben guardare non si sarebbero mai avverate.

Ma il punto su cui riflettere non è questo. Anche tralasciando le visioni più estreme di Epstein e le più becere teorie del complotto che circolano su questo argomento, gli algoritmi restano un argomento molto delicato. Affermare che Google e gli altri colossi non hanno alcun piano segreto per controllare le menti umane, non risolve affatto il problema della trasparenza degli algoritmi. Queste stringhe di istruzioni infatti, proprio “perché sono scritte da persone, possono contenere tutti i pregiudizi degli uomini che li sviluppano”, aggiunge Kelly McBride che ha dedicato gli ultimi due anni a studiare gli intrecci tra algoritmi, etica e democrazia.

Google è razzista senza saperlo?

Latanya Sweeney è una professoressa di Government and Technology ad Harvard e si occupa di data privacy. Un giorno mentre stava facendo una ricerca su Google si è accorta che qualcosa non funzionava. Perché il suo nome, come quasi tutti quelli riconducibili a un cittadino afroamericano, aveva il 25% in più di possibilità che, a fianco dei risultati, venissero proposte pubblicità che consigliano controlli della fedina penale e degli arresti. “Latanya Sweeney é stata arrestata?”, “La fedina penale di Latanya Sweeney”, “Controlla quante volte Latanya Sweeney è stata arrestata”. La professoressa ha cercato di dare una forma scientifica alla sua intuizione: ha analizzato oltre 2.000 nomi in oltre 120.000 ricerche su Google.com e Reuters.com arrivando alla conclusione che le pubblicità “possono contribuire ad aumentare i pregiudizi razziali” nei confronti delle minoranze. Questo perché gli algoritmi riflettono i pregiudizi della società. “La tecnologia può fare molto di più per impedire le discriminazioni e armonizzare le regole delle società”, ha concluso Sweeney. Google ha risposto alla pubblicazione sostenendo che il suo algoritmo non fa alcuna discriminazione e che le pubblicità associate alle ricerche provengono dalle parole chiave scelte dagli inserzionisti, sulle quali il motore di ricerca non interviene.

Princess Matthews è una madre di quattro bambini che dopo essere finita in carcere più volte per detenzione di droga e furto ha deciso di cambiare vita. Ha fondato una non profit (Project No More Pain) che si occupa di violenze domestiche. Ma a distanza di anni il suo passato è una parte importante del suo presente su Google, visto che decine di siti (JustMugshots, Mugshots, BustedMugshots) continuano a pubblicare le sue foto segnaletiche, mettendole ai primi posti delle ricerche. Il 5 ottobre del 2013 David Segal del New York Times ha pubblicato un articolo molto critico nei confronti di questa pratica. Il pezzo ha spinto Google a cambiare il proprio algoritmo, togliendo i risultati di siti come JustMugshots dalle prime pagine delle ricerche. E ancora Visa, MasterCard, PayPal e altri gruppi che gestiscono i flussi di denaro hanno iniziato a non processare più i pagamenti verso questi siti. La questione ha aperto un profondo dibattito su Internet e sulle capacità di dimenticare del web. Dopo una lunga battaglia la Corte di giustizia europea ha stabilito che un cittadino può chiedere a Google di cancellare alcune informazioni ritenute lesive della propria privacy. Negli Stati Uniti non esiste una legge che permette ai cittadini di chiedere alle società di cancellare i link che ritengono lesivi.

Yuri Pattison, the ideal (still), 2015. Courtesy: the artist; Helga Maria Klosterfelde, Berlin; mother’s tankstation, Dublin.

Il metodo Netflix per conformare la realtà alle aspettative

“Angelo, abbiamo appena aggiunto Best of Enemies – Buckley vs. Vidal”, “Angelo, abbiamo appena aggiunto A Very Murray Christmas“. Da quando mi sono abbonato a Netflix continuo a ricevere mail che mi suggeriscono altri cinque film o documentari che potrebbero interessarmi. Ma a parte le mie personali visioni, molti analisti si sono posti questa domanda: come funziona l’algoritmo di Netflix? È un bene che esista?

Poco dopo l’uscita di House of Cards su Netflix, David Carr ha scritto un pezzo sul New York Times in cui raccontava come attraverso l’analisi dei nostri dati Netflix decida quali serie produrre, quali film produrre, cosa produrre in generale. Il rimpianto giornalista scrive: “Immaginiamo che Netflix entri nel mercato dei siti che consigliano film e show, il suo algoritmo potrebbe favorire i lavori che commissiona […]?”, e, in proposito, ricorda come si sia scoperto che Google tende a favorire i suoi prodotti rispetto a quelli identici di altre società, cosa che ha spinto l’Unione Europea ad aprire un’indagine (ancora in corso) per abuso di posizione dominante.

Per creare un modello infallibile Netflix paga migliaia di persone per guardare e indicizzare con tag i film.  “Hanno il compito di catturare decine di caratteristiche di film diversi. Addirittura lo stato morale dei personaggi”, ha scritto in un articolo del 2014 Alexis Madrigal su Atlantic. In questo modo Netflix riesce a costruire una realtà spezzettata fatta di migliaia di sottogeneri, più di 75.000. Alcuni hanno titoli incredibili: documentari emozionanti contro-il-sistema, storie sataniche straniere degli anni 80. In questo modo Netflix ha creato un database infinito, in cui incasellare i gusti degli spettatori americani e di conseguenza decidere quale serie tv o documentario produrre.

Il vero rischio è quello di perdere parte della conoscenza e impoverire il nostro spettro di idee e di interessi: gli algoritmi non dovrebbero mostrarci solo i contenuti che amiamo ma anche quelli che odiamo o con i quali non siamo per forza d’accordo.

Infine, scrive Slate, il modello Netflix ha un altro elemento distintivo: il suo algoritmo spinge gli utenti a guardare film e programmi tv indipendenti e sconosciuti. In questo modo il gruppo riesce a tenere lontano gli spettatori dai blockbuster che non riuscirebbe  a pagare con il denaro che incassa dagli abbonamenti mensili.

La censura degli algoritmi

Il rischio dunque non è quello di ritrovarsi in un universo parallelo come quello raccontato dai fratelli Wachowski in Matrix, in cui ai più non è possibile riconoscere il confine tra la realtà e il mondo costruito da un programma. Il vero rischio è quello di perdere parte della conoscenza e impoverire il nostro spettro di idee e di interessi. Come sostiene la sociologa Zeynep Tufekci gli algoritmi dovrebbero mostrarci non solo i contenuti che amiamo (lei parla di ‘censura degli algoritmi’) ma anche quelli che odiamo o con i quali non siamo per forza d’accordo. Nei giorni successivi alle proteste di Ferguson, Missouri, Tufekci sul suo Medium ha scritto un articolo in cui attaccava Facebook per aver censurato i contenuti e non aver mostrato gli scontri.  “Abbiamo capito perché i filtri messi dagli algoritmi non sono una materia vaga”, ha scritto. Successivamente, in un articolo pubblicato nel 2014 su Nieman Lab, ha pronosticato che il 2015 sarebbe stato l’anno in cui ci saremmo accorti di quanto gli algoritmi sono spaventosi e che il 2016 sarà l’anno in cui inizieremo a ribellarci. In un recente TED talk, Kevin Slavin è andato ancora più in profondità sostenendo che il nostro mondo è ormai “costruito dagli algoritmi” che negli anni si sono trasformati da elementi derivati dalla realtà in elementi in grado di dare forma alla realtà. “I codici che sono stati scritti non sono facilmente leggibili, questo significa che non sappiamo cosa succede veramente”, continua Slavin ricordando come esistano gruppi come Nanex il cui obiettivo è quello di “smontare” gli algoritmi e cercare di comprenderli.

Yuri Pattison, the ideal (still), 2015. Courtesy: the artist; Helga Maria Klosterfelde, Berlin; mother’s tankstation, Dublin.

Nel corso della telefonata con McBride più volte ho cercato di proporle paralleli abbastanza sgangherati tra i suoi studi accademici e la fantascienza distopica, le ho chiesto se per esempio potrebbe funzionare l’idea di istituire un gruppo di saggi-custodi che vigilino sugli abusi degli algoritmi. Per tutta risposta lei ha cercato di dare una forma scientifica alle mie visioni. “La migliore delle ipotesi è quella di creare una non profit che si occupi di questi temi e vigili sulla scrittura e il funzionamento degli algoritmi. Questo è un traguardo molto lontano e per ora sarebbe già una vittoria creare una commissione all’interno del governo degli Stati Uniti”.

Angelo Paura
Angelo Paura vive a New York dove lavora per la redazione de Il Sole 24 Ore. Si occupa soprattutto di culture digitali e di nuovi media. Sul comodino ha una foto di Ryszard Kapuściński e una di Ettore Mo, ma a differenza loro sa che non si scollerà mai dalla scrivania.

PRISMO è una rivista online di cultura più o meno pop fondata ad Aprile 2015.

Scriveteci a prismomag (at) gmail (dot) com


Direttore: Timothy Small
Caporedattori: Cesare Alemanni & Valerio Mattioli
Design Direction: Nicola Gotti
Art: Mattia Rinaudo
Consulenti editoriali: Francesco Farabegoli, Francesco Pacifico, Costanzo Colombo Reiser, Laura Spini
Sviluppatore: Gianmarco Simone

© Alkemy 2015