Carico...

La Silicon Valley non è necessariamente destinata a un futuro distopico: l’intelligenza artificiale non è in una o due mani, ma in uno o due miliardi di mani.

C’è una lotta in corso nella Silicon Valley e non è solo legata ai miliardi di dollari che pioveranno nel settore, ma a una visione del futuro. Una populista e distopica, l’altra moderata e ottimista. Il dramma è che i confini tra i due mondi non sono del tutto definibili.

Sam Altman è il presidente di Y Combinator, uno dei più grandi incubatori di startup al mondo. Nel tempo libero ha imparato a pilotare piccoli aerei privati per raggiungere la sua tenuta in un’area isolata nel cuore della regione di Big Sur, in California, dove rifugiarsi quando ci sarà una catastrofe. Elon Musk invece ha fondato aziende incredibili (SpaceX e Tesla) e ha in ballo progetti altrettanto incredibili, ma più di ogni altra cosa crede che ci siano buone probabilità che la nostra realtà sia un videogioco pensato da una forma di intelligenza superiore. Insieme hanno creato OpenAI, una non profit finanziata con un miliardo di dollari che ha come obiettivo quello di evitare che le macchine, un giorno, prendano il sopravvento sull’umanità.

Sia Altman che Musk, nonostante siano diventati miliardari investendo sul futuro, più volte hanno mostrato di avere una visione distopica riguardo i secoli avvenire. In un ritratto pubblicato a ottobre sul New Yorker, Tad Friend si chiede dove Altman voglia arrivare. Il giornalista ritorna più volte – a partire dal titolo dell’articolo – sul concetto di “destino manifesto”, la dottrina che dà agli Stati Uniti il compito di esportare la democrazia e la libertà nel mondo. Quali sono i veri obiettivi di Altman? Vuole sul serio salvare il mondo o invece pensa a un modo per conquistare la Silicon Valley (e quindi indirettamente prendere controllo anche del mondo e del suo futuro)? In molti si chiedono quali siano le sue reali intenzioni, soprattutto per due motivi importantissimi: come dicevamo Altman è il presidente di Y Combinator, ma è anche un appassionato di teorie del complotto e di survivalism: “Ho armi, oro, ioduro di potassio, antibiotici, batterie, acqua, maschere antigas dell’esercito israeliano”, ha detto a Friend.

carico il video...
Musk dice la sua sulla teoria della simulazione.

C’è poi Elon Musk, che ha promesso di portare l’uomo su Marte nei prossimi dieci anni, lasciando intuire la possibilità di creare colonie stabili e poi, chissà quando, di terraformare il pianeta. E ancora nel corso di un’intervista alla Code Conference ha ribadito di essere sicuro che viviamo in un videogame quasi perfetto, tanto che Walt Mossberg e Kara Swisher, i giornalisti di Recode con cui stava dialogando, sono saltati sulle loro sedie (le facce nel video sono assolutamente indescrivibili).

Parlando del futuro dei computer, Musk ha una visione molto chiara. OpenAI deve darci gli strumenti per prevenire una catastrofe, perché il rischio è quello di avere con noi un dittatore immortale e potentissimo. Per il guru di Tesla questo mostro uscito da un libro di fantascienza si chiama DeepMind Technologies, una società britannica comprata nel 2014 da Google che lavora sull’intelligenza artificiale e ha sviluppato programmi capaci di comportarsi come il cervello degli esseri umani. Bisogna ricordare che proprio nel 2014 Musk ha investito in DeepMind per un semplice motivo: “Evitare un futuro alla Terminator”, come lui stesso ha dichiarato.

Dall’altra parte della barricata (anche se la categoria di confine è poco appropriata con un argomento così fluido) troviamo Facebook, Google, Amazon, IBM e Microsoft1 che insieme hanno creato Partnership on AI, un gruppo che almeno sulla carta ha obiettivi meno escatologici rispetto a quelli di OpenAI e, soprattutto, non ha alle spalle un profeta del futuro come Elon Musk: Tesla, come del resto Apple, non fa parte del gruppo. L’idea dei big della Silicon Valley è quella di scrivere una grammatica e una serie di regole condivise per la creazione di intelligenze artificiali, in modo da dare vita a uno standard. Il motivo è presto detto. Nei prossimi dieci anni si parlerà solo di AI e tutti vorranno investire nel settore: le stime più stringate sostengono che entro il 2024 nascerà un mercato da 3 mila miliardi di dollari.

L’idea dei big della Silicon Valley è quella di scrivere una grammatica e una serie di regole condivise per la creazione di intelligenze artificiali, in modo da dare vita a uno standard.

Usando due categorie molto ricorrenti nella politica presente, potremmo dire che da un lato l’intelligenza artificiale sta subendo l’azione fortemente carismatica e a tratti populista di Musk e in parte di Altman, mentre dall’altro si presenta dietro all’anonimato aziendalista delle più grandi società tecnologiche del mondo, che affrontano la questione in modo più moderato. Facebook e Google non parlano di dittatori, di mostri del futuro e neppure di simulation hypothesis, che fu teorizzata per la prima volta nel 2003 dal filosofo svedese Nick Bostrom e ora pare sia molto di moda negli ambienti tech, come dimostrano appunto le posizioni di Elon Musk. Anzi, non è un segreto che Mark Zuckerberg e Sergey Brin abbiano avuto diversi contatti con la Casa Bianca e con Barack Obama, donando alla loro causa un volto istituzionale. Inoltre a ottobre il governo americano ha iniziato ad analizzare da vicino le possibili evoluzioni dell’intelligenza artificiale e il suo impatto sulla società. Restando alla politica non bisogna dimenticare il fatto che dietro a OpenAI, oltre al denaro di Musk e Altman, ci sono anche i soldi di Peter Thiel, fondatore con Musk di Paypal, grande amico di Altman e oggi sostenitore di Donald Trump.

Ma esiste davvero il pericolo di un futuro alternativo cupo in cui l’umanità perderà la battaglia contro le macchine? Manuela Veloso, a capo del dipartimento di machine learning della Carnegie Mellon University di Pittsburgh, pensa in positivo, pur sostenendo che l’umanità e l’intelligenza artificiale saranno inseparabili. “Sono completamente ottimista. Credo che la ricerca che stiamo facendo sui sistemi autonomi – auto senza conducente, robot autonomi – sia un avvertimento nei confronti dell’umanità affinché sia responsabile. In un certo senso non ha niente a che fare con la tecnologia. La tecnologia sarà sviluppata. È stata inventata da noi, dagli uomini. Non è arrivata dal cielo, dagli alieni. È una nostra scoperta. È la mente umana che ha pensato questa tecnologia, e spetta alla mente umana farne buon uso”, ha detto in unintervista a The Verge.

Come lei anche Ray Kurzweil, il futurologo di Google, non ha alcun dubbio sul fatto che l’intelligenza artificiale non ci creerà problemi. In un articolo pubblicato qualche anno fa sul Time dal titolo “Don’t Fear Artificial Intelligence”, Kurzweil, uno dei pionieri della materia, ha scritto: “I tipici film distopici e futuristici hanno una o due persone o dei gruppi che combattono per il controllo dell’intelligenza artificiale. Oppure vediamo le intelligenze artificiali che combattono contro l’umanità per il controllo del mondo. Ma non è questo il modo in cui l’intelligenza artificiale sta venendo integrata nel mondo presente. L’intelligenza artificiale non è in una o due mani, è in un miliardo o due miliardi di mani”. Questo non vuol dire che Kurzweil non abbia idee poco conformiste: ha messo a punto la teoria della singolarità, secondo la quale nel 2045 le macchine saranno più intelligenti degli uomini, la nostra mente potrà essere “caricata” in un computer e le nanotecnologie prolungheranno la nostra vita così tanto da renderci praticamente immortali.

Un gruppo di scienziati che si sta occupando di deep learning e di intelligenze artificiali ha una visione più moderata. Uno dei suoi esponenti più noti, Yann LeCun – a capo della divisione di Facebook che si occupa di AI – in diversi interventi ha ridimensionato le speranze (o i timori) di Musk e soci: creare una intelligenza artificiale che abbia le stesse capacità di pensiero dell’uomo è un obiettivo difficile se non impossibile. Una posizione che rende il futuro delle super-intelligenze robotiche meno scontato di quanto si possa pensare. Ma questa ipotesi non esclude l’importanza di prepararsi a quello che potrebbe accadere nei prossimi anni. Negli ultimi sei mesi Google e Microsoft hanno pubblicato due analisi in cui propongono agli sviluppatori di AI regole molto simili (anche se più monotone, non essendo letteratura) a quelle scritte nel 1942 da Isaac Asimov in Runaround2, racconto breve contenuto nella raccolta Io, Robot. Segno che, certo, non ci sarà una catastrofe e il mondo non finirà nelle mani dei robot, ma che forse la fantascienza riuscirà a essere profezia e non solo intrattenimento.

 

1Microsoft ha appena firmato un accordo con OpenAI. Fornirà alla non profit le potenzialità di Azure per mettere la prima intelligenza artificiale nel cloud.

2Nel 1942 Asimov nel racconto Runaround introduce le tre regole per il controllo dei robot. 1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno; 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge; 3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. (Manuale di Robotica, 56ª Edizione – 2058 d.C.)

Angelo Paura
Angelo Paura vive a New York dove lavora per la redazione de Il Sole 24 Ore. Si occupa soprattutto di culture digitali e di nuovi media. Sul comodino ha una foto di Ryszard Kapuściński e una di Ettore Mo, ma a differenza loro sa che non si scollerà mai dalla scrivania.

PRISMO è una rivista online di cultura contemporanea.
PRISMO è stata fondata ad Aprile 2015 all’interno di Alkemy Content.

 

Direttore/Fondatore: Timothy Small

Caporedattori: Cesare Alemanni, Valerio Mattioli, Pietro Minto, Costanzo Colombo Reiser

Coordinamento: Stella Succi

In redazione: Aligi Comandini, Matteo De Giuli, Francesco Farabegoli, Laura Spini

Assistente di redazione: Alessandra Castellazzi

Design Direction: Nicola Gotti

Art: Mattia Rinaudo

Sviluppatore: Gianmarco Simone

Art editor: Ratigher

Gatto: Prismo

 

Scriveteci a prismomag (at) gmail (dot) com

 

© Alkemy 2015