Un futuro in cui i bot rispondono ad ogni nostra richiesta, cuociono i nostri hamburger, amministrano la giustizia e imparano a disobbedire all'essere umano non è più utopia.
L’intelligenza artificiale è già qui. Non ha le sembianze di HAL 9000 o di Skynet, non sembra essere sul punto di dare vita a un nuovo ordine mondiale robotico, eppure è costantemente al lavoro. Un esempio classico è il riconoscimento facciale di Facebook, quel sistema per cui il social network ci segnala quali sono i nostri amici che compaiono in determinate foto. In questo caso più che di intelligenza artificiale sarebbe il caso di parlare di deep learning, o di network neurali. Vale a dire reti di hardware e software in grado di analizzare una quantità immensa di dati; fino al punto di imparare a distinguerli e associarli. Lo stesso meccanismo permette a Skype di tradurre istantaneamente da una lingua all’altra o a Siri di capire il linguaggio umano a sufficienza da comprendere che comandi le stiamo dando.
In realtà, Siri – e la sua controparte per Windows Phone, Cortana, o quella di Android, Google Now – è solo la testa d’ariete di quella che potrebbe essere la prossima applicazione commerciale dell’intelligenza artificiale: i software che capiscono le nostre richieste e ci danno risposte personalizzate in base ai nostri gusti, migliorando sempre di più mano a mano che imparano a conoscerci. Messa così, non sembra niente d’eccezionale. Si tratta, in effetti, di “semplici” assistenti digitali, qualcosa di cui si parla da più di dieci anni. Eppure, come scrive The Verge, “all’alba del 2016, nella Silicon Valley c’è la sensazione che la fantasia vecchia un decennio di creare un vero assistente personale stia per fare il suo grande ritorno. E se il trend negli anni passati è stato quello degli assistenti vocali, quest’anno il focus si sta spostando sul testo”.
Non solo assistenti personali, ma pure text-based. In definitiva, dei semplici bot (programmi che eseguono compiti predeterminati su internet, spesso simulando il comportamento umano), qualcosa che ricorda da vicino IRC e l’epoca di internet pre-Facebook. Eppure, grazie alle potenzialità del deep learning, sembra che sia proprio questa la nuova tecnologia pronta a esplodere, oltre a rappresentare un nuovo nemico all’orizzonte per Google.
Prendiamo il caso di uno dei tanti “chatterbot” che stanno iniziando a muovere i primi passi, quello di Operator (che, al momento, sfrutta ancora parecchio lavoro umano per i compiti più difficili). Creato da Robert Chan e dal co-fondatore di Uber, Garrett Camp, Operator è un servizio basato su messaggi di testo che aiuta a fare shopping. Vuoi comprare vestiti, giocattoli, elettronica? Basta dirlo a Operator, che poi inizierà a tempestarvi di domande per capire esattamente che cosa state cercando. Proprio questo è il punto forte di tutta la faccenda dei bot: più comunichiamo con loro, più loro imparano i nostri gusti, il nostro linguaggio, che cosa stiamo effettivamente cercando. Con il risultato che quello che inizialmente sembra essere una specie di Amazon – ma con l’interfaccia grafica scarna degli sms – diventerà un assistente sempre disposto a prestarci la massima attenzione.
Quanto un prodotto di questo tipo possa essere attraente per gli investimenti pubblicitari è talmente evidente che è inutile perderci troppo tempo; anche perché sono altri gli aspetti davvero rivoluzionari. L’idea, per farla il più semplice possibile, è che a breve non avremo più bisogno di fare ricerche su Google, su Amazon o altrove; diremo semplicemente al nostro bot che cosa stiamo cercando e lui, in base alla sua specialità, inizierà a fornirci consigli su consigli. Il tutto con la grafica semplice e pulita di un sms. Niente menù, niente scroll, niente categorie: da un punto vista prettamente estetico, sembra quasi un passo indietro. Dal punto di vista della funzionalità, invece, è un enorme passo avanti: scrivere messaggi di testo è estremamente semplice, veloce, comodo, impiega poche energie.
Per ovvie ragioni commerciali, i primi bot-assistenti si stanno concentrando sullo shopping e, in seconda battuta, sui viaggi. Pensate a un servizio di messaggistica a cui scrivete solo dove volete andare e quando. E lui, basandosi sui vostri comportamenti passati, decide già quanto siete disposti a spendere e a che ora preferite prendere i voli; vi noleggia una stanza su Airbnb o in un hotel a cinque stelle e già che c’è inizia a consigliarvi qualcosa da vedere e qualche ristorante in cui mangiare. E tutto questo non basandosi sulle cose che, in media, interessano la massa; ma su ciò che piace proprio a voi. Il limite, che potrebbe rappresentare però una barriera d’ingresso non di poco conto, è che il bot avrà bisogno di tempo per imparare a conoscere i vostri gusti, e la “relazione” all’inizio potrebbe essere un po’ frustrante.
Il futuro, però, potrebbe assomigliare a un bot che “succhia” informazioni da tutte le app e da tutti i siti internet e vi risponde in un modo semplice e colloquiale; mentre intanto impara sempre meglio a capire il modo in cui scrivete grazie a uno strumento come BotKit: un bot che insegna ad altri bot a comprendere veramente come vi esprimete (e che quindi capisce, per esempio, che se rispondete “ok”, “certo”, “chiaro”, “ricevuto”, ecc. ecc. state sempre dicendo la stessa cosa, almeno in determinati contesti).
Niente più app, quindi. Ma solo un assistente personale che sfrutta le informazioni contenute nelle app. Il che significa che a breve utilizzeremo sempre meno i motori di ricerca (ed è qui che Google – che comunque sta preparando il suo personalissimo bot-progetto – inizia a preoccuparsi) e sempre meno le app, che già hanno affrontato un pessimo 2015.
Facebook, manco a dirlo, sembra invece il più attrezzato tra i colossi per affrontare il futuro prossimo, grazie al suo servizio di assistente personale: Facebook M, che secondo alcuni potrebbe proiettarci in un futuro molto simile a quello descritto da Spike Jonze in Her. Solo che, invece della voce di Scarlett Johansson, avremo a che fare con un assistente con il quale comunichiamo via messaggio.
“M” non vivrà su Facebook, ma su Messenger, e per il momento è a disposizione di pochissimi utenti californiani. Che però già raccontano di come abbiano fatto chiamare a M il servizio clienti di Amazon per far controllare quel rimborso non ancora arrivato, o di come abbiano utilizzato M per conoscere la situazione dei voli della United Airlines in un determinato aeroporto. I compiti più complessi, come avviene anche in tutti gli altri servizi di questo tipo (compreso Operator), sono svolti da esseri umani che intervengono senza che nemmeno ce ne accorgiamo. Ma questa è solo una fase passeggera in attesa della completa e totale automazione.
È un po’ come se un servizio già oggi obsoleto come l’89.24.24 tornasse improvvisamente di moda, ma completamente automatizzato e personalizzato. In un futuro di questo tipo, che fine faranno gli operatori umani? La risposta è scontata: spariranno, sostituiti da (ro)bot. La questione non riguarda solo call center e simili, ma una parte molto importante dei posti di lavoro che esistono attualmente. Più i robot diventano la nuova forza lavoro, più esseri umani restano a spasso. E sebbene qualcuno pensi che questa evoluzione non farà altro che liberare gli esseri umani dall’obbligo del lavoro, la verità è che lo spettro che si sta stagliando davanti a noi è quello della disoccupazione di massa.
Ora, è vero che l’energia elettrica ha privato gli accendi-lampioni dell’800 del loro lavoro, creando però una miriade di lavori nel settore elettrico; ma qui stiamo probabilmente andando incontro a qualcosa di molto più radicale. Per due ragioni: prima di tutto, perché l’industria hi-tech finora non si è dimostrata in grado di sostituire la grande industria in termini occupazionali; secondariamente, perché la situazione rischia di essere molto più pervasiva di quanto oggi possiamo immaginare. Tra ottimisti e apocalittici, si piazzano quelli che cercano una soluzione di mezzo, come l’autore del report “The future of jobs: 2025”, JP Gownder, secondo il quale, nel futuro, non saremo sostituiti dai robot, ma dovremo semplicemente abituarci a lavorare sempre di più con loro.
I dati, però, non promettono nulla di buono: secondo i calcoli della Bank of America (rivelati al Guardian), il 47% dei lavori può essere automatizzato. E tra questi lavori, qualcuno in particolare rischia di andare incontro a una vera e propria apocalisse. Per esempio, il lavoro del camionista: “negli Stati Uniti ci sono 3,5 milioni di camionisti”, scrive lo Spectator. “Pensate a questi uomini che fanno su e giù per il Paese distribuendo soldi nei bar, nei ristoranti, nei motel, alle pompe di benzina. Ora, considerate il fatto che Daimler ha appena dato vita al suo primo camion ‘self-driving’. Una volta che viene acquistato, non richiede nient’altro che manutenzione e benzina. Ogni autista invece costa 40.000 dollari l’anno”.
E non sono certo solo i camionisti che rischiano di rimanere vittima delle auto che si guidano da sole. Che dire dei tassisti? E dei guidatori di autobus? Pure i tanto vituperati lavoratori di Uber saranno presto il passato. In tutto questo, una vittima che di solito si sottovaluta è il cosiddetto indotto: quante trattorie o fast-food ci sono lungo le strade statali che vivono solo grazie all’appetito dei camionisti?
A proposito di fast food, bisogna iniziare ad abituarsi al fatto che, a breve, a prepararci da mangiare – o almeno a cuocere gli hamburger – non saranno più esseri umani, ma dei robot. Che li cuoceranno nella metà del tempo, senza bisogno di fare nessuna pausa e preparandoli sempre alla perfezione. Non solo: si può facilmente immaginare che, attraverso qualche “tessera fedeltà”, i robot si ricorderanno quali sono i nostri hamburger preferiti, se il cetriolo in mezzo lo vogliamo oppure no e tutto un assortimento di dettagli più o meno importanti. Dettagli che saranno conosciuti non solo dal nostro robot di fiducia nel McDonald’s sotto casa; ma da tutti i robot di tutti i McDonald’s del mondo.
Camionisti e dipendenti dei fast food, quindi. Due esempi del futuro che ci attende, visti i dati sulla (possibile) disoccupazione causata da un esercito di macchine intelligenti. Secondo questi stessi dati i dieci lavori più diffusi negli Stati Uniti possono essere automatizzati, spingendo la disoccupazione fino al 45%. Durante la Grande Depressione, per dire, non si è mai andati oltre il 25%. Tutti questi numeri sono probabilmente simili a quelli che avevano letto i luddisti prima di iniziare a distruggere i macchinari industriali, salvo poi scoprire di essersi sbagliati. Nel 2016, o poco più in là, potremmo iniziare a vedere sindacalisti inferociti che prendono a bastonate gli indifesi robot del bar sotto casa: questa volta però la loro preoccupazione potrebbe essere fondata.
Qualcuno si spinge pure a pensare che un'intelligenza artificiale potrebbe essere un ottimo giudice, in grado di applicare alla perfezione la legge senza storture, pressioni e indulgenze di alcun tipo.
La cosa importante, quindi, è cercare di capire quali lavori non saranno toccati dalla “rivoluzione robotica”. Generalmente, si ritiene che le professioni al sicuro siano quelle che richiedono contatto umano. Come abbiamo visto, questo non vale per il “contatto umano” metaforicamente inteso, visto che gli assistenti personali a breve saranno dei bot ai quali mandiamo dei messaggi. Si intende infatti contatto umano in senso stretto: parrucchieri, massaggiatori e cose di questo tipo. Ma questi lavori saranno davvero al sicuro? Non è poi così difficile pensare a un robot che, come cuoce l’hamburger nel modo in cui piace a voi, impari a tagliarvi i capelli secondo il vostro taglio preferito. Magari non è proprio una realtà all’orizzonte, ma ampliando lo sguardo non sembrano esserci troppi ostacoli.
La minaccia, quindi, si fa pesante per una vastissima gamma di professioni a bassa e media specializzazione. E i lavori che richiedono grandi professionalità? Almeno quelli sono al sicuro? Ebbene, la risposta è no: gli avvocati già hanno iniziato a temere la rivalità dell’intelligenza artificiale (che può scartabellare tra migliaia di pagine, trovando collegamenti tra i vari fattori alla velocità della luce, senza mai distrarsi e mai stancarsi), mentre qualcuno si spinge pure a pensare che un’intelligenza artificiale potrebbe essere un ottimo giudice, in grado di applicare alla perfezione la legge senza storture, pressioni e indulgenze di alcun tipo. E che dire di un robot politico, capace di vivisezionare le leggi di tutti gli stati e capire quali potrebbero applicarsi meglio alla nostra realtà, seguendo, in questo, il classico meccanismo del deep learning: informazioni in quantità e confronto con i dati forniti dai programmatori?
Quindi, cosa manca ai robot per riuscire a soppiantarci definitivamente? Due fattori, sembrerebbe, il buon senso (che in effetti ai giudici serve, eccome) e la creatività. Due elementi indispensabili di quello che è “il segno caratteristico di una intelligenza generale propriamente intesa: la capacità di adattare un pre-esistente repertorio comportamentale alle nuove sfide, senza il bisogno di ricorrere al meccanismo dei ‘tentativi ed errori’ o di essere adeguatamente preparata da una terza parte”, come scrive Murray Shanahan – professore di robotica cognitiva a Londra – nel suo libro The technological singularity.
Il buon senso e la creatività: questi sono i due vantaggi a disposizione dell’essere umano per continuare a essere un passo avanti rispetto ai robot. Sempre che non abbia invece ragione uno che di intelligenza artificiale se ne intendeva eccome: il creatore (tra le altre cose) del primo bot (di nome ELIZA), Alan Turing. Che in un suo saggio nel 1950, Computing Machinery and Intelligence, arrivava a una conclusione che lascia ben poco spazio alle nostre speranze, sostenendo che un programma il cui repertorio includa tutti i distintivi attributi del cervello umano – sentimenti, libero arbitrio, coscienza e quant’altro – potesse essere scritto.
Difficile dire, oggi, se quanto pronosticato da Turing sia verosimile o meno. Anche perché gli esperti si dividono: quelli che ritengono che determinate caratteristiche non saranno mai replicabili a livello robotico e quanti invece pensano che, una volta raggiunta una massa critica di conoscenza e comprensione, le intelligenze artificiali compieranno un salto evolutivo, prendendo coscienza di se stesse e da lì, più o meno inevitabilmente, procederanno alla conquista del mondo.
Sembra fantascienza. E probabilmente è fantascienza, nonostante qualcosa del genere sia sostenuto da correnti di pensiero come quella della “singolarità tecnologica”. E d’altra parte è difficile non provare un certo disagio quando si scopre che, ormai, i robot non hanno più bisogno dell’uomo per imparare cosa devono o non devono fare. Lo imparano da soli. Come spiega un video di CGPGrey (ripreso anche dal sito Aeon), “non dovete pensare a un programmatore che sviluppa bot, dovete pensare a un programmatore che sviluppa un bot che insegna a se stesso a fare cose che il programmatore non sarebbe mai in grado di spiegargli”. Il meccanismo è sempre lo stesso: tentativi ed errori. Basta (per modo di dire) mostrare al bot un certo numero di cose che deve fare, mostrargli tot cose fatte nella maniera giusta e lui riuscirà a capire qual è il modo giusto di portare a termine i suoi compiti.
Il buon senso e la creatività sono i due vantaggi a disposizione dell'essere umano per continuare a essere un passo avanti rispetto ai robot.
Le intelligenze artificiali, quindi, sono già in grado di imparare da sole a fare qualcosa che nessuno gli ha mai spiegato. Il fatto è che i programmatori stanno iniziando a insegnare ai robot anche a disobbedire agli ordini. A dire di no. Ad avere avuto questa idea, tra gli altri, sono due ricercatori della università di Tufts (Boston), Gordon Briggs e Matthias Scheutz, convinti che questo sia il modo migliore per sviluppare un codice etico che nel futuro potrebbe tornarci molto utile.
Il concetto, in sé, è semplice: il primo robot che si “comporterà male”, lo farà perché ha ricevuto istruzioni in questo senso da parte del suo programmatore. Il rischio che un “padrone malvagio” faccia fare al suo robot cose dannose sembra, al momento, molto più grande del rischio che un robot decida di farle di sua volontà. Ed è per questo che i due stanno insegnando ai robot a dire “assolutamente no” agli esseri umani.
La cosa ricorda da vicino le tre leggi della robotica sviluppate da Isaac Asimov, anche se in realtà la questione è un po’ più complessa: più che di obbedire a tre leggi, ciò di cui i robot hanno bisogno è di rispondere a una serie di domande prima di accettare un comando dagli umani: “Conoscenza: so come si fa X?”. “Capacità: sono fisicamente in grado di fare X?”.”Priorità e tempismo: sono in grado di fare X adesso?”. “Ruolo sociale e doveri: il mio ruolo sociale mi obbliga a fare X?”. “Permessi normativi: fare X viola qualche principio normativo?”.
Quindi, i robot possono imparare da soli a svolgere dei compiti e gli stiamo insegnando a disobbedire ai nostri ordini. Se fosse vero che, una volta raggiunto un determinato livello di informazioni in loro possesso, si “risveglieranno” dal torpore diventando consapevoli di se stessi, ecco che avrebbero tutti gli strumenti necessari per continuare la loro evoluzione, senza più l’obbligo di rientrare nei ranghi a nostra precisa richiesta.
D’altra parte, negli ultimi anni, sono state personalità del calibro di Stephen Hawking ed Elon Musk (il creatore di Tesla e di Space X) a mettere in guardia sulla minaccia all’umanità rappresentata dall’intelligenza artificiale. In particolare, Musk si è lanciato in un paragone affascinante: “Avete presente tutte quelle storie in cui c’è un uomo con un pentacolo e l’acqua santa? È sempre sicuro di poter controllare il demone, ma non funziona mai. Ecco, con l’intelligenza artificiale noi stiamo evocando un demone”.
Ciò che non è chiaro, è come e perché i robot dovrebbero ribellarsi agli esseri umani. Si è capito che, a un certo punto, la quantità di informazioni immagazzinate faranno prendere coscienza di sé a queste macchine e porteranno alla inevitabile ribellione. Il problema è che ci sono una miriade di altri aspetti che non sembrano venir presi sufficientemente in considerazione.
Prima di tutto, come spiegato su ArsTechnica, imparare a portare a termine dei compiti (anche da soli) è una cosa molto diversa dal pensare coscientemente a questi compiti, a quali sono le possibili conseguenze, fino ad arrivare a decidere se eseguirli o meno. Il che significa, altro aspetto importante, che nessuna di queste intelligenze artificiali è autonoma nel vero senso della parola. La questione, su Salon, si fa ancora più complessa: “Affinché le intelligenze artificiali diventino coscienti di sé, è necessario che prima diventino coscienti degli altri, dal momento che il sé non ha nessun significato al di fuori di un contesto sociale (…). L’intelligenza artificiale non può venire a conoscenza di sé se prima non interagisce nel mondo, con altri, attraverso un corpo”. Tutto ciò è molto lontano da venire, soprattutto se si considera che l’intelligenza artificiale è qualcosa su cui si lavora dagli anni ’50, dai primi esperimenti del già citato Turing. Molto lontano, ma non impossibile.
Ciò che non è chiaro, è come e perché i robot dovrebbero ribellarsi agli esseri umani.
Un saggio del fisico di Oxford David Deutsch, invece, pone l’accento su un aspetto stranamente poco considerato, ovvero che la differenza tra i programmi a cui si lavora e una vera intelligenza artificiale non è quantitativa (come vorrebbe la singolarità), ma qualitativa: “un maestro di scacchi è in grado di spiegare perché sia valsa la pena di sacrificare un cavallo per ottenere un vantaggio strategico, e può anche scrivere un libro sull’argomento. Un programma invece può solo dimostrare che il sacrificio ha evitato uno scacco matto, e non potrebbe scrivere a riguardo nessun libro, perché non ha neanche la più pallida idea di quale sia l’obiettivo di una partita di scacchi (…). Una vera intelligenza artificiale è qualitativamente, non quantitativamente, differente da ogni tipo di programma. (…) Se si lavora su programmi il cui ‘pensiero’ è costituzionalmente incapace di violare dei limiti predeterminati, allora si sta eliminando dal progetto l’attributo che definisce un essere intelligente, una persona: la creatività”.
Inoltre, come si fa a pensare di creare una vera intelligenza artificiale, quando gli scienziati non hanno ancora capito come funziona davvero la nostra, di intelligenza, il nostro cervello? Per questo, scrive ancora Deutsch, puntare sull’aspetto quantitativo e “sperare di creare una vera intelligenza artificiale senza prima aver davvero compreso come funziona l’intelligenza, equivale a pensare che i grattacieli possano imparare a volare se li costruiamo sufficientemente alti”.
Al momento, le macchine su cui si sta lavorando non sono in grado di capire perché devono compiere un determinato compito e quali saranno le conseguenze, non possono aggirare i limiti pre-impostati, non sono dotate di creatività, non sono in grado di prendere coscienza degli altri e di sé. Tutto questo sembra dimostrare che il salto qualitativo che ci precipiterà nel mondo di Terminator sia ancora molto, molto lontano. Il che non significa che non sia il caso di prepararsi per tempo.
Milanese, classe 1982, scrive di politica, new media e innovazioni legate alle nuove tecnologie informatiche. Collabora con Gli Stati Generali, Prismo, Studio, Blogo e cheFare. Collabora come editor e traduttore per alcune case editrici. Nel 2015 ha pubblicato Tiratura Illimitata: inchiesta sul giornalismo che cambia per Mimesis.