• 19/03/2019

James Barrat: “L’Intelligenza Artificiale ci distruggerà?”

James Barrat: “L’Intelligenza Artificiale ci distruggerà?”

James Barrat: “L’Intelligenza Artificiale ci distruggerà?” 1024 576 alemezlo
L’umanità ha un grande sogno. Un progetto antichissimo, che lo autorizzerebbe a sentirsi simile agli dei. Da sempre, infatti, fantastica sulla possibilità di inventare una creatura a lei assai simile. Un ominide, un golem. Un automa, una macchina dotata di intelligenza sopraffina, che potrebbe cambiare la nostra vita. E aiutarci ad affrontare e disinnescare la minaccia che, nel terzo millennio, ci inquieta di più: quella dell’estinzione di tutti noi a causa dell’eccessivo inquinamento. Dell’inarrestabile degrado, forse irreversibile, a cui abbiamo costretto il meraviglioso pianeta che ci ospita.

Ma quel sogno  cullato così a lungo potrebbe trasformarsi, ben presto, in un tenebroso incubo. Se l’intelligenza delle macchine sopravanzasse la nostra. Se i computer, a un certo punto, fossero in grado di moltiplicare le proprie capacità di ragionamento e di intervento . Lasciando l’umanità ad assistere inerme a a questa esplosione di intelligenza artificiale. A quel punto, un meraviglioso progetto, inseguito e coccolato per secoli, diventerebbe “La nostra invenzione finale”, come recita il titolo del libro dal regista americano James Barrat, produttore di documentari per National Geographic Channel, Discovery Channel, Pbs e Bbc.

Prima di scrivere il suo libro, tradotto da Daniela e Monica Pezzella per la casa editrice Nutrimenti (pagg. 303, euro 17), James Barrat si dichiarava entusiasta del progetto di sviluppo dell’Intelligenza Artificiale. Perché, come la maggior parte delle persone, aveva un’idea assai vaga di questa sfida epocale su cui vengono fornite informazioni assai vaghe, per ovvi motivi economici più che di segretezza. Poi, alcuni preoccupati ragionamenti di ricercatori, scienziati, scrittori, gli hanno fatto drizzare le antenne. Tanto da spingerlo a svolgere un’indagine approfondita tra chi già si occupa dello sviluppo dell’AI.

Fin dall’inizio, James Barrat ha deciso di assumere un atteggiamento realista. Senza lasciarsi contagiare dall’entusiasmo degli ottimisti, ma nemmeno assecondando gli scenari catastrofisti disegnati dai pessimisti. Dopo un lungo lavoro di ricerca, di ascolto e di interviste, di approfondimenti e ipotesi, ha scritto un libro che richiama l’attenzione sui potenziali, enormi pericoli, che uno sviluppo dissennato, fuori controllo e governato soltanto da puri tornaconto di tipo economico, potrebbe provocare lo sviluppo dell’Intelligenza Artificiale.

Ospite di Book Pride 2019, alla Fiera del Vapore di Milano, James Barrat si sofferma a ragionare con grande pacatezza, senza nascondere le ipotesi più tenebrose e allarmanti, sull’avvento dell’Intelligenza Artificiale. Quella che potrebbe trasformarsi nella nostra invenzione finale., come la letteratura e il cinema hanno immaginato parecchio tempo fa portando in scena il computer onnisciente e inquietante Hal 9000 di “2001 Odissea nello spazio”, ma anche come la feroce dittatura tecnologica di Skynet nella serie infinita di”Terminator”.

“Stephen Hawking si chiedeva, negli ultimi anni della sua vita, chi avrebbe controllato l’Intelligenza Artificiale – spiega James Barrat -. Ma, soprattutto, se ci sarebbe stata la possibilità di controllarla . Già oggi sono in produzione negli Stati Uniti, Russia, Israele, Gran Bretagna, Cina, dei droni capaci di uccidere un essere umano senza che nessuno possa interferire nelle sue decisioni. Non basta: i big data che sono utilizzati per la costruzione di reti neurali incorporano pregiudizi nei confronti delle donne e delle minoranze religiose e culturali”.

Da dove arrivano questi pregiudizi?

“Semplice, i computer vanno a pescare dati storici immagazzinati nella memoria lontana. Attingendo a informazioni degli anni ’70, ’80, trascritti a mano da persone che avevano pregiudizi nei confronti di queste categorie di persone. Per esempio, un algoritmo utilizzato in Florida che deve decidere sulla pena da comminare in base a determinati reati, analizzando le condanne inflitte a persone di colore in quegli anni, che risultavano più pesanti di quelle che riguardavano le persone dalla pelle bianca, potrebbero seguire anche oggi la stessa linea giudiziaria. Basandosi non tanto sulla colpa, ma sull’etnia”.

Anche sul mondo del lavoro ci saranno pesanti ripercussioni?

“Nasceranno di sicuro nuovi lavori, ma non riusciranno a colmare il baratro di disoccupazione creato dall’Intelligenza Artificiale. Ad esempio, con l’ingresso della tecnologia nel mondo dei taxi, degli autobus, non ci sarà più bisogno di autisti. E trovare il modo di inserire queste persone in altri contesti lavorativi sarà difficilissimo. Senza dimenticare che c’è già qualcuno che vuole spingersi rapidamente assai più in là”.

Per esempio?

“Elon Musk, che ha fondato tra l’altro l’azienda chiamata OpenAI, dice chiaramente che il suo obiettivo principale è quello di raggiungere un livello di Intelligenza Artificiale che possa essere paragonata a quella umana. In quel momento si potrebbe assistere a quella che è stata definita intelligence explosion”.

Che cosa intende per intelligence explosion?

“Ci sarà un momento in cui il livello dell’Intelligenza Artificiale sarà molto superiore a quello del più geniale tra gli uomini. Quindi la macchina sarà in grado, a quel punto, di migliorarsi da sola. Non avrà più bisogno di noi. Google, insieme ad altre aziende, ha l’obiettivo di sviluppare questo livello di intelligenza tecnologica entro il 2029. Se vogliamo azzardare una previsione attendibile, per assistere alla nascita di una macchina più intelligente dell’uomo potremmo indicare il 2045”.

A quel punto le macchine sarnno incontrollabili?

“Semplicemente non avranno più bisogno dell’intervento umano per aumentare ancora la propria intelligenza. Si miglioreranno da sole, più di quanto gli uomini saranno in grado di fare. Oggi, abbiamo già esempi di computer molto più avanzati di noi. Ci battono nel gioco degli scacchi,  riescono a prevalere perfino nella disciplina orientale del Go. Ci assistono nel guidare l’automobile. In futuro saranno in grado di fare anche ricerca e sviluppo su se stesse, aumentando le proprie capacità in modo esponenziale”.

Come interpreta l’ingresso di Ray Kurzweil, profeta dell’ibridazione tra uomo e macchina, nello staff di Google?

“L’integrazione uomo-macchina sta procedendo lentamente. Quindi non so prevedere se e quando il sogno di Kurzweil si potrà realizzare. Al contrario, l’Intelligenza Artificiale si sta sviluppando a una velocità assai superiore. DeepMind, la società controllata da Google, sta bruciando i tempi in questa direzione. Tanto che il suo stesso fondatore, Dieleman Sander, si è detto preoccupato del fatto che le varie società coinvolte nello sviluppo della AI non collaborino tra loro per mitigare gli impatti di una tecnologia così dirompente. Il vero rischio per l’umanità, in generale, sarà quello di dover condividere la Terra con altri esseri milioni di volte più intelligenti di noi”.

Ma allora le tre leggi della robotica elaborate dallo scrittore Isaac Asimov non ci metteranno più al sicuro?

“Sì e no. Nel senso che dovremo portare le tre leggi di Asimov al di fuori della narrativa, della fiction. Perché erano regole valide nel campo della fantascienza, dei romanzi, ma non hanno nessun valore normativo. Ecco, posso dire che abbiamo un intervallo di tempo per intervenire che comincia adesso, subito, e si chiuderà quando l’Intelligenza Artificiale verrà sviluppata per eguagliare quella degli uomini. Anche se non mi piace molto l’idea, sarà necessario introdurre una supervisione governativa. Come era avvenuto al tempo dell’Agenzia per l’energia atomica”.

Ma non ci sarà, invece, una corsa all’AI a fini militari da parte delle principali potenze mondiali, l’una contro l’altra?

“Lo sviluppo dell’Ai ricorda molto la corsa alla fissione nucleare. E già stata trasformata in arma, esattamente come il potenziale atomico nella Seconda guerra mondiale. Inoltre, in questo momento, attira gli interessi di aziende private che vedono in questo settore soltanto un tornaconto immediato: quello di generare profitti. Di vendere un prodotto, insomma, non di migliorare l’intero assetto della società umana”.

Aziende di cui ci si può fidare?

“Non possiamo fidarci delle aziende che oggi sono al lavoro per sviluppare l’AI. Ricordo l’esempio di Facebook, che ha venduto i profili di 80 milioni di utenti americani a Cambridge Analytica, che ha sua volta li ha ceduti ai russi per influenzare le elezioni presidenziali degli Stati Uniti. Google, in questo momento, ha 400 avvocati a libro paga per difendersi dalle numerosissime cause intentate da chi li accusa di non rispettare i copyright, assumere atteggiamenti predatori nel business, violare la privacy. In ogni caso, mi sembra auspicabile l’ipotesi che ci siano più soggetti coinvolti nello sviluppo dell’Intelligenza Artificiale. Per evitare che il controllo di questo progetto finisca nelle mani di pochissime persone”.

<Alessandro Mezzena Lona

 

[contact-form-7 404 "Not Found"]