RECENSIONI. Sentieri selvaggi. Viaggio nel mondo artificiale

RECENSIONI. Sentieri selvaggi. Viaggio nel mondo artificiale

Cosa sappiamo sull’intelligenza artificiale? Quanto siamo immersi in un mondo dominato dall’algoritmo? Che responsabilità avrà l’essere umano in un futuro in cui le macchine saranno sempre più protagoniste? Ne parliamo con il giornalista Andrea Daniele Signorelli

Nel 1956 in un convegno al Darmouth College nel New Hampshire, l’informatico John McCarthy parlò per la prima volta di Intelligenza Artificiale. Da allora il termine, grazie ai progressi della scienza e alle fantasie di scrittori e registi, è diventata di uso comune. Siamo cresciuti immaginando un mondo dominato dalle macchine e oggi, in pieno XXI secolo, quel mondo è diventato il nostro mondo. Ci aiuta a capirne di più il giornalista Andrea Daniele Signorelli, classe 1982, autore di libri e saggi che riflettono sul rapporto tra nuove tecnologie e società.

Quando si parla di AI credo ci sia ancora molta confusione. La maggior parte delle persone prende a riferimento i robot dei film di Steven Spielberg o Ridley Scott e crede che si tratti di un futuro ancora lontanissimo. Ma come stanno veramente le cose? Stiamo vivendo o no nell’epoca delle AI?

Siamo già completamente immersi nel mondo dell’intelligenza artificiale. Il bello e forse il problema della fantascienza è che ci proietta in un futuro in cui queste macchine progrediranno fino a prendere la forma di robot capaci di comunicare come un umano. Penso a film come Ex Machina o Her di Spike Jonze. Questi esempi sono però formeestremamente evolute di quanto programmi come Amazon o Google Home sono già in grado di fare: cioè venirci incontro e comunicare con noi. Noi oggi interagiamo continuamente con servizi di speaker intelligenti e anche quando usiamo il sistema di traduzione di Google, che negli ultimi tempi è esponenzialmente migliorato, stiamo utilizzando un sistema di machine learning. La maggior parte delle attività che ci riguardano si basano su algoritmi e ovviamente non parlo solo di Facebook. Sistemi di AI vengono utilizzati dalle banche per decidere a quali richiedenti erogare un mutuo oppure no, o dalle risorse umane delle aziende per scegliere qual è il candidato più idoneo per svolgere una determinata mansione. Siamo insomma nel pieno di un processo che tra l’altro sta iniziando a sperimentare l’uso di automobili autonome o di robot domestici.

Quando è iniziato questo processo?

La teoria risale a cinquanta, sessanta anni fa, ma il punto di svolta è avvenuto molto recentemente, direi anche sei o sette anni fa, grazie al massiccio afflusso di Big Data provenienti da tutto ciò che facciamo su Internet. Ricordiamoci che i dati sono la materia prima per istruire e addestrare i calcolatori. E questa è stata una rivoluzione di questo decennio. È solo nel 2012 che è stato elaborato il primo sistema di Image Recognition davvero efficiente, in grado di catalogare le immagini e riconoscere quali animali o volti compaiono in un video.

Negli anni a venire qual è secondo te lo scenario più plausibile riguardo allo sviluppo dell’intelligenza artificiale nel mondo del lavoro?

Il campo del lavoro è un terreno che verrà sottoposto a notevole pressione. Sappiamo che l’automazione del lavoro non è una novità di oggi, ma risale al fordismo. Quello che oggi sta cambiando è che secondo le stime il 35-45% dei mestieri potrà essere svolto da robot o da software. Potrebbe profilarsi la prospettiva inquietante di una disoccupazione di massa. Prendiamo due aziende che hanno un utile simile: Fiat Fca e Facebook. La prima impiega circa 250 mila lavoratori, la seconda 30 mila. A parità di utili il rapporto tra l’azienda della Silicon Valley e quella italiana è quasi di 1 a 10. La forza lavoro che impiega il capitalismo di piattaforma come Uber o Deliveroo è estremamente ridotta rispetto alle realtà tradizionali. E a questo punto dove andranno a finire tutti coloro che non riusciranno a mantenersi un lavoro? È un tema caldo ed è una partita tutta da giocare. Qualcuno ipotizza che le macchine intelligenti lavoreranno accanto all’essere umano e non lo sostituiranno. Un chiaro esempio arriva dal mondo degli avvocati. Molti studi legali adottano software che analizzano documenti, traducono sentenze e leggi, mettono in correlazione casi diversi tra loro. Non sostituiscono l’avvocato, ma potrebbero ridurre il numero di praticanti.

Eppure anche in questo caso il fattore umano può incidere? Penso al titolo del tuo libro “Rivoluzione artificiale. L’uomo nell’epoca delle macchine intelligenti” (Ed. Informant).

Per me il punto di centrale è capire qual è il destino dell’uomo in un mondo in cui le AI hanno sempre più responsabilità. Come cambierà il nostro stile di vita? In qualche modo noi stiamo già cambiando senza accorgercene. La società, le nostre abitudini di acquisto, le nostre scelte televisive si stanno modificando. Per certi versi stiamo cedendo una parte di libertà per ottenere comodità ed efficienza. In diverse questioni stiamo accettando che sia un algoritmo a prendere decisioni importanti per noi. Ma un algoritmo valuta i dati e non ha a cuore altri fattori. Non è possibile, per ora, muovere a pietà un algoritmo. È freddo e non ha l’elasticità mentale – o l’irrazionalità – dell’essere umano.

L’elasticità può essere insegnata alle macchine?

Probabilmente sì. I suggerimenti riguardo ai nostri gusti proposti da piattaforme come Spotify o Netflix ad esempio miglioreranno sempre di più con il tempo. Onestamente però non credo che noi arriveremo al punto di insegnare il “buon senso” alle macchine. E questo almeno per due motivi: il primo è che siamo ancora all’anno zero in materia, il secondo è che non conviene. La rapidità e l’efficienza sono le principali facoltà che chiediamo a un algoritmo oggi e l’interesse generale è quello di eliminare l’imprevedibilità dell’essere umano. Si vogliono macchine fredde e analitiche prive di qualunque sentimento.

Siamo noi quindi che vogliamo che le intelligenze artificiali siano così? Prima di insegnare il buon senso alle macchine dovremmo insegnarlo a noi stessi?

È vero che siamo i primi a mancare di buon senso. Ogni qualvolta un algoritmo ha comportamenti che possiamo definire razzisti, ad esempio, è perché porta con sé un pregiudizio che è già insito negli strumenti che gli sono stati forniti da noi. Le macchine riproducono i nostri difetti. Il modo in cui esse agiscono è una diretta conseguenza di fattori estremamente umani: i dati che gli vengono forniti e il modo in cui sono state programmate. Andando a ritroso all’inizio del processo, nell’algoritmo non c’è nulla di veramente neutro.

Guardando all’immaginario culturale degli ultimi 50-60 anni ho come la sensazione che gradualmente ci sia stata una connessione sempre più stretta tra le utopie visionarie di scrittori e registi da una parte e i progressi della scienza cibernetica dall’altra. E’ esagerato immaginare che i libri di Philip Dick o William Gibson siano stati i manuali di studio per molti scienziati contemporanei?

Alcuni mesi fa leggevo Il rosso di Marte di Kim Stanley Robinson, un romanzo bellissimo che racconta la colonizzazione di Marte. All’interno di questo libro ho trovato moltissime idee e teorie che Elon Musk usa ogni volta che racconta i suoi progetti di colonizzare il pianeta. È solo una mia supposizione ovviamente, ma io sono quasi certo che Musk ha letto Il rosso di Marte e ha preso da lì gran parte delle cose che ha in mente. Sono decenni che assistiamo a questo scambio tra scienza e immaginario collettivo. L’ultimo esempio è, ovviamente, Black Mirror, che è una serie che riflette tantissimo ad esempio sulla pervasività dei meccanismi di sorveglianza. Lì le lenti a contatto smart sono state immaginate prima che Samsung le brevettasse.

Carlo Valeri

 

viv@voce

Lascia un commento