19 settembre 2018
Aggiornato 09:30

Cosa ci aveva detto Stephen Hawking sull'intelligenza artificiale

Per Stephen Hawking l'intelligenza artificiale potrebbe evolversi a tal punto da superare quella umana
Cosa ci aveva detto Stephen Hawking sull'intelligenza artificiale
Cosa ci aveva detto Stephen Hawking sull'intelligenza artificiale (ANSA)

CAMBRIDGE - E’ morto all’età di 76 anni lo scienziato Stephen Hawking, uno dei geni più apprezzati dei nostri tempi. Un’icona per generazioni diverse, che ha ispirato film per la tv e cinema, proprio come lo era stato Einstein. Ma il suo universo, i suoi studi, non orbitavano solamente sui libri: era uno scienziato moderno, tanto da apparire perfino nella serie «I Simpson» e nell’episodio della saga di Star Trek «The Next Generation».

Stephen Hawking fu incredibilmente legato alla sua malattia, diagnosticata all’età di 21 anni, la malattia del motoneurone. I medici, all’epoca (era il 1963), si aspettavano che vivesse solo per altri due anni. Ma Hawking aveva una forma di malattia che progrediva più lentamente del solito. È sopravvissuto per più di mezzo secolo e abbastanza a lungo per essere legato alla sua disabilità. La sua voce metallica, faceva parte di lui. Una voce prodotta grazie a una macchina intelligente, sviluppata dalla Intel e messa a punto con la Swiftkey. E che ha, senza dubbio, influenzato molti dei suoi studi anche sull’intelligenza artificiale. La macchina, per la precisione, funzionava modellando il suo uso di parola precedente per prevedere quali parole avrebbe utilizzato l’attimo successivo, simile al texting predittivo disponibile su molti dispositivi smartphone.

Oltre ai buchi neri, alla cosmologia concentrò parte degli ultimi anni sullo studio delle macchine intelligenti, verso le quali invitava a una laica diffidenza. L’emergere dell'intelligenza artificiale (AI) potrebbe essere «l’evento peggiore nella storia della nostra civiltà, a meno che la società non trovi un modo per controllarne lo sviluppo», aveva detto in un’intervista alla CNBC.

Secondo lui i computer sono in grado, in teoria, di emulare l’intelligenza umana, e superarla. L’AI può aiutare a ridurre i danni arrecati al mondo naturale, sradicare la povertà e le malattia, ma il futuro si presenta quanto mai incerto. «Il successo nel creare l'AI efficace, potrebbe essere il più grande evento della storia della nostra civiltà. O il peggio. Non lo sappiamo. Quindi non possiamo sapere se saremo infinitamente aiutati da AI, o ignorati da essa, o presumibilmente distrutti da essa - aveva detto Hawking -. A meno che non impariamo come prepararci ed evitare i potenziali rischi. L’AI potrebbe essere il peggior evento nella storia della nostra civiltà. Porta pericoli, come potenti armi autonome o nuovi modi per pochi di opprimere i molti. Potrebbe portare grandi perturbazioni alla nostra economia».

Hawking si dimostrò spesso anche preoccupato di come l’intelligenza artificiale possa addirittura sostituire gli esseri umani. Temeva che qualcuno sia in grado di creare un’AI che continuerà a migliorarsi fino a essere superiore alle persone, una vera e propria nuova forma di vita. «Temo che l'AI possa sostituire completamente gli esseri umani. Se le persone progettano virus informatici, qualcuno progetta l’AI che migliora e si replica. Questa sarà una nuova forma di vita che sovraperforma gli esseri umani».

Ma le considerazioni di Hawking sono corrette? La questione dell'intelligenza delle macchine risale almeno fino a quando Alan Turing, padre dell'informatica britannica, nel 1950, ha considerato la domanda: «Le macchine possono pensare?». La questione della presa in consegna di queste macchine intelligenti è stata discussa in un modo o nell'altro in una varietà di media e culture popolari. Pensate ai film Colossus - il progetto Forbin (1970) e Westworld (1973) e - più recentemente - Skynet nel film Terminator e sequel del 1984, per citarne solo alcuni. Tutti questi aspetti sono comuni alla questione della delega di responsabilità alle macchine. La nozione di singolarità tecnologica (o super-intelligenza della macchina) è qualcosa che risale almeno al pioniere dell'intelligenza artificiale Ray Solomonoff, che - nel 1967 - avvertiva: «Sebbene non vi sia alcuna prospettiva di macchine molto intelligenti nel prossimo futuro, i pericoli sono molto gravi e i problemi molto difficili. Sarebbe bene se un gran numero di esseri umani intelligenti dedicassero molta attenzione a questi problemi prima che insorgano». Qualcosa di molto simile a quanto detto da Hawking.

Nel frattempo, assistiamo a crescenti deleghe di responsabilità alle macchine. Da un lato, potrebbero trattarsi di calcolatori portatili, calcoli matematici di routine o sistemi di posizionamento globale (GPS). D'altro canto, potrebbero trattarsi di sistemi per il controllo del traffico aereo, missili guidati, autocarri senza conducente nei siti minerari o le recenti apparizioni di automobili senza conducente sulle nostre strade. Gli esseri umani delegano la responsabilità alle macchine per ragioni che includono il miglioramento dei tempi, dei costi e della precisione. Ma gli incubi che potrebbero verificarsi per quanto riguarda i danni causati, ad esempio, da un veicolo senza conducente, includerebbero la responsabilità legale, assicurativa e l'attribuzione di responsabilità. Si sostiene che i computer potrebbero subentrare quando la loro intelligenza sostituisce quella degli esseri umani. Ma ci sono anche altri rischi da considerare.

Soprattutto quello dell’errore della macchina, che abbiamo ampiamente discusso in questo articolo, e sulla effettiva difficoltà dell’intelligenza artificiale di replicarsi. Senza dubbio l’AI può essere una minaccia, soprattutto se finisce nelle mani sbagliate. Ricordarcelo ogni giorno fa bene. E forse era proprio questo l’intento di Stephen Hawking.