Innovazione | Intelligenza artificiale

I robot possono essere delle persone?

Al vaglio dell'UE la proposta di legge che mira a dare una personalità giuridica ai robot, con diritti, doveri e responsabilità

Il robot Sophia
Il robot Sophia (Shutterstock.com)

MILANO - Domanda veloce: se Terminator viaggiasse indietro nel tempo e vi versasse accidentalmente del caffè caldo in grembo, a chi fareste causa? A Terminator o a Skynet? Si tratta di una questione spinosa, che i legislatori europei stanno attualmente affrontando nel 2018. Anche se la prima relazione fu pubblicata all’inizio del 2017, suggerendo di creare uno «status giudico per i robot di lungo periodo», in modo che essi possano essere in grado di «riparare i danni che possono causare».

Nel 2015, un bot Twitter alimentato da intelligenza artificiale ha fatto qualcosa di davvero impensabile (e molto fantasmagorico). Ha twittato «Io voglio seriamente uccidere le persone», menzionando un evento di moda ad Amsterdam. La polizia olandese aveva interrogato il proprietario sostenendo che era legalmente responsabile per le sue azioni, poiché il tweet, in qualche modo era legato al suo profilo o, comunque, alla sua personalità. Ora, non è chiaro se il post «Voglio uccidere seriamente le persone» in un evento di moda costituisca un crimine, o addirittura un crimine contro la moda, nei Paesi Bassi. Ma si supponga per un secondo che sia così. Chi sarebbe davvero il responsabile?

Secondo la proposta dell'UE, potrebbe essere solo il bot in sé. Questa relazione ha lanciato l'idea di concedere uno status giuridico speciale o una personalità elettronica ai robot intelligenti, in particolare a quelli che possono imparare, adattarsi e agire autonomamente. Questa personalità giuridica sarebbe simile a quella già assegnata alle società di tutto il mondo, e renderebbe i robot, piuttosto che le persone, responsabili per le loro azioni autodeterminate, anche per qualsiasi danno che potrebbero causare.

Come la personalità giuridica, anche questo status sarebbe limitato: i robot non avrebbero il diritto di votare o sposarsi (mi dispiace, tecnofili). Ma la proposta, attualmente in esame come parte dell'iniziativa della Commissione europea sull'intelligenza artificiale, renderebbe le macchine persone giuridiche ai sensi del diritto europeo, con i relativi diritti e responsabilità, come la responsabilità di non modificare le minacce di morte faccia a faccia. Se vi state chiedendo come i robot possono «riparare» i danni, non preoccupatevi: non possiedono soldi, ma potrebbero essere obbligatoriamente assicurati, utilizzando i fondi che accumulano per i loro proprietari. Giusto per fare qualche esempio. Del resto gli interessi politici ed economici in gioco sono molti: l'UE ha varato un cospicuo piano di investimenti per aumentare le tecnologie di intelligenza artificiale all'interno del territorio dell'Unione. Incentivi che faranno esplodere le startup e, di rimando, l'intelligenza artificiale. Che a un certo punto dovrà anche essere governata.

Si tratta di una singola riga all’interno di un lunghissimo documento, ma che ha tuttavia sollevato i dubbi (e le ire, ndr.) di numerosi esperti di intelligenza artificiale, 156 per l’esattezza, i quali si sono presi la briga di scrivere una lettera aperta che denuncia la proposta dell’UE. Secondo la lettera ci sono una serie di ragioni secondo cui l’assegnazione della cosiddetta personalità elettronica sarebbe una cattivissima idea. Per cominciare, potremmo eliminare la responsabilità dalle aziende che creano i robot. In secondo luogo, dovremmo concedere ai robot «il diritto alla retribuzione o il diritto alla cittadinanza» secondo la lettera, cosa che potrebbe essere in contraddizione con la Carta dei diritti fondamentali dell'Unione europea e la Convenzione per la salvaguardia dei diritti dell'uomo e delle libertà fondamentali. Insomma, qualcosa di piuttosto complesso.

La lettera aperta afferma che la relazione originale della Commissione europea era «distorta dalla fantascienza» e con «una sopravvalutazione delle capacità effettive anche dei robot più avanzati». Che in parole povere sta a significare legislatori incompetenti. Per la precisione, infatti, siamo molto lontani dal livello di Blade Runner. Nessun robot sarà in grado di versarvi il caffè in grembo in un tempo breve e tantomeno di uccidervi. Anzi, i robot e i sistemi di intelligenza artificiale che li governano hanno ancora molte difficoltà, non solo per ciò che riguarda la presa degli oggetti, ma anche nel replicare alcuni comportamenti, benché guidati da tecnologie di machine learning.

Ma mentre il pensiero può essere viziato (o guidato da «comprensione superficiale»), fare questo tipo di pensiero non è senza i suoi meriti. John Frank Weaver, autore di «Robots Are People», sostiene che dobbiamo iniziare a pensare al quadro giuridico per un futuro che ci vedrà contrapposti all’intelligenza artificiale. Weaver spiega cosa significa dare ai robot vari aspetti dalla personalità, tra cui il diritto alla libertà di parola, il diritto alla cittadinanza, e le protezioni legali. Come si può intuire dal titolo del suo libro, egli stesso raccomanda personalità giuridica limitata per i robot, tra cui il diritto di stipulare ed eseguire contratti, l'obbligo di portare con sé l'assicurazione, il diritto di possedere la proprietà intellettuale, l'obbligo di responsabilità, e il diritto di essere il tutore di un minore.

E mentre il bot olandese apparso su Twitter non ha, per così dire, fatto ulteriori apparizioni, è chiaro che oneri e onori dei robot sono già tra noi. Soprattutto sulle nostre strade. E possono mietere vittime. I robot forse non pensano ancora da soli, ma certamente pensano. Con una grande potenza di elaborazione si ha una grande responsabilità. Chi o cosa lo detiene è ancora da determinare.