15 settembre 2024
Aggiornato 15:00
tech

Che pericolo c’è se Google usa l’intelligenza artificiale per scopi militari

Google sta lavorando con il Pentagono per sviluppare un software che riconosce oggetti e persone presenti nei video dei droni dei militari

Che pericolo c’è se Google usa l’intelligenza artificiale per scopi militari
Che pericolo c’è se Google usa l’intelligenza artificiale per scopi militari Foto: Shutterstock

ROMA - Migliaia di dipendenti di Google, oltre 3mila, si stanno muovendo contro l’azienda in seguito al «Project Maven», iniziativa del Dipartimento della Difesa degli Stati Uniti (DoD) per distribuire l'apprendimento automatico a scopi miliari, in particolare su un programma legato all’uso di droni. Secondo i media americani i lavoratori hanno iniziato a inoltrare una petizione interna chiedendo a Sundar Pichai di terminare la partecipazione al progetto. Le proteste del personale di Google sarebbero in corso e la lettera firmata dai dipendenti chiede a Google di impegnarsi pubblicamente a non fornire assistenza per le tecnologie di guerra.

Nello specifico l’iniziativa Project Maven del DoD sta utilizzando un codice open-source attualmente disponibile per gli utenti di Google Cloud per aiutare a identificare gli oggetti nelle riprese in drone dei militari. Project Maven, che Google ha firmato il mese scorso, si inserisce nel più grande obiettivo del DoD di migliorare la capacità dell'America di «[vincere] le guerre con algoritmi e intelligenza artificiale». Google ha accettato di aiutare questa missione, sviluppando un software di intelligenza artificiale in grado di scannerizzare rapidamente migliaia di ore di riprese di droni di sorveglianza e di rilevare automaticamente «38 classi di oggetti» che gli analisti militari regolarmente cercano. Nella fattispecie, in una sua dichiarazione, Google ha detto di aver dato accesso al DoD al suo software open-source TensorFlow, utilizzato in applicazioni di machine learning che sono in grado di comprendere i contenuti delle foto.

La preoccupazione principale dei dipendenti è che questo progetto potrebbe alla fine trasformarsi nell'uso dell'intelligenza artificiale per controllare e persino distribuire armi dai droni, nonostante i rappresentanti dell'azienda affermino il contrario. La lettera firmata dai dipendenti di Google afferma che l’azienda avrebbe fornito, non solo dei normali account cloud, ma altresì il proprio know how in materia di machine learning, così come il personale tecnico per assistere o lavorare direttamente sugli sforzi del DoD. Secondo Google, il riconoscimento delle immagini effettuate attraverso drone, sarebbe solo «per usi non offensivi». Ciò malgrado, alcuni media americani che sono entrati in possesso di diversi documenti relativi al progetto, affermano che «le analisi video del Pentagono sono regolarmente usate nelle operazioni di controinsurrezione e antiterrorismo, e le pubblicazioni del Dipartimento della Difesa chiariscono che il progetto supporta tali operazioni».

Ciò starebbe a significare che i sistemi che Google sta supportando o costruendo contrassegnerebbero persone o oggetti visti da droni per la revisione umana, e in alcuni casi questo porterebbe a successivi attacchi missilistici a tali persone o oggetti. Si tratta di una posta in gioco etica pesante, non solo per le persone che si trovano nelle zone di guerra, ma per quelle di tutto il mondo.

Il fatto che Google stia discutendo il progetto internamente fa, senza dubbio, ben sperare. In questo momento, tuttavia, non ci sono abbastanza dettagli pubblicati per poterli commentare definitivamente. Del resto è incredibilmente rischioso usare i sistemi di intelligenza artificiale in situazioni militari dove anche problemi apparentemente piccoli possono causare vittime, escalation di conflitti o una maggiore instabilità. I sistemi di intelligenza artificiale possono spesso essere difficili da controllare e possono fallire in modi sorprendenti. In situazioni militari, il fallimento dell'intelligenza artificiale potrebbe essere grave, sottile e difficile da affrontare. I confini di ciò che è e non è pericoloso possono essere difficili da vedere. Cosa ancora più importante, la società non ha ancora concordato le norme e gli standard necessari in materia di trasparenza, rischio e responsabilità per gli usi non militari dell’intelligenza artificiale, né tanto meno per gli usi militari.

L'uso dell'intelligenza artificiale nei sistemi d'arma è un argomento di importanza cruciale che merita un dibattito pubblico internazionale e probabilmente alcuni accordi internazionali per garantire la sicurezza globale. Aziende come Google, così come le loro controparti in tutto il mondo, devono considerare le conseguenze e chiedere responsabilità reali e standard di comportamento da parte delle agenzie militari che cercano la loro esperienza.