La questione dei gorilla e degli algoritmi «razzisti» di Google
Google ha avuto problemi con il riconoscimento delle foto rappresentati i gorilla, così ha finito per bloccarle

NEW YORK - Già nel 2015, l'ingegnere del software Jacky Alciné sottolineava che gli algoritmi di riconoscimento delle immagini in Google Photos stavano classificando i suoi amici neri come «gorilla». Google si era detto sgomento, si era scusato con Alciné promettendo di risolvere il problema. Tuttavia, come mostra un nuovo report di Wired, benché siano trascorsi tre anni, il colosso di Mountain View non sembra aver risolto il problema. L'azienda ha semplicemente bloccato i suoi algoritmi di riconoscimento dell'immagine per identificare completamente i gorilla - preferendo, presumibilmente, limitare il servizio piuttosto che rischiare un'altra errata classificazione. In parole povere, gorilla e altri primati sono stati cancellati dal lessico del servizio e non possono essere identificati attraverso Google Photo.
Google Photos, offerta come applicazione mobile e sito web, offre a 500 milioni di utenti un posto per gestire e salvare i loro scatti personali. Utilizza la tecnologia di apprendimento automatico per raggruppare automaticamente le foto con contenuti simili. La stessa tecnologia permette agli utenti di cercare le loro collezioni personali.
Wired dice che ha eseguito una serie di test sull'algoritmo di Google Photos, caricando decine di migliaia di immagini di vari primati. Specie come babbuini e gibboni erano tutti correttamente identificati, ma i gorilla e gli scimpanzé non lo erano: il servizio ha, infatti, risposto con un misero «senza risultati». Una testimonianza tangibile delle difficoltà che i colossi del web hanno nel promuovere la tecnologia di riconoscimento dell' immagine, che le aziende sperano di utilizzare in auto, assistenti personali e altri prodotti.
La pubblicazione ha inoltre riscontrato come l’algoritmo di intelligenza artificiale si fosse esteso generando altre incongruenze. La ricerca di "uomo nero" o "donna nera", ad esempio, ha restituito solo immagini di persone in bianco e nero, ordinate per sesso ma non per razza. Un portavoce di Google ha confermato a Wired che le categorie di immagini «gorilla», «scimpanzé» e «scimmia» sono rimaste bloccate su Google Photos dopo il tweet di Alciné nel 2015.
Può sembrare strano che Google, un'azienda generalmente vista come precursore dell' AI commerciale, non sia stata in grado di trovare una soluzione più completa a questo errore. Ma è un buon promemoria di quanto sia difficile addestrare il software AI ad essere coerente e robusto. Soprattutto (come si potrebbe supporre sia accaduto nel caso dell' errore di Google Photos) quando quel software non è addestrato e testato da un gruppo diversificato di persone.
Non è chiaro in questo caso se l'algoritmo di Google Photos rimanga limitato in questo modo perché Google non ha potuto risolvere il problema, non ha voluto dedicare le risorse per farlo, o semplicemente sta semplicemente mostrando una sovrabbondanza di cautela. Con dati e potenza di calcolo sufficienti, il software può essere addestrato per classificare le immagini o trascrivere il parlato ad un alto livello di precisione. Ma non può facilmente andare oltre l'esperienza di quella formazione. E anche i migliori algoritmi non hanno la capacità di usare il buon senso, o concetti astratti, per affinare la loro interpretazione del mondo come fanno gli umani.
- 21/11/2021 L’intelligenza artificiale incontra il mondo del digital advertising
- 19/09/2021 Nuova luce sulla comprensione dei geroglifici grazie all'utilizzo del «Deep Learning»
- 11/08/2021 Computer quantistici, CNR supera Google (nella ricerca di un nuovo modello)
- 14/06/2021 Chatbot e Voicebot: Tutte le differenze da conoscere per utilizzarli al meglio in azienda