19 ottobre 2018
Aggiornato 12:30

Il «razzismo» nell'era del riconoscimento facciale

Gli algoritmi di intelligenza artificiale hanno un margine d'errore molto elevato quando si tratta di donne di colore
Joy Buolamwini
Joy Buolamwini (Foto d'archivio)

MILANO - Tra limiti, paure e adrenalina, la tecnologia di riconoscimento facciale sta migliorando a poco a poco. Benchè osteggiata, è recentemente finita anche nelle mani della polizia cinese che la userà per riconoscere tra la folla potenziali criminali o sospettati. Alcuni software sono in grado di dire il genere di una persona semplicemente attraverso una fotografia. Quando la persona nella foto è un uomo bianco, il software riesce a essere preciso anche del 99%. Più è scura la pelle, invece, più l’algoritmo fa fatica.

In caso di persone di colore, e soprattutto in caso di donne di colore. Nella fattispecie il software ha un tasso d’errore pari al 35% (nel caso degli uomini bianchi è dell’1%). Questi risultati disparati, calcolati da Joy Buolamwini, ricercatrice di colore al M. I. T. Media Lab, mostra come alcuni dei pregiudizi nel mondo reale possono penetrare nell'intelligenza artificiale, tecnologia informatica su cui, poi, si fonda il riconoscimento facciale.

Il motivo di questo sconfortante risultato è determinato dal fatto che i volti degli uomini e delle donne di colore sono meno presenti nei database utilizzati per realizzare i software di riconoscimento facciale. Nell’intelligenza artificiale moderna, il software AI è tanto intelligente quanto i dati utilizzati per formarlo. Nello specifico i dati disponibili e analizzati per il riconoscimento facciale appartengono per il 75% a un maschio e per l’80% al colore bianco. E questo perchè la maggior parte dei professionisti che sviluppano gli algoritmi alla base delle tecnologie di riconoscimento facciale sono uomini bianchi.

I tre sistemi analizzati - che includono quelli di Microsoft, IBM e la società cinese Megvii - sono quelli che, secondo il MIT, vengono adoperati per uso generale e quindi per abbinare volti in diverse foto, oltre a valutare caratteristiche come sesso, età e umore. Joy Buolamwini ha detto che tutte e tre le aziende sembravano avere una precisione complessiva relativamente elevata, salvo poi dirsi stupita di constatare che le tecnologie - invece - fallivano quando si trattava di donne di colore.

Lo studio, peraltro, solleva questioni molto più ampie di equità e responsabilità nell'intelligenza artificiale in un momento in cui gli investimenti e l'adozione della tecnologia stanno andando molto avanti. Oggi, il software di riconoscimento facciale viene implementato dalle aziende in vari modi, anche per aiutare i prodotti target basati su immagini del profilo dei social media. Molte aziende, per esempio, stanno implementando la tecnologia di riconoscimento facciale per assunzioni di personale o per prestiti. Oppure - nel caso della Cina - per individuare dei criminali. In questo caso, la poca precisione del sistema potrebbe portare a numerosi rischi, come per l’identificazione (tramite riconoscimento facciale, ndr.) dell’utente di un telefono.

Secondo i ricercatori della Georgetown Law School ben 117 milioni di adulti americani sono attualmente inseriti all’interno delle reti di riconoscimento facciale utilizzate dalle forze dell’ordine statunitensi, uno scenario che solleva - in effetti - più di qualche dubbio.

Il problema del «razzismo» in campo informatico che va a riversarsi poi sullo sviluppo degli algoritmi di intelligenza artificiale, ci era stato già sollevato qualche mese fa da Giulia Baccarin, fondatrice di MIPU ed esperta di modelli predittivi, durante una nostra intervista. «Nell’ambito dell’intelligenza artificiale è molto importante avere delle donne che se occupino - ci aveva raccontato Giulia -. Il machine learning, utilizzato per effettuare analisi predittive, è un insieme di algoritmi che insegnano alla macchina a ‘comportarsi’ come l’uomo. Se questi algoritmi vengono realizzati sempre e solo dagli uomini seguiranno un modello unico che è quello del pensiero maschile, quindi limitante. Il pensiero computazionale delle donne è, per questioni anche genetiche, diverso. Un algoritmo sviluppato da una donna, anche con la collaborazione di un uomo, può creare un modello diverso, più completo».

Questo studio, però, è un punto di partenza. Non solo per migliorare gli algoritmi di intelligenza artificiale, ma soprattutto per aumentare l'integrazione. In una dichiarazione, Microsoft ha detto che la società ha «già preso misure per migliorare l'accuratezza della (sua) tecnologia di riconoscimento facciale», mentre IBM ha risposto dicendo di avere «diversi progetti in corso per affrontare la polarizzazione dataset nell'analisi del viso - tra cui non solo genere e tipo di pelle, ma anche pregiudizi legati a gruppi di età, diverse etnie, e fattori come posa, illuminazione, risoluzione, espressione e altro». Nessun commento, invece, da parte dell’azienda cinese Megvii.