L’intelligenza artificiale può essere sessista e razzista?
Dopo The Social Dilemma, Netflix fa un altro bel colpo nel campo dell’informazione tech su un argomento hot che ci riguarda tutti da vicino: l’etica degli algoritmi e le battaglie contro le ingiustizie e le disuguaglianze perpetrate con l’uso di tecnologie di intelligenza artificiale.
Coded Bias è il documentario che racconta la storia della ricercatrice e informatica del MIT Joy Buolamwini che sviluppando un progetto di IA basato sul riconoscimento facciale si è dovuta scontrare con i pregiudizi degli algoritmi.
Da qui è partita Buolamwini e con la coautrice Deborah Raji ha condotto una ricerca su Rekognition, la tecnologia sviluppata da Amazon per il riconoscimento facciale, arrivando a scoprire che anche il sistema di Amazon aveva problemi significativi nell’identificazione del genere degli individui dalla pelle più scura, oltre a scambiare le donne dalla pelle più scura per uomini. Lo studio ha rilevato che il sistema funzionava invece con un tasso di errore vicino allo zero nell’analisi di immagini di persone dalla pelle più chiara.
Ciò che emerge da questo studio e molti altri è che c’è il rischio concreto che stiamo progettando un paradigma tecnologico che riproduce le grandi ingiustizie dei nostri sistemi sociali, mentre la cieca fiducia che stiamo riponendo negli sviluppatori e innovatori non ci aiuterà nè a far progredire la tecnologia, nè il genere umano nel suo complesso.
Ministeri per l’Intelligenza artificiale sarebbero auspicabili, incluse commissioni etiche pubbliche in grado di stilare regole basate su principi e valori condivisi. La nascita di organismi internazionali dedicati aiuterebbero inoltre i governi a imprimere una direzione alla governance globale verso un futuro tecnologico più equo e giusto.
Non si può più sviluppre tecnologia in deroga ai principi democratici.
Netflix ha il merito oggi di portarci a riflettere come cittadini comuni e utenti digitali su uno degli aspetti legati al tema fondamentale dei diritti nel campo degli algoritmi.
Grazie a Coded Bias scopriamo che le tecnologie di Amazon per il riconsocimento facciale sono tutt’altro che perfette, eppure i sistemi di polizia di molte parti del mondo stanno ancora utilizzando questi algoritmi per identificare sospetti e collezionare dati biometrici.
E anche se il docufilm non ne parla, ci sono tanti altri casi su cui alzare il livello di attenzione e tante altre domande da porsi. Perché cosa accadrebbe se questi strumenti cadessero nelle mani sbagliate?
In Canada, la startup Clearview AI è sotto accusa per aver violato la privacy di milioni di cittadini raccogliendo foto di canadesi a loro insaputa o senza il loro consenso. Il controverso software di riconoscimento facciale ha raccolto un gigantesco database con i dati biometrici dei cittadini canadesi che è stato venduto alle forze dell’ordine canadesi, tra cui l’RCMP, la polizia di Toronto e di Calgary. La polizia utilizzava l’IA per confrontare l’immagine di una vittima o di un sospetto criminale con miliardi di foto raccolte dagli account di Internet e dei social media.
Nonostante le forze di polizia hanno dichiarato di aver smesso di utilizzare Clearview AI, la società si rifiuta di cancellare il database canadese e i commissari per la privacy sono in difficoltà a rendere dispositive le azioni intraprese contro la società a causa della inadeguatezza delle leggi attuali sulla privacy.