Vai al contenuto

Coded Bias. L’etica degli algoritmi approda su Netflix

    L’intelligenza artificiale può essere sessista e razzista?

    Dopo The Social Dilemma, Netflix fa un altro bel colpo nel campo dell’informazione tech su un argomento hot che ci riguarda tutti da vicino: l’etica degli algoritmi e le battaglie contro le ingiustizie e le disuguaglianze perpetrate con l’uso di tecnologie di intelligenza artificiale.

    Coded Bias è il documentario che racconta la storia della ricercatrice e informatica del MIT Joy Buolamwini che sviluppando un progetto di IA basato sul riconoscimento facciale si è dovuta scontrare con i pregiudizi degli algoritmi.

    Joy Buolamwini è un’attivista digitale ghanese naturalizzata statunitense. La sua pelle è nera e per migliorare la precisione del riconoscimento facciale è stata costretta ad indossare una maschera bianca.

    Da qui è partita Buolamwini e con la coautrice Deborah Raji ha condotto una ricerca su Rekognition, la tecnologia sviluppata da Amazon per il riconoscimento facciale, arrivando a scoprire che anche il sistema di Amazon aveva problemi significativi nell’identificazione del genere degli individui dalla pelle più scura, oltre a scambiare le donne dalla pelle più scura per uomini. Lo studio ha rilevato che il sistema funzionava invece con un tasso di errore vicino allo zero nell’analisi di immagini di persone dalla pelle più chiara.

    Fondamentalmente, queste tecnologie sono state progettate senza tenere conto della diversità. Funzionano benissimo con i maschi bianchi e molto male con le minoranze etniche e le donne.

    Ciò che emerge da questo studio e molti altri è che c’è il rischio concreto che stiamo progettando un paradigma tecnologico che riproduce le grandi ingiustizie dei nostri sistemi sociali, mentre la cieca fiducia che stiamo riponendo negli sviluppatori e innovatori non ci aiuterà nè a far progredire la tecnologia, nè il genere umano nel suo complesso.

    Non si tratta di demonizzare le tech company e le startup innovative. È ora che nei modelli di valutazione delle tecnologie e di value proposition delle imprese che le sviluppano siano introdotti anche criteri etici, quelli necesari a garantire che gli impatti sulla società non siano negativi e dannosi e che le tecnologie siano vantaggiose per tutti i gruppi sociali e demografici.

    Ministeri per l’Intelligenza artificiale sarebbero auspicabili, incluse commissioni etiche pubbliche in grado di stilare regole basate su principi e valori condivisi. La nascita di organismi internazionali dedicati aiuterebbero inoltre i governi a imprimere una direzione alla governance globale verso un futuro tecnologico più equo e giusto.

    Non si può più sviluppre tecnologia in deroga ai principi democratici.

    Netflix ha il merito oggi di portarci a riflettere come cittadini comuni e utenti digitali su uno degli aspetti legati al tema fondamentale dei diritti nel campo degli algoritmi.

    Grazie a Coded Bias scopriamo che le tecnologie di Amazon per il riconsocimento facciale sono tutt’altro che perfette, eppure i sistemi di polizia di molte parti del mondo stanno ancora utilizzando questi algoritmi per identificare sospetti e collezionare dati biometrici.

    E anche se il docufilm non ne parla, ci sono tanti altri casi su cui alzare il livello di attenzione e tante altre domande da porsi. Perché cosa accadrebbe se questi strumenti cadessero nelle mani sbagliate?

    In Canada, la startup Clearview AI è sotto accusa per aver violato la privacy di milioni di cittadini raccogliendo foto di canadesi a loro insaputa o senza il loro consenso. Il controverso software di riconoscimento facciale ha raccolto un gigantesco database con i dati biometrici dei cittadini canadesi che è stato venduto alle forze dell’ordine canadesi, tra cui l’RCMP, la polizia di Toronto e di Calgary. La polizia utilizzava l’IA per confrontare l’immagine di una vittima o di un sospetto criminale con miliardi di foto raccolte dagli account di Internet e dei social media.

    Nonostante le forze di polizia hanno dichiarato di aver smesso di utilizzare Clearview AI, la società si rifiuta di cancellare il database canadese e i commissari per la privacy sono in difficoltà a rendere dispositive le azioni intraprese contro la società a causa della inadeguatezza delle leggi attuali sulla privacy.

    Rafforzare le leggi sulla privacy e sui diritti algoritmici è la richiesta che arriva in tutto il mondo dai ricercatori e attivisti impegnati a “smascherare” i coded bias nei quali viviamo immersi nella dimensione digitale. Il caso canadese è solo una delle tante violazioni commesse nei confronti di cittadini inconsapevoli. E la tecnologia di riconoscimento facciale non è l’unica tecnologia coinvolta nella reiterazione di pregiudizi e ingiustizie algoritmiche.

    Skip to content