Le discriminazioni di genere nascoste negli algoritmi (e come combatterle)

Articolo pubblicato sul sito del magazine Change-Makers.

Su Facebook chi si dichiara “donna” vedrà annunci di lavoro pubblicati da aziende che presentano già una buona percentuale di lavoratrici al proprio interno

Lo prova una nuova ricerca della University of Southern California, che in uno studio mostra come nel social network gli uomini abbiano maggiori probabilità di vedere un annuncio per un impiego più frequentemente ricoperto da uomini (come un’offerta di lavoro per consegnare le pizze per Domino’s), mentre alle donne compaiono più spesso offerte di imprese dove già sono impiegate molte donne (come quelle per commesse del supermercato Instacart).

Questo è solo uno dei tanti esempi delle discriminazioni di genere presenti negli algoritmi, e in generale nelle applicazioni informatiche che usiamo ogni giorno: dal recruitment allo screening facciale, dai traduttori ai correttori automatici, le tecnologie non sono neutre e perpetuano le disparità di genere, influenzando le nostre scelte in tanti settori.

“Nella programmazione dell’intelligenza artificiale ci sono diversi tipi di bias”, spiega a Change-Makers Giulia Baccarin, ingegnere biomedico e fondatrice di Mipu, azienda che sviluppa sistemi innovativi per la manutenzione predittiva di macchine industriali. 

“Il più evidente è il fatto che l’intelligenza artificiale apprende da una base dati che non è neutra, perché viene selezionata e inserita dall’uomo e dunque replica la visione del mondo esistente. 

I database su cui si basano i software che utilizziamo riflettono maggiormente la componente maschile su quella femminile, la componente bianca su quella nera o ispanica, la componente normodotata su quella con disabilità. E questo già di per sé costituisce un primo problema, perché si rafforzano i pregiudizi sociali di genere, razza o etnia. I risultati, dunque, non saranno imparziali”.

L’articolo completo è disponibile sul sito del magazine Change-Makers.