top of page

HEY GOOGLE, SEI MASCHILISTA

Le accuse a Google di gender bias sono ormai all’ordine del giorno. Numerose ricerche (qui l’ultima condotta dalla ONG Algorithm Watch) avevano già evidenziato come lo strumento Google Translate traducesse regolarmente i sostantivi al maschile o addirittura eliminasse dalla traduzione i sostantivi femminili.

Per questo motivo l’azienda nel 2018 aveva annunciato l’introduzione di traduzioni “gender-specific” dall’inglese a diverse lingue, tra cui anche l’italiano.

Peccato che oggi poco è cambiato.

Provare per credere: il sostantivo tedesco Die Präsidentin (“la presidentessa”) viene tradotto in “Il presidente” in italiano, mentre la frase “vier Historikerinnen und Historiker” (“quattro storiche e storici”) viene tradotta in “quattro storici”.

Lo stesso si applica provando a tradurre ruoli tradizionalmente svolti da figure maschile dall’inglese (lingua gender neutral) all’italiano. La traduzione viene effettuata direttamente con il sostantivo al maschile, senza fornire la possibilità della doppia traduzione femminile-maschile.

Ma non è finita qui.

Secondo quanto riportato da Wired, non è soltanto il traduttore ad avere dei seri problemi di discriminazioni. L’articolo riprende i risultati di uno studio condotto da ricercatori e ricercatrici sul funzionamento di Google Computer Vision, lo strumento di riconoscimento automatico di immagini dell’azienda di Mountain View.

L’obiettivo della ricerca era valutare i potenziali pregiudizi di genere di questa piattaforma sottoponendo al suo algoritmo immagini di membri del Congresso degli Stati Uniti.

I risultati? Purtroppo per noi non così sorprendenti.

Il sistema infatti applica “etichette” relative all’aspetto fisico alle foto di donne tre volte in più rispetto che alle foto di uomini. In altre parole secondo l’algoritmo i tratti più importanti per qualificare una foto di una donna sono il suo taglio di capelli, la sua espressione o la bellezza, mentre gli uomini nelle loro foto vengono etichettati come “business man” o “portavoce”.

In questo quadro – già per noi alquanto disastroso – si inserisce la recente notizia del licenziamento da parte di Google della scienziata Timnit Gebru, volto della ricerca dedicata ad uno sviluppo etico e rappresentativo delle tecnologie di Intelligenza Artificiale nonché (ex) co-direttrice del Google’s Ethical AI Team.

Secondo quanto dichiarato da Timnit, che ha già ricevuto il supporto di oltre 1.200 dipendenti di Google nonché di 1.500 accademici, all’interno di Google non vi sarebbe alcun senso di responsabilità o incentivo a cambiare.

La disputa sarebbe partita da una ricerca firmata da Timnit nelle quale viene sostenuto che le aziende del settore possano fare molto di più affinché i sistemi di IA utilizzati per imitare la scrittura e il linguaggio umano non aggravino i pregiudizi storici di genere già esistenti nella nostra società.


Quanto detto fin a qui si inserisce, in realtà, in un fenomeno più ampio che non riguarda soltanto Google ma, in generale, lo sviluppo di sistemi di IA sulla base di dati raccolti ed etichettati senza l’impegno necessario volto ad eliminare le iniquità in essi presenti, provocando quindi una stratificazione di stereotipi e discriminazioni.

L’essere umano è fatto di pregiudizi e molte volte non ne è nemmeno cosciente.


Per questo motivo lo sviluppo di una tecnologia assolutamente neutrale, in quanto prodotto dell’uomo, è praticamente impossibile. Ma possiamo fare sicuramente di meglio.

A cura di Alice Giannini

bottom of page