L’Intelligenza Artificiale è poco inclusiva, riflette un mondo prettamente maschile

L’Intelligenza Artificiale non è così equa come sembra. E questa è solo la punta dell’iceberg di un settore, quello della tecnologia più in generale, poco inclusivo e che spesso rischia di perpetuare vecchi stereotipi. Una ricerca di Eige, European institute for gender equality, attesta che in Europa e nel Regno Unito solo il 16% delle persone che lavorano nel campo dell’IA sono donne e, a mano a mano che si va avanti con la carriera, il gender gap è ancora più evidente: solo il 12% ha più di 10 anni di esperienza. 

E tutto questo si riflette sugli algoritmi di cui si nutre l’AI: “Si è soliti pensare alla tecnologia come a uno strumento neutro, al riparo da stereotipi perché lontano dalla coscienza e dagli impulsi umani dei pensieri prettamente soggettivi. In realtà la discriminazione e i pregiudizi di genere (ma non solo) sono troppo spesso insiti in queste nuove tecnologie – afferma Giulia Nocchi, Marketing e Communication Specialist di GiunecoPer esempio, se un data-set utilizzato per addestrare un software per la gestione del processo di recruiting in azienda (ATS, Applicant Tracking System) è caratterizzato da una maggioranza di curriculum in cui le parole utilizzate dai candidati per descriversi sono al maschile, è evidente che il sistema non riconoscerà i cv in cui queste stesse parole compaiono al femminile. Anche se adeguate e in linea con la job description questo sistema pone le candidate in fondo alla classifica di selezione o addirittura le respinge.”

Secondo Giunecosoftware house che trasforma progetti in soluzioni tecnologiche, per migliorare il rapporto fra genere e non basta limitarsi a promuovere adeguate politiche per avvicinare le ragazze alle discipline Stem (Science, technology, engineering and mathematics); è importante agire anche alla base, correggendo bias e pregiudizi insiti nel settore IT per renderlo un luogo più inclusivo.

L’intelligenza artificiale è quindi poco inclusiva?

I modelli di AI sono costruiti in modo da imparare dalle informazioni che vengono fornite dagli ingegneri che li programmano, ovvero i dati. Se questi dati utilizzati per “addestrare” la macchina sono stati settati con informazioni non ragionate e quindi non del tutto rappresentative possono produrre esiti discriminatori. Modificare tali approcci richiede un maggior equilibrio di genere e una maggiore eterogeneità, in generale, in chi ha la responsabilità di programmare l’IA.

Il problema è che ancora poca attenzione viene rivolta a come i dati sono raccolti e organizzati nei data-set utilizzati per l’addestramento degli algoritmi, per questo motivo l’intelligenza artificiale non appare affatto neutrale come ci si può aspettare, anzi rispecchia il contesto della società attuale che fatica a celebrare una parità di genere senza discriminazioni, più composita e rappresentativa della realtà. 

“Di che cosa ci parlano questi fenomeni? Niente di nuovo, purtroppo, ma mettono ancora una volta in risalto quanto immenso lavoro ci sia da fare per raggiungere una vera parità di diritto per abbattere quei pregiudizi che sono talmente insiti ed interiorizzati nella nostra società da sorprenderci per quanto siano potenti e deleteri – continua Giulia Nocchi –  L’utilizzo non consapevole dell’Intelligenza Artificiale può mettere in evidenza le iniquità che ci circondano. Non sono gli algoritmi a discriminare, ma siamo noi a nutrirli con set di dati che, riflettendo la situazione esistente in molteplici realtà, rappresentano un mondo in cui la discriminazione è ancora diffusa.”

Per uscire da questi circoli viziosi in cui possono incorrere gli strumenti di machine learning, AI e tecnologie avanzate, cosa è possibile fare?

La comunità scientifica si sta concentrando sull’interpretabilità dei risultati, ovvero sul capire come mai il modello restituisca un certo output. Al momento, questi non sono altro che delle “black box” a cui viene fornito un input e restituito un output, senza sapere  esattamente quali siano tutti i passaggi interni che hanno portato proprio a quel determinato risultato, anche se è corretto. Risolvere questa sfida potrebbe portare a nuovi metodi che cambieranno il modo in cui viene sviluppata l’AI e quindi anche a soluzioni scientifiche per tutti i modelli che presentano “comportamenti” discriminatori. 



Claudia Ruiz