L’intelligenza artificiale è già la spina dorsale del nuovo ordine economico. Entro il 2030, oltre 92 milioni di posti di lavoro potrebbero scomparire, mentre ne nasceranno 170 milioni di nuovi, profondamente diversi da quelli di oggi (fonte: World Economic Forum, Future of Jobs Report 2024). Il cambiamento è già visibile: il 78% delle imprese globali utilizza sistemi di intelligenza artificiale nei processi decisionali o produttivi (fonte: Stanford HAI, AI Index Report 2025).
Ma non tutti partecipano allo stesso modo a questa trasformazione. Oggi solo il 20% dei ruoli tecnici nel settore del Machine learning è ricoperto da donne, e tra i ricercatori di AI la percentuale scende al 12% (fonte: UNESCO, Global Gender Report 2024). Nei convegni scientifici internazionali più importanti, come NeurIPS o ICML, le ricercatrici rappresentano appena il 18% dei partecipanti, mentre oltre l’80% dei docenti universitari di AI è uomo (UNESCO, Generative AI and Gender Bias, 2024).
Questa asimmetria non è solo numerica, ma culturale. Quando chi progetta algoritmi appartiene a un gruppo omogeneo, la tecnologia finisce per riprodurre i suoi stessi pregiudizi. È così che i sistemi di traduzione o riconoscimento immagini continuano a rappresentare i medici come uomini e gli infermieri come donne, consolidando stereotipi di genere nei dati e nei modelli.

Il rischio è evidente: l’AI non è neutrale. Riflette chi la crea, da quali esperienze apprende e su quali valori si addestra. Per questo il tema dell’inclusione non è un dettaglio, ma una condizione di affidabilità. Senza diversità, l’intelligenza artificiale diventa uno specchio distorto della società che la genera, amplificando disuguaglianze e polarizzazioni.
«L’intelligenza artificiale è ciò che noi facciamo nel darle senso. Può amplificare i pregiudizi o smascherarli, escludere o includere. È uno specchio del nostro uso, non della sua natura», dice a il Bollettino Darya Majidi, Presidente UN Women Italy.
Eppure, se costruita con consapevolezza, può fare l’opposto: ridurre i bias, potenziare le competenze, restituire spazio a chi ne è stato escluso. L’AI non è il nemico del lavoro né della parità, ma un campo di battaglia su cui si gioca il futuro della conoscenza, del potere e della rappresentanza.

L’intelligenza artificiale viene definita come la quinta rivoluzione industriale. Quali cambiamenti sociali ed economici la accompagneranno?
«È corretto definirla la quinta rivoluzione industriale, perché si appoggia sui risultati della quarta – i dati – e li trasforma sempre più in conoscenza e poi in azioni. A livello sociale dobbiamo renderci conto che l’AI è già intorno a noi: non è una prospettiva futura. Molti lavori a basso contenuto cognitivo o ripetitivi verranno sostituiti dall’automazione. Un messaggio importante, soprattutto per i giovani che stanno scegliendo il proprio percorso di studi, è chiedersi: questo lavoro può essere facilmente sostituito dall’AI o può sfruttarla come alleata? Professioni come quelle dei call center, delle commesse o dell’inserimento dati tenderanno a sparire. L’automazione industriale, anche in ambiti pericolosi, sarà sempre più affidata alla combinazione di robotica e intelligenza artificiale.
Chi fa oggi una scelta di carriera deve esserne consapevole. Ma l’AI creerà anche nuovi posti di lavoro, soprattutto dove serve l’interazione tra tecnologia e competenze umane: pensiamo alle soft skills, alle capacità cognitive e sociali. Nascono già corsi e master in intelligenza artificiale e filosofia o antropologia digitale. E non bisogna per forza essere informatici: servono esperti di etica, comunicatori, filosofi, educatori.
Un appello particolare lo rivolgo alle ragazze: solo il 14% degli studenti di informatica in Italia – e la percentuale è simile nel Mondo – sono donne. È un retaggio culturale che le porta a credere di “non essere portate” per la matematica o la tecnologia, quando invece moltissime studiano matematica pura o fisica. L’aspetto tecnologico spaventa ancora, ma non dovrebbe. Il Mondo cambierà e le donne devono essere pronte. A chi già lavora dico: non temete l’AI, studiatela. Seguite corsi online, fate upskilling e reskilling. Solo così potrete capire e guidare il cambiamento, invece di subirlo».
Quali sono oggi le principali barriere che impediscono alle donne di avvicinarsi all’intelligenza artificiale?
«È un problema culturale. Informatica, ingegneria elettronica o meccanica vengono ancora percepite come discipline “non da ragazze”. Eppure le donne scelgono matematica, ingegneria biomedica o chimica: quindi non è una questione di difficoltà, ma di percezione. Un altro problema è che l’informatica non è una materia curriculare: non la studiamo tutti a scuola come fisica o chimica.
Lo chiediamo da anni, ma ancora non è così. Di conseguenza, molte ragazze arrivano a 17-18 anni senza sapere davvero cosa sia l’informatica. Per questo abbiamo creato il progetto AI for Girls, un campo estivo alla Scuola di Alta Formazione di Volterra, dove selezioniamo ragazze da tutta Italia. Arrivano senza conoscenze specifiche, ma con curiosità e buoni voti. Dopo il percorso, l’87% sceglie materie STEM e quasi la metà opta per informatica o ingegneria informatica. Quando capiscono che l’informatica è creativa e dà potere, si appassionano. Le aziende più influenti al Mondo sono informatiche, e purtroppo quasi tutte guidate da uomini. Perciò il messaggio è: non temete la tecnologia. È divertente, crea il futuro e offre lavori ben pagati».
Quali rischi corriamo se l’intelligenza artificiale resta nelle mani di pochi attori, con scarsa inclusione di donne e minoranze?
«Enormi. Oggi il 90% dell’AI è sviluppata tra Stati Uniti e Cina. L’Italia è praticamente assente, rappresenta meno dell’1%, mentre il Regno Unito arriva all’8%. Ciò significa che utilizziamo modelli linguistici, gli LLM, costruiti altrove, con valori e riferimenti culturali lontani dai nostri. Questi sistemi incorporano unconscious bias, cioè pregiudizi inconsapevoli. Faccio un esempio: se al traduttore di Google chiedo “The doctor was an expert”, traduce “il dottore era un esperto”. Ma se chiedo “The nurse was an expert”, diventa “l’infermiera era un’esperta”. Perfino nel linguaggio si riproducono stereotipi di genere.
Oppure: se chiediamo a un sistema di disegnare “una persona di successo”, restituisce un uomo bianco, magro, ben vestito. Questi bias, radicati nei dati, influenzano le decisioni dell’AI. Tuttavia, se usata consapevolmente, l’intelligenza artificiale può anche diventare un alleato: può aiutarci a scoprire e correggere i bias nascosti. È uno strumento, come un coltello: può servire a fare del male o a cucinare per i propri figli. Dipende da come lo usiamo».

Ci sono buone pratiche o modelli che dimostrano i benefici di una maggiore inclusione femminile nell’AI?
«Sì. Studi di McKinsey e dell’Università di Oxford mostrano che, se non agiamo, l’AI rischia di penalizzare proprio i lavori femminili, spesso a più basso valore aggiunto. Le donne non solo verrebbero escluse dalla creazione dei sistemi, ma perderebbero anche occupazione. D’altro canto, un uso consapevole dell’AI può servire a eliminare i bias.
Così come individua frodi o tumori, può analizzare i dati storici delle risorse umane per capire dove nascono le disuguaglianze. Amazon, ad esempio, ha ammesso che un suo algoritmo di selezione interna preferiva solo uomini, perché si basava su dati storici dove i ruoli di vertice erano maschili. Se però interveniamo sui dati e inseriamo indicatori di inclusione – come “donne ad alto potenziale” – allora creiamo modelli più equi. Significa proprio “riscrivere” il sistema: non accettare il passato come standard, ma riprogrammarlo».
In questo contesto, che ruolo dovrebbero avere istituzioni e imprese per trasformare l’AI in uno strumento di empowerment, non di esclusione?
«Le istituzioni devono introdurre l’informatica come materia scolastica e aggiornare i programmi in chiave AI. È assurdo fingere che gli studenti non usino ChatGPT: lo usano tutti. Meglio insegnare loro come farlo in modo consapevole. Le università dovrebbero prevedere lezioni di AII Literacy in ogni percorso di studio. Dal lato delle imprese, l’AI Act europeo impone formazione interna e regolamenti aziendali dedicati all’uso responsabile dell’intelligenza artificiale. Ma oggi pochissime aziende sono in regola».

Come valuta il dibattito europeo sull’AI Act?
«Sono contenta che esista, perché almeno l’Europa ha deciso di porre dei limiti. Abbiamo perso la corsa alla creazione di contenuti, ma possiamo ancora difendere i nostri valori. L’AI Act serve proprio a questo: impedire che l’AI diventi strumento di sorveglianza di massa, manipolazione o repressione, come avviene in Cina o in Iran. Non possiamo accettare che le tecnologie vengano usate per controllare o punire».
Quali sfide sogna di affrontare come presidente di UN Women Italy sul fronte tecnologico? «Vogliamo usare l’AI per costruire pace e inclusione. Per esempio, abbiamo già realizzato un evento con il nostro comitato giovani per mostrare che l’AI può diventare uno strumento di cultura e partecipazione. Ma serve anche un cambiamento dei modelli maschili. Gli uomini devono assumersi la responsabilità di promuovere nuovi modelli culturali, dove forza e aggressività non siano più valori». ©
Articolo tratto dal numero del 1 novembre 2025 de Il Bollettino. Abbonati!
📸 Credits: Canva
