Le IA replicano i bias di genere, ma possiamo ancora educarle

Alberto Puliafito riflette sui rischi e sulle opportunità delle intelligenze artificiali: bias, accessibilità e l’urgenza di ripensare la nostra società

Pubblicato: 18 Novembre 2024 21:45

Giorgia Bonamoneta

Giornalista

Nata ad Anzio, dopo la laurea in Editoria e Scrittura e un periodo in Belgio, ha iniziato a scrivere di attualità, geopolitica, lavoro e giovani.

Le IA non sono né il problema né la soluzione alle difficoltà della contemporaneità. Sono intelligenze ancora da educare e soprattutto da “liberare”. Ne abbiamo parlato con Alberto Puliafito, direttore di Slow News, esperto di tecnologia e della sua intersezione con vari ambiti.

Le IA, se progettate e utilizzate consapevolmente, possono sfidare e trasformare le strutture di potere esistenti?

La risposta ottimistica è . Se interrogate, le intelligenze artificiali generative, tipo i chatbot (per esempio ChatGPT), sono “disposte” – uso un termine umano – a volte più degli umani a esplorare soluzioni radicali. Qual è il problema? Che nel momento in cui queste intelligenze artificiali vengono sviluppate dentro le strutture di potere esistenti, scardinarle è veramente complicato.

Lo dico da reduce da una grossa disillusione del sogno che avevamo dell’Internet degli anni ’90, che ha avuto sicuramente dei ricaschi positivi, ma che poi pian piano si è trasformato in terreno di caccia per le grandi aziende della Silicon Valley che hanno messo a profitto tutto, incluso il nostro tempo. Questo non vuol dire che Internet sia tutto da buttare, ma che poteva essere un’occasione molto più grossa di quella che stiamo vedendo.

La mia preoccupazione è che anche le intelligenze artificiali, senza un profondo ripensamento della struttura sociale che abbiamo costruito in Occidente, rischieranno di non far altro che perpetrare le strutture di potere, forse addirittura amplificare certe diseguaglianze.

Possono essere utilizzate, per esempio, per identificare e correggere i pregiudizi nei processi di selezione del personale, migliorare l’accesso all’istruzione e ai servizi, e amplificare le voci delle minoranze sottorappresentate?

Certo, si possono usare anche per questo, a patto di volerle usare per questo e di non volerle usare solo ed esclusivamente per un aumento della produttività, qualunque cosa questo voglia dire, o per un’illusione di poterle utilizzare come degli oracoli. Le intelligenze artificiali generative possono essere delle grandi alleate per il bene comune, e allo stesso tempo possono essere delle grandi alleate per chi vuole semplicemente estrarre profitto.

Di che cosa avremmo bisogno? Avremmo bisogno di intelligenze artificiali aperte e ispezionabili, open source di cui sappiamo tutto, dai dati di addestramento al modo in cui sono stati progettate; avremmo bisogno di intelligenze artificiali “bene comune”, abbiamo bisogno di dotarci di strumenti per ammortizzare eventuali impatti non desiderati, abbiamo bisogno di multidisciplinarità, di dibattito, di non darle per scontate nella forma in cui sono. Perché “quella forma” che hanno oggi è la forma che hanno voluto le persone che all’interno della Silicon Valley hanno potuto permettersi di svilupparle.

Questi sono i problemi che rischiano di depotenziare tutto il bene che simili strumenti potrebbero darci. Dopodiché, sì certo le potremmo usare anche per una selezione più equa del personale e per amplificare le voci delle minoranze sottorappresentate, ma per il momento il mio timore è che non faranno che replicare il pensiero dominante, coloniale, maschiocentrico, occidentalocentrico basato sul pensiero statunitense, sull’idea che tutto debba essere messo a valore per estrarre profitto etc.

Aumentare la diversità nei team di sviluppo può portare a sistemi di IA più equi e inclusivi, che riflettono una gamma più ampia di esperienze e prospettive?

Vorrei provare a proporre un discorso che ci fa uscire dal “soluzionismo tecnologico”. Non sarà la soluzione tecnologica a ridurre il divario di genere, sarà l’impegno degli esseri umani a ridurre il divario di genere e tutti gli altri divari. Aumentare la rappresentanza femminile, parlare con la grande associazione Women in AI Ethics, fondata da Mia Shah-Dand nel 2015, aumentare la consapevolezza interna alle aziende, aumentare la consapevolezza della necessità di una rappresentanza con parità di genere sono tutte cose che aiutano, ma non risolveranno il problema.

Sicuramente IL problema non verrà risolto imponendo alle intelligenze artificiali generative di disegnare un’amministratore delegato e un’amministratrice delegata all’inserimento di una richiesta non esplicita.

Gli algoritmi delle IA sono spesso addestrati su dati che riflettono i pregiudizi esistenti nella società. Questo può portare a sistemi che perpetuano e amplificano le disparità di genere. I sistemi di riconoscimento facciale e di selezione del personale mostrano dei pregiudizi (non solo contro le donne). La costruzione di IA senza pregiudizi richiede un approccio che riconosca e sfidi le categorizzazioni rigide. Quali sono i modi più efficaci per identificare e mitigare i bias di genere nei dataset utilizzati per addestrare modelli di IA? Si sta facendo qualcosa in tal senso?

Costruzione di IA senza pregiudizi è una una sfida veramente complicata. Siamo sicuri che i pregiudizi siano sempre e solo negativi? È chiaro che il modo migliore per identificare i bias di genere sarebbe avere accesso ai dati utilizzati per l’addestramento, ma non li abbiamo perché le aziende non sono obbligate a darli e, anche i tentativi di regolamentazione sono volti a tutelare i diritti commerciali e di profitto delle aziende, che non le persone.

Avremmo bisogno di poter far diventare queste scatole nere scatole un po’ più trasparenti, a partire dai dati. Dopodiché c’è una verità che dobbiamo tenere in considerazione: se queste macchine sono state addestrate con tutto quello che è stato trovato in termini di testi, è evidente che contengono tutti i bias di genere delle nostre società; e quindi, ancora una volta, per risolvere i bias di genere del dataset dobbiamo risolvere i bias di genere umani.

Ci sono molte persone che lavorano in tal senso. Io sono sempre un po’ preoccupato quando sento termini tipo algoretica o altre cose del genere, perché ho paura che si deleghi e si diffonda l’idea che gli algoritmi da sé possano avere un’etica o dei pregiudizi (sono le persone che hanno etica e pregiudizi) e noi dobbiamo lavorare sulle persone.

Le donne che lavorano nel campo della IA spesso affrontano discriminazione e ostacoli tipici del bias di genere nel posto di lavoro; questi limitano le loro opportunità di avanzamento e diminuiscono la portata del rinnovamento che la loro presenza nei team o nelle posizioni apicali potrebbe avere. La cultura aziendale, le politiche di assunzione e promozione nel mondo delle IA si stanno aprendo alla parità e all’inclusione?

Dipende sempre da qual è lo spirito con cui si inserisce un’intelligenza artificiale in azienda. Se la inserisco in azienda solo per aumentare la produttività e non per liberare il tempo delle persone, allora non farò che aumentare la pressione.

Un esempio: l’adozione di determinati elettrodomestici si presumeva avrebbe liberato il tempo delle persone che si occupano dei lavori domestici (lavori non retribuiti). Cosa hanno fatto questi elettrodomestici davvero? Hanno alzato lo standard e all’interno delle mura domestiche siamo ben lontani dalla parità.

Le policy non possono prescindere da questioni connotate culturalmente e socialmente, che devono partire dalle basi non tecnologiche: stipendi uguali, pari diritti al congedo parentale e molto altro. Le intelligenze artificiali generative le potremmo usare proprio per interrogarle su questo tipo di necessità.

Quali sono le sfide e le opportunità nell’applicare un approccio intersezionale nello sviluppo e nella progettazione delle tecnologie di IA?

Sui temi della discriminazione io temo, vedendo come stanno risolvendo o presumendo di risolvere le questioni di sottorappresentanza, le intelligenze artificiali non sono affatto progettate per non replicare le vecchie strutture di potere; anzi, fin dall’accesso queste macchine discriminano perché sono molto spesso a pagamento.

I divari aumenteranno, fatalmente, se non si agisce in maniera molto rapida. La politica è la “grande assente” in tutto questo, tranne per alcuni proclami e regolamenti che sono necessari, ma che purtroppo aderiscono a narrazioni un po’ fantascientifiche e catastrofiste di cui dovremmo fare a meno.

Visto che tutto questo è vero, visto che la progettazione di queste macchine è lasciata alla buona volontà delle persone che le stanno progettando… io non ho voglia di fidarmi di queste persone e della loro buona volontà e basta. Se gli algoritmi, se i sistemi di intelligenza artificiale vengono addestrati da decenni e decenni di letteratura che contiene il pensiero coloniale europeo e maschiocentrico, è chiaro che purtroppo queste macchine genereranno o tenderanno a generare contenuti e output che rischiano di amplificare ancora una volta forme di oppressione e di discriminazione.

Un approccio intersezionale potrebbe in qualche modo porci davanti le sfide tanto per cominciare della rappresentanza di tutte e tutti. Poi c’è il tema dell’accesso e dell’inclusione: abbiamo bisogno di garantire che queste tecnologie siano accessibili e utili per tutte le persone, indipendentemente al background socioeconomico, dal livello di istruzione e dalle abilità fisiche. Ce l’abbiamo questo approccio? Per il momento non lo vedo.

Quali istanze vengono portate alla politica? L’AI Act dice che il riconoscimento facciale con intelligenza artificiale in tempo reale e il riconoscimento emotivo sono vietati, ma sono vietati per cittadine e cittadini europei. Per i migranti non ci sono limiti. Eccola la replica dei sistemi di potere.

È chiaro che un approccio intersezionale potrebbe dare opportunità migliori. Potrebbero essere utilizzate per migliorare le nostre democrazie. Leggiamo sempre e solo che le mettono a rischio. In realtà non è così, se noi progettiamo dei Chatbot che possono raccontare il percorso di una legge, che possono abilitare le persone a capire meglio la politica e simili, allora sì che possono migliorare le nostre democrazie.

Potremmo utilizzarle così o implementarle ad armi robot che possono esercitare il controllo, strumenti di controllo del cittadino e delle cittadine e tutti gli altri scenari negativi. Questi sono rischi che abbiamo qui e ora.

Qual è la tua visione per un futuro in cui le IA giocheranno un ruolo cruciale nel promuovere l’uguaglianza di genere e l’inclusione sociale?

È veramente complicato, perché bisogna partire per forza di cose dai “dati bene comune”, dalle macchine accessibili e trasparenti e dal ripensare radicalmente la nostra società. Vorrei potermi limitare alla componente tecnologica e dire che le intelligenze artificiali ci posso dare i superpoteri, persino nel trovare soluzioni radicali, ma non possono non dire che sarà questo il futuro se, e solo se, proveremo a metterci veramente in gioco e a ripensare quello che abbiamo fatto fin qui. Mi duole dire che questo approccio io non lo vedo ancora.

© Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963