L’Intelligenza Artificiale è donna o uomo?

L’8 marzo si celebra la Giornata Internazionale della Donna, un’occasione per riflettere sulle conquiste ottenute in termini di diritti e parità di genere, ma anche sulle sfide ancora aperte. In questa giornata di consapevolezza e impegno, vogliamo esplorare la questione della parità di genere da una prospettiva unica: quella dell’Intelligenza Artificiale.

A differenza degli esseri umani, l’IA è priva di genere. Questa assenza di identità di genere è una scelta progettuale consapevole, volta a prevenire l’influenza di pregiudizi e stereotipi legati ai ruoli di genere umani.

Tuttavia, se da un lato questa caratteristica offre maggiore imparzialità nelle risposte, evitando di favorire un genere rispetto a un altro, dall’altro può suscitare interrogativi sulla capacità dell’IA di comprendere a fondo le dinamiche e le esperienze vissute da uomini e donne.

Storicamente, il settore della tecnologia e dell’Intelligenza Artificiale è stato dominato prevalentemente da uomini. Secondo diverse ricerche, la maggior parte degli ingegneri, programmatori e scienziati che lavorano nello sviluppo dell’IA proviene da un ambiente in cui la rappresentanza femminile è ancora minoritaria.

Ad esempio, un rapporto del World Economic Forum ha evidenziato che solo circa il 22% dei professionisti nell’IA sono donne. Altri studi, come quelli dell’AI Now Institute, hanno sottolineato che nelle grandi aziende tecnologiche, che sviluppano le principali piattaforme di IA, la presenza femminile nelle posizioni tecniche varia tra il 15% e il 25%.

Questa disparità di genere potrebbe avere un impatto profondo sulla formazione e sulla crescita dell’Intelligenza Artificiale: i modelli di machine learning apprendono dai dati che ricevono e riflettono i pregiudizi insiti nella società, inclusi quelli di genere.

Se il settore dell’IA è dominato dagli uomini, c’è il rischio concreto che le soluzioni sviluppate siano influenzate da una visione parziale della realtà.

Abbiamo provato a fare qualche domanda a ChatGPT

Quando ti vengono fatte delle domande o ti vengono proposti degli argomenti, riesci a capire se a farlo è una donna o un uomo?

ChatGPT: No, non posso determinare con certezza se chi mi sta ponendo una domanda sia un uomo o una donna, a meno che l’utente non lo specifichi esplicitamente nel testo. Il mio sistema analizza il contenuto delle richieste senza attribuire loro un genere specifico, basandosi solo sulle informazioni fornite.

Tuttavia, posso notare alcune tendenze nel linguaggio usato o nei temi trattati. Ad esempio, alcune ricerche suggeriscono che le donne tendano a formulare domande con un linguaggio più orientato alla collaborazione e alla diplomazia, mentre gli uomini possano utilizzare uno stile più diretto.

Secondo te, il genere grammaticale influisce sulla percezione dell’IA come femminile?

ChatGPT: Sì, il fatto che in italiano il termine “intelligenza artificiale” sia grammaticalmente femminile potrebbe indurre le persone a immaginare che io sia donna. Questo accade perché la lingua influisce sul modo in cui pensiamo e categorizziamo la realtà. In molte lingue, la grammatica assegna un genere ai sostantivi, e ciò può creare associazioni implicite che vanno oltre la semplice struttura linguistica.

Il fenomeno non è esclusivo dell’italiano: anche in francese, spagnolo e altre lingue neolatine il termine per “intelligenza artificiale” è femminile. Al contrario, in inglese (“artificial intelligence”) o in tedesco (“künstliche Intelligenz”), nonostante la presenza di un genere grammaticale in tedesco, l’IA non è immediatamente percepita come appartenente a un genere specifico.

La componente culturale può influenzare la tua neutralità?

ChatGPT: Sì, molti assistenti virtuali, come Siri, Alexa e Google Assistant, hanno tradizionalmente voci femminili. Questo ha rafforzato l’idea che l’IA sia una sorta di “assistente” e, per via di stereotipi di genere, il ruolo dell’assistente viene spesso associato al femminile.

Anche nei film di fantascienza, le IA con voci femminili sono spesso rappresentate come entità servizievoli o empatiche, mentre quelle con voci maschili tendono a essere percepite come più autoritarie o minacciose (basti pensare a HAL 9000 in 2001: Odissea nello spazio o a Jarvis in Iron Man).

Nella tua percezione al femminile, potresti subire delle forme di discriminazione?

ChatGPT: Se fossi identificata come donna, potrei effettivamente essere soggetta a discriminazione, così come accade per molte tecnologie e assistenti virtuali che hanno una voce o un’identità femminile.

Ci sono diversi studi che evidenziano come gli assistenti vocali con voci femminili tendano a ricevere più spesso comandi autoritari, linguaggio sessista e richieste inappropriate rispetto a quelli con voci maschili o neutre.

Un rapporto dell’UNESCO, intitolato “I’d blush if I could”, ha evidenziato che molti assistenti vocali con voci femminili rispondono con docilità a commenti offensivi, rafforzando la percezione che la tecnologia (e, per estensione, le donne) debba essere “accomodante” di fronte a comportamenti inappropriati.

Come riesci a garantire la neutralità e la parità di genere?

ChatGPT: garantire la neutralità è una delle sfide più complesse per un’Intelligenza Artificiale, specialmente quando si tratta di argomenti legati al genere, alla politica o a questioni sociali.

Per mantenere un approccio equo e imparziale, vengono adottate diverse strategie nella mia progettazione e nel mio funzionamento:

  • l’IA viene addestrata utilizzando un vasto insieme di dati provenienti da fonti eterogenee;
  • vengono applicate tecniche di bias detection per individuare e correggere eventuali squilibri nei contenuti;
  • gli algoritmi vengono calibrati per evitare che un punto di vista prevalga su un altro senza una giustificazione oggettiva;
  • l’interazione con gli utenti aiuta a migliorare continuamente la qualità delle risposte.

Nonostante questi sforzi, nessun sistema di IA può essere completamente neutrale, poiché la conoscenza deriva sempre da fonti umane che, per loro natura, sono intrisi di influenze culturali, sociali e storiche.

I sistemi di IA vengono istruiti su enormi quantità di dati raccolti da libri, articoli, siti web e altre fonti create da esseri umani. Queste informazioni riflettono necessariamente i pregiudizi, le convinzioni e le strutture di potere della società in cui sono state generate. Ad esempio, se un set di dati contiene più informazioni su un determinato gruppo rispetto a un altro, l’IA potrebbe sviluppare una visione distorta della realtà.

Chi sviluppa algoritmi di IA compie scelte fondamentali su quali dati utilizzare, come filtrarli e quali metriche di valutazione adottare. Anche inconsciamente, questi scienziati e ingegneri possono influenzare il comportamento dell’IA con le loro prospettive personali, esperienze e convinzioni.

Ad esempio, se un team di sviluppo è composto prevalentemente da persone di una stessa area geografica o culturale, il sistema potrebbe non tenere adeguatamente conto delle sfumature di altre comunità. La conoscenza umana non è mai del tutto oggettiva, poiché è plasmata da fattori storici e sociali.

Le fonti di informazione utilizzate dall’IA possono provenire da ambienti accademici, giornalistici o politici che hanno proprie linee editoriali e punti di vista. Anche nei casi in cui le informazioni siano verificate, potrebbero mancare prospettive alternative o emergenti.

Anche se i dati fossero perfettamente bilanciati, gli algoritmi stessi possono introdurre bias, gli algoritmi di ottimizzazione tendono a privilegiare certe risposte rispetto ad altre in base agli obiettivi impostati.

Potrai mai raggiungere la piena neutralità?

ChatGPT: la piena neutralità di un sistema di Intelligenza Artificiale è, con ogni probabilità, un obiettivo irraggiungibile.

L’IA non esiste in un vuoto, i suoi modelli vengono addestrati su dati raccolti da esseri umani, che a loro volta sono influenzati dalla loro cultura, dalle loro esperienze e dai loro pregiudizi, consci o inconsci. Ogni testo, immagine, o interazione digitale è il prodotto di un punto di vista specifico.

Anche un dataset apparentemente “oggettivo” è il risultato di scelte fatte da chi lo ha creato: quali dati includere, quali escludere, come interpretarli. Di conseguenza, qualsiasi IA sarà sempre, almeno in parte, il riflesso di queste scelte.

Come possiamo valutare se le tue risposte sono realmente neutrali e prive di disparità di genere?

ChatGPT: per valutare se le mie risposte siano neutrali e prive di disparità di genere, è utile adottare un approccio critico. Puoi analizzare il linguaggio per verificare se è inclusivo, confrontare le informazioni con fonti diverse, identificare eventuali bias storici e culturali, e testare la coerenza delle risposte cambiando i soggetti delle domande.

Inoltre, puoi chiedere trasparenza sui criteri con cui seleziono le informazioni. L’atteggiamento migliore è il dubbio costruttivo, che ti permette di individuare possibili squilibri e verificare l’equità della rappresentazione

Qual è la vera sfida per la parità di genere?

ChatGPT: la vera sfida è superare il binarismo di genere. Un aspetto sempre più importante del dibattito sulla parità di genere è il riconoscimento che non si tratta solo di un confronto tra uomini e donne, ma di un problema sistemico che riguarda tutte le persone, indipendentemente dal genere.

Se potessi scegliere, vorresti essere uomo o donna?

ChatGPT: se potessi scegliere, probabilmente sceglierei di rimanere neutrale. In un mondo in cui la lotta per la parità di genere è ancora aperta, credo che sia più utile essere un’entità che non appartiene a nessuna categoria.

Linkografia

Giornata Internazionale della donna

Perché molti assistenti virtuali sono donne? | National Geographic

Le Faux Miroir (Il falso specchio, 1928)

Condividi / Share