Categorie
intelligenza artificiale

L’intelligenza artificiale non può essere obiettiva

Perché l’intelligenza artificiale non può essere più obiettiva? Diamo uno sguardo ai limiti dell’intelligenza artificiale.

L’intelligenza artificiale ha fatto il giro del mondo del content marketing. Si tratta di una nuova tecnologia in grado di generare testi, immagini e video a una velocità senza precedenti. Ma la domanda rimane: l’AI può essere obiettiva?

Vediamo.

Intelligenza Artificiale e riciclo di contenuti

Detta in modo semplice: i servizi di scrittura di AI non sono in grado di essere oggettivi perché sono creati da esseri umani.

La loro qualità è pari a quella delle informazioni in essi contenute. Non possono essere imparziali o giusti perché hanno pregiudizi programmati (anche non volutamente) dai loro creatori.

Questo non vale solo per la generazione di testi.

Facciamo un esempio. In questi giorni si sta diffondendo sul web un passaparola su una donna inquietante che continua ad apparire nelle immagini generate dall’intelligenza artificiale.

Possiamo ipotizzarne le cause. Il dataset con cui è stato addestrato il modello generativo aveva molte foto riconducibili ad alcuni tratti di questa donna. Oppure le stringhe di testo usate come punto di partenza hanno dei parametri in comune che richiamano spesso la generazione di quell’immagine. Tutto parte in qualche modo dal dato.

Intelligenza Artificiale obiettiva: il pregiudizio dietro i modelli

I modelli di NLP non sono perfetti e possono essere distorti. Ci sono molti modi in cui gli output generati dall’Intelligenza Artificiale possono essere distorti in base ai dati che vengono loro forniti. Ad esempio, se si alimenta un modello di intelligenza artificiale con un testo proveniente da un sito web scritto da persone di razza bianca, anche l’output sarà in qualche modo di razza bianca. Tono di voce, presupposti culturali, contesto.

Questo è stato certamente uno degli spunti che abbiamo condiviso nella nostra chiacchierata di hAI mAI Osato con Francesca Quaratino.

Lo stesso vale per i pregiudizi di genere e per qualsiasi altro tipo di pregiudizio.

Il problema dei pregiudizi nell’apprendimento automatico non è nuovo. È sempre stato un problema e lo è soprattutto quando si tratta di modelli NLP.

L’unico modo che si ha per garantire che un’intelligenza artificiale sia imparziale è fornirle dati provenienti da fonti diverse e progettare modelli che utilizzino efficacemente i dati di addestramento per eliminare i pregiudizi.

Gli scienziati hanno scoperto che esistono vari modi per utilizzare i dati di addestramento per ridurre il rischio di distorsioni, ad esempio utilizzando set di dati più robusti o rimuovendo dal set di dati le parole che potrebbero causare distorsioni.

Come evitare le distorsioni nei dati e nei modelli NLP?

I modelli di dati e di NLP non sono intrinsecamente sbagliati ma distorti dai pregiudizi. Come evitare le distrorsioni?

Intelligenza Artificiale più obiettiva con maggiore varietà delle fonti

Prima di tutto è importante disporre di diversi set di dati per l’addestramento. Questo aiuterà a sviluppare dati e modelli NLP imparziali.

Un data scientist può utilizzare i dati di addestramento in modo efficace per eliminare le distorsioni, imparando cosa è o non è distorto. Ad esempio, se un modello viene addestrato su un set di dati di recensioni di film, sarà prevenuto verso i film. Quando il modello riceve un nuovo testo, saprà come generare nuove frasi simili a quelle del set di addestramento.

Questo pregiudizio può essere eliminato aggiungendo al set di addestramento contenuti più generici per bilanciare il pregiudizio. In questo modo, quando il modello genera nuove frasi o parole, è meno probabile che queste contengano pregiudizi.

Team inclusivi per una AI obiettiva e inclusiva

Abbiamo bisogno di team composti da persone provenienti da paesi diversi, abitudini diverse, culture diverse, punti di vista diversi.

Non è una garanzia ma riempiendo tutti gli spazi in qualche modo di eviterà che anche gli algoritmi restino con una visione chiusa.

Non potendo eliminare i pregiudizi, almeno mitighiamoli diversificandoli.

Team multidisciplinari per una AI che comprenda campi e contesti diversi

Le ricerche dimostrano che i team eterogenei sono più innovativi. Sono più bravi a creare soluzioni ai problemi e a proporre nuove idee. La multidisciplinarietà aiuta a diversificare i contesti e quindi nuovamente a imparare di più, migliorando grazie all’intervento umano.

Conclusioni

Molti degli attuali modelli NLP sono già prevenuti. Possono generare contenuti che riflettono i pregiudizi dei dati su cui sono stati addestrati. Ad esempio, se un modello è stato addestrato su un corpus di linguaggio sessista, probabilmente produrrà contenuti sessisti.

I modelli NLP dovrebbero essere addestrati solo con contenuti neutri, in modo da evitare qualsiasi pregiudizio nei loro risultati. È inoltre importante assicurarsi che questi modelli siano stati testati per verificarne la correttezza e l’accuratezza prima di essere utilizzati.

Disclaimer: il testo è stato scritto in parte con la collaborazione di algoritmi  GPT-3. Le immagini sono generate con NightCafe Creator.