I pregiudizi dell’intelligenza artificiale

L'intelligenza artificiale ha dimostrato di essere un'arma potente nella risoluzione di problemi e nell'ottimizzazione dei processi. La sua capacità di prendere decisioni velocemente e in modo accurato sembra promettente ed immune dalle debolezze umane! Purtroppo però non è tutt'oro quel che luccica!

L’intelligenza artificiale ha dimostrato di essere un’arma potente nella risoluzione di problemi e nell’ottimizzazione dei processi. La sua capacità di prendere decisioni velocemente e in modo accurato sembra promettente ed immune dalle debolezze umane! Purtroppo però non è tutt’oro quel che luccica! L’IA, pur essendo un’innovazione rivoluzionaria, non è immune dai pregiudizi o bias.

Prendiamo per esempio il caso della selezione del personale basato sull’IA. Il processo tradizionale di selezione di solito richiede molto tempo e lavoro ed una grande esperienza da parte del selezionatore, il che lo rende anche molto costoso! Nonostante ciò è inevitabilmente affetto dai pregiudizi umani. L’IA sembrava la risposta perfetta per una selezione dei candidati più obiettiva, accurata ed economica, ma…. sorpresa! Anche l’IA è caduta nella trappola dei pregiudizi umani! Il sistema di reclutamento basato sull’intelligenza artificiale aveva imparato dai dati storici che gli uomini bianchi avevano un vantaggio nella ricerca del lavoro. Il risultato? Decisioni di assunzione sbilanciate a favore dei candidati di sesso maschile e di razza bianca! Questo è un evidente esempio di come pregiudizi umani si siano trasferiti all’IA e addirittura amplificati e questo oltre ad essere un rilevante problema etico, può portare anche a mancanza di diversità e inclusione nei luoghi di lavoro.

Un altro esempio riguarda la prevenzione del crimine. L’IA è stata utilizzata per prevedere la probabilità che un criminale continui a commettere reati dopo essere stato rilasciato. In questo caso l’IA ha spesso erroneamente previsto che le persone di colore avessero una probabilità di recidiva maggiore. Anche in questo caso l’IA è stata influenzata da pregiudizi radicati all’interno della società. Infatti ad una analisi più accurata è emerso che le persone di colore tendono ad avere statistiche peggiori in quanto fermate, arrestate e condannate più spesso rispetto ai loro omologhi bianchi. L’IA, non riuscendo a cogliere le sfumature e le cause profonde dei dati, non ha potuto far altro che apprendere questa disparità storica. L’intelligenza artificiale infatti non è in grado di mettere in discussione la causa di queste disuguaglianze e di conseguenza le ha trasformate in una profezia che si autoadempie, allontanandoci anziché avvicinarci all’obiettivo di giustizia priva di pregiudizi che si aspirava a raggiungere con l’utilizzo dell’intelligenza artificiale.

Anche nei motori di ricerca come Google, l’IA piò amplificare i nostri pregiudizi. Gli algoritmi di ricerca infatti sono ottimizzati per soddisfare le nostre preferenze e indirizzare il traffico verso contenuti che generano profitti per il motore di ricerca stesso. Questo può portare alla creazione di “bolle informative” che ci espongono solo alle opinioni che confermano ed alimentano i nostri preconcetti, tenendoti lontano da nuove prospettive e sfide intellettuali.

Quello che questi 3 esempi hanno in comune è che tendono a conservare, riaffermare ed amplificare i pregiudizi umani, nascondendoli dietro ad un’apparenza apparentemente priva di pregiudizi, che è molto difficile da individuare sia per l’utente non esperto che per l’utente esperto.

Come possono quindi essere affrontati questi problemi? La soluzione non è evitare i pregiudizi ma gestirli in modo consapevole. Nessun sistema decisionale – esseri umani, animali e macchine – può essere esente da pregiudizi: ogni algoritmo favorisce o promuove un particolare insieme di valori. Tutte le decisioni lo fanno. Decidere, per definizione, significa proprio favorire alcuni valori rispetto ad altri, di conseguenza nessun sistema decisionale può essere privo di valori e di conseguenza di pregiudizi! Quello che possiamo fare è essere consapevoli della situazione e dei valori che sono promossi e non dai sistemi di AI!

Tornando all’esempio della selezione del personale, il valore ovvio che si vuole promuovere è quello di assumere la persona più adatta al lavoro; ma nel nostro esempio i dati di addestramento non erano sufficientemente allineati con questo obiettivo. I dati di addestramento provenivano da una vasta selezione di reclutamenti, senza dare particolare attenzione a se fossero stati o meno di successo nel senso di aver assunto effettivamente la persona migliore per il lavoro. Dal punto di vista del reclutamento, l’assunzione di individui abbastanza competenti spesso soddisfa solo l’obiettivo di selezione, ma al fine di prevenire la discriminazione, si potrebbe introdurre deliberatamente un pregiudizio anti-discriminatorio nel sistema, utilizzando i dati di addestramento. Un altro modo potrebbe essere quello di rimuovere parametri chiaramente discriminatori come etnia e genere dai dati di addestramento.  Tuttavia l’eliminazione di informazioni indesiderate dai dati in uso può ridurre l’efficacia del sistema; inoltre se l’IA ha già preso una decisione basata sui dati di addestramento che già contengono il genere e l’etnia, anche rimuovendoli, l’IA probabilmente sarà in grado di utilizzare altri parametri nei dati di input per scoprire il genere e l’etnia dei candidati.

Ulteriore complessita potrebbe derivare dal desiderio di intraprendere azioni positive, sulla base di informazioni come etnia, disabilità o genere. In tal caso, introdurre bias intenzionali suoi dati di addestramento potrebbe non essere sufficiente e potrebbe essere necessario ripensare gli algoritmi di AI, in maniera da incrementare la probabilità che qualcuno si accorga se ci sono bias nei dati o nelle istruzioni. Occorre quindi essere sempre pronti a porre domande difficili e sfidare i risultati dell’IA quando sembrano confermare i nostri pregiudizi!

L’IA non è solo un prodotto tecnologico, ma un riflesso della società che la crea e la utilizza, è nostro dovere essere critici e riflessivi quando utilizziamo l’IA per prendere decisioni importanti. Solo attraverso l’attenzione, la trasparenza e il dibattito possiamo sperare di ottenere decisioni e applicazioni AI più giuste, inclusive ed equilibrate.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Chiudi
Giuseppe Legrottaglie © Copyright 2021. All rights reserved.
Chiudi