Parliamo di etica dell’AI: fare i conti con l’equità nei modelli predittivi basati sull’Intelligenza Artificiale

 

L’equità è uno dei pilastri alla base delle linee guida etiche dell’Intelligenza Artificiale (AI) di Genesys. Spesso indicata come “AI morale” l’equità può essere paragonata alle teorie del filosofo tedesco del 18° Secolo Immanuel Kant. Questi definì le leggi morali come principi assoluti verificabili che sono veri per tutti e la cui validità non dipende da alcun ulteriore motivo o risultato prodotto. “Non dire falsa testimonianza,” è un buon esempio di una regola morale, o massima, e rappresenta un valido punto di partenza di questa discussione.

Il primo di questa serie di blog sull’etica della AI ha affrontato i benefici sociali della AI e come questa stia introducendo miglioramenti che cambiano la vita a livello globale. In questo secondo articolo esaminiamo invece il principio di equità nell’etica della AI, e il problema della parzialità.

Equità dell’opportunità ed equità dei risultati

Un modo per guardare al tema della AI e dell’equità è quello del tipo di imparzialità che deve essere indirizzato e se si tratta di equità dell’opportunità o di equità del risultato. Entrambe le tipologie trovano posto nella società.

L’equità dell’opportunità appare negli sport, dove ognuno gioca secondo le regole. Il risultato non è predeterminato, ma tutti lo accettano —vittoria o sconfitta—in base allo svolgimento, appunto, imparziale della partita.

L’equità del risultato si verifica invece durante una cena in famiglia. Quando il cibo viene servito, tutti ricevono una porzione corretta. In altre parole, indipendentemente da quanto ciascun membro della famiglia abbia contribuito alla preparazione del pasto, tutti ottengono un risultato uguale o giusto.

Un modello predittivo come il machine learning, produrrà un risultato imparziale, supponendo che un’opportunità imparziale sia basata su:

  • Dati: I tuoi dati sono corrotti o alterati?
  • Domande: Se no, stai facendo le domande giuste?
  • Priorità e valori: Se sì, hai bisogno di rivalutare le tue priorità?

La domanda chiave non è “esiste una parzialità?” bensì se, creata da dati, domande e priorità o valori, è una parzialità moralmente neutrale. Se è questo il caso, allora i risultati sono imparziali. È anche importante distinguere tra parzialità socialmente ingiuste, parzialità derivanti da misurazioni tecniche e parzialità che rientrano all’interno del dominio della AI.

In altre parole, l’adattamento di un modello AI predittivo, perché raggiunga risultati favorevoli, viene esplicitamente eseguito in tre modi:

  1. Scelta dei dati;
  2. Adeguamento delle parzialità ̶  regolare la varianza tra previsioni e valori reali;
  3. Contrappesi ̶  valutare la forza della connessione e, quando si aumentano i dati in ingresso, decidere quanto questo influenzi il risultato prodotto.

Dove le buone intenzioni sbagliano

Anche quando si usa questa metodologia, esiste un’area grigia all’interno della calibrazione dell’AI per eliminare quelle parzialità sociali dannose che possono creare problemi. Pre-ordinare un risultato perché pensi che sia equo e ingegnerizzare una decisione parziale verso di esso crea una profezia che si auto avvera. Questo può avere implicazioni molto negative, suggerendo che sia giustificato un pesante “aggiramento del sistema” o “imbroglio” nel nome della giustizia. Se carichiamo i sistemi con dati parziali, anch’essi allora si dimostreranno parziali.

Il capo dell’AI di Google, John Giannandrea, scorge anche lui i pericoli all’interno degli algortimi che vengono usati per prendere milioni di decisioni ogni minuto. I sistemi di machine learning basati su cloud sono progettati per essere molto più semplici da usare rispetto agli algoritmi sottostanti. Mentre questo rende la tecnologia più accessibile, potrebbe anche rendere più semplice l’insinuarsi di parzialità dannose. Ad esempio, gli algoritmi di news feed possono influenzare le percezioni pubbliche, mentre altri algoritmi possono distorcere il tipo di assistenza medica che una persona riceve o come viene trattata nel sistema che amministra la giustizia.

Negli ultimi anni, Facebook è stata criticata per l’uso della tecnologia che permetteva ai proprietari di discriminare in base alla razza e ai datori di lavoro di farlo in base all’età. La tecnologia ha inoltre facilitato la discriminazione per genere da parte dei datori di lavoro relativamente all’esclusione di candidati donne dalle campagne di reclutamento. In molti Paesi tutte queste aree sono tutelate dalla legge. Esistono poi dei problemi globali da considerare. Un esperimento condotto dal MIT Media Lab ha analizzato i dati provenienti da 40 milioni di decisioni sulle preferenze morali, rivelando la divergenza tra etiche cross-culturali.

Alcuni suggeriscono che le strade per eliminare le decisioni parziali è di pubblicare i dettagli dei dati o degli algoritmi usati. Ma molte delle più potenti tecniche di machine-learning emergenti si dimostrano molto complesse e oscure nel modo in cui lavorano. E resistono a un esame attento. La nostra opinione è che il luogo migliore da dove cominciare deve essere alla radice, con un forte riferimento ai secolari imperativi morali di Kant.

Quando l’AI porta a risultati imparziali

Stiamo vivendo l’epoca dell’esperienza, quando il come le cose accadono conta quanto quello che sta accadendo. Con una maggiore discussione e comprensione della modellazione predittiva e del machine learning, le aziende possono prevedere meglio problemi potenziali e costruire un’equità nei rispettivi modelli predittivi basati sulla AI. In fondo, una Customer Experience positiva dipende da risultati che siano realmente equi.

Segui la nostra prossima serie di blog mentre proseguiamo ad esplorare gli argomenti sull’etica della AI. Partecipa alla discussione sull’etica della AI.

Condividi:

Genesys ChatQuick links
Close Widget

Come possiamo aiutarvi oggi?

Genesys ChatAssistenza dal vivo