Etica dell’AI: costruire fiducia e trasparenza con i motori di intelligenza artificiale

 

Sebbene l’intelligenza artificiale (AI) produca diversi benefici per i clienti, nel contempo può introdurre una maggiore asimmetria informativa nei contact center. Di fatto, i motori di AI consentono di analizzare ogni chiamata così come di diffondere a livello organizzativo quanto contenuto in una determinata interazione e la conoscenza che ne deriva.

Per comprendere meglio come si svolge l’interazione è possibile combinarne le trascrizioni, in tempo reale così come in post chiamata. Ecco che componendo questi dati insieme a quelli sui comportamenti di tutti gli altri clienti si ricava un aiuto per prevedere che cosa potrebbe accadere successivamente. I motori basati su intelligenza artificiale sono inoltre capaci di condurre sperimentazioni sulla messaggistica e sui prezzi per individuare una correlazione ulteriore tra i comportamenti e portare di conseguenza i clienti potenziali e quelli esistenti verso obiettivi specifici.

I nuovi strumenti di AI offrono, insomma, una dimensione e una rapidità senza precedenti. Estremizzando, un’azienda non solo può su queste basi modificare il prezzo e la messaggistica, ma anche adeguare la lingua utilizzata per ogni cliente attraverso tecnologie come quelle di linguaggio naturale. Un esempio potrebbe essere una sintesi text-to-speech che parla con la voce dello stesso cliente.

Inoltre, i motori di AI possono veicolare i messaggi proprio nel momento di massimo impatto su un acquisto o su un obiettivo da raggiungere. Per individuare una correlazione si può, ancora, verificare quando un messaggio o un’azione dovrebbe avvenire all’interno di milioni di interazioni. Allo stesso modo, un contact center che si serve della trascrizione in tempo reale può avvisare un agente su che cosa dire e quando farlo, per ottenere il massimo risultato.

Gli agenti diventano, insomma, degli esseri umani aumentati dall’AI. Per fare un esempio, è come essere affiancati da tanti consulenti durante una mano di poker potendo nel contempo vedere le carte degli avversari.

 Prevenire la parzialità dell’AI

Quando si parla di etica della AI, molte aziende potrebbero avere il dubbio di dover gestire l’asimmetria informativa causata da una tale conoscenza dei clienti. Nel momento in cui implementi l’AI, ti suggeriamo quindi di fare queste domande per accertarti che venga adoperata in modo appropriato:

  • L’uso della AI genera un vantaggio sostanziale per i miei clienti?
  • Il cliente riesce a sapere quanto sappiamo di lui?
  • I motori di AI sono in grado di spiegare le decisioni o di mostrare i ragionamenti fatti?
  • Può far sedere il cliente dallo stesso lato del tavolo della nostra azienda?

La tua azienda potrebbe trovarsi in difficoltà a rispondere a queste domande. Il suggerimento è quindi, eventualmente, di coinvolgere una voce indipendente in grado di valutare l’interazione dal punto di vista del cliente e se l’AI avvantaggia anche quest’ultimo. È il caso, ad esempio, di una compagnia assicurativa che applica l’intelligenza artificiale per determinare che un certo cliente ha meno probabilità di essere coinvolto in un incidente e, perciò, costare meno: dovrebbe abbassare i premi o semplicemente intascare i risparmi generati da questa asimmetria informativa?

Un altro aspetto di cui tener conto riguarda l’offerta ai clienti di una totale trasparenza e conoscenza di quanto si sa di loro — e della corrispondente analisi delle informazioni. Ad esempio, se un’azienda analizza una chiamata, il cliente può essere reso edotto che l’agente vede tali informazioni? L’eventuale riluttanza a condividere quanto viene fatto con i dati sui clienti per paura di conseguenze legali o di una cattiva pubblicità potrebbe essere indizio di un uso non corretto dei dati. Dimostrarsi trasparenti sull’analisi potrebbe invece incrementare la fiducia — e anche portare benefici ai clienti grazie a una maggiore consapevolezza delle loro reazioni.

Per prevenire l’insorgere di una parzialità fuori controllo ed evitare stereotipi, i sistemi basati su AI devono anche illustrare il percorso fatto per arrivare alle proprie decisioni e fornire una prova a supporto delle rispettive raccomandazioni. Queste informazioni dovrebbero nel mentre essere condivisibili con i clienti coinvolti.

Poiché la dimensione e la velocità dell’AI permettono alle aziende di eseguire analisi attraverso nuove strade, puoi prevenire la possibile asimmetria facendo sedere gli agenti e i clienti dalla stessa parte del tavolo. Ad esempio, invece di far presentare a un agente i risultati dei motori di AI come se fossero propri pensieri, si potrebbe indicare che è il sistema che raccomanda determinati articoli. E quindi osservarli insieme al cliente. Anche se si tratta solo di un piccolo cambiamento nella modalità di presentazione delle informazioni, questo metodo apre alla trasparenza ed evita manipolazioni indesiderate. Il cliente vede le stesse cose dell’agente — e l’agente diventa uno steward della tecnologia AI.

Questo approccio dalla “stessa parte del tavolo” può aumentare la percezione positiva delle aziende e la conseguente brand awareness. Le concessionarie auto a zero commissioni, i consulenti finanziari pagati a parcella e altri professionisti che hanno rimosso i conflitti di interesse sviluppano fiducia nei clienti. Sebbene questo approccio non sia sempre applicabile in tutti i settori verticali, affidare a un agente un ruolo più consulenziale attraverso il sistema di AI consente un’analisi onesta di una soluzione o di un prodotto. Le organizzazioni possono promuovere più fiducia e benefici dalle applicazioni basate sull’intelligenza artificiale.

Poiché i motori di AI sono capaci di produrre un valore enorme, è indispensabile lavorare con i tuoi clienti perché sviluppino la fiducia necessaria alla loro adozione. Lavorando in modo trasparente ed essendo equi e giusti nella distribuzione del valore prodotto dai servizi di AI, registrerai dei risultati duraturi.

Condividi:

Genesys ChatQuick links
Close Widget

Come possiamo aiutarvi oggi?

Genesys ChatAssistenza dal vivo