La tua iscrizione ai blog Genesys è stata confermata!
Please add genesys@email.genesys.com to your safe sender list to ensure you receive the weekly blog notifications.
Iscriviti alla nostra newsletter gratuita e ricevi gli aggiornamenti sui blog nella tua casella postale
Non mostrare più questo messaggio.
 
                        Immaginiamo che un agente virtuale reindirizzi il problema di fatturazione di un cliente a un sistema di back-end, sottoponga un’anomalia a una valutazione umana e proponga un rimborso prima ancora che il cliente lo abbia richiesto. Con l’AI agenziale, questo scenario immaginario diventerà presto realtà.
Oggi l’AI è in prima linea nell’attività delle aziende. Reagisce alle sfumature, si adatta in tempo reale e genera risultati ricorrendo il meno possibile all’intervento umano. Questi sistemi riconoscono gli obiettivi e adattano il loro comportamento per raggiungerli. Funzionano in modo trasversale a tutti i reparti, su tutti i punti di contatto, persino negli ecosistemi dei partner.
È così che entriamo nell’era dell’agenzialità, caratterizzata da una tecnologia sofisticata in grado di interpretare le intenzioni e coordinare le azioni in base a obiettivi definiti. Tuttavia, senza una governance chiara, ogni decisione dell’AI comporta nuovi rischi.
Molti fornitori non esitano a vantare l’“autonomia” delle loro soluzioni di AI, ma si tratta di un’esagerazione. Infatti, l’AI attuale non è completamente autonoma. Non è ancora in grado di elaborare strategie o di funzionare da sola in ambienti complessi, senza l’intervento umano.
Al momento, l’AI può essere definita semi-autonoma: si basa su contesti predefiniti e su una supervisione umana continua.
Non solo confondere “semi-autonomia” e “autonomia” è un errore di fatto, ma è anche fuorviante per l’azienda cliente. Un lancio di prodotto troppo appariscente spesso nasconde problemi di fondo. Le demo mettono in evidenza la potenza e la velocità del nuovo strumento, ma non si soffermano su questioni di trasparenza, controllo o barriere di protezione etiche. In un mondo in cui l’AI esegue migliaia di micro-decisioni al minuto, saltare la fase della governance equivale a togliere i freni a un’auto perché ha un motore migliore.

Secondo un nuovo report Genesys, l’87% dei responsabili CX intervistati classifica la conformità tra le principali preoccupazioni nell’implementazione dell’AI agenziale. Tuttavia, solo il 31% ritiene di disporre di un piano completo e di politiche chiare per la governance dell’intelligenza artificiale. Ancora più allarmante è il fatto che il 28% dei responsabili aziendali che non dispone di una politica di governance dell’AI si sente pronto a implementare l’AI agenziale.
Questo divario è pericoloso per le aziende. Se non controllata, l’AI agenziale può allontanarsi dalle politiche stabilite, generare informazioni false e minare la fiducia dei clienti in pochi secondi.
Tanto più che non è possibile aggiungere protezioni a posteriori. Per mitigare i rischi dell’AI agenziale, la governance deve passare da un approccio reattivo di conformità a un’orchestrazione proattiva.
In un momento in cui l’innovazione sta accelerando, molte aziende hanno ancora difficoltà a implementare controlli sull’AI. Questa incapacità sta diventando un vero e proprio handicap a livello strategico.
Secondo Gartner ®, “oltre il 40% dei progetti di AI sarà annullato entro il 2027 a causa dell’aumento dei costi, di un valore di business poco chiaro o di controlli inadeguati dei rischi”. ”
Queste cifre parlano da sole. Quasi la metà delle iniziative di AI rischia di fallire… E questo, in gran parte, a causa della mancanza di governance.

La posta in gioco è quindi chiara. Man mano che l’AI si radica sempre più profondamente nella Customer Experience, non è più sufficiente interessarsi solo alle sue capacità intrinseche. È necessario anche delimitarne il campo d’azione e determinare se il suo comportamento è sufficientemente affidabile da poterla utilizzare senza compromettere le relazioni con i clienti, l’integrità del brand e la conformità alle normative.
Non dare priorità alla governance dell’AI espone le aziende a rischi operativi e reputazionali reali. Inoltre, limita notevolmente il potenziale e la velocità di evoluzione dell’AI.
L’automazione tradizionale segue regole ben definite. Il bot rileva una richiesta, esegue uno script e produce un risultato. Questo scenario è prevedibile, rigido e utile, ma limitato.
I sistemi agenziali si comportano in modo diverso. Agiscono in base a obiettivi, valutano il loro ambiente e sono in grado di adeguare le loro azioni di conseguenza. Non è necessario programmare tutti i percorsi possibili, perché l’AI traccia il proprio itinerario.
Queste capacità aprono un campo di possibilità completamente nuovo. Gli agenti virtuali assomigliano sempre meno ad assistenti digitali e sempre più a collaboratori in grado di risolvere i problemi da soli. Sono in grado di riconoscere le situazioni che richiedono l’intervento di un essere umano, adattare le conversazioni in qualsiasi momento e chiedere chiarimenti invece di fare supposizioni alla cieca. In questo modo, le soluzioni diventano più intelligenti, ma anche più difficili da controllare. La stessa flessibilità che rende così potente l’AI agenziale introduce anche dei rischi.
Ecco perché è fondamentale stabilire un quadro di governance. Fin dall’inizio, le aziende devono sviluppare sistemi spiegabili, in linea con i propri valori e sufficientemente flessibili, mantenendo al contempo il controllo.
Senza queste misure, un’AI indipendente può introdurre rischi così rapidamente che l’azienda non ha il tempo di reagire. I suoi errori non sono più semplici possibilità, ma realtà tangibili per il cliente.
Le aziende devono quindi definire delle regole a monte: cosa rientra e cosa non rientra nel campo d’azione dei sistemi di AI semi-autonomi, come questi ultimi devono reagire quando si trovano di fronte a situazioni di incertezza, ecc. Devono inoltre mettere in atto strumenti che consentano di monitorare il comportamento dell’AI e di correggere il tiro in tempo reale.
Quando l’AI agisce in base alle proprie scelte e non a script prestabiliti, la governance assume un ruolo diverso: impone dei vincoli all’AI e la allena a riconoscere ciò che è importante per l’azienda. In questo modo, garantisce che il suo giudizio sia in linea con i valori dell’organizzazione e con le aspettative dei clienti.
In Genesys, tutte le soluzioni di AI sono progettate con un occhio di riguardo alla responsabilità. Il nostro impegno verso la trasparenza e la governance dell’AI è un principio fondamentale che si riflette in tutti i nostri prodotti. Integriamo la conformità, le misure di sicurezza, la chiarezza e il controllo dell’AI direttamente nell’architettura delle nostre soluzioni, in modo che le aziende non debbano farlo in un secondo momento.
Dando priorità alla privacy, all’equità e alla sicurezza sin dall’inizio, consentiamo ai nostri clienti di utilizzare l’AI in modo sicuro e responsabile. Il nostro obiettivo è progettare un’AI affidabile che migliori l’esperienza del cliente e sia in linea con i valori più importanti.
Questa visione consente di mantenere il controllo sulla tua AI monitorandone il comportamento in tempo reale, segnalando i problemi e tenendo un registro dettagliato di ogni azione per condurre audit o analisi più approfondite.
I supervisori hanno accesso a funzionalità di monitoraggio dell’AI in tempo reale, con la possibilità di intervenire. Possono sospendere le decisioni, correggere la risposta generata dall’AI o riprendere il controllo del sistema quando è necessario un giudizio umano.

Integrando fiducia, equità e riservatezza nei modelli di AI, l’apprendimento avviene sempre sotto una supervisione. I cicli di feedback rafforzano i risultati positivi ed eliminano tutto ciò che è inutile. In questo modo, i modelli sanno quando l’AI deve intervenire o meno, ad esempio quando i dati sono regolamentati o quando si applica un protocollo di escalation. Risultato: l’AI agisce solo entro i limiti definiti, anche quando si trova in una situazione nuova.
Queste misure differiscono dalla tradizionale governance dell’AI. Esse formano una “costituzione agenziale” che pone i tuoi valori, le tue politiche e i tuoi obiettivi al centro di ogni decisione presa dall’AI.
Per questo motivo sono stati creati Genesys Cloud™ AI Studio e la sua funzionalità di punta, Genesys Cloud™ AI Guides. Insieme, queste funzionalità consentono di creare esperienze di AI più efficaci e responsabili, preservando al contempo i valori del tuo brand.
AI Guides consente alle aziende di creare esperienze agenziali orientate agli obiettivi, dinamiche e responsabili. Gli utenti devono semplicemente descrivere ciò che l’AI deve realizzare e AI Guides tradurrà questa visione in comportamenti definiti, tracciabili e sempre in linea con le tuer regole etiche.
Sono ora disponibili sintesi le funzionalità di Genesys Cloud AI Studio, AI Guides e di riepilogo delle conversazioni personalizzate.
Genesys definisce la curva di maturità dell’AI in sei livelli di orchestrazione dell’esperienza. Il livello 1 è la fase dell’automazione statica, degli script rigidi, dei flussi fissi e degli interventi manuali. Al livello 2, i sistemi diventano reattivi e attivano azioni, ma sempre seguendo delle regole, senza comprendere il contesto. Secondo Genesys, la maggior parte delle aziende si trova a questo livello.
Il livello 3 introduce capacità predittive. L’AI è ora in grado di anticipare, ma ha ancora bisogno degli esseri umani per passare dall’intenzione all’azione.
AI Guides ti porta al livello 4, quello dell’intelligenza semi-autonoma. Qui, l’AI prende l’iniziativa. Rispetta i tuoi limiti e impara dai suoi risultati per migliorare senza bisogno di un addestramento costante. In questo modo, i tuoi team passano dalla semplice gestione delle attività al controllo di sistemi intelligenti, che li aiutano davvero ad alleggerire il carico di lavoro.
Il rigoroso design di AI Guides prepara il terreno per il livello successivo: l’orchestrazione agenziale universale (livello 5). A questo livello, gli agenti AI collaborano, condividono il contesto, riequilibrano le priorità e perfezionano le azioni in totale autonomia. L’intero sistema apprende continuamente in totale cooperazione.
Con Genesys, hai a disposizione gli strumenti necessari per raggiungere livelli superiori di AI. Mentre altre aziende lottano per rimanere al passo con i tempi, tu hai tutte le carte in regola per sviluppare un’AI che funzioni davvero. La strada da seguire è già tracciata. Sta a te percorrerla per distinguerti dalla massa. Insieme, uniamo audacia e responsabilità.
Scopri i cinque principi fondamentali che guidano la progettazione, l’evoluzione e l’implementazione dei nostri sistemi di AI per ottenere risultati etici, sicuri e incentrati sull’uomo.
Gartner Press Release, Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027, June 25, 2025
GARTNER is a registered trademark and service mark of Gartner, Inc. and/or its affiliates in the U.S. and internationally and is used herein with permission. All rights reserved.
Iscriviti alla nostra newsletter gratuita e ricevi gli aggiornamenti sui blog Genesys nella tua casella postale.
Related capabilities: