L’intelligence artificielle (IA) propulse les entreprises dans leur transformation numérique. Cette année, 40% des initiatives mondiales de transformation digitale sont liées à l’IA, selon le cabinet IDC. Ritu Jyoti, vice-présidente des stratégies d’intelligence artificielle chez IDC, annonce même que d’ici 2022, 75% des opérations informatiques seront supplantées par l’IA. Dans ce contexte le cabinet met en garde les entreprises utilisatrices en les incitant à mettre en place une éthique de l’IA, pour éviter les dérives d’utilisation. Explications.

Le marché des centres de contact est arrivé à un point d’inflexion car les récents progrès en matière d’intelligence artificielle ont rendu les applications logicielles globalement plus efficaces et ouvrent à de nouveaux usages. L’IA permet par exemple de reconnaître la situation des clients et de résoudre leurs problèmes plus rapidement. Elle a contribué à l’arrivée des chatbots qui automatisent les tâches conversationnelles, auparavant exécutées par des humains. L’intelligence artificielle apporte également de la productivité en gérant plusieurs interactions en même temps, ou de manière chronologique selon divers critères propres aux métiers d’une entreprise. Elle permet aussi d’orienter un pool d’équipe dans un centre de contact vers des activités stratégiques ou plus gratifiantes. Enfin, l’IA peut s’appliquer au management des équipes de téléconseillers, notamment sur la formation et le développement des compétences. Le cabinet Gartner a récemment publié un rapport prospectif sur le sujet : « The Future of the Contact Center ». Dans ce rapport, on apprend que d’ici 2025 les entreprises utilisatrices des centres de contact exploiteront d’avantages des applications et des outils sous la forme d’écosystèmes pour mieux travailler en équipes.

Définir un code éthique au niveau européen

La construction des algorithmes utilisés dans l’intelligence artificielle bénéficie de nos capacités d’entendement, de nos capacités à apprendre de nos expériences. Malheureusement, les algorithmes peuvent aussi être influencés par nos faiblesses humaines. C’est pourquoi il est important, pour les entreprises qui développent ou utilisent l’IA, d’établir un code d’éthique dans le cadre de leur stratégie de relation client.

En toile de fond, au niveau européen, la définition d’une charte, motivée par la Convention Européenne des Droits de l’Homme est en cours de rédaction. Des labels tels que « Ethics Inside » ou encore « Trustworthy AI » permettraient de garantir aux utilisateurs d’IA du respect de ces règles européennes.

Le projet du guide d’éthique de la Commission Européenne établit comme objectif de « maximiser les avantages de l’IA tout en minimisant ses risques. Une approche de l’IA centrée sur l’humain est nécessaire, nous obligeant à garder à l’esprit que le développement et l’utilisation de l’IA ne doivent pas être considérés comme un moyen en soi, mais comme ayant pour objectif d’accroître bien-être humain » (extrait du Figaro).

L’article identifie quelques principes éthiques fondamentaux :

  • La bienfaisance (faire le bien)
  • La non-malfaisance (ne pas nuire)
  • L’autonomie des humains
  • La justice (c’est-à-dire la non-discrimination de l’IA)
  • L’explicabilité pour assurer autonomie et consentement éclairé
  • La protection des données

Des groupes de travail organisés par Genesys

Il y a presque un an, nous avons lancé un programme « AI Ethics ». C’est un travail d’étude qui se traduit par l’organisation de tables rondes et de conférences regroupant des clients, des consultants et des ingénieurs en CX, ayant pour but d’analyser la puissance, les limites, les risques et les impacts de l’utilisation de l’intelligence artificielle au sein des relation humaines, entre clients et agents. Ce programme nous permet aussi d’étudier son impact sur la production, l’utilisation et la gestion des données issues de leurs interactions.

Voici quelques recommandations de bons usages issus de ces travaux :

  • Être transparent – Les clients doivent être informés lorsqu’ils conversent avec un bot.
  • Développer une culture d’entreprise éthique – Les entreprises doivent prendre des mesures d’information interne et de vigilance pour s’assurer que leurs systèmes d’IA n’introduisent pas de parti pris à l’encontre d’une appartenance religieuse, d’une orientation sexuelle ou génèrent de la ségrégation sur l’âge ou les origines sociales.
  • Être responsable – Les dirigeants de centres de contact sont en fin de compte responsables de la manière dont leurs organisations utilisent les systèmes d’intelligence artificielle, c’est-à-dire qu’ils sont considérés comme responsables d’un effet nocif produit par un robot.
  • Protéger les données – L’IA ne doit pas être utilisée pour diminuer les droits et doit contribuer au respect de la vie privée des individus et des communautés. Il est important de s’assurer que les éditeurs et constructeurs de centre de contact sont conformes aux normes RGPD et HIPAA, et puissent garantir un processus de traçabilité des données.

Chez Genesys, nous apportons en plus des formations supplémentaires pour les ingénieurs dans le cadre du processus de collecte de données afin de les informer des nouveaux risques liés aux algorithmes… car sans donnée on ne peut pas faire d’IA !

Le sujet de l’IA vous intéresse ? Découvrez notre livre blanc sur « L’intelligence artificielle mixte au service de l’expérience client » !