Todo el mundo habla de la IA. Y me refiero a todo el mundo. En un almuerzo al que asistimos unos cuantos octogenarios (y yo) en las últimas semanas, un invitado, que hay que reconocer que no estaba muy puesto en el tema, empezó a despotricar sobre la IA. Estaba claro que no entendía sus capacidades y vulnerabilidades porque no paraba de llamarla “A1”. Por más tentada que estuve de decirle que no se trataba de una conocida salsa para steak, me mordí la lengua. Era más fácil (y más educado) que decirle que estaba equivocado.

Este blog ha sido escrito por Martha Buyer, Directora de Law Offices of Martha Buyer, PLLC y Propietaria de Law Offices of Martha Buyer, PLLC.

Todo el mundo habla de la IA. Y me refiero a todo el mundo. En un almuerzo al que asistimos unos cuantos octogenarios (y yo) en las últimas semanas, un invitado, que hay que reconocer que no estaba muy puesto en el tema, empezó a despotricar sobre la IA. Estaba claro que no entendía sus capacidades y vulnerabilidades porque no paraba de llamarla “A1”. Por más tentada que estuve de decirle que no se trataba de una conocida salsa para steak, me mordí la lengua. Era más fácil (y más educado) que decirle que estaba equivocado.

La inteligencia artificial se ha ganado -y seguirá ganándose- su lugar en nuestras vidas, ya sean personales, gubernamentales o empresariales. Pero aunque la IA ofrece grandes promesas y capacidades, no está exenta de vulnerabilidades significativas. Antes de sumergirnos en su lugar en el mundo de la experiencia del cliente (CX), consideremos algunos de sus puntos fuertes y débiles más básicos. Esta lista no es ni mucho menos exhaustiva, pero en el contexto de la experiencia del cliente, éstas son las que saltan a la vista con mayor facilidad.

Puntos fuertes de la IA en la experiencia del cliente

  1. Las herramientas de IA pueden procesar grandes volúmenes de datos con relativa facilidad. Puede utilizarse para impulsar algoritmos complejos y obtener resultados que podrían ser muy útiles en la gestión de procesos y resultados.
    Cuando se despliegan, supervisan y gestionan adecuadamente, las herramientas de IA podrían añadir eficacia a las operaciones de los centros de contacto. Sin embargo, la palabra clave aquí es Y viene con una gran advertencia: Los resultados pueden no ser los esperados. Para aclararlo, es fundamental validar que las herramientas utilizadas están generando los resultados correctos. Siga leyendo para ver con qué facilidad puede descarrilar.
  2. Según Forrester Research, la IA generativa puede utilizarse para suplementar los datos existentes con “equivalentes sintéticos preservando la confidencialidad y la privacidad”. La palabra clave aquí es suplementar, y no puedo insistir en lo importante que es esta palabra en este contexto.

Vulnerabilidades de la IA en la experiencia del cliente

Aunque difícilmente soy melancólica que no cree en el despliegue de tecnologías en desarrollo, sigo siendo cautelosa en cuanto a que las oportunidades para el mal uso de los datos generados por la IA generativa crean riesgos significativos, centrados principalmente en el hecho de que si los datos subyacentes no son buenos (por cualquier número de razones), el resultado también es probable que sea defectuoso en el mejor de los casos y, en el peor, peligroso. (Léase: podría dar lugar a costosos litigios en términos de tiempo, dinero y, por supuesto, agravantes). Y las vulnerabilidades aumentan a medida que hay más variables, pero también al aumentar la dependencia de las métricas basadas en la tecnología.

  1. Cuanto más complejo sea el algoritmo, mayor será la probabilidad de que haya grietas en la armadura que permitan a los actores maliciosos acceder a información que debería ser (y se espera que sea) confidencial. Cuanto mayor sea el conjunto de datos, mayor será el peligro de ataques, ya que éstos pueden causar estragos a una escala mucho mayor. Por eso, es necesario extremar la vigilancia.
  2. A medida que las noticias de más ataques lleguen a más gente, y aunque las herramientas de IA no hayan contribuido a los problemas, quienes estén dentro y fuera de las empresas tendrán menos confianza en el proceso, sea cual sea.
  3. Sin los lineamientos adecuados (y quién sabe si tales herramientas, incluidas las directrices o políticas escritas, existen siquiera), la probabilidad de que se violen los derechos de autor y otros derechos de propiedad intelectual puede y será violada, sometiendo a litigios a la entidad que confía en el resultado de la IA. Sospecho que esto es menos problemático en el contexto de los centros de contacto, pero merece la pena tenerlo en cuenta.
  4. La presencia de herramientas de IA en el Contact center también crea oportunidades adicionales para que los rumores se propaguen sin control. La posibilidad de que los empleados/contratistas sean sustituidos por la IA sin duda puede crear tanto oportunidades de mejora de la productividad como estrés adicional y desafíos para la moral de los empleados. No es difícil imaginar cómo tal especulación podría hacer que la gente temiera por su sustento, tanto si sus preocupaciones son válidas como si no.
  5. Aunque hasta la fecha no se ha producido ningún litigio ampliamente conocido por algún fallo de los sistemas de IA, o de los fallos humanos provocados por la dependencia de los resultados de la IA, seguramente llegará. Los humanos cometemos muchos errores por nuestra cuenta, pero confiamos (en diversos grados) en sistemas que utilizan datos históricos. Al fin y al cabo, los sistemas de IA sólo pueden utilizar los datos que se almacenaron en el pasado, lo que los hace suceptibles a las impugnaciones legales y a los veredictos considerables de los jurados.

El papel de las herramientas de IA en el Contact center

Desde los primeros tiempos de los contact centers (incluso cuando se llamaban “centros de llamadas”), los directores han confiado en las estadísticas para gestionar y controlar el rendimiento y la productividad de los agentes. Mi primer trabajo al salir de la universidad fue en uno de ellos, y aprendí a toda velocidad cómo se podía jugar con el sistema.

Al final de cada mes, se clasificaba a los agentes. Todos en nuestro grupo sabíamos que el agente que terminaba segundo cada mes era más inteligente que todos los demás del grupo. Pero mientras que la agente que acababa primera era recompensada con primas y otras oportunidades (hasta que fue a la cárcel, pero ésa es otra historia), el héroe era realmente el agente que acababa segundo.

¿Cómo ocurrió esto? Resultó que la agente que terminó primera colgaba habitualmente las llamadas que eran complejas para poder generar el mayor número de llamadas contestadas. Esto dejaba a los usuarios con un problema extra y molestos porque tenían que volver a llamar para obtener la asistencia que necesitaban. La agente “superior” no estaba proporcionando un servicio de atención al cliente de calidad; simplemente estaba aumentando sus números a expensas de todos los demás. No fue hasta que un directivo la oyó hacerlo cuando la descubrieron y la despidieron inmediatamente. Pero como la dirección se centraba en los números (y no en la calidad del servicio prestado) se salió con la suya durante mucho tiempo.

Lo que saco de esta experiencia (aparte de desear desesperadamente otro trabajo) es que si no se miden las cosas correctas, las estadísticas carecen de sentido. Ahora que los algoritmos son mucho más complejos que antaño, la calidad de los datos recopilados sigue siendo aún más importante.

  • ¿Se están haciendo las preguntas correctas?
  • ¿Qué antigüedad tienen los datos que se están utilizando para proyectar potencialmente los resultados?
  • ¿Cómo se ponderan los distintos factores del algoritmo para obtener resultados?
  • ¿Están cargadas las preguntas para garantizar los resultados o proporcionar información útil para mejorar los procesos?

Aquí no hay respuestas correctas, pero se requiere una consideración reflexiva.

También hay una distinción importante entre utilizar herramientas de IA para gestionar las interacciones con los clientes (de cara al exterior) frente a utilizarlas para gestionar las interacciones con los empleados (de cara al interior). Muchos empresarios consideran que las herramientas basadas en la IA y otras funciones automatizadas pueden encargarse de las tareas, a menudo engorrosas, de la Programación de los horarios de los empleados, controlar su ubicación y calcular los salarios. Y aunque estas herramientas pueden ser útiles para medir la productividad de los empleados, en cuanto el empresario da el salto para sustituir y/o reforzar las herramientas basadas en el juicio humano con herramientas de IA, pueden entrar en juego cuestiones éticas de forma muy significativa (y potencialmente litigiosa).

Siempre es importante recordar que las herramientas de IA no tienen juicio ni sentido común. Como tal, los empleadores deben reconocer que el uso de mediciones como las pulsaciones de teclas, los clics del ratón o la presencia del empleado frente a una cámara no reflejan ni proporcionan necesariamente mediciones precisas de la productividad. Juzgar el rendimiento de los empleados basándose únicamente en estas métricas es más que arriesgado. Es imprudente.

Además, la División de Salarios y Horas del Departamento de Trabajo de EE.UU. ha publicado recientemente unas directrices para el uso de la IA en el lugar de trabajo1. Este documento contiene orientaciones críticas para el empresario, en particular con respecto a la gestión de la brecha entre lo que ofrecen las nuevas tecnologías y lo que exige la ley.

Según el documento, “A medida que surgen nuevas innovaciones tecnológicas, las leyes federales administradas y aplicadas por la División de Ingresos/Hora (W[age and] H[our] D[ivision]) siguen siendo de aplicación, y los empleados tienen derecho a las protecciones que estas leyes proporcionan, independientemente de las herramientas y sistemas utilizados en sus lugares de trabajo.”

De cara al exterior, es importante preguntarse: ¿La eficiencia que proporcionan las herramientas de IA se producen a costa de un “buen” servicio al cliente? Es difícil imaginar que cualquier cliente que acabe en un contact center esté contento por ello.

Para mí, los contact center existen a menudo para aislar a las empresas de sus clientes más que para servirles realmente. Con este escepticismo, cuanto más “poco amistoso” con el cliente sea el contact center, menos probable es que quiera hacer negocios con esa entidad. Sin embargo, en la mayoría de los casos, no hay elección.

Aunque las herramientas de IA pueden agilizar la prestación de servicios, ya que proporcionan métricas potencialmente útiles (la palabra clave, de nuevo, es potencialmente), los sistemas de IA aún no son lo suficientemente sofisticados como para sustituir el valor y la precisión de las interacciones humanas. Eso no quiere decir que las herramientas de IA no tengan un papel en el contact center. Pero ese lugar debe estar en conjunción con herramientas y procesos complementarios.

Blair Pleasant, presidente y analista principal de COMMfusion, comentó recientemente: “Con el tiempo, la tecnología seguirá evolucionando sin duda y será cada vez más sofisticada; en este momento, la IA generativa puede ser demasiado poco fiable y potencialmente imprecisa para utilizarla como interfaz principal con el cliente. Sin unos lineamientos lo suficientemente fuertes y apropiados que incluyan modelos adecuadamente entrenados, por ejemplo, existe un gran riesgo de que el resultado de la IA proporcione información errónea, lo que puede ser perjudicial para la marca y la relación con el cliente. Si busca empezar a utilizar la IA en su tecnología de cara al cliente, la mejor solución por ahora es utilizar una combinación de tecnologías de IA para obtener los beneficios de la IA generativa minimizando el riesgo.”

Las herramientas de IA son precisamente eso: herramientas. Confiar en ellas puede ayudar ciertamente en el manejo de algunas funciones analíticas complejas de cálculo numérico dentro de la empresa. Pero incluso cuando se utilizan para realizar tareas sencillas, se requiere una vigilancia absoluta.

Para saber más sobre el uso de la IA en la empresa, visita la página web de Martha Buyer o contacta con ella directamente por correo electrónico.

1 Boletín de Asistencia Técnica nº 2024-1, “Inteligencia artificial y sistemas automatizados en el lugar de trabajo según la Ley de Normas Laborales Justas y otras normas laborales federales”.