Ética de la IA: Promueva la confianza brindando el nivel de transparencia apropiado

Como los chatbots son cada vez más conversacionales, no siempre el consumidor puede discernir si está hablando con una máquina o con una persona. La inteligencia artificial (IA) está siendo cada vez más utilizada para manejar un mayor nivel de complejidad en las relaciones con los clientes; por ejemplo, la categorización de llamadas entrantes o la atribución de ofertas personalizadas.  De ahí, los interrogantes que surgen sobre la equidad de las decisiones que toma una máquina.

La mayoría de los programas que utilizan IA son considerados como una suerte de “cajas negras”. Esta falta de transparencia puede desencadenar problemas de confianza con los consumidores, además de afectar negativamente a su empresa.

El primer paso en la transparencia

Las normas de privacidad plasmadas en el GDPR de la Unión Europea son mucho más exigentes que las de EE.UU. Muchos líderes de pensamiento están tratando de aplicar el nivel de privacidad GDPR al uso doméstico. En julio de 2019, el estado de California promulgará una nueva ley sobre la transparencia de los bots, que seguramente se extenderá a nivel nacional. La ley tiene como objetivo proteger a los consumidores y votantes del posible engaño de bots que actúan como humanos. Por ejemplo, leyes como esta pueden impedir que se utilicen bots maliciosos para influenciar las elecciones a través del uso abusivo de plataformas sociales.

Las leyes sobre la transparencia de los bots quizá no impidan la rápida implementación de esta tecnología por parte de las empresas, pero ciertamente podrían causar repercusiones en la eficacia de los bots para fines de venta o marketing, en especial, por teléfono. Por ejemplo, una persona que recibe una llamada de un bot que lo primero que dice es “Soy un robot” podría tender a colgar o no confiar del todo en el contenido del mensaje. Con el tiempo, “este tipo de advertencias de que se está interactuando con un bot” podrían correr la misma suerte que los “términos y condiciones” de un software nuevo: un vocabulario legal que casi nadie lee.

Cuando la mayor transparencia en la IA genera menos confianza

 Harvard Business Review citó un estudio que revela que, si bien los usuarios no aceptan la idea de que la IA es una “caja negra” que toma decisiones, tampoco necesitan ni desean un alto grado de transparencia. De hecho, mucha transparencia podría resultar contraproducente y socavar la confianza. En dicho estudio, que trataba sobre exámenes escolares, se les dijo a algunos alumnos que las calificaciones habían sido otorgadas por sus pares. A otros se les brindó un mayor nivel de transparencia y se les comunicó que el cálculo de su calificación fue realizado por un algoritmo ajustado para evitar el sesgo de los pares. Luego, se les pidió que calificaran su confianza en el proceso.

Los resultados demostraron que, cuando las calificaciones fueron satisfactorias, la transparencia estaba fuera de cuestión para los alumnos. Sin embargo, cuando la calificación no alcanzó lo que esperaban, los alumnos cuestionaron la transparencia del algoritmo y solicitaron que se les explicara por qué se les había otorgado esa calificación. El estudio confirmó que las personas desean recibir una explicación clara cuando un resultado no alcanza lo que ellas esperan. Sin embargo, si creen que el proceso es equitativo, disminuye el impacto en la confianza.

Caja blanca versus caja negra

Las decisiones que toman las máquinas deben poder justificarse cada vez que se lo requiera. Piense en el área de la salud y la tecnología de diagnóstico por imágenes que utiliza IA, o los vehículos autodirigidos de la industria automotriz. Explicar cómo se toman las decisiones es un hecho cada vez más importante en las industrias en las que la IA resulta eficaz, incluyendo la experiencia del cliente.

La “IA explicable” es uno de los grandes desafíos tecnológicos de la revolución de la IA. La Agencia de Proyectos de Investigación Avanzados de Defensa de los Estados Unidos (DARPA), junto con otros institutos de investigación, invierten mucho dinero en tratar de encontrar formas en las que los algoritmos ayuden a los humanos a interpretar las decisiones tomadas por la IA. Es una paradoja. Considere el machine learning moderno como redes neuronales profundas. Estas redes se alimentan de una incalculable cantidad de datos y tienen una capacidad de cálculo prácticamente ilimitada que arroja resultados sin precedentes. No obstante, jamás ha sido tan difícil explicar cómo llegan a las decisiones que toman.

Por ejemplo, para que haya una perfecta colaboración entre bots y humanos, es necesario contar con algoritmos de enrutamiento predictivo complejos que asignen a cada cliente al mejor representante, sobre la base de miles de criterios. Genesys utiliza el machine learning para tomar esas decisiones de enrutamiento, cuando las reglas se quedan a mitad de camino. El rendimiento para el negocio de tales sistemas basados en IA son muy pertinentes, pero también hay muchos clientes cuyos administradores desean saber cómo se produce ese enrutamiento. Quieren tener transparencia respecto de todos los factores involucrados en la toma de esas decisiones. Es una cuestión de la caja blanca, que representa la transparencia total, versus la caja negra, que no revela nada acerca del funcionamiento del algoritmo.

Todas estas expectativas fueron las que nos impulsaron a crear un buen nivel de transparencia en nuestro modelo de enrutamiento predictivo. Esta transparencia explica qué factor interviene para llegar a la decisión óptima de ruteo, y en qué medida interviene. En este caso, la transparencia permite que las organizaciones mejoren la capacitación de sus empleados o añadan limitaciones al sistema para evitar posibles sesgos.

Encuentre el nivel apropiado de transparencia de IA

Un paso importante hacia la transparencia de su estrategia de IA es garantizar que a los clientes se les comunique que están hablando con un bot. Sin embargo, se presentan problemas más amplios. Un abordaje de “caja blanca” que revela todos los datos no necesariamente les dará a los clientes información útil, pero el enfoque de “caja negra” tampoco resulta aceptable. Un enfoque más apropiado podría ser el de darle a los clientes información básica sobre los factores que intervienen en las decisiones de los algoritmos y cómo se analizan.

Los desafíos que plantea la transparencia imponen una mirada integral sobre la ética de la IA, desde el punto de vista de los derechos y las expectativas de los clientes.

Este blog es parte de una serie que ahonda en las cuestiones relacionadas con la ética de la IA. Algunos de los blogs recientes son El beneficio social de la inteligencia artificial y La cuestión de la equidad en los modelos predictivos de IA.

Compartir: