Ética de IA de Genesys Cloud

Creación de IA confiable para la orquestación de experiencias

Resumen ejecutivo

Genesys se compromete a crear una IA responsable que mejore las experiencias de los clientes al tiempo que defiende la privacidad, la equidad, la transparencia y la seguridad. Este artículo describe nuestro marco ético para el desarrollo y la implementación de IA, que se guía por cuatro principios fundamentales: responsabilidad, seguridad y privacidad, transparencia y equidad. Estos pilares guían la forma en que construimos, gobernamos y evolucionamos la IA de manera responsable, confiable y alineada con los valores del cliente. A través de una gobernanza sólida, controles claros y mejoras continuas, nuestro objetivo es garantizar que nuestros sistemas de IA sean confiables, compatibles y beneficiosos para todos los usuarios.

Nuestro compromiso con la IA ética

En Genesys, estamos comprometidos con el desarrollo de inteligencia artificial (IA) de manera responsable, colocando la seguridad, la privacidad, la equidad y la transparencia en el centro de cada capacidad que traemos al mercado. Reconocemos que la IA, particularmente las características basadas en modelos de lenguaje grandes y en IA generativa, presenta un conjunto de oportunidades y riesgos en evolución para nuestros clientes. Como tal, priorizamos la confianza, la elección y el control del cliente en la construcción de sistemas éticos de IA.

Genesys no utiliza las comunicaciones con los clientes, como audio, video, chat, grabaciones de pantalla, archivos adjuntos o metadatos, para entrenar modelos de IA compartidos o de terceros. Nuestros sistemas de IA están diseñados para proteger el contenido del cliente y ayudar a garantizar que los datos permanezcan bajo el control del cliente.

También proporcionamos controles granulares a nivel de organización, grupo y usuario para permitir a los administradores y usuarios configurar qué capacidades de IA están habilitadas y cómo se utilizan. Por ejemplo, las funciones de IA como el resumen o los copilotos se pueden activar selectivamente y ofrecer notificaciones en el producto para informar a los usuarios cuando se activa la IA.

A través de este compromiso, Genesys se asegura de que las consideraciones éticas no sean una ocurrencia tardía, sino una parte de la base de cómo diseñamos, implementamos y gobernamos la IA.

Introducción

La inteligencia artificial está en el corazón de la plataforma Genesys Cloud™, impulsando capacidades que mejoran la experiencia del cliente, optimizan el rendimiento de los agentes y orquestan los resultados en todos los canales. A medida que la IA se integra más profundamente en la forma en que operamos y servimos a nuestros clientes, reconocemos la responsabilidad crítica de permitir que nuestros clientes la diseñen e implementen de manera ética.

Responsabilidad

Los sistemas de IA deben ser gobernados cuidadosamente y monitoreados activamente para permitirles funcionar según lo previsto y como se espera. En Genesys, la responsabilidad es más que un requisito de cumplimiento; es un valor fundamental que da forma a la forma en que construimos, implementamos y mejoramos continuamente la IA en toda nuestra plataforma. Asumimos la responsabilidad tanto del rendimiento técnico como de los resultados en el mundo real de nuestros sistemas de IA.

Roles definidos y estructuras de gobierno

Los equipos multifuncionales, incluidos Gestión de productos, Ingeniería, Legal y Privacidad, trabajan juntos para establecer la responsabilidad del uso ético de la IA. Se asignan roles y responsabilidades para cada paso del ciclo de vida de la IA, desde el abastecimiento de datos hasta el monitoreo posterior al lanzamiento.

Revisiones previas y posteriores a la implementación

Las nuevas capacidades de IA se someten a evaluaciones de riesgos que evalúan posibles preocupaciones éticas, legales y operativas. Estas evaluaciones continúan después del lanzamiento, con modelos y sus impactos revisados a través del monitoreo, los comentarios de los clientes y las pruebas de rendimiento.

Supervisión y control humanos

Incorporamos mecanismos de retroalimentación humana en sistemas como Asistencia para agentes y Copiloto para agentes. Su objetivo es garantizar que las recomendaciones de IA apoyen a los agentes humanos en lugar de anularlos, especialmente en escenarios de alto impacto como la atención al cliente o los casos de uso sensibles al cumplimiento.

Canales de escalamiento y retroalimentación

Los clientes y usuarios de Genesys tienen caminos claros para informar inquietudes o comportamientos de IA no deseados. Existen ciclos de retroalimentación para permitir que los equipos responsables evalúen y respondan a los riesgos emergentes o patrones de uso indebido, lo que ayuda a mantener la responsabilidad a lo largo del tiempo.

Seguridad y privacidad

La seguridad y la privacidad son esenciales para una IA ética. Genesys sigue un enfoque de privacidad por diseño, incorporando medidas de protección a lo largo del ciclo de vida de la IA. Priorizamos minimizar la exposición de datos, asegurando que el control permanezca en manos del cliente y alineándonos con las regulaciones globales de protección de datos en evolución.

Minimización y aislamiento de datos

Los sistemas de IA de Genesys Cloud están diseñados para recopilar y utilizar solo los datos necesarios para la función en cuestión. Todas las instancias de los clientes están separadas lógicamente en nuestra plataforma en la nube, y nos aseguramos de aislar las vías de acceso a los datos entre los clientes.

Protección de datos por diseño

Genesys no utiliza comunicaciones con los clientes, como audio, chat, grabaciones de pantalla o archivos adjuntos, para entrenar modelos básicos compartidos o de terceros. Cualquier personalización del modelo, como el ajuste rápido o el ajuste fino, se limita al entorno del cliente y solo está bajo su control.

Anonimización y controles de acceso

Cuando los datos deben procesarse para las capacidades de IA, aplicamos anonimización o enmascaramiento. Las canalizaciones de modelos están protegidas por estrictos controles de acceso y registros de auditoría, lo que ayuda a garantizar que solo los usuarios autorizados puedan acceder a la infraestructura confidencial o a los artefactos del modelo.

Cumplimiento normativo y estándares globales

Creamos funciones de IA para cumplir con las regulaciones internacionales de protección de datos, incluida la Ley de IA de la UE, GDPR, la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA) y la Ley de Privacidad del Consumidor de California (CCPA).

Transparencia

La transparencia permite a los usuarios y administradores comprender mejor cómo funciona la IA, qué puede hacer y dónde se encuentran sus límites. Nuestro objetivo es desmitificar la tecnología, brindando a los clientes información y control sobre sus experiencias impulsadas por IA.

Tarjetas de producto y divulgaciones del sistema

Para cada producto impulsado por IA, ponemos a disposición de los clientes tarjetas de productos de IA. Estos informes contienen información técnica sobre todos los sistemas de IA incluidos en el producto, incluida la finalidad, los modelos de IA utilizados, el alcance de los datos de entrenamiento, los idiomas admitidos, los puntos de referencia de rendimiento y las limitaciones conocidas. Estos ayudan a los clientes a evaluar si una característica de IA es adecuada para su entorno.

Explicabilidad en las interfaces de usuario

El contenido generado por IA, como el sentimiento, el enrutamiento predictivo, el compromiso predictivo , va acompañado de explicaciones y puntajes de confianza cuando corresponde. Esto permite a los agentes y supervisores tomar decisiones informadas basadas en recomendaciones de IA, no en confianza ciega.

Comportamiento y umbrales configurables

Los clientes tienen acceso a los ajustes de configuración que dan forma al comportamiento de la IA. Esto incluye opciones para establecer umbrales, definir lógica de reserva, ajustar la redacción de solicitudes o alternar funciones específicas para adaptarse a los objetivos operativos.

Documentación y comunicación transparentes

Cada función de IA está respaldada por documentación que describe cómo funciona, qué datos utiliza y cómo maneja la privacidad. Los clientes pueden tomar decisiones informadas sobre la implementación de IA en función de su comprensión de su función e implicaciones.

Equidad

La IA de equidad debería funcionar bien para todos, independientemente del idioma, la geografía o los antecedentes demográficos. En Genesys, la equidad significa tomar medidas medibles para detectar, prevenir y mitigar el sesgo en los datos, los modelos y los resultados del sistema.

Prácticas de datos conscientes de los sesgos

Los datos de capacitación se revisan para determinar la equidad representativa en todos los idiomas, regiones y datos demográficos. Las prácticas de anotación están diseñadas para minimizar la subjetividad y evitar inyectar sesgo humano en el entrenamiento del modelo.

Rendimiento uniforme del modelo en todas las poblaciones

Comparamos el rendimiento del modelo en todos los idiomas y dialectos para garantizar la equidad en la calidad de la IA. Para todas las nuevas capacidades, los idiomas de nivel 1 incluyen: inglés (EE. UU.), inglés (GB), inglés (Australia), holandés (Países Bajos), francés (Francia), francés (Canadá), alemán (Alemania), hindi (India), japonés (Japón), portugués (Brasil), español (España), español (EE. UU. / LATAM), árabe (Emiratos Árabes Unidos), alemán (Suiza) y coreano (Corea). Las brechas de rendimiento se abordan mediante la recapacitación, el análisis de errores y las mejoras específicas.

Evitar el refuerzo del sesgo histórico

Los sistemas de Genesys están diseñados para evitar el sesgo de automatización y los bucles de retroalimentación que pueden reforzar los patrones existentes. Permitimos que los responsables humanos de la toma de decisiones revisen, anulen o perfeccionen las acciones impulsadas por la IA cuando sea apropiado.

Soporte lingüístico y regional inclusivo

Priorizamos la expansión de capacidades a idiomas y mercados desatendidos. Esto incluye ampliar la cobertura lingüística, desarrollar comportamientos de IA culturalmente apropiados y realizar pruebas con una lente global.

Gobernanza y mejora continua

La IA ética no es un logro único; Es un proceso continuo que debe adaptarse a las nuevas tecnologías, regulaciones y necesidades de los clientes. En Genesys, consideramos que la gobernanza y la mejora continua son esenciales para mantener nuestros sistemas de IA confiables y alineados con nuestros valores a lo largo del tiempo.

Supervisión multifuncional de la IA

La gobernanza de la IA en Genesys se gestiona a través de la colaboración entre los equipos de gestión de productos, investigación de IA, legal, privacidad, seguridad y experiencia del cliente. Estos equipos establecen los criterios de revisión ética para las funciones de IA, establecen umbrales de riesgo y ayudan a garantizar que las prácticas evolucionen junto con los comentarios de los clientes y los estándares de la industria.

Gestión de riesgos a lo largo del ciclo de vida

Realizamos evaluaciones de riesgos e impactos a lo largo del ciclo de vida de la IA, desde la ideación hasta la implementación y el monitoreo. Estas revisiones consideran factores como el posible sesgo, la exposición de datos, los resultados no deseados y los impactos ambientales y del usuario. Los modelos con mayor riesgo potencial están sujetos a supervisión y pruebas adicionales.

Supervisión del rendimiento y actualizaciones de modelos

Después de la implementación, los modelos de IA se supervisan para determinar su precisión, equidad y consecuencias no deseadas. Cuando se detecta una degradación o un sesgo del rendimiento, las actualizaciones se activan utilizando nuevos datos o técnicas de ajuste revisadas. La evaluación continua ayuda a garantizar que los modelos se mantengan alineados tanto con los objetivos del sistema como con los principios éticos.

Integración de comentarios de los clientes

Los comentarios de los clientes juegan un papel central en la mejora de los sistemas de IA. Genesys alienta a los clientes a informar inquietudes, sugerir mejoras y solicitar mejoras de configuración. Estas aportaciones se revisan periódicamente e impulsan la priorización de la hoja de ruta para la evolución responsable de la IA.

Prácticas preparadas para el futuro

A medida que surgen nuevas tecnologías de IA, especialmente en IA generativa, estamos actualizando activamente nuestros marcos para incluirlos bajo los mismos principios de gobernanza. Desde la seguridad de los prompts del modelo de lenguaje de gran tamaño (LLM) hasta la mitigación de alucinaciones, estamos comprometidos a gestionar proactivamente la próxima generación de capacidades de IA.