Hablemos de la ética de la inteligencia artificial: la lucha de la equidad en los modelos predictivos de IA

La equidad es uno de los pilares de la ética de la inteligencia artificial (IA) en Genesys. También conocido como “IA moral”, este concepto es bastante similar a las teorías que planteaba Immanuel Kant, filósofo alemán del siglo xviii, quien definió las leyes de la moralidad como “absolutos comprobables y aplicables a todos”, cuya validez no depende ni de los resultados ni del motivo ulterior. “No mentirás” es un buen ejemplo de regla o máxima moral y un buen punto de partida para este análisis.

En el primer blog de esta serie sobre la ética de la IA, analizamos los beneficios sociales de la inteligencia artificial y el gran cambio que produce en la vida de las personas. En este segundo artículo, examinaremos el sentido de equidad o de justicia detrás de la ética de la IA y el problema de los sesgos (raciales, étnicos, de género, nacionalidad, orientación sexual, capacidades, etc.).

Equidad en las oportunidades y en los resultados

Una manera de mirar a la IA y al sentido de equidad es decidir qué aspecto de “equidad” tendremos en cuenta: si las oportunidades o los resultados. Ambos tipos tienen un lugar en la sociedad.

La equidad en las oportunidades es clara en los deportes, por ejemplo, ya que todos juegan con las mismas reglas. El resultado no está determinado de antemano, pero todos lo aceptan –ganen o pierdan– si el juego ha sido limpio.

La equidad en los resultados está presente en la mesa familiar. Cuando se sirve la cena, todos reciben una porción equitativa. En otras palabras, independientemente de si el miembro de la familia participó de la preparación de la comida o no, el resultado es justo o equitativo para todos.

Un modelo predictivo, como el del aprendizaje automático o machine learning, producirá un resultado justo o equitativo a partir de una presunción de oportunidad justa o equitativa sobre la base de:

  • Datos: ¿Sus datos están contaminados o sesgados?
  • Preguntas: Si no es así, ¿está haciendo las preguntas correctas?
  • Prioridades y valores: Si es así, ¿necesita reevaluar sus prioridades?

La pregunta clave no es si existe algún sesgo; sino si el sesgo creado por los datos, las preguntas y las prioridades o los valores es moralmente neutro. Si es así, entonces el resultado será equitativo. También, es importante establecer una distinción entre el sesgo socialmente injusto y el que se relaciona con ponderaciones y sesgos técnicos propios del ambiente de la IA.

En otras palabras, ajustar un modelo predictivo de IA para alcanzar resultado positivos se hace de tres maneras:

  1. Escogiendo los datos
  2. Ajustando los sesgos, es decir, se ajusta la variación entre las predicciones y los valores reales.
  3. Ajustando las ponderaciones, o sea, se evalúa la solidez de la conexión, y cuando se incrementa el input, se decide el grado de influencia que ha tenido en el output o resultado.

Cuando las buenas intenciones terminan mal

Incluso con esta metodología, sigue habiendo una zona gris cuando buscamos ajustar la IA para eliminar los sesgos sociales perjudiciales que pueden ser problemáticos. Decretar un resultado de antemano porque usted opina que es justo o equitativo, y crear el sesgo correspondiente, constituye en sí una profecía autocumplida. Esto puede tener efectos muy negativos, porque implica que “jugar con el sistema” o “hacer trampa” en nombre de la justicia está justificado. Si cargamos los sistemas con datos sesgados, obtendremos datos sesgados.

John Giannandrea, director de inteligencia artificial de Google, también ve los peligros presentes en los mismos algoritmos utilizados para tomar millones de decisiones por minuto. Los sistemas de machine learning en la nube están pensados para ser mucho más fáciles de usar que los algoritmos subyacentes. Ahora bien: aunque esto hace que la tecnología sea más accesible para todos, también contribuye a que se filtren fácilmente sesgos que son perjudiciales. Por ejemplo, los algoritmos de las fuentes de noticias pueden influir en las percepciones del público. Otros algoritmos pueden distorsionar el tipo de atención médica que recibe una persona o cómo es tratada en el sistema de justicia penal.

Facebook fue criticado en los últimos años por usar tecnología que les permitía a los propietarios discriminar por cuestiones de raza y a los empleadores por cuestiones de edad. La tecnología también facilitó la discriminación por género, ya que los empleadores podían excluir a las postulantes de las campañas de reclutamiento. Todas estas áreas están protegidas por ley en muchos países. Existen también algunas cuestiones a nivel internacional que deben ser tomadas en cuenta. Un experimento del laboratorio de medios del MIT analizó datos a partir de 40 millones de decisiones sobre preferencias morales y reveló cuánto difiere la ética entre las diversas culturas.

Algunos sostienen que la manera de eliminar el sesgo es publicar detalles de los datos o del algoritmo utilizados. Sin embargo, la forma en que funcionan muchas de las más poderosas y recientes técnicas de machine learning es muy compleja y no demasiado clara. Desafían hasta el análisis más minucioso. En nuestra opinión, lo mejor es comenzar por el principio, teniendo en mente los imperativos morales de Kant.

Cuando la IA lleva a resultados equitativos

Vivimos en la era de la experiencia: la manera en que suceden las cosas es tan importante como el hecho en sí. Si analizamos y comprendemos mejor tanto el modelo predictivo como machine learning, podremos anticipar posibles problemas e incorporar el sentido de equidad en los modelos predictivos de IA. Después de todo, una experiencia de cliente positiva depende de resultados justos o equitativos.

Siga nuestra próxima serie de blogs en la que continuaremos explorando los aspectos de la ética de la IA. Súmese al análisis de la ética de la IA.

 

Gordon Sexton:

Gordon Sexton es Gerente de Prácticas de IA de Genesys North American Business Consulting. Es un gran entusiasta de la inteligencia artificial. Ha trabajado en soluciones de experiencia del cliente desde 2000. Su carrera profesional se ha centrado en la ingeniería de sistemas y en la arquitectura empresarial. No obstante, cree firmemente en la idea de que un enfoque holístico que incluye arte, filosofía, historia y humanidades es un requisito sine qua non para “impregnar” las soluciones técnicas de pertinencia social y cultural.

Compartir: