jueves, 11 de octubre de 2018

Amazon, el aprendizaje y la máquina prejuiciosa

Joaquín Mª Aguirre (UCM)
Muchas veces usamos los términos "aprendizaje" o "educación" como unas panaceas. Son las palabras mágicas que permiten resolver problemas sociales, que son planteados como carencias que serán compensadas con la educación. Esto es a todas luces incorrecto ya que se trata de transferencias de información en una dirección determinada. La educación o el aprendizaje no son buenos por sí mismo ya que dependen del objetivo que se pretenda transformas y, especialmente, de la naturaleza del cambio.
Esto se vio —y se sigue viendo— en los orígenes de la pedagogía moderna en donde no solo se debatía cómo enseñar, sino una cuestión política: qué aprender. La educación, por sí misma, no es una panacea. Depende absolutamente de aquello que se enseña, ya que se forma, en un sentido u otro, a las personas que reciben esa educación. Por eso es una inmensa responsabilidad que implica una serie de decisiones.

Esta cuestión se hace evidente cuando la educación está en manos de dogmáticos, en manos de aquellos que usan la tecnología educativa para fines de adoctrinamiento en un determinado sentido. Esto se planteaba con toda claridad en los escritos, por ejemplo, de Bertrand Russell sobre la educación en donde se habla de que el sentido de la educación es dar autonomía a las personas y no hacerlas dependientes.
¿Podemos librarnos de nuestros sesgos, de los conscientes y de los que no lo son, en nuestro aprendizaje o en nuestras tomas de decisiones? La pregunta es pertinente en muchos planos y desde hace décadas se empezó a tomar en consideración la posibilidad de que las máquinas fueran más "justas", "ecuánimes" o "precisas" en la toma de decisiones. En su obra "Deshaciendo errores", Michael Lewis nos da cuenta del proceso de descubrimiento de los errores humanos, de las contradicciones constantes entre expertos, cuando tenían que ofrecer diagnósticos o tomar decisiones. En una entrevista realizada por Daniel Mediavilla al autor, este se refería a conmoción causada por la pérdida de credibilidad de los expertos en muchos campos, de la economía a la medicina:  «El inicio de ese movimiento encuentra parte de sus motivaciones en las explicaciones de [Daniel] Kahneman y [Amos] Tversky sobre por qué los expertos se equivocan habitualmente y por qué cometen errores sistemáticos. Su mayor influencia fue poner en duda el juicio de los expertos.»* Pero un movimiento en un sentido produce uno en sentido contrario: pasemos las decisiones a las máquinas.

Las máquinas, combinadas con la Inteligencia Artificial y el aprendizaje profundo, parecía ser la solución a las tomas de decisión más eficaces. Los avances en la IA y, sobre todo, el hecho de que las máquinas pudieran aprender de sus propias interacciones evaluando los resultados, parece ser muy prometedora para poder evitar el problema de los expertos, en los que se ha reducido la confianza. En muchos campos, la subjetividad del experto se camufla tras los lenguajes crípticos o la astucia argumentativa para encubrir un núcleo vacío o una intuición sin justificación. Lo que Lewis llama "movimiento" de recelo hacia los expertos, necesariamente iba en otra dirección, las máquinas.
Pero esto plantea sus propios problemas en los que tiene que ver el aprendizaje. El diario El Mundo titula "Amazon construyó una inteligencia artificial para contratar empleados que discriminaba a las mujeres"** Lo primero que hay que resaltar es lo inductor al error del propio titular, que entra en clara contradicción con lo que sigue a continuación. Amazon no construyó la máquina "para" discriminar a las mujeres, sino justo para lo contrario. El titular de Reuters de donde se ha tomado la noticia es más cuidadoso: "Amazon scraps secret AI recruiting tool that showed bias against women" (10/10/2018).
En el primer párrafo se explica claramente:

En 2014 Amazon decidió poner gran parte del peso en sus procesos de contratación de personal y recursos humanos en manos de inteligencias artificiales desarrolladas en el seno de la compañía para optimizar los esfuerzos en materia de captación de talento y encontrar el candidato ideal para cada puesto. La filosofía tras este proyecto era sencilla: emplear los mismos procesos de automatización que habían llevado a la compañía hasta la cima del ecommerce mundial para seleccionar a sus empleados. Sin embargo, descubrieron que esta inteligencia artificial discriminaba sistemáticamente a las mujeres.**


Habría que crear también una máquina para poder titular los artículos al margen de los prejuicios o el sensacionalismo de los expertos en titulación. Como mucha gente  no pasa del titular, habrá unos cuantos cientos de miles de lectores que ya dan por hecho el "machismo" discriminador de la compañía, y unos cuantos miles de bienintencionados retuitadores harán el resto. La tormenta informativa perfecta: un mal titular y unos cuantos activistas justicieros que no pasan de ahí porque con el titular tiene bastante para confirmar sus propias verdades.
Se explica que la conclusión de Michael Lewis sea que no hay que fiarse de las "historias" que nos cuentan, sino someterlas a revisión constante para evitar ser inducidos a error. Justo lo que ocurre con la noticia del diario El Mundo, nos lleva al error de forma directa y nosotros lo blindamos con nuestras expectativas. Escribe Lewis:

Yo cuento historias. El efecto de su trabajo [de Daniel Kahneman y Amos Tversky] en mí ha sido hacerme más escéptico de lo que soy sobre las historias. Eso no significa que las historias siempre sean falsas. Significa que tienes que estar siempre alerta sobre las formas en que pueden ser falsas y cómo tu mente te está empujando a hilar una serie de datos para convertirlos en una narrativa coherente, posiblemente a costa de la verdad. Todavía puede haber historias verdaderas, pero tienes que ser consciente de cuántas historias falsas pueden sonar bien. Hay que estar alerta ante las historias simples y fáciles, por ejemplo en política, porque con frecuencia son falsas.*


Como podemos ver, los hechos dan la razón a Lewis y a los que consideran que navegamos continuamente en océanos de confusión, de malos entendidos y prejuicios, de medias verdades y falsedades completas, en los que debemos buscar las luces de los faros lejanos que nos puedan orientar un poco. La otra opción, la mayoritaria, es darse un rebozado diario en aquello que nos gusta escuchar, es decir, limitar nuestra exposición a los medios a aquellos que nos dicen lo que queremos escuchar. Los políticos y vendedores de cualquier cosa han tomado buena nota.
Pero volvamos a las máquinas de Amazon y la fuente de su error, que es lo que nos lleva al principio del texto, al aprendizaje y a los prejuicios. También las máquinas necesitan aprender... y lo hacen de nosotros:

Imitando el sistema de valoración de productos en su web, la inteligencia artificial de Amazon valoraba a los candidatos con una puntuación entre una y cinco estrellas. "Era como el Santo Grial, todo el mundo lo quería", admite uno de los empleados a Amazon en declaraciones a Reuters. "Querían que fuera un sistema en el que introducías 100 currículums para que seleccionase los cinco mejores, que serían los que acabarían contratados", asegura.
Sin embargo, un año después de poner en marcha el proyecto, sus desarrolladores descubrieron que el programa discriminaba sistemáticamente a las mujeres y prefería contratar a los hombres, especialmente en trabajos con un perfil técnico o para el desarrollo de software.
La razón tras esta discriminación parecía ser que la inteligencia artificial estaba entrenada con los perfiles de antiguos candidatos que habían intentado trabajar en la empresa durante los últimos 10 años, que mostraban un dominio masculino dentro del sector. La inteligencia artificial de Amazon aprendió así que los hombres eran mejores candidatos que las mujeres y penalizaba los currículums que contenían palabras como "mujeres" o "capitán del club de mujeres". Asimismo, penalizaba a las candidatas que habían estudiado en facultades exclusivamente femeninas.**

Lo que la máquina aprendía era a ejecutar de forma precisa los prejuicios anteriores, ya que eso era lo que reflejaban las selecciones previas. Al igual que puede ocurrir (y ocurre) la máquina de aprender usaba como modelo lo que se quería evitar, pero ¿había otro? Puede que haya quienes puedan diseñar otro sistema, pero ¿significa esto que está exento de problemas de este tipo? Evidentemente no. Si suministramos a las máquinas nuestra historia, reproducirán nuestros errores. Si somos capaces de crear un sistema justo que enseñar a las máquinas ya no las necesitaríamos.
La historia es real, pero tiene mucho de fábula moral moderna. Nos explica que no podemos dejar de ser nosotros mismos y que si queremos que el sistema mejore, debemos tratar de mejorar nosotros mismo, algo que no siempre estamos dispuestos a hacer. También enseña que si usamos máquinas, estas habrán aprendido de nosotros. Eso tiene consecuencias importantes.
Se cierra la noticia con lo siguiente:

Cuando los ingenieros se dieron cuenta de esta tendencia, volvieron a configurar la lógica de la inteligencia artificial para que no tuviese en cuenta esos términos. Sin embargo, no existía ningún tipo de garantía de que el algoritmo no fuese a encontrar otras formas de discriminar a los candidatos por razones de género.
Finalmente, el equipo a cargo de este proyecto fue desmantelado. Sin embargo, los encargados de la selección de personal continuaron empleando la herramienta, aunque solo como un apoyo y teniendo en cuenta otras consideraciones más allá de la clasificación empleada en la inteligencia artificial.**

¿Un fracaso? Sí y no. Nunca es un fracaso cuando aprendemos que nos equivocamos y que el error se puede reproducir de múltiples formas, incluido a través de las máquinas. Lo que nos enseña realmente es que la responsabilidad de ser mejores, más justos, etc. implica corregirnos. Hay errores que viene de fuera, pero hay errores que se consideraban "aciertos" no hace mucho tiempo o que tampoco hay unanimidad social. Los "errores" de la máquina de Amazon antes se presentaban como "aciertos", pues eran valoraciones de una sociedad machista. Darse cuenta de ello es tener ya una parte de la mente fuera, consciente de lo negativo de esos criterios y valores.


El lenguaje mismo, que siempre es valorativo, de los curriculos analizados por las máquinas era ya en sí cercano a valores masculinos, lo que favorecía a los candidatos frente a las candidatas. Y no podía ser de otra forma ya que era una sociedad machista quien los había producido. Se aprende de lo que hay y lo que hay era machismo.
La corrección, nos dicen, no asegura que los nuevos criterios no lo sean de nuevo. Esto nos enseña también algo importante: no hay nada definitivo y los seres humanos debemos acostumbrarnos a dejar de pensar en términos absolutos y eternos (esencialistas) para asumir humildemente que cambiamos en el tiempo, aunque siempre nos parezca que estamos en posesión de la verdad como un dogma. Debemos aprende a vivir humildemente con nuestras limitaciones epistémicas, en un esfuerzo constante de autocrítica para evitar que los errores se conviertan en "verdades" que nos encierren. Hay que avanzar deshaciéndonos de peso inútil, pero para eso hay que tener la voluntad de hacerlo.
Como "moraleja" final de la fábula de la máquina de seleccionar personal está la idea de que tras cualquier máquina, escondidos como el Mago de Oz, estamos nosotros. Que podemos fingir que no somos nosotros, pero al final siempre esta el espejo que nos devuelve nuestro rostro. Nosotros somos el principio y el final; nosotros somos el límite. Nuestra es la voz que las montañas nos devuelven como eco.
Por esto, los aprendizajes —incluidos los de las máquinas— deben ser procesos críticos y que enseñen a serlo. Es decir, a distanciarnos de nosotros mismos para poder alejarnos de nuestros errores más claros y no convertirlos en norma.


* Entrevista Michael Lewis "“Los expertos se equivocan sistemáticamente” El País 29/04/2017 https://elpais.com/elpais/2017/04/26/ciencia/1493223398_048373.html
** "Amazon construyó una inteligencia artificial para contratar empleados que discriminaba a las mujeres" El Mundo 11/10/2018 http://www.elmundo.es/tecnologia/2018/10/11/5bbe3a12e5fdea0f578b467e.html

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.