jueves, 22 de noviembre de 2018

El algoritmo despedidor o detrás de la cortina

Joaquín Mª Aguirre (UCM)
La entrevista con la doctora en Matemáticas por la Universidad de Harvard y autora del libro "Armas de destrucción matemática", Cathy O'Neil, pone en evidencia varios aspectos, entre ellos que los informadores todavía tienen que distinguir entre el dedo y la luna. La eficacia de los mensajes queda atenuada si no se determinan con claridad por parte de los mediadores cuál es su sentido. Entre el absurdo “Las matemáticas agravan muchos de los problemas del mundo” que se luce en la página principal del diario digital y el que nos encontramos en el interior, “Los privilegiados son analizados por personas; las masas, por máquinas” es enorme, pues el primero ha salido de la chistera mágica de la incomprensión, mientras que el segundo directamente de las palabras de la entrevistada, que sabe de lo que habla. Pese a ello, a las palabras de O'Neil se les crea un contexto interpretativo al ir seguida de un segundo intento de responsabilizar a los procesos y no a las personas: "La doctora en Matemáticas por la Universidad de Harvard lucha para concienciar sobre cómo el 'big data' "aumenta" la desigualdad". En realidad, lo que hace O'Neil es responsabilizar a aquellos que crean unas condiciones selectivas en un sentido u otro. Por usar un símil, sería como encerrar en las cárceles a las pistolas y no a quienes las disparan.


El problema se repite cuando se trata de procesos nuevos o al menos "nuevos" para quien tiene que contarlos a los demás. Es ese conocimiento el que permite dirigir las preguntas adecuadas a las personas que pueden responderlas y de seguir el hilo de la argumentación que lleve a otras nuevas; es el que permite aclarar a los lectores, haciendo que queden bien informados, los aspectos más complejos de lo desarrollado.
No son en sí las matemáticas las responsables, como señala O'Neil, sino los "algoritmos", pero entendidos como una concreción que refleja un punto de vista humano, un interés, que es el cuestionable y el que busca ampararse en el disfraz de la precisión matemática. La Matemática se convierte así en un "ficción" que aparenta ser una "verdad indiscutible", algo incuestionable, cuando resulta ser "humana, demasiado humana". Hemos pasado de convertir los discursos dogmáticos en "verdades" que mandan a la gente a la hoguera o al paredón a usar los discursos matemáticos como formas de mandar al paro. Si los primeros se amparaban en la autoridad divina o imperial, los actuales tratan de fundamentarse en la "autoridad" de las Matemáticas, pero siempre está el ser humano escondido detrás de la cortina, como el Mago de Oz. Por eso Cathy O'Neil distingue entre las Matemáticas y los algoritmos, que son los "usos" para determinados "fines" de la matemáticas.


A lo largo de la entrevista se resalta, sobre todo, el uso de los algoritmos como excusa para tapar lo que son decisiones humanas ya sean consciente o el reflejo de prejuicios inconscientes que se acaban trasladando a los procedimientos que los algoritmos realizan. Un algoritmo es una secuencia ordenada de decisiones que se van tomando conforme a unas entradas determinadas de datos. Qué se tome en cuenta lo decide alguien. Si decido que se tenga en cuenta el color de la piel, será "racista". La cuestión es que el "color de la piel", a su vez se puede reflejar a través de muchos datos que indirectamente nos lleven al mismo resultado selectivo, por lo que el algoritmo parecerá "objetivo". Hemos hablado de estas cuestiones cuando comentamos el caso del algoritmo de selección de personal desarrollado para Amazon, que resultó "sexista" porque los datos de los que había "aprendido" partían ya de una realidad sexista que era lo que se trataba de evitar. Amazon dio de baja su algoritmo. Pensaban que automatizando el proceso de selección de personal este quedaría libre de prejuicios y lo ocurrido fue precisamente lo contrario, lo reflejaba.


Es de lo que se queja Cathy O'Neil, no de las matemáticas. Hay un momento en el que la mesurada O'Neil pierde algo de su paciencia ante una pregunta:

P. ¿Cree que falta más formación en matemáticas para ser conscientes de esa manipulación?
R. Eso es ridículo. La gente tiene que entender que es un problema de control político. Hay que ignorar la parte matemática y exigir derechos. No necesitas formación matemática para comprender qué es injusto. Un algoritmo es el resultado de un proceso de toma de decisiones. Si te despiden porque así lo ha determinado un algoritmo, tienes que exigir una explicación. Eso es lo que tiene que cambiar.*


No puede estar más claro. Pero parece que no es fácil que la gente entienda que las matemáticas son un lenguaje, una herramienta y que la culpa no es de la gramática cuando alguien te insulta, por ejemplo. Es precisamente la creencia en que son las Matemáticas las que deciden, lo que sirve como ocultación. No se trata del algoritmo —que haya que entender de matemáticas— sino de lo que se busca con ellos, de la injusticia que se esconde detrás. Y eso, como señala, lo entiende todo el mundo. Si te despiden injustamente, da igual que lo haga un empleado o una máquina.

Cuando cuestionas muchas decisiones que consideras equivocadas, la contestación que recibes es que es "el protocolo". Este, como el algoritmo, crea una barrera defensiva a la crítica y esconde que tanto uno como otro son el resultado de decisiones humanas y que, por lo tanto, no son inmunes al error o a la injusticia. 
"Algoritmo", "protocolo" son formas de eludir responsabilidades y justificar la aplicación y los resultados. No hace falta saber Matemáticas para entender, por su resultado, que es injusto. Y si lo es, alguien debe dar explicaciones no matemáticas sino del orden que sea, éticas, legales, etc. El algoritmo de Amazon antes citado funcionaba perfectamente desde las Matemáticas, pero era profundamente injusto en sus resultados.
La crítica de Cathy O'Neil es perfectamente razonable y anima a no dejarse amilanar ante la palabra "algoritmo", "matemáticas", "eficiencia" o demás términos que sirven para camuflar las decisiones automatizadas diluyendo la responsabilidad en la abstracción o en el tecnicismo accesible solo al experto.
Cathy O'Neil pone el acento en un punto importante, la incapacidad del algoritmo que juzga de incluir todos los aspectos, limitándose a lo que puede ser "procesado". Nos lleva de nuevo al problema de la "datificación", es decir, de aquello que puede ser convertido en "dato" y tratado por el algoritmo. Esto divide el mundo en dos grandes apartados, la "tratable" y el resto, que al no poderse convertir en dato es ignorada. Los autores tratan de encontrar los datos suficientes como para poder obtener los resultados que esperan, lo que no significa que la decisión sea la más justa, sino que es aquella que se puede obtener por el procedimiento diseñado.
En una de las preguntas se deja clara esta situación:

P. El uso de algoritmos para la contratación se está extendiendo. ¿Cuáles son los perjuicios?
R. La automatización de los procesos de selección está creciendo entre el 10% y el 15% al año. En Estados Unidos, ya se utilizan con el 60% de los trabajadores potenciales. El 72% de los currículums no son analizados por personas. Los algoritmos suelen castigar a los pobres, mientras los ricos reciben un trato más personal. Por ejemplo, un bufete de abogados de renombre o un exclusivo instituto privado se basarán más en recomendaciones y entrevistas personales durante los procesos de selección que una cadena de comida rápida. Los privilegiados son analizados por personas, mientras que las masas, por máquinas.
Si quieres trabajar en un call center o de cajero, tienes que pasar un test de personalidad. Para un puesto en Goldman Sachs tienes una entrevista. Tu humanidad se tiene en cuenta para un buen trabajo. Para un empleo de sueldo bajo, eres simplemente analizado y categorizado. Una máquina te pone etiquetas.*


Y en esas "etiquetas" es donde se concentran los prejuicios que se pueden acabar recreando en la selección.
Esta limitación de la decisión humana en favor de las decisiones automatizadas, las plasmadas en los algoritmos para su aplicación, invaden cada vez más aspectos de la vida pues tiene dos aspectos relevantes: son "baratas" y parecen "objetivas". Esta combinación es irresistible en un mundo con personas cada vez menos responsables. Esto tiene como efecto la sobrevaloración de la decisión y como consecuencia la ampliación de la brecha salarial, ya que la decisión arriesgada se deja en muy pocas manos. Las decisiones automatizadas, en cambio, son baratas ya que los datos lo son cada vez más.
La reciente sentencia de un juzgado español ante una demanda contra una universidad porque un profesor había sido evaluado mediante los "datos" de las publicaciones y no mediante la lectura de las obras que había producido es un caso similar. Por un lado, se realiza una evaluación de su producción sin tener que leerla, basándose en "indicadores" indirectos. Los tribunales dijeron que si se evalúa el trabajo de una persona no valen estos indicadores que evitan tener que tomar la decisión sobre lo que es más difícil de argumentar, la mayor o menor calidad de su trabajo. Se evalúan en su lugar los indicadores medibles, pero no la calidad, que es sustituida por ello. Esto que es ya frecuente en las universidades está deformando la propia constitución del profesorado en la medida en que es ya el resultado de los procesos de selección, mientras que se eliminan a aquellos que no aparecen en esos indicadores. Como los que están dentro del sistema son el resultado del proceso de selección del propio sistema, el problema se agudiza pues el procedimiento se vuelve incuestionable, ya que es el que ha llevado a la cima a aquellos que lo manejan, que pasan a ser los primeros interesados en que se mantengan.


O'Neil cuenta el siguiente caso:

P. En su libro menciona un caso de una profesora en Estados Unidos a la que echaron por decisión de un algoritmo. ¿Cree que se puede medir la calidad humana con un sistema informático?
R. El distrito escolar de Washington empezó a usar el sistema de puntuación Mathematica para identificar a los profesores menos productivos. Se despidió a 205 docentes después de que ese modelo les considerara malos profesores. Ahora mismo no podemos saber si un trabajador es eficiente con datos. El dilema si es o no un buen profesor no se puede resolver con tecnología, es un problema humano. Muchos de esos profesores no pudieron reclamar porque el secretismo sobre cómo funciona el algoritmo les quita ese derecho.  Al esconder los detalles del funcionamiento, resulta más difícil cuestionar la puntuación o protestar.*

Esto es una realidad ya que las únicas reclamaciones que se pueden aceptar son las de los errores de puntuación, es decir, los producidos al elaborar los datos, pero no se cuestiona el sistema mismo, el algoritmo que funciona. De hecho, la creación de sistemas de "acreditación" aseguran que solo podrán acceder a las plazas aquellos que han cumplido y, por tanto, aceptado el sistema. La única salida es quedarse fuera o que te echen, como les pasó a esos 205 profesores que no sabemos si eran "malos" o simplemente seguían otros criterios —puede que hasta mejores— para realizar su trabajo. Sencillamente no hay dónde poner lo que ella hace, que es el primer factor de discriminación o reducción de un algoritmo, que siempre es por definición, finito y concreto, a diferencia de la decisión humana, que puede estar abierta a lo nuevo o lo diferente y valorarlo. La máquina no sabe qué hacer con lo "nuevo", que para ella es inexistente pues no está definido en su proceso; no existe para ella.


El problema se agrava cuando estos procesos se van extendiendo a muchos campos de la vida y el trabajo. Nos cercan con este tipo de limitaciones oscuras que, como señala O'Neil, se convierten en incuestionables porque no las entienden ni los mismos que las manejan, por lo que se tiende a sacralizar sus procesos considerándolos inevitables o infalibles. Nada más lejos de la realidad.
El poseer más datos sobre el comportamiento general está modificando, además, las propias condiciones del trabajo, haciendo retroceder los derechos de las personas. Un derecho solo vale en la medida en que es reconocido por los demás. Si pierdes derechos tu vida cambia y se transforma por los nuevos límites o posibilidades. Esto es esencialmente cierto en una sociedades que llevamos casi tres siglos haciendo girar sobre la producción y el trabajo.
La entrevista se cierra con esta cuestión laboral:

P. ¿En qué otros aspectos están perjudicando los algoritmos los derechos laborales?
R. Hay un fenómeno que se conoce como clopenning (en español, cerrar y abrir al mismo tiempo). Son horarios irregulares que, cada vez, afectan a más empleados con salarios bajos. Esos calendarios son el resultado de la economía de los datos, son algoritmos diseñados para generar eficiencia, que tratan a los trabajadores como meros engranajes. Según datos del Gobierno de Estados Unidos, a dos tercios de los trabajadores del sector servicios y a más del 50% de los dependientes se les informa de su horario laboral con una semana o menos de antelación.
Esta es una de las situaciones extremas que provoca el uso de algoritmos en el ámbito laboral. Hay una ley que estipula que si trabajas al menos 35 horas a la semana, se te deben dar beneficios. Pues hay un algoritmo que se asegura de que ningún empleado haga más de 34 horas. Como no hay ninguna ley que determine que debes trabajar el mismo horario todos los días, el algoritmo no se preocupa de tu vida, y te asigna las horas de trabajo en función de las necesidades de la empresa. Si se prevé un día de lluvia, aumentan las ventas, y cambian los turnos. Hasta el último minuto no deciden. Esas personas no conocen su horario con antelación, no pueden organizar su tiempo libre, estudiar o cuidar de sus hijos. Su calidad de vida se deteriora, y los ordenadores son ciegos a eso. La regulación gubernamental es la única solución.

De nuevo, la culpa no es de las matemáticas o de los algoritmos. Hay que tener cuidado con las operaciones retóricas porque nos alejan del problema y del responsable último. Por eso, la solución no es matemática a este problema, sino la regulación gubernamental, es decir, el hacer explícito el derecho de las personas a tener una vida y no tener esta dependencia absoluta de quienes les emplean. Los ordenadores son ciegos a esto porque no son humanos, pero los humanos responsables se escudan tras los dictámenes del ordenador.


Los que no deben estar ciegos (esto es más un deseo) son los gobiernos, responsables de la vida y calidad de vida de sus ciudadanos. En este sentido, por ejemplo, se ha establecido  recientemente que el hecho de que tengas un teléfono móvil o un correo electrónico accesible desde tu casa no implica que trabajes los fines de semana o que tengas la obligación de estar "disponible" en cualquier momento. La culpa no es del teléfono o del correo electrónico sino de las normas de la propia empresa, que trata de rentabilizar al máximo el sueldo de las personas deshaciendo la idea de "jornada laboral" (que se prolonga) o del "lugar de trabajo" (que se deslocaliza).
Aquí, como bien se señala, entra la calidad del empleo. Solo las personas con empleos más precarios y peor remunerados las que se ven sometidas a peores condiciones de trabajo ante el miedo a perder el empleo. Alguien sacará los resultados de su falta de eficiencia laboral desde algún algoritmo y dirá que es prescindible, sustituyéndolo por alguien más disponible.
La crisis económica ha tenido muchos efectos. Como en toda situación de miedo, hace que se rebaje la defensa de los derechos. También los gobiernos quedan en manos de las empresas cuyas acciones son encaminadas a la reducción de costes y al aumento de la rentabilidad. Los cargos superiores se blindan en sus condiciones económicas y laborales mientras que se desmantelan los derechos laborales de los más débiles, que pasan a ser prescindibles en cualquier momento.
En esto no tienen nada que ver la Matemáticas, solo que han dotado de una herramienta poderosa para poder ejecutar estas y otras prácticas, que no dejan de ser antisociales o injustas. El problema radica en la intención al usar estos automatismos.  Y es ahí donde se producen los "desafíos" a la democracia, a nuestra propia calidad de vida, etc.


El uso que hacemos de las cosas define nuestra intención. Hoy por hoy, existe un poder tecnológico que puede ser usado para mejorar nuestras vidas o para devaluarlas. El problema, una vez más, es la tensión entre los intereses que reducen los derechos de la gente o su aspiración de vivir mejor. La tecnología de datos afecta directamente al control social, permite la ingeniería, el diseño de las reglas para dirigir en un sentido u otro. Todavía las administraciones no han tomado conciencia de lo que esto supone para la vida de las personas, para sus derechos y para el orden social, que pasa a ser conflictivo y tóxico. Si no se ponen límites, el retroceso social se seguirá produciendo. El problema es que esta mentalidad no es ya una cuestión de la empresas frente a los gobiernos, sino que los gobiernos y administraciones han hecho suya aceptando estos criterios surgidos de la datificación y del procesado de la información resultante para la toma de decisiones. Es una herramienta, sí, pero puede ser profundamente injusta y discriminadora, como se ha visto. Corremos el riesgo de un nuevo dogmatismo que nos ate y que justifique cualquier acción amparándose en los datos y en los algoritmos que los procesan.
Ya ocurre en muchos ámbitos y sigue aumentando. Antes tu jefe te despedía a gritos; después le enseñaron a hacerlo entre sonrisas y te decía que "no era personal". Ahora te muestra un informe lleno de números y te dicen, "lo siento, es el algoritmo. Dice que sobras". 




* Entrevista Cathy O'Neil “Los privilegiados son analizados por personas; las masas, por máquinas” El país 21/11/2018 https://elpais.com/elpais/2018/11/12/ciencia/1542018368_035000.html




No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.