Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas
Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas

domingo, 17 de abril de 2022

Las predicciones del big data

 Joaquín Mª Aguirre (UCM)

No es fácil hacer ciertos pronósticos; sin embargo, lo hacemos todos los días. Desde los medios nos retan a desafiar las estadísticas de muertes que se han previsto para Semana Santa en España. Es una forma llamativa de atraer la atención sobre el problema, pero convierte, en cierto sentido, lo que es una predicción en una profecía. Se trata de desafiar al destino. Los titulares de los medios españoles recogen esta predicción y la convierten en maldición: "Estas son las personas que morirán en la carretera esta Semana Santa, según el Big Data" (La Vanguardia), "El 'big data' pronostica cuánta gente morirá esta Semana Santa en las carreteras de Castilla y León" (El Español), "Esta Semana Santa morirán en las carreteras 36 personas, así lo asegura el big data" (ABC), "Cuántas personas morirán en Semana Santa en la carretera, según el 'Big Data'" (20Minutos), "Los datos dicen que 36 personas morirán esta Semana Santa en accidentes de tráfico: "hagamos que el big data se equivoque" (La Sexta)... Es la respuesta a una provocativa campaña de la DGT, ya una costumbre, para evitar que cada periodo vacacional se produzca la temida sangría de accidentes.

La campaña se personifica en rostros y perfiles, los de sexo y edad. Se nos dice que serán "9 mujeres", que serán "27 hombres", un total de "36 personas". Un chico de "17 años" y una chica de "25 años" afirman que estarán entre las muertes que se produzcan, según el Big Data. Una vez más se les ponen rostros a estas campañas vacacionales.

La campaña plantea un desafío: "Hagamos que el big data se equivoque". En La Sexta leemos:

Para evitar siniestros de tráfico, la DGT ha recurrido a uno de los más importantes analistas de Big Data en España quien, con más de 10 millones de siniestros de tráfico y a través de algoritmos y modelos matemáticos, ha calculado el número de fallecidos en carretera esta Semana Santa.

Según este experto serán 36 personas con diferentes perfiles quienes morirán estas vacaciones porque el Big Data, los algoritmos y las estadísticas lo pronostican todo: la edad, cuántos hombres, mujeres o niños, en qué lugar y a qué hora, qué tipo de accidentes y con qué vehículo… "Pero si sabemos que estamos dentro del perfil de las personas que tienen más probabilidad de fallecer y somos conscientes de ello, podemos evitarlo y hacer que el Big Data se equivoque", explican desde la nueva campaña de la DGT.* 

Indudablemente es una descripción del Big Data por la que le hubieran mandado a la hoguera en la Edad Media. Sin dudar de la profesionalidad del experto, mucho me temo que le estén esperando el primer día después de las vacaciones para hacer las comprobaciones de rigor.

Transmitir poco más menos que solo falta el DNI, que no se da supongo por la protección de datos, es convertir en "inevitable" precisamente lo que puede ser evitado. Si sabemos dónde y cuándo —en qué lugar y a qué hora, se nos dice—, qué tipo de vehículo, etc. el Big Data se parece más a un horóscopo que a otra cosa, a una especie de bola de cristal infalible, que a otra cosa.


No sé si este tipo de campañas basadas en la certeza, en un futuro visible pero cambiable, al que la profecía misma hace cambiar es el mejor camino para lo que es la educación vial y las medidas preventivas de diverso orden.

Estas "predicciones", que se centran en las víctimas, se deberían centrar más en las "causas". Presentando a las víctimas, poniéndoles cara, y no a los responsables se soslayan los motivos reales de los accidentes. No sé si el "miedo", que siempre ha centrado estas campañas, es la motivación más segura para evitar muertes.

El estado de las carreteras, su trazado, etc. es un factor relevante en los accidentes, máxime si sabemos que hay "puntos negros", lugares mal cuidados, mal diseñados o mal señalizados. Si hay lugares en los que se repiten accidentes, está claro que hay algo allí que no está bien.

La campaña de la DGT es demasiado personalizada. Pero ese es su objetivo: si nos identificamos con los perfiles pensaremos que podemos ser nosotros. Sin embargo, la idea de que "se puede saber" el tipo de vehículo, lugar, etc. es claramente contraproducente porque, de creerse, puede dar una falsa sensación de seguridad que lleve al desastre.

Estamos usando de una forma peculiar el término y concepto del Big Data, convirtiéndolo en palabra mágica sobre la que, al no entenderse, establecer todo tipo de ideas milagrosas o mágicas. Si con el "Big Data" se puede saber lo que se nos dice a través de la DGT, a quien hay que tener miedo no es a la carretera, sino al propio Big Data. Y más allá del periodo vacacional. ¿No dijo el big data nada sobre los muertos en la pandemia, por ejemplo, en las residencias? El big data no es algo que esté ahí, hablando como un oráculo. Es el resultado de estudios que se pueden hacer para muchas otras cosas. Escuchamos mucho más intuiciones, que este tipo de profecías.

Una personalización excesiva de los perfiles puede provocar un miedo que no es precisamente la condición idónea para la conducción. Entre el exceso de seguridad y el exceso de miedo debería haber un estado intermedio que queda siempre sin cubrir ante el estilo por el que se optó hace años, el tremendismo publicitario. Mostrar coches destrozados, víctimas en hospitales, etc. y ahora, el destino encarnado en el Big Data que todo lo ve. Por otra parte, esta campaña se enfrenta a los cientos de campañas, nacionales, autonómicas y locales, lanzando a la gente a las carreteras para disfrutar del buen tiempo, la gastronomía y las procesiones, entre otras muchas cosas.

¿No nos dice nada el Big Data sobre el estado de las carreteras, sobre las inversiones en infraestructuras, sobre la señalización, sobre el peso de las campañas mediáticas de movilización vacacional, etc.? ¿Por qué solo ponerle cara y, por ejemplo, no lugar, algo que a lo mejor hace cambiar de destino a los viajeros hacia lugares mejor cuidados y más seguros? ¿Por qué no se nos dice desde la DGT que X número de personas morirán en el tramo XXX de la carretera de XXXX, en tal localidad o Autonomía?

Quizá es más fácil ponerle cara que ponerle presupuesto. 


* "Los datos dicen que 36 personas morirán esta Semana Santa en accidentes de tráfico: "Hagamos que el Big Data se equivoque"" laSexta 8/04/2022

https://www.lasexta.com/noticias/sociedad/datos-dicen-que-36-personas-moriran-esta-semana-santa-accidentes-trafico-hagamos-que-big-data-equivoque_20220408624fdeae2dc8df00010c52d4.html

lunes, 2 de agosto de 2021

Influencias

 Joaquín Mª Aguirre (UCM)


Leo dos noticias en sentido contrario respecto a los efectos de las redes sociales. La primera, de RTVE.es, tiene por titular "La dictadura de los filtros: "Las redes sociales son un caldo de cultivo para los trastornos de la conducta alimentaria"" y nos habla de los problemas de la irrealidad que las redes transmiten, cánones de belleza artificiales, y cómo eso está creando problemas a muchas personas con trastornos alimentarios (y de otro orden, añadimos). La segunda, aparecida hoy en The New York Times, en cambio nos da una perspectiva diferente y contraria: "To Fight Vaccine Lies, Authorities Recruit an ‘Influencer Army’" y nos habla de cómo la Casa Blanca está reclutando un "ejército" de personas influyentes en todas las redes sociales para que ejerzan su influencia en las personas más jóvenes respecto a la vacunación, venciendo así las resistencia existente que retrasa la vacunación.



Son dos ejemplos claros de cómo la presión de las redes puede actuar en un sentido u otro, hacia un fin positivo (favorecer la vacunación) o negativo (crear estados de ansiedad, pérdida de autoestima, dirigir hacia elementos nocivos en la alimentación, etc.)

Los dos, obviamente, dan por hecho que la influencia que las redes pueden ejercer sobre los habitantes de ese espacio paralelo es factible. Ya sea por una causa o por otra, se parte del principio de la capacidad de modificar la opinión a través de estos medios sociales, una variante diferente de lo que eran los medios masivos, con unos efectos diferentes.



Las llamadas Nuevas Tecnologías de la Comunicación han generado un universo social muy diferente a los anteriores, mucho más reducidos en su alcance y poder. Hasta el momento, hemos hablado de medios tradicionales, como la Prensa, la Radio y la Televisión, pero esto es otra cosa.

Lo que se ha formado ahora es una "sociedad red" donde para algunos la vida ya es más intensa que la que tengan "fuera". De hecho, creo que el concepto "dentro/fuera" es inútil en muchos aspectos. No son dos mundos separados, sino interpenetrados; ambos forman parte de nuestra única vida y las interacciones en las redes son cada vez más determinantes.

Que personas o entidades tengan el poder de provocar masivamente, por ejemplo, trastornos alimentarios (con muchos casos de suicidios) o  convencernos de que nos vacunemos o no, es una situación de poder que todavía no hemos llegado a estudiar críticamente como se merece. Especifico "críticamente" porque en sentido contrario los estudios —públicos o privados— sobre el comportamiento y la forma de manipularlo están en su época de oro.



Desde mediados de los años 90, es decir, en 25 años, la concepción de la Red ha pasado de un espacio que se podía estar libre de las influencias del mundo diario, la "república independiente del ciberespacio", tal como fue definida por los rebeldes que la preconizaron frente a los que quería que no existiera, un refugio, un Shangrila, a un escenario de objetos, acciones y sentimientos. La perspectiva ilustrada de la autonomía dejó espacio al triunfo del conductismo programado del mercado.

Sabemos lo suficiente de los ánimos que llevaron a la creación de las redes sociales, bien diferente del inicial "ciberespacio", como para no engañarnos sobre las intenciones y los objetivos. Lo que no se esperaba nadie es que este modelo tuviera tal expansión en tan poco tiempo, abriendo una fisura generacional que borra el pasado e instaura una presente local porque no hay espacio fuera de él.

La lucha de los antivacunas y la lucha por la vacunación es un combate que se juega en paralelo, influencia contra influencia, cambia el contenido y obviamente los efectos finales. Una pregunta: ¿tendría tal fuerza el movimiento anti vacunas sin las redes sociales? Sabemos que las redes disponen de mecanismos de reproducción automática para potenciar lo que es más débil. Sabemos que es posible crear organizaciones, cuya ventaja es precisamente su articulación para determinados fines. Aquí el primero que se organiza da dos veces.

Lo tenemos en la lucha por la influencia a través de la desinformación, a la que recurren cada vez más los gobiernos de los países, hasta las empresas. Una de las denuncias contra directivos del FC Barcelona fue financiar campañas de desprestigio de los jugadores. Es un ejemplo más de cómo la creación del macro escenario ha configurado nuestras tendencias de siempre haciéndolas más eficaces por la intensidad y extensión posibles.



No hemos inventado ni la maldad ni la agresividad o el ansia de poder. Pero hemos saltado de la piedra y la flecha a las armas nucleares. Luego inventamos la Guerra Fría y ahora las Guerras de la Información. Estas no necesitan de la investigación e inversión de las carreras de armamentos. Es mucho más barata la guerra informativa de los rumores, de las "fakes news". No necesitan de grandes inversiones y cada vez tenemos más información disponible a través de la recolección y el procesamiento del Big Data a través de la Inteligencia Artificial. Todos estos elementos hacen que se produzcan guerra por acceder a ella. No hay otra en la guerra de Estados Unidos contra China a través de Huawei. Fue el acceso al 5G de la compañía de China. El 5G permite la Internet de la Cosas, que facilitará todo tipo de huellas digitales de cualquier uso o comportamiento, permitiendo aquellos objetivos que se puedan plantear, ya sean económicos, políticos o militares.

La recogida de datos permite un mejor uso, más eficaz de la información, lo que se traduce en una mayor influencia, que es finalmente nuestra capacidad de provocar o modificar una decisión. Esa influencia permite hacer que te vacunes o no; que dejes de comer o que solo comas determinados productos.



Antes el poder se centraba en determinadas características, desde los numerosos ejércitos a las resistentes armas, su alcance y carácter mortífero. Todo muy caro. Hoy el poder es influencia, capacidad de hacer ver el mundo de una manera determinada y de actuar en un sentido determinado. No es tanto lo que tú haces, sino lo que haces hacer.

El problema de esto es que se ha creado un universo de conteo, un mundo en donde se lleva la cuenta de todo lo que haces o dices a través de las redes, primero, y próximamente de las "cosas", donde todo lo que tocas y te rodea informa sobre tú.

La pandemia ha marcado un nuevo nivel de acceso precisamente porque ha aumentado la presencia en la red y porque ha sido más fácil vender datos para compensar las pérdidas en muchos sectores. El aumento de la potencia de cómputo y la mejora de los algoritmos hace que la eficacia sea mayor.



Las posibilidades de defendernos son cada vez menores, especialmente porque no es un asunto relacionado solo con el marcado: a la política también le interesa ser influyente, es decir, tener acceso a los datos. Las encuestas tradicionales no dan suficiente. Conocer e influir son las dos caras de los que ven las redes como un campo en el que cosechar. Las grandes empresas de las redes —propietarias de redes, navegadores, servidores...— quieren el pastel completo, aunque les están saliendo muchos competidores, los que nos recogen y ofrecen en cualquiera de nuestras versiones digitales.

No es casual que las dictaduras cierren los accesos a Internet y creen sus propia redes autónomas. Saben perfectamente que es una información esencial para su futuro, por un lado, y quieren ser los únicos influyentes, por otro. Es la muestra más evidente del poder de influir. Quien influye decide qué es verdad, qué está bien y hacia dónde va el futuro. No hace falta mucho más.


 

 

* "La dictadura de los filtros: "Las redes sociales son un caldo de cultivo para los trastornos de la conducta alimentaria"" RTVE.es 1/08/2021 https://www.rtve.es/noticias/20210801/dictadura-filtros-redes-sociales-caldo-cultivo-trastornos-alimentarios/2141103.shtml

** "To Fight Vaccine Lies, Authorities Recruit an ‘Influencer Army’" 01/08/2021 The New York Timeshttps://www.nytimes.com/2021/08/01/technology/vaccine-lies-influencer-army.html

viernes, 19 de febrero de 2021

Nosotros y nuestros socios o la trata digital

 Joaquín Mª Aguirre (UCM)



En La Vanguardia, Francesc Brasero hace suya una preocupación general que se ha intensificado con la situación provocada por la pandemia: el control de los usuarios de las redes mediante esa fórmula omnipresente del "nosotros y nuestros socios". La aceptación forzada para poder acceder a la información ha explotado con la situación de la pandemia en donde muchos sitios web han visto reducidos sus ingresos a la vez que les llegaba una oferta tentadora: la compra de los datos de sus usuarios.

Creo que fue en el año 1997 cuando me cupo el honor de moderar lo que se llamó entonces "El Gran Debate de las audiencias", que se organizó por parte de una empresa desaparecida ya, Teknoland, dedicada al incipiente negocio de Internet. Acababan de aparecer los primeros diarios españoles en la red y estos no acaban de entender bien la jerga de las nuevas compañías tecnológicas del campo de la información, especialmente en algo que chocaba con su modelo de negocio tradicional, la venta de un objeto material —el periódico— con unas determinadas y específicas reglas publicitarias, el segundo tipo de ingreso junto a la propia venta del ejemplar. Un diario valía lo que era su precio en el quiosco más lo que se ingresara por la venta de su espacio publicitario. Los responsables de los diarios tenían que hablar con personas que les prometían millones de accesos, "hits", etc. una jerga que no acaban de entender.



Rescato, a efectos arqueológicos, la información que salió entonces de aquel encuentro pionero para discutir sobre algo que hoy nos afecta a todos. Lo encuentro en la hemeroteca digital de una revista de la época, ComputerWorld, firmado por Imma Rico:

 

Un tema tan polémico como la medición de audiencias en internet ha reunido a investigadores y profesionales de los medios de comunicación en dos foros de análisis y debate celebrados los días 13 y 14 de noviembre en Madrid. El objeto de ambas iniciativas era encontrar fórmulas efectivas de control y medición de internautas así como analizar la importancia de este tipo de información de cara a la obtención de inversiones publicitarias en medios digitales.

La primera de ellas, organizada por la AIMC (Asociación para la Investigación de Medios de Comunicación. www.arroba.es/aimc) contó con la presencia de Frank Harrison, director Internacional de Sistemas de Zenith Media Worldwide y Jaques Brown, director Internacional de Mediametrie.

En la segunda, "El Gran Debate: La medición de Audiencias en Internet", promovida por Teknoland (www.teknoland.es), participaron Manuel Sala, director Técnico de OJD (Oficina de Justificación de la Difusión. www.ojd.es) y responsables de algunos medios digitales: El País (www.elpais.es), ABC (www.abc.es), El Mundo (www.el-mundo.es) y Grupo Recoletos (www.recoletos.es). 

Sistemas de control 

Desde la aparición de Internet y demostrada su influencia en los internautas, instituciones y medios han tratado de encontrar sistemas coherentes y fiables de medición capaces de proporcionar datos cualitativos y cuantitativos sobre ciberaudiencias.

En este sentido, destaca el análisis de ficheros log (log file), que se basa en el estudio de ficheros log del servidor mediante filtros que registran las visitas. Este sistema es el utilizado por la OJD y, según explicaba su director Técnico de Medios Electrónicos, Manuel Sala, "con él se puede acceder a información detallada sobre páginas visitadas, accesos a secciones y situación geográfica gracias al conocimiento de direcciones IP y sus correspondientes dominios".

Manipular estos ficheros log es sencillo, por lo que OJD dispone de un sistema paralelo de control que compara los análisis de los ficheros entregados por los medios con los obtenidos independientemente por la institución investigadora. 

Dificultades en la medición de audiencias 

A pesar de la existencia de numerosos métodos, la medición de ciberaudiencias sigue presentando dificultades, ya que, como explicaba José Luis Alegre, del Departamento de Nuevas Tecnologías de El País, "no es posible determinar cuántos son usuarios individuales o grupos, ni cuánta gente hay detrás de los proveedores y de los proxis, por lo que manejamos cifras orientativas".

Además, sólo se consiguen datos cuantitativos y no cualitativos, que son los más demandados por agencias. Para ello, el director técnico de OJD propuso que sean los medios quienes consigan información a través de concursos, juegos, etc. cuyo servicio requiere datos personales verificables. 

Inma Rico (irico@idg.es)*

 


En el debate que me tocó moderar ya se planteó un tema conflictivo, el de las "cookies", concepto entonces en mantillas y que hoy tenemos que aceptar, si deseamos poder acceder a la información. La información lleva fecha del 1 de diciembre de 1997, salida del número mensual.

Si nos fijamos, el tema que estaba entonces sobre la mesa es el análisis de los ficheros log, que son los que recogen los movimientos de los usuarios "en" los servidores que alojan las páginas. Lo que se analiza es el comportamiento desde la información que queda en el servidor, es su propia información. Pero ya se planteaba entonces ir más allá. En el debate salieron ya las "cookies". Se veía un "futuro prometedor". ¡Y vaya si lo ha sido!

Con esa información, la cuestión estaba orientada a las relaciones entre el medio y la publicidad, usando la información del comportamiento de las audiencias para "negociar" las tarifas publicitarias. De eso se trataba.

Pero eso es el pasado o, al menos, una parte de lo que está ocurriendo hoy, donde hay un planteamiento totalmente diferente, al surgir unos elementos que negocian con los datos brutos, por un lado, y con capacidad de personalización por otro.

Tanto el aumento de la potencia de cómputo, por un lado, como la creación de algoritmos capaces de personalizar la información navegando en el big data, permiten crear perfiles automatizados de los usuarios, a los que se "estudia" y se dirige una comunicación "a medida".

Lo que está hoy sobre la mesa es muy diferente a lo que había entonces. Si antes eran los medios los que ponían los resultados sobre la mesa para negociar tarifas, ahora es a los usuarios a los que se pone sobre la mesa, a sus "perfiles", es decir a una descripción precisa de sus movimientos o huellas digitales, que permiten reconstruir su vida y milagros con todo lujo de detalles mediante en entrecruzado de informaciones múltiples, que surgen al identificar su dirección IP y, desde ahí, todos sus movimientos. Y nuestros movimientos somos nosotros mismos. Lo que somos es lo que hacemos desde una perspectiva conductual. Da igual lo que pensemos porque eso se manifiesta en la acción. En la medida en que tenemos una vida ya plenamente digital, tanto privada como social, todo lo que hacemos deja "huella", un rastro de datos que va del pago con la tarjeta en nuestro supermercado a la reserva de las entradas del cine, la navegación diaria por Internet y las páginas que podamos leer.

La explosión desde hace unos meses de las páginas de acceso que deben ser aceptadas no es más que la muestra de cómo trabaja hoy el big data y del valor de nuestro datos, una mercancía informacional que tiene enorme valor porque es inagotable y se puede extraer de ella futuros comportamientos, predicciones sociales e individuales si así se quiere. Permite personalizar los mensajes que recibimos o establecer deducciones algorítmicas sobre nuestro futuro comportamiento.



No es casual que esto haya saltado de forma escandalosa con el affaire de "Cambridge Analytica", el uso fraudulento de datos tomados a través de Google a usuarios de Facebook que acabaron en la Rusia de Putin.

Nuestro comportamiento tiene una especial importancia para el mundo político y, especialmente, para esa parte oscura de los partidos que les suministra información sobre el estado social más allá de las estadísticas, que permite equiparar las acciones comerciales a las políticas en cuanto a sus métodos y objetivos: anticiparse y desarrollar técnicas de seducción política, una retórica eficaz en las campañas y un estilo que venza resistencias.

Leemos en el artículo del diario:

 

La red social, que basa la gratuidad de su producto en la obtención de datos para la publicidad segmentados, ve peligrar una parte de su negocio. Si no puede obtener datos de alguien, deja de ser rentable. Todo ello deja más clara la sentencia de lo que aprendimos ya hace tiempo: cuando algo es gratis, el producto es el usuario.

Como en otros ámbitos, el de la privacidad puede abrir nuevas brechas entre los seres humanos si no lo está haciendo ya. El lugar en el que viva una persona va a ser cada vez más decisivo, pero la situación socioeconómica también. No todos los usuarios tendrán el conocimiento y el acceso a herramientas para controlar los datos que ceden. La necesidad de recurrir a servicios gratuitos para quien no pueda pagarlos abre la posibilidad de que la persona, a través de sus datos, sea su propia mercancía. El futuro no tiene por qué ser oscuro, pero la batalla por la luz no será sencilla.**

 


Sabemos desde hace mucho tiempo que muchas páginas web solo existen como forma de captación de datos. El contenido es el cebo, la atracción para acoger a un tipo de usuarios que pueden ser rastreados en sus movimientos y, por ello, definidos de forma concreta haciendo posible llegar a él, vencer sus resistencias y establecer muchas otras formas de observación y seguimiento.

Que la gran explosión se produzca en una situación de crisis sanitaria y económica como la actual no es una casualidad. Las compañías de datos llaman a las puertas de grandes y pequeños ofreciéndoles la compra de los datos de sus usuarios. Son puertas para entrar en nuestros ordenadores, es decir, en nuestras vidas, puesto que una parte muy importante se realiza ya a través de ordenadores, tabletas y teléfonos. Esta vida digital se ha intensificado por la pandemia, haciendo que pasemos mucho tiempo de navegación. Se ha disparado el teletrabajo, la telemedicina, la educación online, las reservas y pedidos, etc. De todo ello queda registro. Igualmente, las empresas en crisis ven en la venta de datos una ayuda para su supervivencia o beneficio.

Limpio mi ordenador cada tres o cuatro días. Cada vez que uso mi limpiador, este me avisa que va a borrar del orden de 3.000 "trackers". Son rastreadores que se alojan en nuestros ordenadores y teléfonos monitorizando nuestras actividades. Hay fórmulas realmente hipócritas, como la que nos dice que "es mejor mandarte anuncios que te interesan que otros que no te interesan lo más mínimo". Todas ellas comienzan con esa fórmula de "nosotros y nuestros socios", lo que le da un cierto toque entre misterioso y mafioso.



La política europea de privacidad obliga a advertir, pero no solo navegamos por Europa. Las páginas norteamericanas tienen otros, incluso algunas nos impiden la navegación por no "ajustarnos" a lo que hacen.

En los años 90 comenzaron a salir voces e instituciones que denunciaban y emprendían acciones legales para defender la red y a sus usuarios. Todavía era un mundo romántico, igualitario, universalista y basado en la gratuidad que se defendía del acoso creciente del mercado y de la voracidad de las empresas. Hoy no queda nada, apenas algún testimonio ocasional.

El incremento de la monitorización empieza a ser muy preocupante porque desconocemos los usos que, gracias a la potencia de cálculo, al uso del big data y al empleo de algoritmos e inteligencia artificial, puede darse a nuestros datos. Las normas de protección son molestas y están diseñadas para que sea un número reducido de usuarios el que solicite que se borren sus huellas. Se cuenta con la inercia, la comodidad y las costumbres, que tienden a hacer como si no existieran.

Sí, en efecto, la mercancía somos nosotros. La cuestión es a quién nos venden y qué hacen con nosotros. Todo se disuelve en fórmulas comunes que tratan de hacernos creer que esto es "normal", un trámite más en la navegación, algo en lo que no debemos entretenernos. Dicen preocuparse por nuestra privacidad. ¡Enternecedor!

La paradoja es que los mismos medios que denuncian esto lo practican, que leer un artículo sobre los peligros de ser monitorizado está sometido también a un peligroso rastreo. Usted, lector de este artículo, como yo mismo, hemos tenido que aceptar... o quedarnos fuera.

Lo único que nos queda es el molesto borrado de nuestros queridos visitantes, huéspedes de nuestras memorias, preocupados por nuestra privacidad. ¡Qué se le va a hacer!

 

 

* Imma Rico "Medición de ciberaudiencias a debate" Computer World 1/12/1997 https://www.computerworld.es/economia-digital/medicion-de-ciberaudiencias-a-debate

** Francesc Bracero "La privacidad marcará una guerra tecnológica" La Vanguardia 12/02/2021 https://www.lavanguardia.com/vida/20210212/6203674/privacidad-marcara-guerra-tecnologica.html

sábado, 18 de mayo de 2019

Las caras de San Francisco

Joaquín Mª Aguirre (UCM)
En medio de nuestro agujero negro político electoral, se nos ha pasado una noticia que tiene y tendrá trascendencia, una señal en la corriente de los tiempos: la prohibición por parte de la Junta de Supervisores de la ciudad de San Francisco del uso de la tecnología de reconocimiento facial.
Una de las características de las pérdidas de libertades y derechos es lo rápidamente que nos acostumbramos a ellas. Resulta sorprendente lo duro que es conseguir un derecho y la facilidad con la que nos acostumbramos a su pérdida, casi sigilosa en nuestros días. La noticia saltó en los medios norteamericanos y no ha tenido la trascendencia que debiera. Si aquí nosotros debatimos por el gobierno, en los Estados Unidos se está debatiendo sobre las libertades y derechos frente a ellos. Es el efecto positivo que la llegada de Donald Trump ha hecho posible. La llegada de un personaje como Trump al poder ha sacudido muchas conciencias que se han vuelto sensibles a los enormes recortes de libertades y abusos de poder que les amenazan, de los ataques a la prensa al uso de privilegios presidenciales para declarar "estados de emergencia" sin que está exista en la realidad para burlar al poder del las cámaras de representantes y senadores.
Estados Unidos es un laboratorio del futuro, de lo que tendremos aquí. Antes eran años y ahora son pocos meses. Los Trump aparecen repartidos por el mundo y son aplaudidos y jaleados por masas que son cada vez más inconscientes de lo que están desencadenando en un mundo cada vez más peligroso y conflictivo. Trump usa la política exterior para distraer de la doméstica, en donde se están realizando retrocesos en los campos de la educación, la sanidad, los derechos civiles, las cuestiones igualitarias de género, la ecología, los presupuestos de ciencia, el cambio climático, etc.


El hecho de que San Francisco haya decidido desconectar las tecnologías de reconocimiento facial es porque se ha percatado del peligro que ha supuesto su intensidad y cobertura, cada vez mayores, en un universo en el que es posible la existencia real del Gran Hermano.
En su artículo sobre la noticia, titulado "San Francisco Bans Facial Recognition Technology", The New York Times describe el planteamiento de las autoridades de la ciudad:

SAN FRANCISCO — San Francisco, long at the heart of the technology revolution, took a stand against potential abuse on Tuesday by banning the use of facial recognition software by the police and other agencies.
The action, which came in an 8-to-1 vote by the Board of Supervisors, makes San Francisco the first major American city to block a tool that many police forces are turning to in the search for both small-time criminal suspects and perpetrators of mass carnage.
The authorities used the technology to help identify the suspect in the mass shooting at an Annapolis, Md., newspaper last June. But civil liberty groups have expressed unease about the technology’s potential abuse by government amid fears that it may shove the United States in the direction of an overly oppressive surveillance state.
Aaron Peskin, the city supervisor who sponsored the bill, said that it sent a particularly strong message to the nation, coming from a city transformed by tech.
“I think part of San Francisco being the real and perceived headquarters for all things tech also comes with a responsibility for its local legislators,” Mr. Peskin said. “We have an outsize responsibility to regulate the excesses of technology precisely because they are headquartered here.”*


El hecho de que sea San Francisco una de las ciudades centro de la tecnología no nos puede hacer olvidar que ha sido también una ciudad de libertades, una ciudad refugio cuando los movimientos de intolerancia asolan el país.
La cuestión se vuelve a plantear en su crudeza una vez más: el equilibrio entre libertades y derechos y seguridad. Cada vez que se produce un atentado, las cámaras nos muestran a los sospechosos y ayudan a identificarlos.  Eso no lo puede negar nadie, pero también que su eficacia no está en la prevención (la seguridad) sino en la identificación posterior a los atentados que se hayan podido cometer.
La salida de las imágenes al exterior, su publicación, son un intento de transmitir seguridad, pero también el reconocimiento explícito del objetivo de la seguridad: evitar las muertes. Cualquier experto en seguridad le reconocerá en privado que una persona con una mochila es "una persona con una mochila" y que solo después de que haya explotado es "una persona con una bomba". Lo mismo ocurre con atentados como los últimos vistos cometidos en Indonesia, en los que todos los avisos de sistemas de vigilancia fueron ignorados por las autoridades. Cesar al Ministro del Interior es un gesto político, pero nos muestra el fracaso absoluto de los sistemas de seguridad. Buscar después es un intento de salvar la cara.
Los sistemas de reconocimiento, las cámaras repartidas por las ciudades, capaces de cubrir toda su superficie, son útiles en gran medida cuando sabemos qué buscar. La otra opción es almacenar todo lo que se pueda y tratar de encontrar en ello patrones, "casualidades". Para ello necesitan del almacenamiento y de tratamiento masivo de datos. Y esos datos son la representación informacional de los ciudadanos, su "huella".


Existe un mundo duplicado del real. Es el mundo de nuestras huellas, de nuestros rastros informáticos en cada acción que realizamos, allí por donde pasamos.
Las páginas que visitamos, los "likes", las zonas por las que pasamos cada día con nuestros teléfonos encendidos, el torniquete del transporte, los pagos que realizamos, etc. Todo ello forma nuestra otra vida, la duplicada como datos. Son las huellas de nuestros registros, nuestra vida traducida y almacena, convertida en un registro procesable.
La decisión de la ciudad de San Francisco afecta a un tipo de tecnología que nos identifica y sitúa allá donde nuestra cara sea "reconocida". En realidad el "reconocimiento" es un registro, probablemente la creación de un "perfil" mediante el cual se puedan ir asociando "momentos", apariciones. Se identifica, se registra, se archiva. Los progresos de la Inteligencia Artificial hace que llegue un cuarto momento que es el que se crean o identifican patrones y se asignan posibilidades, equivalente a valores.
Las posibilidades de asignar valores a comportamientos, situaciones o lugares hacen aumentar la complejidad de la vigilancia automática. El inmenso caudal de datos que se genera obliga a la automatización, ya que no hay grupo humano capaz de manejar el conjunto, solo partes mínimas, focos locales.
Es en gran medida aquí donde se plantea un problema real: la automatización de los procesos que se alejan de nuestra capacidad de tratamiento. Cuanto mayor sea la vigilancia, en términos de producción de datos observacionales, menor es nuestra capacidad de análisis, por lo que tenemos que seguir automatizando. Es un círculo vicioso al final de los cuales se encuentran cada vez más casos, que deben ser tratados de nuevo mediante procesos de automatización, hasta que se llega a un punto de información en que entra la decisión humana. Y entonces se produce el fracaso: el error humano en la valoración. Tras el atentado surgen entonces las imágenes que nadie vio, las acciones que nadie valoró, los actos que nadie supo interpretar.


San Francisco ha decidido valorar el derecho a la privacidad ante lo que supone un peligro mayor que el del terrorismo: la pérdida de libertades. La cuestión va más allá del reconocimiento facial, ya que la recogida de datos es una constante en las grandes compañías.
La idea del Big Data ha hecho que lo que antes era un estorbo destinado a ser borrado ahora pueda ser útil de muchas maneras. Los defensores del Big Data argumentan que tiene una enorme utilidad y que repercute en beneficio de consumidores y ciudadanos. Es lo que argumentan las empresas. No hay muchas dudas de los aspectos positivos en este sentido. Pero la cuestión no es esa, sino los malos usos y quienes los manejan.
The Washington Post trae hoy mismo otro problema relacionado con el almacenamiento de datos. Esta vez Trump y la Casa Blanca están en el centro. El titular es "White House campaign to collect data on social media bias raises free speech, privacy alarms, experts say" y muestra la cuestión de los usos y los fines:

“The White House move is a major escalation of the right-wing effort to pressure tech companies to leave vile content online, instead of doing the right thing and policing their platforms,” said Democratic Sen. Ron Wyden (Ore.). He pointed to federal law that paves the way for tech companies to craft and enforce their own policies without being held liable for their decisions.
“I’ve long warned that asking the government to police free speech would have dangerous consequences,” Wyden said. “It flies in the face of the Constitution.”
Outside the Capitol, digital-rights advocates said Trump had complicated some of their work to find and study online censorship. The Electronic Frontier Foundation, for example, long has called on Facebook, Google and Twitter to be more transparent about the content they allow or block. The group’s work has focused on preventing governments from adopting laws that hamstring speech and collecting stories from activists and marginalized communities who have been affected.
“This kind of sucks all the air out of the room,” said Jillian C. York, the director for international freedom of expression at the foundation.
“Companies have become so big.... They should, and have, a moral responsibility to take human rights into account,” she said. But York said the foundation would be especially concerned if the Trump administration sought to regulate in response. “While we think companies have a moral responsibility to step up on this, seeing them regulated is not the answer."**


No es fácil encontrar respuestas. San Francisco ha dado una respuesta a parte del problema. El fondo es mucho más amplio ya que esto no es solo una "acción" sino un escenario de una nueva forma de sociedad, la de la Información, en donde los datos son materia prima, los ciudadanos son "digitalizados" para fines comerciales, seguridad o políticos, y la vigilancia se convierte en un aspecto cotidiano, no en la respuesta a la seguridad. El terrorismo es más la excusa que otra cosa.
Pese al control de vigilancia, hay atentados. Pero en el momento en que se produzca un atentado sin vigilancia se aprovechará para responsabilizar a los partidarios de restringir los métodos. No hace falta ser adivino para saber que si hay un atentado en San Francisco, se responsabilizará a su equipo de gobierno por haber prohibido el reconocimiento facial en la ciudad. Pese a que no se pueda probar su eficacia, se les hará responsable.
La velocidad con la que todo se transforma no permite demasiada reflexión y en la mayoría de los casos las reacciones se producen cuando ya los sistemas se han instalado. La decisión de San Francisco tiene gran significado porque manda un mensaje claro, una actitud, desde una de las grandes ciudades de los Estados Unidos. El mismo miedo que fortalece el negocio de las armas en los Estados Unidos no debe llegar a la seguridad cibernética. Las armas no han convertido a los Estados Unidos en el país más seguro, sino en el más inseguro.
Vigilancia, automatización, etc. no están haciendo del mundo un lugar más seguro, sino con menos privacidad, que otro de esos derechos al que hemos renunciado muy fácilmente, sin ser conscientes y cuyo sentido hay que explicar a las generaciones que lo venden por una app gratuita. La manipulación política ha hecho tomar una mayor conciencia de los riesgos de que exista ese doble informacional que revela nuestra conducta y permite manipularnos sin ser conscientes de ello, ofreciéndonos, como por arte de magia, aquello que deseamos sin saberlo o que esperamos. La tecnología permite recoger y procesar todo aquello que forma parte de nuestra vida y queda fuera del foco de la atención. Es la mayoría de nuestra vida, lo que hacemos automáticamente.
Ya sea por la vía de la seguridad o por la de la manipulación política o económica, debemos empezar a ser conscientes de lo que perdemos sin resistencia. Antes nos reíamos del que tapaba con cinta la cámara de su portátil; ahora no tanto.
Es un nuevo mundo en el que el máximo problema es que nadie te conozca. San Francisco, como decía la canción de Tony Bennett, puede quedarse con tu corazón, pero no necesita tu cara. Con todo la lucha será dura porque la cara no es el único elemento que determina la privacidad, pero sí el más significativo y, se podría decir, simbólico. Los ciudadanos de San Francisco recuperan sus rostros.


* "San Francisco Bans Facial Recognition Technology" The New York Times 14/05/2019 https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html 
** "White House campaign to collect data on social media bias raises free speech, privacy alarms, experts say" The Washington Post 17/05/2019 https://www.washingtonpost.com/technology/2019/05/17/white-house-campaign-collect-data-social-media-bias-raises-free-speech-privacy-alarms-experts-say/?utm_term=.24e738a3c19c



jueves, 22 de noviembre de 2018

El algoritmo despedidor o detrás de la cortina

Joaquín Mª Aguirre (UCM)
La entrevista con la doctora en Matemáticas por la Universidad de Harvard y autora del libro "Armas de destrucción matemática", Cathy O'Neil, pone en evidencia varios aspectos, entre ellos que los informadores todavía tienen que distinguir entre el dedo y la luna. La eficacia de los mensajes queda atenuada si no se determinan con claridad por parte de los mediadores cuál es su sentido. Entre el absurdo “Las matemáticas agravan muchos de los problemas del mundo” que se luce en la página principal del diario digital y el que nos encontramos en el interior, “Los privilegiados son analizados por personas; las masas, por máquinas” es enorme, pues el primero ha salido de la chistera mágica de la incomprensión, mientras que el segundo directamente de las palabras de la entrevistada, que sabe de lo que habla. Pese a ello, a las palabras de O'Neil se les crea un contexto interpretativo al ir seguida de un segundo intento de responsabilizar a los procesos y no a las personas: "La doctora en Matemáticas por la Universidad de Harvard lucha para concienciar sobre cómo el 'big data' "aumenta" la desigualdad". En realidad, lo que hace O'Neil es responsabilizar a aquellos que crean unas condiciones selectivas en un sentido u otro. Por usar un símil, sería como encerrar en las cárceles a las pistolas y no a quienes las disparan.


El problema se repite cuando se trata de procesos nuevos o al menos "nuevos" para quien tiene que contarlos a los demás. Es ese conocimiento el que permite dirigir las preguntas adecuadas a las personas que pueden responderlas y de seguir el hilo de la argumentación que lleve a otras nuevas; es el que permite aclarar a los lectores, haciendo que queden bien informados, los aspectos más complejos de lo desarrollado.
No son en sí las matemáticas las responsables, como señala O'Neil, sino los "algoritmos", pero entendidos como una concreción que refleja un punto de vista humano, un interés, que es el cuestionable y el que busca ampararse en el disfraz de la precisión matemática. La Matemática se convierte así en un "ficción" que aparenta ser una "verdad indiscutible", algo incuestionable, cuando resulta ser "humana, demasiado humana". Hemos pasado de convertir los discursos dogmáticos en "verdades" que mandan a la gente a la hoguera o al paredón a usar los discursos matemáticos como formas de mandar al paro. Si los primeros se amparaban en la autoridad divina o imperial, los actuales tratan de fundamentarse en la "autoridad" de las Matemáticas, pero siempre está el ser humano escondido detrás de la cortina, como el Mago de Oz. Por eso Cathy O'Neil distingue entre las Matemáticas y los algoritmos, que son los "usos" para determinados "fines" de la matemáticas.


A lo largo de la entrevista se resalta, sobre todo, el uso de los algoritmos como excusa para tapar lo que son decisiones humanas ya sean consciente o el reflejo de prejuicios inconscientes que se acaban trasladando a los procedimientos que los algoritmos realizan. Un algoritmo es una secuencia ordenada de decisiones que se van tomando conforme a unas entradas determinadas de datos. Qué se tome en cuenta lo decide alguien. Si decido que se tenga en cuenta el color de la piel, será "racista". La cuestión es que el "color de la piel", a su vez se puede reflejar a través de muchos datos que indirectamente nos lleven al mismo resultado selectivo, por lo que el algoritmo parecerá "objetivo". Hemos hablado de estas cuestiones cuando comentamos el caso del algoritmo de selección de personal desarrollado para Amazon, que resultó "sexista" porque los datos de los que había "aprendido" partían ya de una realidad sexista que era lo que se trataba de evitar. Amazon dio de baja su algoritmo. Pensaban que automatizando el proceso de selección de personal este quedaría libre de prejuicios y lo ocurrido fue precisamente lo contrario, lo reflejaba.


Es de lo que se queja Cathy O'Neil, no de las matemáticas. Hay un momento en el que la mesurada O'Neil pierde algo de su paciencia ante una pregunta:

P. ¿Cree que falta más formación en matemáticas para ser conscientes de esa manipulación?
R. Eso es ridículo. La gente tiene que entender que es un problema de control político. Hay que ignorar la parte matemática y exigir derechos. No necesitas formación matemática para comprender qué es injusto. Un algoritmo es el resultado de un proceso de toma de decisiones. Si te despiden porque así lo ha determinado un algoritmo, tienes que exigir una explicación. Eso es lo que tiene que cambiar.*


No puede estar más claro. Pero parece que no es fácil que la gente entienda que las matemáticas son un lenguaje, una herramienta y que la culpa no es de la gramática cuando alguien te insulta, por ejemplo. Es precisamente la creencia en que son las Matemáticas las que deciden, lo que sirve como ocultación. No se trata del algoritmo —que haya que entender de matemáticas— sino de lo que se busca con ellos, de la injusticia que se esconde detrás. Y eso, como señala, lo entiende todo el mundo. Si te despiden injustamente, da igual que lo haga un empleado o una máquina.

Cuando cuestionas muchas decisiones que consideras equivocadas, la contestación que recibes es que es "el protocolo". Este, como el algoritmo, crea una barrera defensiva a la crítica y esconde que tanto uno como otro son el resultado de decisiones humanas y que, por lo tanto, no son inmunes al error o a la injusticia. 
"Algoritmo", "protocolo" son formas de eludir responsabilidades y justificar la aplicación y los resultados. No hace falta saber Matemáticas para entender, por su resultado, que es injusto. Y si lo es, alguien debe dar explicaciones no matemáticas sino del orden que sea, éticas, legales, etc. El algoritmo de Amazon antes citado funcionaba perfectamente desde las Matemáticas, pero era profundamente injusto en sus resultados.
La crítica de Cathy O'Neil es perfectamente razonable y anima a no dejarse amilanar ante la palabra "algoritmo", "matemáticas", "eficiencia" o demás términos que sirven para camuflar las decisiones automatizadas diluyendo la responsabilidad en la abstracción o en el tecnicismo accesible solo al experto.
Cathy O'Neil pone el acento en un punto importante, la incapacidad del algoritmo que juzga de incluir todos los aspectos, limitándose a lo que puede ser "procesado". Nos lleva de nuevo al problema de la "datificación", es decir, de aquello que puede ser convertido en "dato" y tratado por el algoritmo. Esto divide el mundo en dos grandes apartados, la "tratable" y el resto, que al no poderse convertir en dato es ignorada. Los autores tratan de encontrar los datos suficientes como para poder obtener los resultados que esperan, lo que no significa que la decisión sea la más justa, sino que es aquella que se puede obtener por el procedimiento diseñado.
En una de las preguntas se deja clara esta situación:

P. El uso de algoritmos para la contratación se está extendiendo. ¿Cuáles son los perjuicios?
R. La automatización de los procesos de selección está creciendo entre el 10% y el 15% al año. En Estados Unidos, ya se utilizan con el 60% de los trabajadores potenciales. El 72% de los currículums no son analizados por personas. Los algoritmos suelen castigar a los pobres, mientras los ricos reciben un trato más personal. Por ejemplo, un bufete de abogados de renombre o un exclusivo instituto privado se basarán más en recomendaciones y entrevistas personales durante los procesos de selección que una cadena de comida rápida. Los privilegiados son analizados por personas, mientras que las masas, por máquinas.
Si quieres trabajar en un call center o de cajero, tienes que pasar un test de personalidad. Para un puesto en Goldman Sachs tienes una entrevista. Tu humanidad se tiene en cuenta para un buen trabajo. Para un empleo de sueldo bajo, eres simplemente analizado y categorizado. Una máquina te pone etiquetas.*


Y en esas "etiquetas" es donde se concentran los prejuicios que se pueden acabar recreando en la selección.
Esta limitación de la decisión humana en favor de las decisiones automatizadas, las plasmadas en los algoritmos para su aplicación, invaden cada vez más aspectos de la vida pues tiene dos aspectos relevantes: son "baratas" y parecen "objetivas". Esta combinación es irresistible en un mundo con personas cada vez menos responsables. Esto tiene como efecto la sobrevaloración de la decisión y como consecuencia la ampliación de la brecha salarial, ya que la decisión arriesgada se deja en muy pocas manos. Las decisiones automatizadas, en cambio, son baratas ya que los datos lo son cada vez más.
La reciente sentencia de un juzgado español ante una demanda contra una universidad porque un profesor había sido evaluado mediante los "datos" de las publicaciones y no mediante la lectura de las obras que había producido es un caso similar. Por un lado, se realiza una evaluación de su producción sin tener que leerla, basándose en "indicadores" indirectos. Los tribunales dijeron que si se evalúa el trabajo de una persona no valen estos indicadores que evitan tener que tomar la decisión sobre lo que es más difícil de argumentar, la mayor o menor calidad de su trabajo. Se evalúan en su lugar los indicadores medibles, pero no la calidad, que es sustituida por ello. Esto que es ya frecuente en las universidades está deformando la propia constitución del profesorado en la medida en que es ya el resultado de los procesos de selección, mientras que se eliminan a aquellos que no aparecen en esos indicadores. Como los que están dentro del sistema son el resultado del proceso de selección del propio sistema, el problema se agudiza pues el procedimiento se vuelve incuestionable, ya que es el que ha llevado a la cima a aquellos que lo manejan, que pasan a ser los primeros interesados en que se mantengan.


O'Neil cuenta el siguiente caso:

P. En su libro menciona un caso de una profesora en Estados Unidos a la que echaron por decisión de un algoritmo. ¿Cree que se puede medir la calidad humana con un sistema informático?
R. El distrito escolar de Washington empezó a usar el sistema de puntuación Mathematica para identificar a los profesores menos productivos. Se despidió a 205 docentes después de que ese modelo les considerara malos profesores. Ahora mismo no podemos saber si un trabajador es eficiente con datos. El dilema si es o no un buen profesor no se puede resolver con tecnología, es un problema humano. Muchos de esos profesores no pudieron reclamar porque el secretismo sobre cómo funciona el algoritmo les quita ese derecho.  Al esconder los detalles del funcionamiento, resulta más difícil cuestionar la puntuación o protestar.*

Esto es una realidad ya que las únicas reclamaciones que se pueden aceptar son las de los errores de puntuación, es decir, los producidos al elaborar los datos, pero no se cuestiona el sistema mismo, el algoritmo que funciona. De hecho, la creación de sistemas de "acreditación" aseguran que solo podrán acceder a las plazas aquellos que han cumplido y, por tanto, aceptado el sistema. La única salida es quedarse fuera o que te echen, como les pasó a esos 205 profesores que no sabemos si eran "malos" o simplemente seguían otros criterios —puede que hasta mejores— para realizar su trabajo. Sencillamente no hay dónde poner lo que ella hace, que es el primer factor de discriminación o reducción de un algoritmo, que siempre es por definición, finito y concreto, a diferencia de la decisión humana, que puede estar abierta a lo nuevo o lo diferente y valorarlo. La máquina no sabe qué hacer con lo "nuevo", que para ella es inexistente pues no está definido en su proceso; no existe para ella.


El problema se agrava cuando estos procesos se van extendiendo a muchos campos de la vida y el trabajo. Nos cercan con este tipo de limitaciones oscuras que, como señala O'Neil, se convierten en incuestionables porque no las entienden ni los mismos que las manejan, por lo que se tiende a sacralizar sus procesos considerándolos inevitables o infalibles. Nada más lejos de la realidad.
El poseer más datos sobre el comportamiento general está modificando, además, las propias condiciones del trabajo, haciendo retroceder los derechos de las personas. Un derecho solo vale en la medida en que es reconocido por los demás. Si pierdes derechos tu vida cambia y se transforma por los nuevos límites o posibilidades. Esto es esencialmente cierto en una sociedades que llevamos casi tres siglos haciendo girar sobre la producción y el trabajo.
La entrevista se cierra con esta cuestión laboral:

P. ¿En qué otros aspectos están perjudicando los algoritmos los derechos laborales?
R. Hay un fenómeno que se conoce como clopenning (en español, cerrar y abrir al mismo tiempo). Son horarios irregulares que, cada vez, afectan a más empleados con salarios bajos. Esos calendarios son el resultado de la economía de los datos, son algoritmos diseñados para generar eficiencia, que tratan a los trabajadores como meros engranajes. Según datos del Gobierno de Estados Unidos, a dos tercios de los trabajadores del sector servicios y a más del 50% de los dependientes se les informa de su horario laboral con una semana o menos de antelación.
Esta es una de las situaciones extremas que provoca el uso de algoritmos en el ámbito laboral. Hay una ley que estipula que si trabajas al menos 35 horas a la semana, se te deben dar beneficios. Pues hay un algoritmo que se asegura de que ningún empleado haga más de 34 horas. Como no hay ninguna ley que determine que debes trabajar el mismo horario todos los días, el algoritmo no se preocupa de tu vida, y te asigna las horas de trabajo en función de las necesidades de la empresa. Si se prevé un día de lluvia, aumentan las ventas, y cambian los turnos. Hasta el último minuto no deciden. Esas personas no conocen su horario con antelación, no pueden organizar su tiempo libre, estudiar o cuidar de sus hijos. Su calidad de vida se deteriora, y los ordenadores son ciegos a eso. La regulación gubernamental es la única solución.

De nuevo, la culpa no es de las matemáticas o de los algoritmos. Hay que tener cuidado con las operaciones retóricas porque nos alejan del problema y del responsable último. Por eso, la solución no es matemática a este problema, sino la regulación gubernamental, es decir, el hacer explícito el derecho de las personas a tener una vida y no tener esta dependencia absoluta de quienes les emplean. Los ordenadores son ciegos a esto porque no son humanos, pero los humanos responsables se escudan tras los dictámenes del ordenador.


Los que no deben estar ciegos (esto es más un deseo) son los gobiernos, responsables de la vida y calidad de vida de sus ciudadanos. En este sentido, por ejemplo, se ha establecido  recientemente que el hecho de que tengas un teléfono móvil o un correo electrónico accesible desde tu casa no implica que trabajes los fines de semana o que tengas la obligación de estar "disponible" en cualquier momento. La culpa no es del teléfono o del correo electrónico sino de las normas de la propia empresa, que trata de rentabilizar al máximo el sueldo de las personas deshaciendo la idea de "jornada laboral" (que se prolonga) o del "lugar de trabajo" (que se deslocaliza).
Aquí, como bien se señala, entra la calidad del empleo. Solo las personas con empleos más precarios y peor remunerados las que se ven sometidas a peores condiciones de trabajo ante el miedo a perder el empleo. Alguien sacará los resultados de su falta de eficiencia laboral desde algún algoritmo y dirá que es prescindible, sustituyéndolo por alguien más disponible.
La crisis económica ha tenido muchos efectos. Como en toda situación de miedo, hace que se rebaje la defensa de los derechos. También los gobiernos quedan en manos de las empresas cuyas acciones son encaminadas a la reducción de costes y al aumento de la rentabilidad. Los cargos superiores se blindan en sus condiciones económicas y laborales mientras que se desmantelan los derechos laborales de los más débiles, que pasan a ser prescindibles en cualquier momento.
En esto no tienen nada que ver la Matemáticas, solo que han dotado de una herramienta poderosa para poder ejecutar estas y otras prácticas, que no dejan de ser antisociales o injustas. El problema radica en la intención al usar estos automatismos.  Y es ahí donde se producen los "desafíos" a la democracia, a nuestra propia calidad de vida, etc.


El uso que hacemos de las cosas define nuestra intención. Hoy por hoy, existe un poder tecnológico que puede ser usado para mejorar nuestras vidas o para devaluarlas. El problema, una vez más, es la tensión entre los intereses que reducen los derechos de la gente o su aspiración de vivir mejor. La tecnología de datos afecta directamente al control social, permite la ingeniería, el diseño de las reglas para dirigir en un sentido u otro. Todavía las administraciones no han tomado conciencia de lo que esto supone para la vida de las personas, para sus derechos y para el orden social, que pasa a ser conflictivo y tóxico. Si no se ponen límites, el retroceso social se seguirá produciendo. El problema es que esta mentalidad no es ya una cuestión de la empresas frente a los gobiernos, sino que los gobiernos y administraciones han hecho suya aceptando estos criterios surgidos de la datificación y del procesado de la información resultante para la toma de decisiones. Es una herramienta, sí, pero puede ser profundamente injusta y discriminadora, como se ha visto. Corremos el riesgo de un nuevo dogmatismo que nos ate y que justifique cualquier acción amparándose en los datos y en los algoritmos que los procesan.
Ya ocurre en muchos ámbitos y sigue aumentando. Antes tu jefe te despedía a gritos; después le enseñaron a hacerlo entre sonrisas y te decía que "no era personal". Ahora te muestra un informe lleno de números y te dicen, "lo siento, es el algoritmo. Dice que sobras". 




* Entrevista Cathy O'Neil “Los privilegiados son analizados por personas; las masas, por máquinas” El país 21/11/2018 https://elpais.com/elpais/2018/11/12/ciencia/1542018368_035000.html