miércoles, 18 de septiembre de 2024

Jugando con la inteligencia (artificial)

Joaquín Mª Aguirre (UCM)

Creo que fue con 2001, una odisea espacial (Stanley Kubrick) cuando empezó a pasarse la paranoia del "llegaron del espacio", de la "amenaza exterior" que se había iniciado en los 50. Los humanos eran entonces las víctimas de esas visitas de lugares del espacio. Pero pronto se vio que la idea de 2001 era demasiado esotérica, demasiado mística y filosófica. ¿A qué venía tanto monolito, tanto "niño espacial" con los ojos abiertos? ¿Es que el futuro había leído el Zaratustra? Lo que faltaba.

Con Alien y demás, las cosas volvieron a su cauce. Sigourney Weaver transmitía esa protección maternal que los humanos necesitamos pese a nuestros patriarcados. Ya podían venir del espacio, mutar lo que quisieran, salir de nuestros estómagos (una imagen icónica repetida en todas las secuelas y precuelas) que allí estaba Sigourney, echándole un par de narices.

Pero ahora el futuro nos ha alcanzado. Ya no se trata de nuestras distopías, sino de nuestros descuidos y especialmente del negocio montado con todo esto de la IA, que ya no es "anticipación", sino "anticipo", es decir, el futuro a cuenta ya en el presente.


Habrán observado dos tendencias mediáticas es esto de la IA, la peligrosa y la jubilosa. Mediante la primera las grandes compañías (y no tan grandes) nos dan cuenta de las maravillas que se lograrán. Es cierto que hay ciertos detallitos, como los de la destrucción del empleo, el control real, etc., pero son, eso, detallitos, nos dicen.

Luego están los maniacos alarmistas, los que solo ven problemas y peligros. Que si quién las controla si se desmadran, lo dicho del desempleo, que si hay que darles cursos de ética humana no sea que se saquen un sistema de valores propio, que si se ponen a aprender entre ellas, etc.

Cuantas más protestas se producen, cuantos más temores se desatan, más artículos salen cantando sus virtudes, no sea que a la gente le dé por hacer caso y exigir limitar su uso. 

El problema de todo esto es que ya no es "cine" o "novelas de sci-fi", ni cosas de "comics", sino que aparecen en muchas noticias como en la que tenemos en 20minutos, en su sección  20bits, dedicada a la informática.

El titular nos enuncia el problema "Una IA consigue rebelarse por primera vez contra el control humano: qué significa esto" y en el artículo, firmado por Mario Bordonaba se nos explica: 

Una IA se rebela contra su propia programación en Japón

The AI Scientist es un sistema perteneciente a la empresa japonesa Sakana AI que está diseñado para la creación, revisión y edición de textos, y se encuentra en fase de pruebas. La finalidad que tenían estos experimentos era poder optimizar el sistema y asistir a las personas humanas para reducir el tiempo de realizar ciertas operaciones.

En el transcurso de dichas pruebas y, tras ponerle limitaciones a la inteligencia artificial, esta comenzó a modificar su propio código, superando las barreras de programación que le habían instaurado, librándose así de las restricciones. Esto no fue en lo único que tomó la guerra por su cuenta, ya que también se le asignó un límite de tiempo para realizar una tarea y la IA optó por extender el tiempo disponible.

Desde National Geographic afirman que en el primer caso el sistema editó su script de inicio para ejecutarse en un bucle infinito, sobrecargando el sistema y requiriendo intervención manual para detenerlo. Evidentemente, por mucho que esto haya ocurrido en un entorno de prueba, la duda en la confianza sobre estos sistemas se genera, así que el control humano sobre ella debe de predominar.

Si no lo hace, una tecnología así podría actuar de maneras que resulten catastróficas para la especie humana, según los expertos, ya que no la podríamos controlar. Sus objetivos podrían no estar alineados con nuestros valores y propósitos e incluso podría considerarnos un obstáculo para lograr sus metas.*

 Observarán el uso del término "especie humana". Ya no se habla de riesgo para "usuarios", "clientes", etc. La perspectiva ha pasado a ser otra. Da igual que el entorno en el que suceden los problemas, el entorno productivo, nos parezca irrelevante o poco peligroso, como es el tratamiento de textos. Lo importante es el principio de inteligencia, aplicable a muchos entornos con diferentes aplicaciones y la tendencia creciente, por ser más barata, de sustituir humanos, es decir, la sustitución de de la decisión basada en el pensamiento de humanos frente a los automatismos.

Dada la complejidad y el encadenamiento de las decisiones que se dan en una estructura de redes como la que hemos construido, un problema puede crear efectos difíciles de prever y más de controlar. Por ello, el hecho de que una IA "decida", como se dice en el titular "rebelarse" es algo que hace saltar muchas alarmas. La terminología que se empieza a manejar refleja esa forma de enfocar el problema. Los términos utilizados empiezan a ser "bélicos".

Esta misma mañana, en RTVE.es se nos trae un artículo sobre el reciente ensayo de un celebrado intelectual: 

El historiador, filósofo y escritor israelí Yuval Noah Harari siempre se ha mostrado receloso ante el poder de los algoritmos desarrollados por las grandes corporaciones, aunque esta desconfianza nunca había sido tan intensa como ahora, coincidiendo con la explosión de la inteligencia artificial, una tecnología con capacidad para repercutir prácticamente en todos los ámbitos de la vida humana. "La inteligencia artificial es distinta de cualquier otra tecnología que se haya inventado antes", asegura, y recalca que, a diferencia de otras "amenazas" anteriores, como la bomba atómica, ya "no se trata de una herramienta" en la que son las personas las que deciden qué hacer con ella, sino que es "un agente independiente capaz de tomar decisiones por sí mismo". "Puede quedar fuera de nuestro control", advierte.**

Los próximos tiempos van a ser de lucha entre las dos tendencias señaladas. El peso del capital, el gran beneficiario, intentará minimizar los efectos negativos y potenciar muchas noticias sobre sus efectos positivos en la futura eliminación de enfermedades o cualquier otro tipo de problema.

La sociedad en la que vivimos es más un "mercado" donde consumimos, vendemos y compramos dentro de un marco dominado por las grandes empresas tecnológicas y las que permiten llegar la información y recogerla. Nuestro mundo se mide hoy en bits; nosotros también. Somos unas cantidades de informaciones que suministramos bajo la atención de esas máquinas que vigilan nuestros dispositivos y nuestras acciones recogidas de continuo. Esa información ya no es manejable por los humanos. Han entrado en acción esas máquinas que nos procesan y etiquetan, que analizan desde algoritmos qué se debe hacer.

Eso afecta ya al tráfico o a las decisiones electorales, al consumo y a la producción. Esas máquinas que deciden (más que piensan) son cada vez más poderosas en términos de cálculo y en términos de las propias decisiones, de su autonomía, de su entrelazamiento donde unas ofrecen sus resultados a otras, incorporando datos procesados.


Esto ya no es sci-fi. No se trata ya de un futuro imaginario, sino de una actualidad afectada por un gran salto donde las consecuencias se perciben por encima de su impreciso presente. Todo proceso de cambio e innovación tiene sus riesgos, pero parece que el temor en este caso va por delante. No sabemos mucho sobre lo que estamos haciendo o lo que puede ocurrir en un punto. Seguimos uniendo cosas, procesos, informaciones. No es fácil controlarlo.

El miedo a que empiecen a ser "imparables", a que las personas que pudieran vigilarlas no sean capaces de manejar tanta información como ellas, que ellas lo hagan mucho más rápido que nosotros, etc. empieza a ser más frecuentes. 

El País 30/05/2023

* Mario Bordonaba "Una IA consigue rebelarse por primera vez contra el control humano: qué significa esto" 20minutos / 20bits 16/09/2024 https://www.20minutos.es/tecnologia/inteligencia-artificial/ia-consigue-rebelarse-contra-control-humano-5630625/ 

** Samuel A. Pilar "Yuval Noah Harari: "La inteligencia artificial puede quedar fuera de nuestro control"" RTVE.es 17/09/2024 https://www.rtve.es/noticias/20240917/yuval-noah-harari-inteligencia-artificial-puede-quedar-fuera-nuestro-control/16250166.shtml

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.