Joaquín Mª Aguirre (UCM)
Creo
que fue con 2001, una odisea espacial
(Stanley Kubrick) cuando empezó a pasarse la paranoia del "llegaron del
espacio", de la "amenaza exterior" que se había iniciado en los
50. Los humanos eran entonces las víctimas de esas visitas de lugares del
espacio. Pero pronto se vio que la idea de 2001
era demasiado esotérica, demasiado mística y filosófica. ¿A qué venía tanto
monolito, tanto "niño espacial" con los ojos abiertos? ¿Es que el
futuro había leído el Zaratustra? Lo
que faltaba.
Con Alien y demás, las cosas volvieron a su
cauce. Sigourney Weaver transmitía esa protección maternal que los humanos necesitamos pese a nuestros patriarcados.
Ya podían venir del espacio, mutar lo que quisieran, salir de nuestros
estómagos (una imagen icónica repetida en todas las secuelas y precuelas) que
allí estaba Sigourney, echándole un par de narices.
Pero
ahora el futuro nos ha alcanzado. Ya no se trata de nuestras distopías, sino de
nuestros descuidos y especialmente del negocio montado con todo esto de la IA,
que ya no es "anticipación", sino "anticipo", es decir, el
futuro a cuenta ya en el presente.
Luego
están los maniacos alarmistas, los que solo ven problemas y peligros. Que si
quién las controla si se desmadran, lo dicho del desempleo, que si hay que
darles cursos de ética humana no sea que se saquen un sistema de valores
propio, que si se ponen a aprender entre ellas, etc.
Cuantas más protestas se producen, cuantos más temores se desatan, más artículos salen cantando sus virtudes, no sea que a la gente le dé por hacer caso y exigir limitar su uso.
El problema de todo esto es que ya no es "cine" o "novelas
de sci-fi", ni cosas de "comics", sino que aparecen en muchas
noticias como en la que tenemos en 20minutos,
en su sección 20bits, dedicada a la
informática.
El titular nos enuncia el problema "Una IA consigue rebelarse por primera vez contra el control humano: qué significa esto" y en el artículo, firmado por Mario Bordonaba se nos explica:
Una IA se rebela contra su propia
programación en Japón
The AI Scientist es un sistema perteneciente a la empresa japonesa
Sakana AI que está diseñado para la creación, revisión y edición de textos,
y se encuentra en fase de pruebas. La finalidad que tenían estos experimentos
era poder optimizar el sistema y asistir a las personas humanas para reducir
el tiempo de realizar ciertas operaciones.
En el transcurso de dichas pruebas y, tras ponerle
limitaciones a la inteligencia artificial, esta comenzó a modificar su
propio código, superando las barreras de programación que le habían
instaurado, librándose así de las restricciones. Esto no fue en lo único que
tomó la guerra por su cuenta, ya que también se le asignó un límite de tiempo
para realizar una tarea y la IA optó por extender el tiempo disponible.
Desde National Geographic afirman que en el
primer caso el sistema editó su script de inicio para ejecutarse en un bucle
infinito, sobrecargando el sistema y requiriendo intervención manual para detenerlo.
Evidentemente, por mucho que esto haya ocurrido en un entorno de prueba, la
duda en la confianza sobre estos sistemas se genera, así que el control
humano sobre ella debe de predominar.
Si no lo hace, una tecnología así podría actuar de maneras que resulten catastróficas para la especie humana, según los expertos, ya que no la podríamos controlar. Sus objetivos podrían no estar alineados con nuestros valores y propósitos e incluso podría considerarnos un obstáculo para lograr sus metas.*
Observarán el uso del término
"especie humana". Ya no se habla de riesgo para "usuarios",
"clientes", etc. La perspectiva ha pasado a ser otra. Da igual que el
entorno en el que suceden los problemas, el entorno productivo, nos parezca
irrelevante o poco peligroso, como es el tratamiento de textos. Lo importante
es el principio de inteligencia, aplicable a muchos entornos con diferentes
aplicaciones y la tendencia creciente, por ser más barata, de sustituir
humanos, es decir, la sustitución de de la decisión basada en el pensamiento de
humanos frente a los automatismos.
Dada la complejidad y el encadenamiento de las decisiones que se dan en una
estructura de redes como la que hemos construido, un problema puede crear
efectos difíciles de prever y más de controlar. Por ello, el hecho de que una
IA "decida", como se dice en el titular "rebelarse" es algo
que hace saltar muchas alarmas. La terminología que se empieza a manejar
refleja esa forma de enfocar el problema. Los términos utilizados empiezan a
ser "bélicos".
Esta misma mañana, en RTVE.es se nos trae un artículo sobre el reciente ensayo de un celebrado intelectual:
El historiador, filósofo y escritor israelí Yuval Noah Harari siempre se ha mostrado receloso ante el poder de los algoritmos desarrollados por las grandes corporaciones, aunque esta desconfianza nunca había sido tan intensa como ahora, coincidiendo con la explosión de la inteligencia artificial, una tecnología con capacidad para repercutir prácticamente en todos los ámbitos de la vida humana. "La inteligencia artificial es distinta de cualquier otra tecnología que se haya inventado antes", asegura, y recalca que, a diferencia de otras "amenazas" anteriores, como la bomba atómica, ya "no se trata de una herramienta" en la que son las personas las que deciden qué hacer con ella, sino que es "un agente independiente capaz de tomar decisiones por sí mismo". "Puede quedar fuera de nuestro control", advierte.**
Los próximos tiempos van a ser de lucha entre las dos tendencias señaladas. El peso del capital, el gran beneficiario, intentará minimizar los efectos negativos y potenciar muchas noticias sobre sus efectos positivos en la futura eliminación de enfermedades o cualquier otro tipo de problema.
La sociedad en la que vivimos es más un "mercado" donde consumimos, vendemos y compramos dentro de un marco dominado por las grandes empresas tecnológicas y las que permiten llegar la información y recogerla. Nuestro mundo se mide hoy en bits; nosotros también. Somos unas cantidades de informaciones que suministramos bajo la atención de esas máquinas que vigilan nuestros dispositivos y nuestras acciones recogidas de continuo. Esa información ya no es manejable por los humanos. Han entrado en acción esas máquinas que nos procesan y etiquetan, que analizan desde algoritmos qué se debe hacer.
Eso afecta ya al tráfico o a las decisiones electorales, al consumo y a la producción. Esas máquinas que deciden (más que piensan) son cada vez más poderosas en términos de cálculo y en términos de las propias decisiones, de su autonomía, de su entrelazamiento donde unas ofrecen sus resultados a otras, incorporando datos procesados.
El miedo a que empiecen a ser "imparables", a que las personas que pudieran vigilarlas no sean capaces de manejar tanta información como ellas, que ellas lo hagan mucho más rápido que nosotros, etc. empieza a ser más frecuentes.
El País 30/05/2023 |
* Mario Bordonaba "Una IA consigue rebelarse por primera vez contra el control humano: qué significa esto" 20minutos / 20bits 16/09/2024 https://www.20minutos.es/tecnologia/inteligencia-artificial/ia-consigue-rebelarse-contra-control-humano-5630625/
** Samuel A. Pilar "Yuval Noah Harari: "La inteligencia artificial puede quedar fuera de nuestro control"" RTVE.es 17/09/2024 https://www.rtve.es/noticias/20240917/yuval-noah-harari-inteligencia-artificial-puede-quedar-fuera-nuestro-control/16250166.shtml
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.