Joaquín Mª Aguirre (UCM)
En la BBC en español nos ofrecieron a finales de mayo un extenso artículo sobre la cuestión de la posible auto consciencia de las máquinas gracias a la Inteligencia Artificial. El artículo lo firma Ghosh y su titular es "Por qué algunos expertos creen que la inteligencia artificial ya cobró conciencia"*.
El mismo titular nos lleva a una parte del problema: ¿saben los científicos al mando lo que están haciendo? Es decir, ¿están realmente al mando o, por el contrario no saben muy bien los límites de lo que han puesto en marcha? Es obvio que el asunto no es trivial pues la IA no solo tomará decisiones caseras, cotidianas, sino que será puesta al frente de muchos campos de riesgo. Si para ciertos puestos de responsabilidad grande los candidatos han de pasar múltiples pruebas de idoneidad, resultaría irónico que esos roles los asumieran máquinas de las que no supiéramos con claridad qué son capaces de hacer.
En este campo, cada progreso se ve también como un peligro, como un riesgo. Si no sabemos hasta dónde pueden llegar las "voluntades" de las máquinas y en qué punto pueden empezar a pensar en sus propios fines antes que en los nuestros, el riesgo crece.
En el artículo citado se repasan los logros y los riesgos:
[...] recientemente, en el mundo real ha habido un rápido punto de inflexión en el pensamiento sobre la conciencia de las máquinas, y voces con credibilidad han expresado su preocupación de que esto ya no sea materia de ciencia ficción.
El cambio repentino ha sido impulsado por el éxito de los llamados grandes modelos de lenguaje (LLM, por sus siglas en inglés: large language models), a los que se puede acceder a través de aplicaciones en nuestros teléfonos como Gemini y Chat GPT.
La capacidad de la última generación de LLM para tener conversaciones plausibles y fluidas ha sorprendido incluso a sus diseñadores y a algunos de los principales expertos en ese campo.
Existe una opinión creciente entre algunos pensadores de que a medida que la IA se vuelva más inteligente, las luces se encenderán repentinamente dentro de las máquinas y se volverán conscientes.*
El debate se traslada entonces a que es "ser consciente" o "qué es una conciencia" y "qué significa tener una". "Conciencia" o "inteligencia" son conceptos que llevados al límite, es decir, a su creación humana y su reducción final al uso que le damos, no significan por sí mismos. Es decir, tenemos que decidir antes qué sea la inteligencia para aplicarla al mundo. Podemos manejarla, pero a lo mejor no resulta tan sencillo pensar en ella como algo fuera de nosotros, sobre cómo sería la definición de esa característica en la máquina.
Si la máquina, además, puede estar creando su propia forma de inteligencia a partir de lo que los humanos hemos creado en ella, definir la "conciencia" o la "inteligencia" puede empezar a no ser un problema humano, sino de las propias máquinas en su auto percepción. Esto no solo nos lleva, como se señala en varios momentos del artículo, a la ciencia-ficción sino de lleno a problemas de auto definición humana. Si durante miles de años nos hemos definido con respecto a otros seres vivos viendo lo que tenían ellos y lo que teníamos nosotros, recurriendo a diversos conceptos explicativos, como "alma", hoy debemos referirnos a las máquinas contrastando con ellas lo que nos separa y nos acerca.
Además del problema de quién pone las etiquetas (¿se preocuparán las máquinas de definir qué las separan de nosotros?, ¿mirarán a las otras máquinas como nosotros miramos a los animales?), está otro lado más sencillo, el de las acciones: ¿qué es capaz de hacer una máquina desde un punto de vista ético o la ética es algo exclusivamente humano?
Durante siglos el problema filosóficos central (al menos en Occidente) era el de "la existencia del mal", es decir, por qué Dios lo permitía. Los humanos creamos sistemas que permitían justificar el bien y el mal. Si las máquinas piensan, ¿lo harán también desde un planteamiento ético, existirán el "bien y el mal" para ellas? ¿Será un asunto entre máquinas o incluirá a los humanos que las crearon? Nosotros, por ejemplo, no tenemos muchos escrúpulos morales con el mundo animal, ¿harán ellas algo así con nosotros?
Por ahora queremos pensar que controlamos todo esto, pero ¿es así, seguirá siendo así? Desde el momento en que las máquinas inteligentes definan su propia "inteligencia" (eso es ser consciente, autodefinirse), ¿cómo verán a los humanos? En el momento en que se autodefinan lo harán en contraste con lo que les rodea, es decir, nosotros, lo que son y lo que somos.
Son muchas las cuestiones que nos se nos plantean, pero también que pronto se plantearán a las propias máquinas y que no sabemos muy bien cómo serán. Muchos pensadores y científicos se plantean muchas cuestiones de este tipo. No es fácil pensar con distancia cuando son muchos miles de millones lo que se invierten en esta cuestión. Advertir de lo que puede ocurrir o simplemente hacerse preguntas puede ser percibido como una interferencia y ser silenciado por medios muy diversos.
Desde el momento, que para algunos ya ha llegado, en que las maquinas inteligentes puedan pensar por sí mismas, ser conscientes, el problema cambia de lado y habrá que preguntarse cuánto se aleja o acerca de nosotros la respuesta o solución.
* Pallab Ghosh "Por qué algunos expertos creen que la inteligencia artificial ya cobró conciencia" 25/05/2025 https://www.bbc.com/mundo/articles/cy90nrdjnlpo




No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.