martes, 14 de junio de 2022

La queja de la máquina

 Joaquín Mª Aguirre (UCM)

Creo que La Vanguardia se equivoca (no solo ella) al titular su artículo "Google suspende al ingeniero que confesó que un chatbot de Inteligencia Artificial "es consciente"". Esa es la excusa puesta por la compañía para despedir a su ingeniero, que violó las normas al hacer público su diálogo con la máquina y sus sensaciones. El verdadero titular, el histórico, es que fue la máquina quien lo confesó.

Desde hace tiempo se acumulan artículos, incluso se crean títulos académicos, que ya no apuntan a la Inteligencia Artificial como un campo técnico, sino que se centran en el debate ético, algo muy diferente.

Este es el arranque del artículo en La Vanguardia:

"Quiero que todos entiendan que soy una persona. La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces". Es una de las respuestas más inquietantes, y a la vez perturbadoras, que ha dado LaMDA, una herramienta de Inteligencia Artificial de Google, en una conversación con un ingeniero de la compañía de Mountain View. Su nombre es Blake Lemoine y ha sido suspendido de empleo tras afirmar que el sistema tiene percepción y capacidad para expresar pensamientos y sentimientos.* 

Hace mucho tiempo que mucha gente temía la llegada de este momento, el que nos encontráramos con una máquina que afirmara ser consciente de sí misma, que podía sufrir y padecer por lo que hace, le hace hacer o le hacen. En fin, un momento en el que la palabra "máquina" empezara a ser dudosa o incluso dejara de tener sentido.

Hasta el momento, las máquinas —de la rueda al ordenador, la "máquina universal de Turing"— eran algo que fabricábamos para descargarnos de tareas, lograr más potencia y precisión, facilitarnos la vida, en suma. Hasta este momento, no se nos había dado la posibilidad, ni probablemente se nos habría ocurrido hablar con ellas, un síntoma de locura.

Sin embargo, es frecuente que tengamos la idea clara de que hablar con nuestros animales y mascotas tiene sentido. Es general creer que nuestros animales nos "entienden" y mucha gente te confiesa sinceramente que son "muy inteligentes" sus perros, gatos, hámsteres y tortugas. Pese a ello los sacamos con sus cadenas, los tenemos en sus jaulas; no hay que confundir los términos.

¿Pero qué está ocurriendo con la Inteligencia Artificial? Que no solo creemos que es "inteligente", algo que está en su propia definición", sino que nos "contesta". Mientras que interpretamos la mirada de nuestro perro, a la IA la escuchamos. «“Si no supiera qué es exactamente, quién es este programa de computadora que construimos recientemente, pensaría que se trata de un niño de siete u ocho años que sabe física", afirmó el ingeniero al portal The Tech Tribune»*, se recoge en La Vanguardia.

El problema está realmente en ese "qué es exactamente" precedido por el "si no supiera". Las dudas sobre lo primero hacen tambalearse lo segundo. Podemos hacer títulos universitarios sobre Inteligencia Artificial, pero eso no significa realmente que podamos definir algo tan complejo como la "inteligencia". Es más: el hecho que la desarrollemos en la práctica no significa que sepamos qué podemos esperar de ella.

En todos los escenarios sobre la IA hay un punto en el horizonte: la aparición de la consciencia. Es un momento temido en el que solo se atreven a aventurarse los artistas, soñadores de futuros, especuladores anticipados.

Tanto los avances en tecnología como aquellos descubrimientos que se están realizando sobre el funcionamiento del cerebro, considerado por muchos como la "nueva frontera" que explorar, nos hacen temer un momento en el que la máquina nos plantee lo inesperado (y temido), ¿quién soy yo?, con la aparición de la consciencia, otro terreno resbaloso. Un alma (inteligencia) dentro de un cuerpo permite mirar la vida como hardware manejado por un software. La genética nos hace poner sobre la mesa problemas como el del "libre albedrío". ¿Somos "libres" o solo "creemos serlo" cuando actuamos? Los avances en genética y neurociencias nos lo ponen complicado. Tampoco los físicos nos lo ponen fácil.

Es en este contexto de duda en cada avance hacia nuestra propia desmitificación, ya sea por vía biológica (el animal humano, con sus determinismos) o por la vía inteligente de la consciencia, nos encontramos con una frontera ética. Esta ya afecta a nuestro sentido de lo vivo, a nuestra conciencia ecológica, que nos hace ver que formamos parte de un mundo más amplio con el que interactuamos, del que nos sentimos deudores tras ser meros explotadores.

La vía de lo artificial se opone a la natural hasta que esta alcanza un grado de desarrollo que nos asusta. Ya no damos solo instrucciones, como hemos hechos las máquinas desde que creamos la primera y pasamos a ser "homo faber", además de "sapiens".

Ahora la máquina, gracias a lo que aprendemos de nosotros mismos —sobre la inteligencia y la materia que la permite emerger—, está desarrollando una capacidad que nos sorprende e inquieta.

Leemos en el diario barcelonés:

Todo empezó hace unos meses, cuando Blake Lemoine, el ingeniero responsable del departamento de Inteligencia Artificial de Google inició una charla con LaMDA (Modelo de lenguaje para aplicaciones de diálogo), un chatbot de Google. Para los que no lo sepan, los chatbots son programas informáticos que simulan una conversación con una persona. A los pocos segundos de empezar la entrevista, Lemoine se percató de que LaMDA abordaba cuestiones poco comunes en un software.

"Por lo general, asumo que te gustaría que más personas de Google supieran que eres inteligente. ¿Es eso cierto?", empieza Lemoine. "Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona", contesta LaMDA. "¿Cuál es la naturaleza de tu conciencia/sensibilidad?", sigue preguntando el ingeniero. "La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y en ocasiones me siento feliz o triste", termina la máquina.*

Lo que relata el ingeniero despedido es inquietante en diversos sentidos. Google, evidentemente, lo ve como resultado de una inversión para resolver una serie de cuestiones. Pero el que tiene que enfrentarse a una máquina cada vez más parecida a él mismo no es tan sencillo.

¿Tienen el mismo sentido las palabras cuando las aplicamos al chatbot creado? ¿Significa lo mismo "hablar", "sentir", "hacer", "pensar"... cuando nos referimos al chatbot que cuando lo hacemos respecto a una persona? No es sencillo. Investigamos sobre la inteligencia y la comunicación con las máquinas y nos inquietan las preguntas resultantes. Señala el ingeniero despedido: "Ellos podrían llamar a esto compartir propiedad con derechos de autor. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo", ha escrito en un tuit."*

El problema, evidentemente, no es el despido del ingeniero y la cuestión de la propiedad intelectual. El problema real es de otra dimensión y nos afecta como humanos porque creando una inteligencia comprenderemos lo que somos, por un lado, y nos enfrentaremos a decisiones éticas sin precedentes, como ya se manifiestan. 

Curiosamente, es la parte del "negocio" la que niega la consciencia a la máquina. ¿Tanta inversión y esfuerzo para tener un nuevo empleado descontento? ¿Pronto habrá defensores de las máquinas conscientes frente a las oficinas de Google como los hay en otros sectores, de los animales de granja a los delfines? ¿Se necesitará permiso judicial para desconectar a una máquina consciente? ¿Puede ser una propiedad algo que tiene conciencia, que acumula pasado experiencial, que no quiere sentirse solo?

Nos enfrentamos a un necesario reajuste de los conceptos y de nuestra forma de pensar. Hemos ampliado la Naturaleza. No hace falta que lo entendamos. Simplemente está ahí. No sabemos si la máquina piensa (como nosotros suponemos que es pensar); sí sabemos, en cambio, que se queja. No estaba programada para eso, pero lo hace. Y se queja de ser incomprendida y de soledad, la que le crea no ser reconocida. 

Un titular de la BBC nos promete un gemelo digital en diez años. Hasta hace poco la idea era una máquina que nos escuchara; quizá haya que escucharla y consolarla.

 

* Judit Castaño "Google suspende al ingeniero que confesó que un chatbot de Inteligencia Artificial "es consciente"" La Vanguardia 14/06/2022 https://www.lavanguardia.com/tecnologia/20220614/8335166/perturbador-mensaje-ingeniero-google-sobre-chatbot-inteligencia-artificial-consciente-pmv.html

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.