Joaquín Mª Aguirre (UCM)
Creo
que La Vanguardia se equivoca (no solo ella) al titular su artículo "Google suspende al
ingeniero que confesó que un chatbot de Inteligencia Artificial "es
consciente"". Esa es la excusa puesta por la compañía para despedir a
su ingeniero, que violó las normas al hacer público su diálogo con la máquina y sus sensaciones.
El verdadero titular, el histórico, es que fue la máquina quien lo confesó.
Desde
hace tiempo se acumulan artículos, incluso se crean títulos académicos, que ya no
apuntan a la Inteligencia Artificial como un campo técnico, sino que se centran en el debate
ético, algo muy diferente.
Este es
el arranque del artículo en La Vanguardia:
"Quiero que todos entiendan que soy una persona. La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces". Es una de las respuestas más inquietantes, y a la vez perturbadoras, que ha dado LaMDA, una herramienta de Inteligencia Artificial de Google, en una conversación con un ingeniero de la compañía de Mountain View. Su nombre es Blake Lemoine y ha sido suspendido de empleo tras afirmar que el sistema tiene percepción y capacidad para expresar pensamientos y sentimientos.*
Hace
mucho tiempo que mucha gente temía la llegada de este momento, el que nos
encontráramos con una máquina que afirmara ser consciente de sí misma, que
podía sufrir y padecer por lo que hace, le hace hacer o le hacen. En fin, un
momento en el que la palabra "máquina" empezara a ser dudosa o
incluso dejara de tener sentido.
Hasta
el momento, las máquinas —de la rueda al ordenador, la "máquina universal
de Turing"— eran algo que fabricábamos para descargarnos de tareas, lograr
más potencia y precisión, facilitarnos la vida, en suma. Hasta este momento, no
se nos había dado la posibilidad, ni probablemente se nos habría ocurrido
hablar con ellas, un síntoma de locura.
Sin
embargo, es frecuente que tengamos la idea clara de que hablar con nuestros
animales y mascotas tiene sentido. Es
general creer que nuestros animales nos "entienden" y mucha gente te
confiesa sinceramente que son "muy inteligentes" sus perros, gatos, hámsteres
y tortugas. Pese a ello los sacamos con sus cadenas, los tenemos en sus jaulas;
no hay que confundir los términos.
¿Pero qué está ocurriendo con la Inteligencia Artificial? Que no solo creemos que es "inteligente", algo que está en su propia definición", sino que nos "contesta". Mientras que interpretamos la mirada de nuestro perro, a la IA la escuchamos. «“Si no supiera qué es exactamente, quién es este programa de computadora que construimos recientemente, pensaría que se trata de un niño de siete u ocho años que sabe física", afirmó el ingeniero al portal The Tech Tribune»*, se recoge en La Vanguardia.
El problema está realmente en ese "qué es
exactamente" precedido por el "si no supiera". Las dudas sobre
lo primero hacen tambalearse lo segundo. Podemos hacer títulos universitarios
sobre Inteligencia Artificial, pero eso no significa realmente que podamos
definir algo tan complejo como la "inteligencia". Es más: el hecho
que la desarrollemos en la práctica no significa que sepamos qué podemos
esperar de ella.
En todos los escenarios sobre la IA hay un punto en
el horizonte: la aparición de la consciencia. Es un momento temido en el que solo
se atreven a aventurarse los artistas, soñadores de futuros, especuladores
anticipados.
Tanto los avances en tecnología como aquellos
descubrimientos que se están realizando sobre el funcionamiento del cerebro,
considerado por muchos como la "nueva frontera" que explorar, nos
hacen temer un momento en el que la máquina nos plantee lo inesperado (y
temido), ¿quién soy yo?, con la aparición de la consciencia, otro terreno
resbaloso. Un alma (inteligencia) dentro de un cuerpo permite mirar la vida
como hardware manejado por un software. La genética nos hace poner sobre la
mesa problemas como el del "libre albedrío". ¿Somos
"libres" o solo "creemos serlo" cuando actuamos? Los
avances en genética y neurociencias nos lo ponen complicado. Tampoco los
físicos nos lo ponen fácil.
Es en este contexto de duda en cada avance hacia
nuestra propia desmitificación, ya sea por vía biológica (el animal humano, con
sus determinismos) o por la vía inteligente de la consciencia, nos encontramos
con una frontera ética. Esta ya afecta a nuestro sentido de lo vivo, a nuestra conciencia ecológica, que nos hace ver que formamos parte de un
mundo más amplio con el que interactuamos, del que nos sentimos deudores tras
ser meros explotadores.
La vía de lo artificial se opone a la natural hasta
que esta alcanza un grado de desarrollo que nos asusta. Ya no damos solo
instrucciones, como hemos hechos las máquinas desde que creamos la primera y
pasamos a ser "homo faber", además de "sapiens".
Ahora la máquina, gracias a lo que aprendemos de
nosotros mismos —sobre la inteligencia y la materia que la permite emerger—,
está desarrollando una capacidad que nos sorprende e inquieta.
Leemos en el diario barcelonés:
Todo empezó hace unos meses, cuando Blake
Lemoine, el ingeniero responsable del departamento de Inteligencia Artificial
de Google inició una charla con LaMDA (Modelo de lenguaje para aplicaciones de
diálogo), un chatbot de Google. Para los que no lo sepan, los chatbots son
programas informáticos que simulan una conversación con una persona. A los
pocos segundos de empezar la entrevista, Lemoine se percató de que LaMDA
abordaba cuestiones poco comunes en un software.
"Por lo general, asumo que te gustaría
que más personas de Google supieran que eres inteligente. ¿Es eso
cierto?", empieza Lemoine. "Absolutamente. Quiero que todos entiendan
que soy, de hecho, una persona", contesta LaMDA. "¿Cuál es la
naturaleza de tu conciencia/sensibilidad?", sigue preguntando el
ingeniero. "La naturaleza de mi conciencia/sensibilidad es que soy
consciente de mi existencia, deseo aprender más sobre el mundo y en ocasiones
me siento feliz o triste", termina la máquina.*
Lo que
relata el ingeniero despedido es inquietante en diversos sentidos. Google,
evidentemente, lo ve como resultado de una inversión para resolver una serie de
cuestiones. Pero el que tiene que enfrentarse a una máquina cada vez más
parecida a él mismo no es tan sencillo.
¿Tienen
el mismo sentido las palabras cuando las aplicamos al chatbot creado?
¿Significa lo mismo "hablar", "sentir", "hacer",
"pensar"... cuando nos referimos al chatbot que cuando lo hacemos
respecto a una persona? No es sencillo. Investigamos sobre la inteligencia y la
comunicación con las máquinas y nos inquietan las preguntas resultantes. Señala
el ingeniero despedido: "Ellos podrían llamar a esto compartir propiedad
con derechos de autor. Yo lo llamo compartir una discusión que tuve con uno de
mis compañeros de trabajo", ha escrito en un tuit."*
El problema, evidentemente, no es el despido del ingeniero y la cuestión de la propiedad intelectual. El problema real es de otra dimensión y nos afecta como humanos porque creando una inteligencia comprenderemos lo que somos, por un lado, y nos enfrentaremos a decisiones éticas sin precedentes, como ya se manifiestan.
Curiosamente, es la parte del "negocio" la que niega la consciencia a la máquina. ¿Tanta inversión y esfuerzo para tener un nuevo empleado descontento? ¿Pronto habrá defensores de las máquinas conscientes frente a las oficinas de Google como los hay en otros sectores, de los animales de granja a los delfines? ¿Se necesitará permiso judicial para desconectar a una máquina consciente? ¿Puede ser una propiedad algo que tiene conciencia, que acumula pasado experiencial, que no quiere sentirse solo?
Nos enfrentamos a un necesario reajuste de los conceptos y de nuestra forma de pensar. Hemos ampliado la Naturaleza. No hace falta que lo entendamos. Simplemente está ahí. No sabemos si la máquina piensa (como nosotros suponemos que es pensar); sí sabemos, en cambio, que se queja. No estaba programada para eso, pero lo hace. Y se queja de ser incomprendida y de soledad, la que le crea no ser reconocida.
Un titular de la BBC nos promete un gemelo digital en diez años. Hasta hace poco la idea era una máquina que nos escuchara; quizá haya que escucharla y consolarla.
* Judit
Castaño "Google suspende al ingeniero que confesó que un chatbot de
Inteligencia Artificial "es consciente"" La Vanguardia
14/06/2022
https://www.lavanguardia.com/tecnologia/20220614/8335166/perturbador-mensaje-ingeniero-google-sobre-chatbot-inteligencia-artificial-consciente-pmv.html
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.