lunes, 10 de abril de 2023

Charlas automatizadas

 Joaquín Mª Aguirre (UCM)


La cuestión de la validez, peligros y usos de la Inteligencia Artificial sigue en los medios. Unos artículos llaman a otros y nos encontramos con diversas perspectivas. Acababa de leer un artículo en 20minutos, con el título "La 'revolución' de la inteligencia artificial está fuera de control: 7 razones para frenar el entrenamiento de estos modelos", firmado por Raquel Holgado, señalando los siete peligros por áreas (por ejemplo, para el Periodismo, la gran cantidad de imprecisiones y el plagio), cuando me topo con uno muy diferente en la BBC, publicado hace una semana con el título "Would you open up to a chatbot therapist?", firmado por Jane Wakefield, la redactora de tecnología en el medio.
Pasamos a un uso específico de la Inteligencia artificial, el de la herramienta diseñada para escucharnos, algo que parece que se está poniendo complicado en la vida real. La articulista comienza así su planteamiento:


Would you share your deepest anxiety with Alexa? Or maybe ask Siri for some emotional support after a particularly stressful day?

We are increasingly turning to chatbots on smart speakers or websites and apps to answer questions.

And as these systems, powered by artificial intelligence (AI) software, become ever more sophisticated, they are starting to provide pretty decent, detailed answers.

But will such chatbots ever be human-like enough to become effective therapists?

Computer programmer Eugenia Kuyda is the founder of Replika, a US chatbot app that says it offers users an "AI companion who cares, always here to listen and talk, always on your side".

Launched in 2017, it now has more than two million active users. Each has a chatbot or "replika" unique to them, as the AI learns from their conversations. Users can also design their own cartoon avatar for their chatbot.*


En el texto del artículo se recogen diferentes valoraciones sobre este tipo de IA, especificando las limitaciones y fines a manos de diversos expertos consultados, incluyendo a las empresas que los fabrican.

Es una gran ironía que los humanos hayamos tenido que desarrollar una máquina que nos escuche, pero también es enormemente significativo del estado de nuestra civilización masiva y urbana, que ha reducido el diálogo a la charla o ha hecho un negocio de ello.

Esos dos millones de personas se han creado un alter ego, un ser acoplado surgido —como se nos señala en el texto— de las interacciones específicas con cada uno de ellos. La metáfora es interesante: hay un ser perfecto capaz de escucharnos. Su perfección no viene de sí mismo, ya que no era nadie antes de escucharnos. Nuestras palabras le han moldeado, dándole una forma complementaria a nosotros mismos, su fuente de información sobre el mundo. No se trata de un amigo que nos lleva la contraria basándose en su propia experiencia, sino alguien surgido de nuestra escucha y que, pasado un tiempo, probablemente no sepa escuchar a otros.

De esto surge una paradoja sobre el valor de la conversación o, si se quiere, sobre qué es realmente un diálogo. En este caso se trata de un aparente diálogo, como lo pueda ser un diálogo con nosotros mismos. Pero si es el diálogo precisamente lo que se ha perdido en nuestras vidas, la máquina dotada de aprendizaje para hacerlo en nuestras conversaciones, solo nos puede transmitir una visión parcial del mundo, la nuestra propia, que es de quien ha aprendido.

En la noticia se nos introduce la perspectiva de los especialistas:

Dr Paul Marsden, a member of the British Psychological Society, says apps that aim to improve your mental wellbeing can help, but only if you find the right one, and then only in a limited way.

"When I looked, there were 300 apps just for anxiety... so how are you supposed to know which one to use?

"They should only be seen as a supplement to in-person therapy. The consensus is that apps don't replace human therapy."

Yet at the same time, Dr Marsden says he is excited about the power of AI to make therapeutic chatbots more effective. "Mental health support is based on talking therapy, and talking is what chatbots do," he says.

Dr Marsden highlights the fact that leading AI chatbot firms, such as OpenAI, the company behind the recent headline-grabbing ChatGPT, are opening up their technology to others.

He says this is enabling mental health apps to use the best AI "with its vast knowledge, increasing reasoning ability, and proficient communication skills" to power their chatbots. Replika is one such provider that already uses OpenAI's technology.*

¿Encontrar la adecuada para cada uno; es pues, cuestión de mercado, que te ofrezcan la que te viene bien? ¿Cómo se hace esto? ¿Hay alguna "empatía" entre paciente solitario y máquina amigable en ciertos sentidos?

¿Es capaz de comprender el doctor Mardsen la diferencia entre el habla de la máquina y la suya? ¿Consideran que es lo mismo, que sería la misma charla con cualquier terapeuta? Eso sería convertirlos en máquinas que charlan. Si la terapia de la charla es solo por el hecho de charlar, lo podría hacer sin dar respuestas. Muchos tienen mascotas para poder hablar con ellas y suelen ser muy eficaces, aunque no entiendan lo que les están diciendo.

El doctor Marsden confía en que la IA mejore, que lo hagan "en conocimientos, aumento de la capacidad de razonar y mejora de sus habilidades comunicativas". ¿Será el caso? ¿Se romperá entonces el "consenso" señalado, sobre que la IA es solo un apoyo a la terapia real? El mismo especialista señala casi al final del texto sus esperanzas de mejora: «"New AI chatbot technology appears to be evolving skills for effective mental health support, including empathy and understanding of how the human mind works," he says.»* Muy optimista me parece el doctor Marsden.

No se manifiestan otros de la misma manera, ya sea por considerar que el encuentro real con el terapeuta es insustituible y el programa solo una forma de apoyo o por aquellos que consideran que se está tratando como un producto más y no como uno dentro del campo de la salud y, por ello, debería estar sujeto a más estricta observación de sus efectos.

Pero lo que ahora se puede vender como "terapia", mañana puede hacerlo simplemente como "compañía", como una forma de practicar habilidades sociales. Ya se nos dice que, por ejemplo, se usa para entrenar para entrevistas de trabajo. Los seres humanos somos muy hábiles encontrándole aplicaciones a los inventos. Una máquina de dialogar es algo más amplio que un chatbot terapéutico. ¿Por qué no ponerlo a disposición de todos los que deseen charlar, simplemente, como máquina de compañía?

El artículo recoge también otras percepciones más allá de las señaladas por los especialistas:

Not all users are happy at the change. One wrote on Reddit: "People who found a refuge from loneliness, healing through intimacy, suddenly found it was artificial not because it was an AI but because it was controlled by people."

La conciencia de estar siendo escuchado por una máquina tras la que hay alguien anula la naturaleza profunda de intimidad, de confidencialidad, que un encuentro que rompa la soledad requiere. La incapacidad para ver "humanidad" —"otredad", podríamos decir— en la máquina rompe las ilusiones en cadena. Pero ¿ver en una máquina una persona, no es ya un síntoma de cierta forma de enfermedad? ¿No sería eso parte del problema de la soledad moderna, del distanciamiento crónico? ¿No es la normalización de la conversación artificial ya una forma de patología? No parece verlo así Eugenia Kuyda, la jefa de Replika (nombre homenaje a los "replicantes" de Blade Runner, imaginamos), la empresa que fabrica los chatbots. Para ella lo correcto no es verlo como terapeuta, sino como "alguien que está permanente a nuestro lado, como compañía". Su perspectiva es desde la ampliación del mercado. Solo una parte de las personas que se sienten solas van a terapia de algún tipo.

Esa intimidad a dos que se muestra en el diálogo puede mantenerse con una máquina, pero solo como ilusión. Es precisamente esa conciencia de que tras la máquina que nos escucha puede haber, hay, humanos a los que desconocemos la que actúa como freno. 

La máquina guarda una copia de nosotros, la que se genera sobre la conversación, ¿pero qué podemos generar nosotros tras la conversación con la máquina, qué imagen de ella almacenamos? ¿Podemos sostener esa ficción? Creo que solo si hemos roto con el resto de la sociedad, con la que consideramos imposible crear lazos. ¿Pueden estas charlas con las máquinas, paradójicamente, aislarnos más, crearnos la peligrosa sensación de que no necesitamos a los otros?

Hay muchos aspectos de la IA que van hacia el ahorro de personas automatizando servicios y tareas. Pero automatizar un problema de soledad es una ficción peligrosa si se derrumba. Y es cuestión de tiempo que lo haga. Su éxito es precisamente mantener la ilusión. 

ABC 10/04/2023

* Jane Wakefield "Would you open up to a chatbot therapist?" BBC 3/04/2023 https://www.bbc.com/news/business-65110680


No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.