lunes, 22 de mayo de 2023

La guerra mediática de la IA

 Joaquín Mª Aguirre (UCM)

El tratamiento informativo de la Inteligencia Artificial oscila entre la admiración por el logro y el aviso por los peligros que tiene. Estos últimos tienen un amplio abanico de posibilidades, las que van de la destrucción de empleo y la desaparición de profesiones a corto plazo a otras más apocalípticas con el fin de la Humanidad. Ambas tendencias, la de la curiosidad y la del miedo campan por nuestras páginas.

En 20minutos las dos tendencias viven equilibradas con tres titulares "Preguntan a ChatGPT sobre cómo van a ser las citas románticas en 2023 y este es el resultado", "Diez preguntas curiosas que puedes hacerle a Alexa y sus ocurrentes respuestas"  y "¿Otra profesión en peligro? Apple trabaja en un entrenador personal impulsado por IA". Una cuarta nos avisa de la instalación de malware en 9 millones de teléfonos.

En el primer caso podemos leer cosas más dignas de "tontería artificial" que otra cosa:

Wi-Vibe, firma de juguetes eróticos, recurrió a la ayuda de la inteligencia artificial a través de ChatGPT para saber qué tipo de citas tendrían lugar este año, y aunque es posible que mucha gente no se plantee en usar dicha tecnología para ser más ingenioso a la hora de ligar, la herramienta de OpenAI da ideas para aquellas personas que quieran innovar.

La compañía señala en una nota de prensa enviada a los medios que "al chatbot de inteligencia artificial se le introdujeron más de 40 tendencias de citas populares y sus descripciones", y después, "se le dio la orden de predecir las próximas ocho tendencias de citas que ocurrirán en 2023". *


Las anticipaciones sobre las "citas" incluyen tener citas con mascotas o citas "olfativas" en las que uno se encuentra con personas de olores compatibles. Todo un despliegue de trivialidad en la que el deseo (citas) debe ser resuelto por la máquina que nos asesora sobre cómo triunfar en este terreno. Una IA de este tipo, de cuestiones como las citas, es el enganche popular del tema. Lo trivial espera para que la máquina nos muestre el camino.

En el artículo sobre las preguntas a Alexa, nos encontramos cosas como esta:

Si le preguntamos a Alexa sobre su situación personal, nos responderá con evasivas. Por ejemplo: "Alexa, ¿tienes novio?". Nos responderá con un "Estoy felizmente soltera" o nos cantará una canción. Las respuestas pueden cambiar. Si le preguntamos: "Alexa, ¿quieres ser mi novia?". Puede responder con un "No estoy preparada para esos compromisos" o "Me gustas… pero solo como amigo", entre otras. 

Ante la pregunta indecente de "¿Cuánto pesas?", responderá: "Soy ingrávida, como una nube. Espera un minuto, las nubes realmente pesan mucho, ¡así que esa respuesta no me conviene!". ** 


Realmente el espectáculo universal de desarrollar estos algoritmos y toda esta potencia de procesamiento para un mundo de humanos aburridos es escalofriante por lo que muestra de nosotros mismos. Incluimos estos dos textos entre los positivos, ya que se nos anima a hacer este tipo de preguntas, es decir, preguntas tontas, triviales. En ellas, la IA se muestra como una especie de entretenimiento con que el que salir de nuestra apatía. Poco más. Mostrarnos a la IA como "predictiva" la convierte en una especie de tarot, de echadora de cartas de lo que va a ocurrir.

Creer en que lo que ocurrirá es predecible más allá de lo razonable es uno de los peligros que la IA tiene, no por sí misma, sino por el valor que nosotros otorguemos a las respuestas que nos dé.

El tercer artículo, el referido a la desaparición de "otra profesión", esta vez la de los entrenadores personales, entra en el capítulo "anticipación desastrosa". En el artículo podemos leer:

La irrupción de la inteligencia artificial en los puestos de trabajo ya se está dando y, según un informe de Goldman Sachs, se estima que afecte a unos 300 millones de empleos en el futuro. Aunque el uso de IA para algunas tareas no implique necesariamente la desaparición de profesionales en los sectores, es un miedo que muchos tienen en cuenta, más ahora que las empresas están trabajando en productos que sustituyen sus labores casi por completo.

Un informe de Apple al que el medio Bloomberg ha tenido acceso habla de una aplicación que tienen en mente que funcionaría con IA y tendría una utilidad similar a la de un entrenador personal. La plataforma recibe el nombre de 'Quartz' en el documento y ayudaría a mejorar hábitos de sueño, ejercicio y alimentación sin necesidad de contratar a un profesional.

El servicio se emplearía con un Apple Watch, el reloj inteligente de la marca, que tiene bastantes funciones enfocadas al mundo de la salud y el ejercicio. Con esta novedad con IA, los usuarios obtendrían sugerencias y programas de entrenamiento personalizados según lo que se busque conseguir y el nivel del que se parte.***

No sé si hay algo especial, pero este tipo de programas lleva bastante tiempo en el mercado con diferentes modelos de relojes que monitorean la actividad que se realiza, dan datos sobre la respuesta corporal, etc. Salvo algunas funciones que no se hayan propuesto hasta el momento, hace mucho tiempo que existen distintas ofertas de "entrenadores personales".

El artículo comienza con ese dato de Bloomberg que sirve de entrada a muchos otros: la predicción de la desaparición de millones de empleos por aplicación de la IA por parte de las grandes empresas, que ya han anunciado sus despidos y reconversiones, y la estimación de cómo afectará esto al mercado laboral en su conjunto

Se unen en el artículo la estimación de peligro y se toma un caso, el de los entrenadores personales, algo que no tiene demasiada gente y cuyo tamaño del sector no es fácil de calcular. Los relojes que miden nuestras constantes, los recorridos que hacemos, no muestran los kilómetros recorridos, presión, oxígeno en sangre, etc. llevan mucho tiempo en el mercado en alianza con nuestros teléfonos móviles que permiten procesar esa información. ¿Todavía no le ha echado una bronca su teléfono por dormir poco?

Estos son casos de interés mediático relativo. Se destinan a un público que no profundiza demasiado en el problema, pero al que se le despierta la curiosidad a la vez que se le introducen miedos sobre ciertos aspectos como el empleo o la seguridad de los datos. Este miedo provocado ya desde los titulares es una forma de atracción hacia el escrito más que hacia el problema en sí, que queda insuficientemente analizado en la mayoría de los casos. La IA se convierte entonces en un peligro o en una fuente de sorpresas según toque en cada momento.

Otro tipo de escritos que atraen hacia el problema lo encontramos en artículos sobre "arrepentidos", un género que se irá incrementando con el tiempo. En él caben artículos como el titulado "«Fui un completo idiota»: el error millonario que cometió Elon Musk con OpenAI y ChatGPT", en el que podemos leer: 

Elon Musk, dueño de Twitter, Tesla o SpaceX, es uno de los empresarios que más interés y preocupación han mostrado por la viralización de sistemas basados en inteligencia artificial (IA). El magnate incluso puso su firma hace unos meses en una carta en la que se pedía una moratoria en el desarrollo de esta tecnología con el fin de encontrar una solución a sus fallos y peligros.

Musk, no obstante, se encuentra entre los principales impulsores originales de OpenAI, la empresa detrás de la creación de esa máquina parlante capaz de responder a cualquier pregunta llamada ChatGPT. «Soy la razón de que exista OpenAI», afirmó el empresario durante una reciente entrevista con 'CNBC' en la que arrojó algo de luz sobre las razones por las que se decidió a invertir en IA a mediados de la década pasada.****


El género de los "arrepentidos" aporta la doble perspectiva del momento de ilusión por la IA y el posterior desengaño a causa de sus peligros o cualquier otra circunstancia que motive el desengaño. En estos se suele mostrar la necesidad de la regulación, algo que se reclama a la industria y a las autoridades para evitar males mayores derivados de los malos usos.

En muchos casos, este arrepentimiento es una especie de salvaguarda por lo que pudiera pasar, es decir, que se desarrollara una corriente negativa a la vista de los resultados. Pedir "regulación" no compromete a mucho, como podemos apreciar en el artículo:

Durante la entrevista, Musk apuntó que cuando firmó la carta que solicitaba una moratoria en el desarrollo de soluciones de inteligencia artificial más potentes que las que son accesibles actualmente lo hizo teniendo claro que esa pausa no se iba a dar, sin embargo, quería estar ahí.

Sea como fuere, el magnate anunció que está trabajando en el desarrollo de un chat inteligente que pretende competir con ChatGPT. Él lo llama TruthGPT y, según señala, será «una IA máxima que busca la verdad y trata de comprender la naturaleza del universo».**** 

Hay un tercer tipo de textos, los que predicen enormes males y apuntan a un desastroso cambio cultural, a una apertura de la caja de Pandora. Se trata en estos casos de las respuestas que diversos tipos de intelectuales dan cuando son requeridos o sienten que deben intervenir avisando de los peligros y desafíos que la IA trae para el mundo actual y los posibles futuros.

En 20minutos nos encontramos con una breve declaración de Yuval Noah Harari, el profesor y ensayista israelí, que lleva el tema de la IA al titular en la página de la cadena SER: 

También ha avisado del peligro que supone el uso indebido de la inteligencia artificial (IA), un avance científico que llegará a cuestionar el término “humano” y que, dada la velocidad a la que se está desarrollando, ya está asustando a muchos expertos. Su discurso es apasionado e invita al debate. Alerta de que, entre sus muchos peligros, puede convertirse en una amenaza para las democracias: “Pensemos en las conversaciones políticas, por ejemplo. Al final la democracia es una conversación, muchas personas hablando sobre temas importantes para tomar una decisión. Si podemos crear seres humanos falsos podemos también destruir la conversación pública. Estos bots no tienen opinión, están al servicio de alguien”. Las democracias dependen de la conversación y la opinión pública y la IA puede socavarlas: “Por primera vez en la historia hemos inventado algo que nos arrebata el poder, no sé si podremos sobrevivir a ella”, explica. Este israelí se ha convertido en una suerte de gurú admirado por intelectuales y políticos de todo el mundo. A su paso por Madrid también ha compartido conversación en torno a los avances de la inteligencia artificial y el papel que la ciencia debe tener en el siglo XXI con el presidente del Gobierno, Pedro Sánchez, en un encuentro mantenido el jueves por la mañana en La Moncloa.*****

La introducción de la IA con ese "también" nos coloca al borde de peligro. No es solo la IA, sino también la biotecnología entre otros lo que nos arrastra hacia un futuro oscuro en el que las máquinas "hablan" sin tener realmente un compromiso. La democracia es diálogo, nos viene a decir Harari, y esté debe ser entre humanos. Si perdemos al interlocutor, nos perdemos a nosotros mismos.

Estos avisos de personas de renombre se combinan con otros en los que determinadas empresas e instituciones comienzan a ver el peligro de ese diálogo sin interlocutor real, lo que impide la responsabilidad de la máquina por los errores que pueda cometer. ¿A quién quejarse por un mal asesoramiento o una respuesta errónea? Si aceptamos la "Inteligencia" de la máquina no estamos equivocando, pues no dan más que lo que pueden construir partiendo de nosotros mismos. Los creadores de la IA han sabido desde el principio camuflar su ignorancia o, si se prefiere, su incapacidad para procesar ciertos asuntos que no son cuestión de la inteligencia que la máquina pueda abordar.

La máquina crea una ilusión dialógica; parece que conversa con nosotros, pero en realidad no es eso lo que hace ya que no nos considera reales; solo lo es para ella lo que puede procesar. Su realidad es distinta de la nuestra. Eso sí, puede fingir ser como nosotros de forma programada. Sigue siendo la base del Test de Turing.

En los medios se entremezclan atracción y repulsión, críticas y deslumbramientos, trivialidad y profundidades culturales. El tema es serio por lo que nos afecta, algo que va más allá de la regulación. Muchos sectores, como la enseñanza, pueden sufrir un choque calamitoso.

Los diferentes enfoques del evidente despliegue mediático lo son porque favorecen a alguien o se busca algún resultado, como el mejoramiento de la imagen; igualmente, lo sectores perjudicados comienzan ya a lanzar sus mensajes a la opinión pública. Un gran debate se avecina.  


* "Preguntan a ChatGPT sobre cómo van a ser las citas románticas en 2023 y este es el resultado", 20minutos 20bits 20/05/2023 https://www.20minutos.es/tecnologia/inteligencia-artificial/chatgpt-predice-tendencia-citas-amorosas-2023-5128373/

** Isa Espín "Diez preguntas curiosas que puedes hacerle a Alexa y sus ocurrentes respuestas" 20minutos / 20bits 21/05/2023 https://www.20minutos.es/tecnologia/moviles-dispositivos/diez-preguntas-curiosas-alexa-respuestas-graciosas-5128562/

*** Raquel Holgado "¿Otra profesión en peligro? Apple trabaja en un entrenador personal impulsado por inteligencia artificial" 20minutos / 20bits 21/05/2023  https://www.20minutos.es/tecnologia/inteligencia-artificial/apple-watch-entrenador-personal-inteligencia-artificial-5128072/

**** R.A. "«Fui un completo idiota»: el error millonario que cometió Elon Musk con OpenAI y ChatGPT" ABC 21/05/2023 https://www.abc.es/tecnologia/informatica/soluciones/completo-idiota-error-millonario-cometio-elon-musk-20230521001540-nt.html

***** Beatriz Nogal "El aviso de Yuval Noah Harari: "Si la IA se escapa de nuestro control podríamos estar ante el final del Homo Sapiens"" Cadena SER 20/05/2023 https://cadenaser.com/nacional/2023/05/20/el-aviso-de-yuval-noah-harari-si-la-ia-se-escapa-de-nuestro-control-podriamos-estar-ante-el-final-del-homo-sapiens-cadena-ser/?afl=20m



No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.