Joaquín Mª Aguirre (UCM)
En RTVE.es se nos ofrece por parte del equipo de VerificaRTVE un
interesante compendio de opiniones sobre el uso y consecuencias de la IA en
distintos campos. El artículo se titula "La democratización de los
asistentes de IA y su potencial para desinformar: las claves en 2025" y lo firma
Blanca Bayo, del VerificaRTVE.
El texto va desgranado la nueva situación de la IA. Creo que el uso de
"democratización" no es el más adecuado pues es una palabra con
connotaciones positivas, mientras que no es eso lo que nos muestra el recorrido
por usos y aplicaciones de la IA, De hecho, es esa "democratización",
entendida como "expansión" lo que forma parte del problema debido al
mal uso. ¿Llamaríamos "democratización" a repartir armas para todos
ante el crecimiento de la violencia? Probablemente solo Trump y los suyos lo
harían.
Se vuelve a usar la "democracia" en la primera de las entradas:
No estábamos preparados para la
democratización de los asistentes de IA
"Hay estudios que indican que casi la mitad de
la población de distintas edades está usando la IA para hacer consultas de
todo tipo: personales, educativas, sociales y hasta psicológicas", afirma
Pilar Sánchez-García, periodista y profesora de la Universidad de Valladolid.
Lucía Ortiz de Zárate Alcaraz, profesora de Filosofía Moral en la Universidad
Autónoma de Madrid, detalla que "la utilizamos para consultarle dudas
sentimentales, cuestiones psicológicas, problemas de trabajo para hacer la
lista de la compra, para charlar...". Aunque las especialistas consultadas
entienden las ventajas de aprender a utilizar asistentes de IA, coinciden en
que un mal uso puede ser peligroso.*
No sé si el uso masivo es sinónimo de "democracia" pero me parece
peligroso o, al menos, confuso que las IA se vea como la solución única al
futuro. Todo lo que se nos cuenta son precisamente "carencias"
sociales e individuales que el uso de la IA pretende, si no sanar, sí tapar
creando un clima de confianza. La IA no soluciona problemas, se adapta a ellos
como parte de un gigantesco negocio que genera inmenso beneficios y problemas
que se venden como soluciones. Es el gran negocio del siglo en el que estamos.
Son los problemas que tenemos lo que la hacen atractiva. Venderla como solución
es crear una dependencia psicosocial de enorme intensidad en una sociedad como
en la que nos encontramos, que se mueve al ritmo de la soledad, la inseguridad
y la violencia sistémicas.
Basta con aplicar la prueba de apagón para comprobarlo. ¿Qué ocurriría se
cortarán de golpe los accesos a la IA durante un tiempo? Cuando la dependencia
se haya consolidado empezará el gran
negocio.
No son ya pocas las voces que advierten de todo esto. Entre las consultas realizadas para el informe, me interesan especialmente las que afectan a la incapacidad de establecer qué es lo real:
Para Carmela Ríos, la clave está en el entorno en el
que consumimos la información: "El ciudadano empieza a interiorizar que
vive en ecosistemas de contenido donde la información y la desinformación,
donde la verdad y la mentira se mezclan de una forma orgánica porque la
tecnología es lo suficientemente sofisticada para que eso suceda." La
experta en redes sociales alerta del peligro de no enseñar a las personas a
"identificar y a buscar los espacios de verdad, de periodismo, donde hay
una información jerarquizada y ordenada", porque entonces van "a
dimitir de la verdad y de lo que puede ser informativamente relevante y va a
pasar a otro estadio, el del entretenimiento".
La profesora Lucía Ortiz de Zárate se manifiesta de
forma similar: "Hay una sensación generalizada de que no sabemos qué es
verdadero y qué es falso, pero procedente no solo de aquello que es producido
con inteligencia artificial". Asegura que "hay gente que desconfía de
las estadísticas que dan instituciones públicas que hasta ahora tenían toda su
confianza, hay una desconfianza por la información que dan los medios de
comunicación". Y, sin embargo, al mismo tiempo, tenemos una
"confianza casi ciega en la tecnología", lamenta. Para la
profesora de Filosofía Moral de la UAM, la desconfianza que genera no desbanca
ni de lejos la confianza generalizada que tiene la gente en la inteligencia
artificial porque el número de usuarios no deja de aumentar"*
Son estas cuestiones de fondo las que determinan nuestra actitud hacia otras muchas. Si se pierde la seguridad necesaria para creer saber, no queda nada en pie. Muchas de las cosas que "sé", las sé por mi confianza en lo que se me dice. La existencia de fuentes fiables es lo que genera el edificio de la confianza y nos permite actuar, tomar decisiones. Si debilitamos nuestra confianza y solo confiamos en la IA pasamos a estar en sus manos, a depender de ella. Gran parte del éxito e implantación de la IA se ha generado desde la desconfianza, que se ha atizado adecuadamente.
Detrás de cada IA no hay siglos de experiencia, sino enormes intereses económicos empeñados en obtener beneficios de nuestras debilidades e inseguridades. No dirán lo suficiente, no arreglarán nada.
Un mundo lleno de parches no es un buen futuro. No creamos soluciones, solo problemas rentables.
No dudo que haya un gran avance en la IA, pero sí dudo que eso que llaman su "democratización" sea el mejor camino. Nos decían en otro artículo hace unos días que los ciberdelincuentes usan ya la IA para sus delitos. Los cada vez más jóvenes que la dominan ya la usan para el acoso. Es solo una pequeña demostración de que se ha liberado una fuerza que no es fácil de controlar.
Los temores sobre el desempleo masivo empeoran las condiciones de los contratados, que viven con el miedo de ser sustituidos. La carreras se empiezan a elegir —eso recomiendan— conforme al grado de incidencia de la IA en los campos específicos. ¿Qué sentido tiene estudiar algo que la máquina hará sin diferencias?
Pero peores son sus efectos, como se señala, en la creación de un mundo "fake" que impida ver cualquier cosa que podamos llamar "realidad", "verdad", etc. Se nos cierran muchas puertas y se nos abren las de la inseguridad, la indefinición, lo que nos hará ser altamente manipulables, como ya nos demuestran con su uso de las imágenes en los Estados Unidos. En el texto se cita la conversión de la Gaza destruida, masacrada, en un resort de lujo por medio de la IA. No es solo un ejemplo, es una advertencia de sus posibles usos en la manipulación política.
La IA son muchas cosas, muchos campos abiertos. Pero cuantos más se abran, mayor será nuestra dependencia en los campos de aplicación. La manipulación de la realidad hace desaparecer nuestra confianza en ella, en lo que se ha hecho o se puede hacer. Hoy vemos a delincuentes defenderse diciendo que "no se reconocen" en las imágenes o en sus voces, dando a entender que han sido manipuladas con algún tipo de IA.
No creo que "democratización", un término positivo, sea el más adecuado en este caso, a menos que se tenga un sentido perverso de lo que es la democracia, algo hacia lo que cada vez se apunta más. Son ya muchos medios —entre ellos RTVE— que incluyen verificaciones de lo que les llega como información, datos o en cualquier otro estado. No tienen otro remedio. El nuestro es tratar de encontrar medios fiables, es decir, que verifiquen adecuadamente lo que publican.
Los fraudes de duplicaciones de webs, falsificaciones de datos, etc. se lo ponen fácil a los delincuentes, difícil a nosotros y beneficioso a los que crean todo esto, los que sacan tajada. Sin duda, el empleo del futuro será tratar de determinar qué es real y qué es falso.




































