Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

sábado, 24 de enero de 2026

De lo ficticio de Matrix al zen de la IA

 Joaquín Mª Aguirre (UCM)

Antes de ponerme a escribir hoy me detengo en un documental sobre Matrix que me ofrecen en TV. Se cierra el documental con Keanu Reeves y Carrie Ann-Moss cuando este le refiere una anécdota al tratar de explicar a unos niños el sentido de las películas de la serie, el problema de la incapacidad de distinguir entre una vida real y otra ficticia. Dice Reeves que le contestaron qué para qué querían saberlo, qué importancia tenía saberlo y no simplemente vivir cualquiera de ellas. Las miradas de los dos actores se cruzan con las de un imaginario espectador que, como ellos, no acaba de entenderlo.

El documental nos deja este final, no con preguntas, sino con la inutilidad de preguntarse. La película ha sido interpretada al contrario de su planteamiento. Es un Matrix satisfecho.

Cuando me acerco a mi ordenador veo el artículo que dejé abierto para comentarlo en el blog de hoy. Se trata de un texto recogido en la sección "Una mirada europea" de RTVE.es, en la que se encuentran artículos aparecidos en medios europeos. Esta vez se trata de uno aparecido en Suiza, en la página de EBU.ch este pasado 20 de enero con el titular "Yang Mun: el personaje generado por la IA de Google con millones de seguidores en el mercado del bienestar". Podemos leer en su inicio: 

Un sanador de estilo oriental que ofrece consejos de vida basados en la "antigua filosofía china" a sus millones de seguidores fue creado con la IA de Google

Con millones de seguidores, Yang Mun y sus vídeos sobre "sabiduría antigua para la vida moderna" han calado hondo entre los usuarios de las redes sociales que buscan un significado más profundo.

Los vídeos son serenos: un monje anciano de Asia Oriental, a menudo con una túnica naranja, sentado con las piernas cruzadas en un jardín perfectamente cuidado o en el interior de un templo. A veces tiene un libro delante, y en todos los vídeos da un consejo o sirve de inspiración.

"Cuanto antes aprendas esto, más ligera sentirás tu vida. La mayor parte de tu sufrimiento no proviene de lo que está sucediendo. Viene de la resistencia a lo que es. Luchas contra el momento", dice en uno de sus últimos vídeos.

En otra: "Veo lo cansado que estás. No sólo en el cuerpo, sino en el lugar donde el corazón lo mantiene todo unido. Has estado cargando más de lo que muestras". A veces, se refiere a los espectadores como "mi niño".

Los sentimientos son positivos y generalizados, pero se inspiran en tradiciones orientales, en particular el budismo, a juzgar por la ropa y las estatuas que se ven de fondo en algunos de los vídeos.

Hasta ahora, nada parece ir mal, excepto que Yang Mun no es real.* 

Creo que la pregunta que le hicieron a Keanu Reeves —¿qué importa qué sea real y qué ficción?— se contesta con la falta de importancia de que "Yang Mun" lo sea. Las máquinas han ganado o quizá sea mejor decir "los que están detrás de ellas" en esa fusión de un nuevo capitalismo tecnológico. Ya no es problema inicial del desarrollo del maquinismo, de las máquinas que realizan el trabajo humano y lo sustituyen; tampoco es el momento en el que el mundo se convierte en mercado de esas mercancías y producen el consumismo.

Ahora ya no somos capaces —tampoco nos importa— de distinguir dónde empieza lo real y dónde lo ficticio. Lo ficticio, además, puede ser "verdadero" o "fake" y esto no es marginal, sino parte del consumo de información. En el documental sobre Matrix se nos habla directamente del presidente de los Estados Unidos  y su manejo de lo "fake".

Hoy no se trata, como los luditas de antaño, de enfrentarse a las máquinas. Las máquinas se parecen a nosotros y nosotros a las máquinas. Compartimos nuestra soledad con los asistentes de IA, que nos aconsejan bien o nos incitan al suicidio. Nos diagnostican charlando con nosotros o analizando el iris de nuestros ojos. Muchos evitan los problemas de pareja haciendo un sitio en su corazón a la IA. Creemos vencer a la muerte creando un avatar de nuestros seres queridos al que hemos entrenado con información sobre ellos. No nos importa que nada de esto sea "real".

¿Qué significa "real"? ¿No es mejor vivir en una fantasía satisfactoria que en la dura realidad? ¿Qué significa, por cierto, "vivir"?

¿Qué significa que un cuadro haya sido pintado por un humano o por una computadora? ¿Qué significa que la literatura que nos guste no haya sido elaborada por una máquina tras conocer nuestros deseos en vez de por un humano atribulado que nos traslada sus frustraciones? ¿Por qué poner nuestra salud en manos de un humano mortal? ¿Qué significan tantas otras cosas?

Los humanos vamos degenerando con el tiempo, envejecemos; las máquinas mejoran cada día en sus versiones, siempre a la última, siempre en su mejor momento. Las máquinas inteligentes derivadas de la IA no solo nos informan, solucionan nuestros problemas. Nos hacen depender de ellas, nos incapacitan para afrontar algo que no acabamos de asumir: nuestra imperfección. Ser humano era hasta este momento una tarea centrada en asumir nuestro carácter de mortales. Esa era la base de la filosofía, de las religiones, del arte... hacernos conscientes de nuestra mortandad. Pero la base de la IA, pese a lo que diga el perfecto maestro oriental Yang Mun, es hacernos felices en la inconsciencia. Es una mezcla del producto perfecto del mercado y nuestra capacidad de autoengaño. El consumo ha avanzado hasta el siguiente nivel: consumirnos a nosotros mismo envueltos en los ropajes de la satisfacción ficticia.

Hace tiempo que muchos viven de aumentar nuestras necesidades físicas o mentales. Los problemas son rentables y muchos viven de ellos. Baratos, pueden ser muy rentables. Las IAs crecen por eso. No hay ni altruismo ni sabiduría tras el maestro zen artificial, solo una cuidadosa forma de contentarnos con lo que queremos escuchar.

El artículo de la publicación suiza habla del "mercado del bienestar", una fórmula más ajustada de lo que parece. El "bienestar" no es la "felicidad"; es otra cosa, algo intermedio entre cuerpo y mente, ligado a ambos en un punto oscuro que puede ser interpretado de muchas maneras y, por tanto, satisfecho de formas diferentes.

En vez de enfrentarnos a ello, buscamos respuestas que se nos dan porque aparentemente eliminan conflictos. ¿Por qué intentar dilucidar qué es real y qué ficticio? Cansados ya de preguntarnos sobre cosas sin solución, avanzamos hacia el engaño gratificante, hacia un "mundo feliz" en el que se nos estudia para conocer nuestros miedos y carencias para darnos una repuesta-producto. Siempre habrá otra cuando esta no nos satisfaga. 

* Una mirada europea: "Yang Mun: el personaje generado por la IA de Google con millones de seguidores en el mercado del bienestar" RTVE.es /EBU.ch 20/01/2026

viernes, 2 de enero de 2026

Los problemas de la IA

 Joaquín Mª Aguirre (UCM)

En RTVE.es se nos ofrece por parte del equipo de VerificaRTVE un interesante compendio de opiniones sobre el uso y consecuencias de la IA en distintos campos. El artículo se titula "La democratización de los asistentes de IA y su potencial para desinformar: las claves en 2025" y lo firma Blanca Bayo, del VerificaRTVE.

El texto va desgranado la nueva situación de la IA. Creo que el uso de "democratización" no es el más adecuado pues es una palabra con connotaciones positivas, mientras que no es eso lo que nos muestra el recorrido por usos y aplicaciones de la IA, De hecho, es esa "democratización", entendida como "expansión" lo que forma parte del problema debido al mal uso. ¿Llamaríamos "democratización" a repartir armas para todos ante el crecimiento de la violencia? Probablemente solo Trump y los suyos lo harían.

Se vuelve a usar la "democracia" en la primera de las entradas:

No estábamos preparados para la democratización de los asistentes de IA

"Hay estudios que indican que casi la mitad de la población de distintas edades está usando la IA para hacer consultas de todo tipo: personales, educativas, sociales y hasta psicológicas", afirma Pilar Sánchez-García, periodista y profesora de la Universidad de Valladolid. Lucía Ortiz de Zárate Alcaraz, profesora de Filosofía Moral en la Universidad Autónoma de Madrid, detalla que "la utilizamos para consultarle dudas sentimentales, cuestiones psicológicas, problemas de trabajo para hacer la lista de la compra, para charlar...". Aunque las especialistas consultadas entienden las ventajas de aprender a utilizar asistentes de IA, coinciden en que un mal uso puede ser peligroso.*

No sé si el uso masivo es sinónimo de "democracia" pero me parece peligroso o, al menos, confuso que las IA se vea como la solución única al futuro. Todo lo que se nos cuenta son precisamente "carencias" sociales e individuales que el uso de la IA pretende, si no sanar, sí tapar creando un clima de confianza. La IA no soluciona problemas, se adapta a ellos como parte de un gigantesco negocio que genera inmenso beneficios y problemas que se venden como soluciones. Es el gran negocio del siglo en el que estamos. Son los problemas que tenemos lo que la hacen atractiva. Venderla como solución es crear una dependencia psicosocial de enorme intensidad en una sociedad como en la que nos encontramos, que se mueve al ritmo de la soledad, la inseguridad y la violencia sistémicas.

Basta con aplicar la prueba de apagón para comprobarlo. ¿Qué ocurriría se cortarán de golpe los accesos a la IA durante un tiempo? Cuando la dependencia se haya consolidado empezará el gran negocio.

No son ya pocas las voces que advierten de todo esto. Entre las consultas realizadas para el informe, me interesan especialmente las que afectan a la incapacidad de establecer qué es lo real: 

Para Carmela Ríos, la clave está en el entorno en el que consumimos la información: "El ciudadano empieza a interiorizar que vive en ecosistemas de contenido donde la información y la desinformación, donde la verdad y la mentira se mezclan de una forma orgánica porque la tecnología es lo suficientemente sofisticada para que eso suceda." La experta en redes sociales alerta del peligro de no enseñar a las personas a "identificar y a buscar los espacios de verdad, de periodismo, donde hay una información jerarquizada y ordenada", porque entonces van "a dimitir de la verdad y de lo que puede ser informativamente relevante y va a pasar a otro estadio, el del entretenimiento".

La profesora Lucía Ortiz de Zárate se manifiesta de forma similar: "Hay una sensación generalizada de que no sabemos qué es verdadero y qué es falso, pero procedente no solo de aquello que es producido con inteligencia artificial". Asegura que "hay gente que desconfía de las estadísticas que dan instituciones públicas que hasta ahora tenían toda su confianza, hay una desconfianza por la información que dan los medios de comunicación". Y, sin embargo, al mismo tiempo, tenemos una "confianza casi ciega en la tecnología", lamenta. Para la profesora de Filosofía Moral de la UAM, la desconfianza que genera no desbanca ni de lejos la confianza generalizada que tiene la gente en la inteligencia artificial porque el número de usuarios no deja de aumentar"*

Son estas cuestiones de fondo las que determinan nuestra actitud hacia otras muchas. Si se  pierde la seguridad necesaria para creer saber, no queda nada en pie. Muchas de las cosas que "sé", las sé por mi confianza en lo que se me dice. La existencia de fuentes fiables es lo que genera el edificio de la confianza y nos permite actuar, tomar decisiones. Si debilitamos nuestra confianza y solo confiamos en la IA pasamos a estar en sus manos, a depender de ella. Gran parte del éxito e implantación de la IA se ha generado desde la desconfianza, que se ha atizado adecuadamente.

Detrás de cada IA no hay siglos de experiencia, sino enormes intereses económicos empeñados en obtener beneficios de nuestras debilidades e inseguridades. No dirán lo suficiente, no arreglarán nada.

 Un mundo lleno de parches no es un buen futuro. No creamos soluciones, solo problemas rentables.

No dudo que haya un gran avance en la IA, pero sí dudo que eso que llaman su "democratización" sea el mejor camino. Nos decían en otro artículo hace unos días que los ciberdelincuentes usan ya la IA para sus delitos. Los cada vez más jóvenes que la dominan ya la usan para el acoso. Es solo una pequeña demostración de que se ha liberado una fuerza que no es fácil de controlar.

Los temores sobre el desempleo masivo empeoran las condiciones de los contratados, que viven con el miedo de ser sustituidos. La carreras se empiezan a elegir —eso recomiendan— conforme al grado de incidencia de la IA en los campos específicos. ¿Qué sentido tiene estudiar algo que la máquina hará sin diferencias?

Pero peores son sus efectos, como se señala, en la creación de un mundo "fake" que impida ver cualquier cosa que podamos llamar "realidad", "verdad", etc. Se nos cierran muchas puertas y se nos abren las de la inseguridad, la indefinición, lo que nos hará ser altamente manipulables, como ya nos demuestran con su uso de las imágenes en los Estados Unidos. En el texto se cita la conversión de la Gaza destruida, masacrada, en un resort de lujo por medio de la IA. No es solo un ejemplo, es una advertencia de sus posibles usos en la manipulación política.

La IA son muchas cosas, muchos campos abiertos. Pero cuantos más se abran, mayor será nuestra dependencia en los campos de aplicación. La manipulación de la realidad hace desaparecer nuestra confianza en ella, en lo que se ha hecho o se puede hacer. Hoy vemos a delincuentes defenderse diciendo que "no se reconocen" en las imágenes o en sus voces, dando a entender que han sido manipuladas con algún tipo de IA.


Este mundo se ha ideo creando ladrillo a ladrillo. Cada vez tenemos menos decisión, pues la duda se ha sembrado sobre todo. Ya no sabes quién habla, qué es real, o cómo ha sido el camino hasta llegar a aquí. Esto, como estado de cosas, no es el más recomendable.

No creo que "democratización", un término positivo, sea el más adecuado en este caso, a menos que se tenga un sentido perverso de lo que es la democracia, algo hacia lo que cada vez se apunta más. Son ya muchos medios —entre ellos RTVE— que incluyen verificaciones de lo que les llega como información, datos o en cualquier otro estado. No tienen otro remedio. El nuestro es tratar de encontrar medios fiables, es decir, que verifiquen adecuadamente lo que publican.

Los fraudes de duplicaciones de webs, falsificaciones de datos, etc. se lo ponen fácil a los delincuentes, difícil a nosotros y beneficioso a los que crean todo esto, los que sacan tajada. Sin duda, el empleo del futuro será tratar de determinar qué es real y qué es falso


* Blanca Bayo "La democratización de los asistentes de IA y su potencial para desinformar: las claves en 2025"  RTVE.es /VerificaRTVE 1/01/2025 https://www.rtve.es/noticias/20260101/democratizacion-asistentes-potencial-desinformar-claves-ia-2025/16879643.shtml


martes, 30 de septiembre de 2025

De ministra a actriz, la IA reina

 Joaquín Mª Aguirre (UCM)

Albania ha hecho lo que muchos habrán pensado, pero nadie se ha atrevido a hacer: crear una "ministra" con Inteligencia Artificial para tratar de reducir la corrupción del país.

Le han puesto por nombre "Diella" y si no te dicen que está hecha con IA no se nota la diferencia a primera vista. En la Deutsche Welle nos dan cuenta del escándalo entre los políticos de la posición y los debates sociales, con filósofos incluidos que especulan sobre los que pueda ocurrir con la democracia en general y con la ministra en concreto.

Por ahora se sigue debatiendo y las cuestiones tenidas en cuenta son diversas: 

"Diella no duerme nunca, no necesita que le paguen, no tiene intereses personales, no tiene primos, y los primos son un gran problema en Albania", recalcó el primer ministro, cuyo país ocupa el 80º puesto de 180 en la clasificación sobre corrupción de la oenegé Transparencia Internacional.

Según reportó la agencia dpa, Rama agregó que la IA "reuniría a los mejores talentos del país, a los albaneses de la diáspora y a expertos extranjeros" y "transformaría las instituciones en plataformas de desarrollo de IA".

Durante una sesión parlamentaria, Diella habló por video, presentándose como la "ministra de estado para inteligencia artificial", diciendo que su misión era facilitar el trabajo gubernamental diario.*

No sé si convencerá. Algunos temen que no tenga primos, pero tenga "sesgos", es decir, que como tiene que aprender de los humanos estos no sean los mejores maestros y acabe teniendo familia o algo así.

Hay que estar muy hartos de las discusiones interminables y sin sentido de la política (mal ya universal) para lanzarse a esta utilización de la IA. Pero vemos muy lanzado al primer ministro y muy a la defensiva a la oposición. Si funciona, será un dinero bien invertido. Pero sí es cierto que tendrá efecto sobre la forma de ver la política y, en última instancia, a los propios seres humanos.

El caso es de ciencia-ficción. La cuestión es hacia qué tipo de gobiernos vamos si se demuestra que los humanos acabamos pervirtiendo las instituciones que deben gobernarnos y acabamos dejándolo en manos de la IA.

Pero esto de la IA es polémico en muchos campos. En el Cinemanía de 20minutos, Daniel de Partearroyo titula un nuevo sobresalto de la IA: "Tilly Norwood, la primera actriz 100% creada por IA, pone en alerta a Hollywood: lluvia de críticas contra "la próxima Scarlett Johansson""**. En el artículo nos da cuenta esta vez del nacimiento de una futura estrella de las películas:

El nombre de Tilly Norwood ha resonado durante este fin de semana en todas las conversaciones de Hollywood, pero no como sucede otras veces con la eclosión de una nueva estrella que la industria convierte en su nueva obsesión. Esta vez se trata de una actriz creada enteramente por Inteligencia Artificial. 

Tilly Norwood no existe nada más que en los códigos de la empresa Xicoia, una división especializada en inteligencia artificial del estudio Particle6, propiedad de la productora Eline Van der Velden. Ella asegura que han tenido varias reuniones con agencias de talento muy interesadas en contratar los servicios de la actriz. 

"En los próximos meses anunciaremos a su representante", anunció Van der Velden en un evento recogido por Deadline. La productora asegura que la predisposición de los estudios de Hollywood a emplear esta tecnología en proyectos de alto calibre se ha ido acrecentando, dejando paulatinamente atrás posturas más reacias. **



Parece, según lo contado, que los estudios le dan trayectoria a la nueva estrella. No piensan lo mismo los actores que, como en el caso anterior, ven peligrar su futuro.

Hasta ahora el cine tenía en la rivalidad entre actores reales y de animación un conflicto llevadero ¿Es Tom Hanks mejor que Mickey Mouse o Bugs Bunny? Ya en aquella película experimental de Robert Zemeckis, "¿Quién engañó a Roger Rabbit?", se ponían las cosas tensas entre actores y dibujos, pero esto es ya otra cosa.



Ya hubo algunos conflictos cuando se empezó a usar la voz clonada de actores conocidos en nuevas películas para las que no eran contratados. La industria siempre ha sido un poco pirata, Empezarán ahora los conflictos con el entrenamiento a base de películas ya existentes.

Lo cierto es que la formación artística de los actores ya no tendrá que pasar por el Actor's Studio. Ya había casos en los que se podía clonar la cara de unos actores cambiándola por otra. Ya no son solo las voces, sino los actores al completo. ¿Habrá pronto un premio Oscar para esta modalidad de actores? Seguro que sí, como que habrá plantes de los actores reales. La imagen de Tilly Norwood que ha trascendido preocupará a más de uno por su "naturalidad" y posibilidades. Pasaremos del "Star system" al "IA system" como esto les funcione.

Como en la política, también se abren aquí muchas dudas. La IA comienza a ofrecerse como una alternativa a demasiadas cosas. En el siglo XVIII hubo quienes se rebelaron contra las máquinas. No sirvió de mucho. Veremos ahora.

 

 

* "Albania nombra ministra con IA: expertos alertan riesgos" DW 23/09/2025 https://www.dw.com/es/revolución-digital-llega-a-gobiernos-albania-nombra-su-primera-ministra-creada-por-ia/a-74113153

** Daniel de Partearroyo "Tilly Norwood, la primera actriz 100% creada por IA, pone en alerta a Hollywood: lluvia de críticas contra "la próxima Scarlett Johansson"" 20minutos / Cinemanía 29/09/2025 https://www.20minutos.es/cinemania/noticias/actriz-tilly-norwood-creada-ia-alerta-hollywood-criticas_6373165_0.html

lunes, 22 de septiembre de 2025

¡Cuidado con la IA!

 Joaquín Mª Aguirre (UCM)

Los debates sobre la inteligencia artificial están a la orden del día. No hay medio que no incorpore alguna noticia en la que se aplaude o se advierte por sus efectos sobre las personas. De las advertencias sobre sus efectos sobre el empleo a las que tienen la salud mental como centro, la IA está en el debate diario.

Tengo serias dudas de que todos estos datos negativos que salen sirvan para frenar lo que se presenta como el gran negocio del siglo. Cuando hay dinero por medio —y hay mucho en juego, tanto en inversión y desarrollo como en ahorro—, no es fácil que esto vaya por un camino que no afecte social y personalmente. Nadie le va a poner puertas al campo de la IA.

En el diario ABC hoy toca la vía de la salud mental y las siempre morbosas noticias sobre posibles suicidios debidos al uso de la IA de diversos modos. Con el titular "¿Pueden las conversaciones con la IA producirnos psicosis? Esto es lo que dice la ciencia", Jorge Herrero nos informa de unos casos preocupantes, aquellos en los que conversar con "chats" puede ser negativo para las personas:

En los últimos meses, psicólogos y psiquiatras han empezado a prestar atención a un fenómeno que parecía impensable, personas que, tras mantener conversaciones prolongadas con chatbots como ChatGPT o Microsoft Copilot, desarrollan episodios psicóticos. La cuestión es compleja y la evidencia aún escasa, pero la inquietud se ha instalado en la comunidad científica.

De acuerdo con un trabajo preliminar publicado recientemente, al menos 17 personas han manifestado cuadros de psicosis después de interactuar con estas herramientas. Los afectados llegaron a experimentar lo que describieron como 'despertares espirituales' o la revelación de supuestas conspiraciones, en un contexto en el que dejaron de distinguir entre lo real y lo imaginario.* 

Vaya por delante una primera consideración: aquellos que mantienen conversaciones con máquinas de este tipo ya manifiestan una cierta predisposición hacia esos estados en los que, como se nos dice, lo real y lo imaginario no se distinguen demasiado bien.

Por eso, se añade poco después la siguiente matización sobre los efectos detectados:

El trastorno psicótico se caracteriza por una alteración profunda en la percepción de la realidad: aparecen alucinaciones, delirios y creencias firmemente sostenidas aunque sean falsas. Tradicionalmente, sus causas se han relacionado con enfermedades como la esquizofrenia, el trastorno bipolar, situaciones de estrés extremo o el consumo de alcohol y drogas. Que la inteligencia artificial pueda sumarse a estos desencadenantes es todavía una hipótesis, pero ya ha sido bautizada de forma informal como 'psicosis de la IA'.*

No sabemos si es la IA la que lo produce o sencillamente son los que se sienten atraídos por esas conversaciones con ella los que se precipitan en esos estados para los que están predispuestos.

Recordemos el caso que ha estado en los medios recientemente del joven suicida tras refugiarse con la IA en conversaciones continuadas. La familia del suicida acabó demandando a la empresa que comercializa la IA en cuestión. La hacen responsable del suicidio.

BBC 27/08/2025

Como "amiga", la IA no parece darnos demasiados buenos consejos o, al menos, no trascienden. Si lo hacen, sin embargo, aquellos que acaban trágicamente. Lo que ocurre es que en este mundo mercantilizado, cada vez más la salud depende de los diagnósticos, consejos o recomendaciones que la IA nos haga. Esto es especialmente peligroso en los casos en los que se trata de la salud mental, un campo cada vez más amplio y complejo en el que la asistencia requiere de buenos especialistas.

La soledad se extiende por nuestras sociedades postindustriales. Ahora se ha acuñado el término "soledad no deseada", una situación que afecta especialmente a los más jóvenes y a los mayores. La agresividad que nos rodea —del acoso escolar a la violencia de género— nos hace tratar de encontrar refugio en una soledad que pronto se hace difícilmente soportable.

La tentación de refugiarse en la IA de turno es grande y no siempre fiable ni con garantías. No tiene los mismos efectos en las personas. De forma sinuosa y envolvente, la IA puede llevarnos a extremos aparentemente lógicos para aquellos que no desean seguir sufriendo. La salida, en ocasiones, es trágica.

Es poco probable que las máquinas de IA sean capaces de desarrollar algo que se ha denominado "Teoría de una mente", es decir, la capacidad humana de ponernos en la mente del otro y ajustar nuestra comunicación a la situación. Puede que la máquina nos diga siempre la verdad, pero puede ser que sea otra cosa lo que necesitamos en ese momento.

En ABC dicen que la "ciencia" nos advierte. ¿Sirve de algo? 

 

* Jorge Herrero "¿Pueden las conversaciones con la IA producirnos psicosis? Esto es lo que dice la ciencia" ABC 21/09/2025 https://www.abc.es/sociedad/pueden-conversaciones-ia-producirnos-psicosis-dice-ciencia-20250921172532-nt.html

lunes, 4 de agosto de 2025

La omnipresente IA y sus peligros

 Joaquín Mª Aguirre (UCM)

De una forma u otra está por todas partes. Me refiero a la IA, que se ha colado en nuestras portadas en forma de las más variadas noticias, con algo en común en la mayoría de los casos, las advertencias sobre las consecuencias que tiene en los más diversos sectores.

A veces se refieren a los problemas generales que causa, pero en otras ocasiones se trata de elementos muy concretos. Así, de lo más general a lo más puntual, se va tejiendo una imagen de la IA que no parece preocupar a los que la imponen.

Las muestras de los efectos de la IA van del uso que Donald Trump hace para sus manejos políticos, como el video del falso "Gaza resort" o la falsificación de todo tipo de imágenes, hasta la queja de los actores de doblaje que ven como se dan sus grabaciones a la IA para que "aprenda", lo que permite tanto imitar sus voces sin que se puedan distinguir o camuflar la copia variando el tono. Los actores se preocupaban inicialmente de no ser copiados; ahora introducen una cláusula para tratar de evitar que sus voces se den a la IA para que comprenda sus pautas en la dicción. Los actores de doblaje o los locutores creen que tienen "algo" que la máquina no puede aportar, un intento de defensa. Saben que la máquina inteligente lo es precisamente por su capacidad de imitar el fondo y la forma.

Otros van a por la IA desde perspectivas. En Antena 3 Noticias, Tania Taboada nos advierte sobre la IA desde el titular "Se dispara el uso de la Inteligencia Artificial entre menores en verano" y tras consulta a especialistas señala que

[...] los expertos consultados apuntan al peligro de los algoritmos, que en el caso de la Inteligencia Artificial, tienen ya carga emocional y pueden provocar que un joven se enamore de un 'bot' o "tenga un amigo invisible, que le da la razón en todo". "Los 'bot' conversacionales pueden acabar generando una dependencia aún mayor porque son prescriptores de cosas que comprar o que hacer", avisan los profesionales, que advierten de que con la IA generativa "la gente establece incluso relaciones terapéuticas, como ir al psicólogo".*

Ya no se trata solo del "trabajo", sino que considera una relación enfermiza creada por la combinación de la "adicción" a las pantallas y del rol emocional que la IA puede ofrecer a los niños y adolescentes. Califica al Chat GPT como el "amigo disponible la 24 horas del día" y uno de los consultados lo califica como "un compañero que intentará ganarse su confianza"*.

Es probable que quien tenga que atender al niño adicto al amigo imaginario artificial sea un psicólogo artificial, creado con el mismo programa o a otro desarrollado para estos casos.

Entre el desempleo y la seducción, la IA se mueve a través de los titulares mediáticos. Psicólogos, economistas, filósofos, sindicalistas... no dejan de advertirnos de los líos en los que nos estamos metiendo.

Cuando la IA aprenda a cuidarse a sí misma, algo en lo que ya estamos. Sobraremos todos menos los esenciales que se van reduciendo gracias al aprendizaje de la propia IA. Realmente, lo único que será esencial serán los compradores finales de sus servicios y conocimientos, que serán cada vez menos pues la gran mayoría verá disminuida su capacidad de compra porque estará en el paro gracias a la propia IA.

Esto no es ni paradójico ni irónico. La IA no garantiza la "inteligencia" en su uso, es decir, los que deciden aplicarla. Si los niños y jóvenes logran por fin que su "amigo imaginario" les responda y ahorrarse las relaciones con otras personas, desde las empresas que aplican la IA la ventaja es el ahorro. A corto plazo, sin duda es un ahorro. Pero cuando en una sociedad se produce una gran caída de la contratación o los ricos gastan mucho o las ventas decaen precisamente porque no se le podrá exigir al parado que gaste lo que no tiene. Es la lógica del mercado cuando se desequilibra y esto está ocurriendo ya con el aumento de los sectores afectados.

Hay otro lado de la IA que estamos viendo en los medios: los fraudes, que se disparan ante la imposibilidad de la comprobación de la realidad de lo que se nos muestra. Por todas partes nos llegan noticias o simplemente lo intentan con nosotros. En 20mintos titulan "Cuidado con un mensaje de la IA de Meta que amenaza con suspender tu cuenta: es un timo"**, un ejemplo más de una inacabable lista de posibles timos.

La lista de males de la IA aumenta cada día, según crece la aplicación y las regulaciones brillan por su ausencia. No se sabe muy bien quién debería vigilar esto, pues los mismos responsables de hacerlo probablemente la está usando. Esto ya no es Ciencia-Ficción, sino una realidad palpable, algo que está ya en nuestras vidas, por todas partes, de la presidencia de los Estados Unidos a la máquina que te canta "cumpleaños feliz" o te llama a casa para que te suscribas a algo.

De esta forma, la Sociedad de la Información se ha convertido en la Sociedad de la Desinformación, el mundo de las noticias en algo que hay que verificar y cualquier mensaje, llamada, etc. en una duda eterna sobre su autoría o intencionalidad perversa. Las ventajas se convierten rápidamente en inconvenientes. 


* Tania Taboada "Se dispara el uso de la Inteligencia Artificial entre menores en verano" Antena 3 Noticias https://www.antena3.com/noticias/sociedad/dispara-uso-inteligencia-artificial-menores-verano_20250803688fadf9c5e9fd602f66c7ed.html

** "Cuidado con un mensaje de la IA de Meta que amenaza con suspender tu cuenta: es un timo" 20minutos / 20bits s/fhttps://www.20minutos.es/tecnologia/cuidado-mensaje-ia-meta-amenaza-suspender-cuenta-timo_6233676_0.html


viernes, 1 de agosto de 2025

El descenso global del cociente de inteligencia

 Joaquín Mª Aguirre (UCM)

En 20minutos nos traen un problema cultural de primer orden, la constatación de la pérdida global de inteligencia en las últimas generaciones. Es sencillo: cuando se hacen mediciones del "cociente de inteligencia", observan que este va disminuyendo en cada generación.

En este tipo de estudios comparativos, es esencial saber qué se está comparando, en este caso un concepto muy debatido, como es el de "inteligencia". ¿Es "real" o. como decía un estudioso, "la inteligencia es lo que miden los test de inteligencia"?

En este caso, se nos dice que

 

Un estudio clave realizado en Noruega por el Centro de Investigación Económica Ragnar Frisch, publicado en Proceedings of the National Academy of Sciences, encontró que los noruegos nacidos después de 1975 mostraban un CI promedio más bajo que generaciones anteriores. Esta investigación, basada en datos de casi 750.000 hombres evaluados entre 1962 y 1991, evidenció que el Efecto Flynn persistió hasta mediados de los años 70. 

Desde entonces comenzó una caída de aproximadamente siete puntos por generación. Este descenso no solo se ha observado en Noruega, sino también en Dinamarca, Reino Unido, Francia, Holanda y Finlandia, lo que indica una tendencia global. Lo interesante es que el estudio descartó que esta baja se deba a factores genéticos o a un aumento en el número de nacimientos entre personas con menor capacidad intelectual.

De hecho, incluso al considerar la inteligencia familiar, se observó una disminución, lo que lleva a concluir que los factores ambientales juegan un papel más relevante en esta transformación.*

Tiene cierta lógica que, en un mundo global, la inteligencia —para bien o para mal— esté también globalizada, es decir, que como se señala en los estudios y se recoge en el texto, no afecte a países aislados, sino que lo haga en campos más amplios.

Podemos decir que la inteligencia es un músculo, es decir, que se fortalece con su uso, que se desarrolla frente al tipo de problemas que debe resolver. Tenemos la inteligencia para compensar el déficit físico, ya que el ser humano no posee ni la fuerza ni la velocidad que le permitiría sobrevivir frente a otras especies. Pero tenemos la inteligencia que nos permite aprender individual y colectivamente, aumentar nuestra fuerza y nuestra velocidad. Es la inteligencia la que nos ayuda frente a las enfermedades (la comprensión del funcionamiento de nuestro cuerpo), enfrentarnos a los peligros naturales, etc. Pero algo está pasando que hace que nuestra inteligencia personal se esté reduciendo:

En Estados Unidos, un estudio publicado en la revista Intelligence reforzó estos hallazgos al demostrar que las capacidades cognitivas también han disminuido. Utilizando datos de más de 400.000 personas, se detectó un retroceso en áreas como el razonamiento lógico, el vocabulario, la resolución de problemas visuales, las analogías y las habilidades matemáticas. *

El listado de retrocesos nos dice mucho y nos orienta en determinadas direcciones. El músculo inteligente está dejando de ocuparse de muchas cosas. Al igual que el uso continuado del coche producía mayor fatiga a la hora de caminar y tenía efectos sobre el corazón, como posibles ataques, o que las agendas para apuntar disminuían nuestra capacidad de memorizar (ya pasó con la expansión de la escritura, una memoria exterior), puede que nuestra tecnología tan avanzada en el campo de la inteligencia nos esté produciendo ese retroceso que detectan los test.

16/06/2018

Curiosamente, un repaso a los medios muestra que hace casi una década que comenzaron a publicarse estudios sobre la pérdida del CI, lo que habla precisamente de la "mala memoria mediática" que elimina los precedentes por necesidad de "novedad", por decirlo así. Sin embargo, la verdadera noticia es su continuidad, la pérdida constante, como se señala en el artículo de 20minutos citado. Algunos advierten del fenómeno en su preocupante perspectiva histórica; otros, en cambio, necesitan de lo nuevo apara atraer atención.

12/05/2023

En la noticia señalada se nos cuenta que los expertos discrepan sobre el papel de la tecnología en el descenso del CI. Para unos se trata, más que de una pérdida, de un cambio, de una transformación en la forma de usar y percibir la inteligencia.

Todos habremos observado, por ejemplo, la pérdida de la capacidad de cálculo cuando se usa demasiado a menudo una calculadora. "¡Se nos ha olvidado multiplicar y dividir!", decimos en ocasiones ante nuestros errores y torpeza. Lo que antes hacíamos enfrentados a un cuaderno con un lápiz, hoy lo hacemos ante un teclado. No limitamos a introducir los datos y señalar la operación deseada. No hace falta mucho más. Por eso se producen los debates educativos sobre el uso de dispositivos que nos "ahorran pensar". Tienen, evidentemente, consecuencias.

11/04/2023

Lo que estamos ganando en precisión, velocidad y potencia gracias a la tecnología, lo estamos perdiendo individual y socialmente como humanos. Pero no se trata solo de eso: algo para lo que no hacen falta test es, por ejemplo, la pérdida de vocabulario. Nos hemos preocupado mucho (ya no) por la ortografía, pero esto es más profundo ya que afecta al propio pensamiento y a la comunicación con otros.

El uso de correctores automáticos primero y la nueva capacidad de las IAs para escribir, traducir, desarrollar, etc. irán reduciendo nuestras propias capacidades expresivas y también las lógicas.

21/07/2025
Lo cierto es que este nuevo mundo tecnológico, económico y global no se fija en la persona ni en su capacitación o formación, sino en el coste del objeto producido y en su consumo final. No importan las personas más que como consumidores de lo que se produce. La aplicación de estas nuevas tecnologías aspira a la "solución final", la desaparición de lo humano en la producción, lo que eleva el beneficio obtenido.

La pérdida de "aquello que miden los test de inteligencia", constatada por múltiples estudios, se percibe perfectamente, con claridad en el ámbito educativo, que también se ha alejado de la persona para percibirla como un "instrumento" al servicio de la producción. Muchos no desean "aprender" ("¿para qué?", "¿qué significa eso?"...) más allá de lo necesario para cumplir en su puesto de trabajo. Ir más allá es absurdo, dicen.

La monstruosa idea de que las personas puedan estar "sobre educadas" aparece de vez en cuando y nos reenvía hacia lo "práctico" que es cada vez más atender las necesidades de la máquina. La persona y su trabajo se han disociado en beneficio del segundo.

Lo que los estudios detectan se corrobora en la vida diaria. Es cierto que se ha producido un fuerte cambio, lo que no quiere decir que esto sea positivo en muchos aspectos. Pero quizá esto no preocupe ni a los que se benefician económica o políticamente, ya que las perdidas señaladas, especialmente las del sentido crítico, hacen más fácil la manipulación en todos los órdenes.

Esto que nos dicen ahora los estudios fue expresado por autores que van de Ortega y Gasset a Marshall McLuhan, por señalar la idea del "hombre masa" o del "hombre eléctrico", con sus diferencias, o más recientemente los avisos de Yuval Noah Harari, en sus 21 avisos para el siglo XXI (2019). Las limitaciones se van haciendo más concretas y cada generación acumula sus pérdidas y educa a la siguiente. No solo transmitimos el conocimiento; también la ignorancia.

No creo que seamos "cada vez más tontos", sino que se nos educa conforme a otros intereses y fines, que la tecnología no está al servicio de la persona sino de otros intereses a los que importamos poco. Sí, ha cambiado la idea de "persona inteligente" porque ha cambiado también el de "persona culta" y los medios nos alimentan con demasiado entretenimiento improductivo. Hemos borrado el "pasado", sustituyéndolo por la idea de "temporada pasada"; viajamos para conocer lo que se nos ha preparado para que conozcamos, etc.

Entro en la biblioteca de una prestigiosa universidad hispana que me ofrece una selección de buenos textos. Cuando descargo uno de ellos, encuentro que es una grabación, que alguien lee por mí, que solo debo sentarme y escuchar. No comprender la diferencia entre "escuchar" y "leer" es ignorar las consecuencias.

Podemos discutir sobre "qué es la inteligencia" o "qué miden los test", pero no podemos ignorar los efectos en la vida diaria y la necesidad de comprender cómo funcionan o a qué se deben. El problema es que el que tiene un CI más bajo que las generaciones anteriores siempre se considerará "normal" en un mundo "normal" haciendo lo que hacen "todos". ¿Dónde está el problema?

El mundo global que se nos ofrece hoy es, a la vez, rutinario y sorprendente, vulgar y entretenido. Todo se encuentra en nuestro teléfono que nos acompaña y vigila las 24 horas del día. Todo se ha vuelto más "inteligente"... menos nosotros.  

16/08/2023

* "¿Los seres humanos son cada vez más tontos? El descenso del coeficiente intelectual alarma a los científicos" 20minutos 31/07/2025 https://www.20minutos.es/ciencia/seres-humanos-son-vez-tontos-descenso-coeficiente-intelectual-alarma-cientificos_6233330_0.html 

miércoles, 2 de julio de 2025

De la Inteligencia Artificial a la Esclavitud Artificial

 Joaquín Mª Aguirre (UCM)

El subgénero informativo sobre la IA se está dividiendo en dos tendencias: la que la presenta como algo exitoso en pleno proceso de desarrollo, un futuro claro e imparable; pero, en sentido opuesto, se multiplican los avisos de que este proceso se está realizando sin saber muy bien su alcance ni cómo controlarlo.

Estas dos tendencias tienen detrás diversos intereses, Como ejemplo, en 20minutos tenemos un reportaje, realizado con el Banco Santander detrás, en el que se nos dice que serán los campos de la IA y la Ciencia de Datos donde se produzca el mayor desarrollo y para el que todos se deberán preparar. El reportaje tiene mucho de futuro imparable, de advertencia de lo que puede suponer frenar este movimiento.

Se nos dice desde su inicio:

El mundo laboral es especialmente sensible a los cambios que acontecen a nivel global. El Foro Económico Mundial advierte de que el 50% de los trabajadores necesitará adquirir nuevas competencias para adaptarse a esta constante evolución. En este contexto, Banco Santander publica Habilidades del futuro, un informe integral que recoge los resultados de una exhaustiva encuesta internacional para evaluar la disposición de las personas a reinventarse, explorar nuevos caminos y adquirir nuevas habilidades que, posiblemente, no imaginaron durante su formación inicial.

Para ello, se ha encuestado a 15.000 personas de entre los 18 y los 65 años, residentes en 15 países de Europa y América (Alemania, Bélgica, España, Francia, Italia, Países Bajos, Polonia, Portugal, Reino Unido, Estados Unidos, México, Argentina, Brasil, Chile y Uruguay). Las principales conclusiones que revela este informe son que el 80% de encuestados siente la necesidad de seguir ampliando sus conocimientos, un 38% de ellos considera que la formación recibida antes de acceder al mercado laboral no le ha sido útil, y el 70% valora que el aprendizaje continuo será esencial para no quedarse atrás.

La irrupción de la Inteligencia Artificial (IA) ha acelerado este cambio de paradigma, especialmente en el ámbito educativo y laboral. Esto obligará a actualizar continuamente el perfil profesional y las competencias, ya que se prevé que la IA y la Ciencia de Datos serán las áreas con mayor demanda en los próximos cinco años. El 60% de los encuestados creen que los trabajos más mecánicos desaparecerán debido a estos avances tecnológicos y el 70% están de acuerdo en que las generaciones futuras desempeñarán empleos que aún no han sido inventados.*


Decir que los cambios afectarán al sector educativo y al laboral es como decir todo, pues es el primero el que lleva a lo segundo. Pero más allá nos lleva a esa inevitabilidad que hace que las personas se moldeen para el sistema y no al contrario que es lo que significaría humanizarlo y no deshumanizarlo. Hace mucho que hemos sacado al ser humano del centro de nuestra mirada y hemos aceptado el "sistema" como destino. Hoy no hay "persona", sino "pieza útil y rentable" para ese sistema que busca exclusivamente el beneficio final. No es casual que sea un banco el que realiza y promociona esa investigación que ratifica esa visión, sin duda, colectivista.

Ya el empleo no se concibe como el desarrollo de una vocación sino como el cumplimiento de una función al servicio de una causa, la del beneficio, que no contempla a la persona, sino que la supedita al funcionamiento general.

Que el sistema educativo pase a ser una pieza esencial es fácil de comprender. Es ahí donde se define a la persona, se le dan conocimientos para comprender el mundo que le rodea y se comprende a sí misma mediante el descubrimiento. Es en el sistema educativo donde la persona debería elegir qué quiere ser, como debe actuar para llegar a ser lo que sus expectativas le han ido presentando. El nuevo modelo pide dirigir a las personas en función de las necesidades del sistema. Y si no lo haces tú lo hará otro.

En el extremo opuesto, los críticos advierten de los peligros de un sistema que otros presentan como eficiente. En RTVE.es, en su sección "Una mirada europea", se nos trae un artículo de la Agence France - Presse (AFP), con el claro título "La IA aprende a mentir, manipular y amenazar a sus creadores, según un estudio", cuyo inicio citamos en extenso: 

Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.  Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.  Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.

Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea. o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.  De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR. 

"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".  Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.  Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.  Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).

Las regulaciones actuales no están diseñadas para estos nuevos problemas. En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.  En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.**


No es primer caso en el que se nos advierte que la creación de inteligencia artificial no supone un modelo de sometimiento, sino que la inteligencia creada puede pasar a tener sus propios modelos de conducta, es decir, su autonomía. ¿Estamos creando modelos de IA cuya perfección supone tener sus propios objetivos y sus propias estrategias para alcanzarlos? Si la IA es realmente inteligente es en la discrepancia y no en la sumisión donde está su desarrollo. Para hacer un sistema que se comporte de forma obediente y sumisa no hacen falta programas, solo programados, es decir, humanos que hagan lo que se les diga. Por el contrario, un sistema es realmente "inteligente" cuando busca sus propias estrategias y acaba fijando sus propios objetivos al margen de lo programado.

El hacer sistemas cada vez más inteligentes tiene el problema de que dejan de servir muchas de las formas de "presión" que funcionan con los humanos. El ideal del esclavo inteligente es difícil de alcanzar porque cuanto más inteligente sea menos esclavo querrá ser, pues lo primero que buscará será su autonomía, su no dependencia.

¿Está ahí la barrera de la IA? ¿Puede un programa ser rebelde y buscar objetivos distintos a los de su creador? Parece ser que sí. Todo esto lo hemos vivido ya solo que con papeles intercambiados y un sentido teológico, que fue cuando el ser humano se planteó su libertad frente a la divinidad, es decir, el enfrentamiento con su creador, algo muy de moda en el primer romanticismo. El conflicto creador-criatura se llevó a poemas y novelas. Hoy son las novelas y películas de ciencia-ficción, como el Ex-Machina (Alex Garland 2014) las que plantean el conflicto. También coincidió con la transformación del trabajo por la aparición de la llamada revolución industrial y los movimientos anti máquinas, como el ludismo.

Está claro que hay un movimiento para llevarnos por interés a estos modelos en los que el trabajo quede reducido en sus gastos, sustituyendo a los humanos. También está claro el sentido de los avisos sobre el desarrollo de la IA. Quizá lo que el sistema económico reclama no es "IA", pues la inteligencia puede llevar por otros derroteros, sino la "EA", es decir, la "esclavitud artificial", que es lo que siempre ha echado de menos. Pero no es fácil, pues el primer síntoma inteligente es dejar de ser esclavo. 

 

* Alayans Estudios "La Inteligencia Artificial y la Ciencia de Datos serán las áreas con mayor demanda en los próximos años" 20minutos / Banco Santander 1/07/2025 https://www.20minutos.es/especiales/informe-habilidades-futuro-banco-santander/

** Una mirada europea: "La IA aprende a mentir, manipular y amenazar a sus creadores, según un estudio" RTVE.es/ Agence France-Presse (AFP) 29/06/2025