Joaquín Mª Aguirre (UCM)
El
subgénero informativo sobre la IA se está dividiendo en dos tendencias: la que
la presenta como algo exitoso en pleno proceso de desarrollo, un futuro claro e
imparable; pero, en sentido opuesto, se multiplican los avisos de que este
proceso se está realizando sin saber muy bien su alcance ni cómo controlarlo.
Estas
dos tendencias tienen detrás diversos intereses, Como ejemplo, en 20minutos
tenemos un reportaje, realizado con el Banco Santander detrás, en el que se nos
dice que serán los campos de la IA y la Ciencia de Datos donde se produzca el
mayor desarrollo y para el que todos se deberán preparar. El reportaje tiene
mucho de futuro imparable, de advertencia de lo que puede suponer frenar este
movimiento.
Se nos
dice desde su inicio:
El mundo laboral es especialmente sensible a los cambios que acontecen a nivel global. El Foro Económico Mundial advierte de que el 50% de los trabajadores necesitará adquirir nuevas competencias para adaptarse a esta constante evolución. En este contexto, Banco Santander publica Habilidades del futuro, un informe integral que recoge los resultados de una exhaustiva encuesta internacional para evaluar la disposición de las personas a reinventarse, explorar nuevos caminos y adquirir nuevas habilidades que, posiblemente, no imaginaron durante su formación inicial.
Para ello, se ha encuestado a 15.000 personas de entre los 18 y los 65 años, residentes en 15 países de Europa y América (Alemania, Bélgica, España, Francia, Italia, Países Bajos, Polonia, Portugal, Reino Unido, Estados Unidos, México, Argentina, Brasil, Chile y Uruguay). Las principales conclusiones que revela este informe son que el 80% de encuestados siente la necesidad de seguir ampliando sus conocimientos, un 38% de ellos considera que la formación recibida antes de acceder al mercado laboral no le ha sido útil, y el 70% valora que el aprendizaje continuo será esencial para no quedarse atrás.
La irrupción de la Inteligencia Artificial (IA) ha acelerado este cambio de paradigma, especialmente en el ámbito educativo y laboral. Esto obligará a actualizar continuamente el perfil profesional y las competencias, ya que se prevé que la IA y la Ciencia de Datos serán las áreas con mayor demanda en los próximos cinco años. El 60% de los encuestados creen que los trabajos más mecánicos desaparecerán debido a estos avances tecnológicos y el 70% están de acuerdo en que las generaciones futuras desempeñarán empleos que aún no han sido inventados.*
Ya el empleo no se concibe como el desarrollo de una vocación sino como el cumplimiento de una función al servicio de una causa, la del beneficio, que no contempla a la persona, sino que la supedita al funcionamiento general.
Que el sistema educativo pase a ser una pieza esencial es fácil de comprender. Es ahí donde se define a la persona, se le dan conocimientos para comprender el mundo que le rodea y se comprende a sí misma mediante el descubrimiento. Es en el sistema educativo donde la persona debería elegir qué quiere ser, como debe actuar para llegar a ser lo que sus expectativas le han ido presentando. El nuevo modelo pide dirigir a las personas en función de las necesidades del sistema. Y si no lo haces tú lo hará otro.
En el extremo opuesto, los críticos advierten de los peligros de un sistema que otros presentan como eficiente. En RTVE.es, en su sección "Una mirada europea", se nos trae un artículo de la Agence France - Presse (AFP), con el claro título "La IA aprende a mentir, manipular y amenazar a sus creadores, según un estudio", cuyo inicio citamos en extenso:
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial. Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.
Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea. o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos. De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.
"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada". Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research. Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR. Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas. En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.**
No es primer caso en el que se nos advierte que la creación de inteligencia artificial no supone un modelo de sometimiento, sino que la inteligencia creada puede pasar a tener sus propios modelos de conducta, es decir, su autonomía. ¿Estamos creando modelos de IA cuya perfección supone tener sus propios objetivos y sus propias estrategias para alcanzarlos? Si la IA es realmente inteligente es en la discrepancia y no en la sumisión donde está su desarrollo. Para hacer un sistema que se comporte de forma obediente y sumisa no hacen falta programas, solo programados, es decir, humanos que hagan lo que se les diga. Por el contrario, un sistema es realmente "inteligente" cuando busca sus propias estrategias y acaba fijando sus propios objetivos al margen de lo programado.
El hacer sistemas cada vez más inteligentes tiene el problema de que dejan de servir muchas de las formas de "presión" que funcionan con los humanos. El ideal del esclavo inteligente es difícil de alcanzar porque cuanto más inteligente sea menos esclavo querrá ser, pues lo primero que buscará será su autonomía, su no dependencia.
¿Está ahí la barrera de la IA? ¿Puede un programa ser rebelde y buscar objetivos distintos a los de su creador? Parece ser que sí. Todo esto lo hemos vivido ya solo que con papeles intercambiados y un sentido teológico, que fue cuando el ser humano se planteó su libertad frente a la divinidad, es decir, el enfrentamiento con su creador, algo muy de moda en el primer romanticismo. El conflicto creador-criatura se llevó a poemas y novelas. Hoy son las novelas y películas de ciencia-ficción, como el Ex-Machina (Alex Garland 2014) las que plantean el conflicto. También coincidió con la transformación del trabajo por la aparición de la llamada revolución industrial y los movimientos anti máquinas, como el ludismo.
Está claro que hay un movimiento para llevarnos por interés a estos modelos en los que el trabajo quede reducido en sus gastos, sustituyendo a los humanos. También está claro el sentido de los avisos sobre el desarrollo de la IA. Quizá lo que el sistema económico reclama no es "IA", pues la inteligencia puede llevar por otros derroteros, sino la "EA", es decir, la "esclavitud artificial", que es lo que siempre ha echado de menos. Pero no es fácil, pues el primer síntoma inteligente es dejar de ser esclavo.
* Alayans Estudios "La Inteligencia Artificial y la Ciencia de Datos serán las áreas con mayor demanda en los próximos años" 20minutos / Banco Santander 1/07/2025 https://www.20minutos.es/especiales/informe-habilidades-futuro-banco-santander/
** Una mirada europea: "La IA aprende a mentir, manipular y amenazar a sus creadores, según un estudio" RTVE.es/ Agence France-Presse (AFP) 29/06/2025





No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.