miércoles, 12 de febrero de 2025

La IA y las censuras

 Joaquín Mª Aguirre (UCM)

¡Nuestro gozo en un pozo! El artículo publicado en RTVE.es sobre la Inteligencia Artificial (un tema de moda), firmado por Inés Modrón Lecue, retrasa nuestro deseo de verdad absoluta y nos muestra su dependencia de lo que le enseñaron, del entrenamiento a que le sometieron. ¡Pobre IA!

Inés Modrón nos dice que en eso de acusar a una IA, de señalarla con el dedo, como en el cole, hay mucho de propaganda política y que, en el fondo, todas dependen de lo que les enseñaron en casa:

Si bien los distintos experimentos prueban que el modelo de DeepSeek restringe las respuestas sobre determinados temas, las acusaciones de censura a un competidor extranjero forman también parte del juego, según la consultora tecnológica especializada en Big Data e Inteligencia Artificial, Cristina Aranda. "¿Por qué TikTok es tan malo o tan bueno? Son ejercicios de estrategia diplomática. Esto se parece a lo que tanto hemos visto en las películas, los americanos son los buenos y los chinos son los malos", reflexiona.*

¡Pues sí! Nuestros deseos de tener un confidente neutral, un asesor objetivo, se quedan frustrados porque el negocio no ha estado nunca en la "verdad", sino en convencerte de lo que es cierto, que es algo muy diferente.

La competencia acusa a la IA china de callarse cosas o dar respuestas condicionadas, algo que también hacen las demás... conforme a su punto de vista. Y eso de que las IA tengan "punto de vista" nos resulta un poco desconcertante.

La "verdad" no suele ser un buen negocio y la posibilidad de que se nos lance a la cara es un riesgo que nadie asume. Es como la madrastra de Blancanieves y el espejito mágico; el día que te dice que otra es más bella, se lía todo.

Hemos idealizado la IA con aquello de lo que carecemos: la objetividad. Nuestro empeño en construir máquinas que nos superen forma parte de nuestra idea de "progreso", pero lo que funciona con máquinas que sustituyen y mejoran aspectos físicos, empiezan a pensarse de otro modo cuando se trata de ciertos aspectos referidos a la forma de ver el mundo. No hay problema en hacer operaciones matemáticas, grandes cálculos, etc. pero ya Google empezó a plantear el problema de las búsquedas sesgadas, aquellas no eran la mejor opción, sino la mejor pagada. En parte (suponemos) se crearon leyes para evitar esta manipulación, Ahora con la IA el problema es otro.

Un aspecto fundamental para el profesor de investigación emérito del CSIC y fundador del Instituto de Investigación en Inteligencia Artificial (IIIA), Ramón López de Mántaras, es que la población conozca que las herramientas de IA no entienden lo que se les pregunta, "no se da una comprensión profunda del lenguaje". Por tanto, los filtros que impiden que las respuestas se muestren tal y como las redacta el modelo están introducidos por humanos.

Cuando el modelo recibe un prompt o instrucción, busca y proporciona la respuesta a la consulta. Antes de transmitírsela al usuario, pasa por un sistema que evalúa si el resultado es adecuado o no. Esa es la censura más evidente, pero no la única, explica Cardeñoso. En un nivel más profundo, se encuentra la limitación en la educación del modelo, que ha recibido un entrenamiento controlado.

El proceso de aprendizaje de la herramienta puede estar sesgado, en función de los datos de los que se alimente. "Es algo muy difícil de saber. No conocemos el dataset con el que se ha entrenado porque no se especifica claramente en ninguno de los modelos, por muy abiertos que sean", aclara Cardeñoso.*


Esto, claro está, plantea muchas cuestiones que habrá que abordar en el futuro y que unos harán obligados y otros no harán. El negocio, como hemos dicho antes, está siempre en el ajuste de las respuestas a los intereses, no en su mayor o menor ajuste a la realidad. Afectará, según los países, a ciertas áreas de preguntas y respuestas. En unos serán las políticas, en otras se cuestionara el modelo histórico detrás, la economía, etc. Si yo le pregunto "¿dónde está el Golfo de México?" a una máquina estadounidense ¿me dará una respuesta diferente que fuera de los Estados Unidos? La respuesta es "poder", es decir, lo que decida quien tiene el "poder" de definir.

Por eso, cuando se le pregunta al inicio del texto al Catedrático de Informática y miembro del Centro de Inteligencia Artificial de la Universidad de Valladolid (UVaIA) Valentín Cardeñoso sobre si la "censura" en DeepSeek es mayor o menor que en otras máquinas, responde con un "todo depende de lo que entendamos por censura"*. ¡Qué razón tenía Nietzsche cuando señalaba que creamos conceptos y luego metemos en ellos la realidad a martillazos!

La cuestión ahora es ¿nos importa realmente? ¿No elegiremos la IA más favorable a nuestros deseos? Los debates sobre IA no han hecho más que empezar. En primer lugar por esas guerras "diplomáticas" entre países. ¿No debería estar una IA como Dios manda por encima de los nacionalismos culturales? Está claro que sí, pero es que no. Es decir, la IA apuntala las creencias (aquello que debemos creer), no las elimina con respuestas por encima de las visiones de las que se alimenta. Las máquinas de IA no deben salir a estudiar al extranjero, no sea que vuelven muy abiertas (o cerradas) de mente.

A fin de cuentas, son los errores los que crean nuestras diferencias, gracias a ellos nos distinguimos. Si la verdad y el acuerdo hubieran sido rentables y no cosa de gente peligrosa, hace tiempo que tendríamos otro mundo. No sé si peor o mejor, pero otro.

Los tres tipos de IA, los de USA, China y la aspirante Europa, tienen modos que representan sus propios modelos, lo que las vuelve poco operativas fuera de su entorno. Ese "Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa"*, con el que se abre el texto citando una respuesta del chatbot chino, es lo suficiente claro al respecto. Las demás IA tienen sus propias formas de decir lo mismo. 


* Inés Modrón Lecue "DeepSeek también censura y no es la única: los riesgos de la IA en la era del tecnofeudalismo" RTVE.es 11/02/2025 https://www.rtve.es/noticias/20250211/deepseek-censura-riesgos-ia-tecnofeudalismo/16440467.shtml

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.