Joaquín Mª Aguirre (UCM)
Si ya
es complicado definir el "odio" a otra persona, lo es más explicárselo
a una máquina. Todavía más si esta máquina tiene que decidir sobre si debe
censurar, eliminar, etc. mensajes. Mi experiencia de hace unos días, compartida
con otros compañeros y lectores que dicen haber pasado por lo mismo, en F B (lo
escribo de esta manera para evitar posibles malas interpretaciones), donde no
solo censuró textos sino enlaces de forma absurda. Si la censura era absurda,
la máquina (siguiendo a los humanos que la programaron) daba explicaciones
—casi condenas judiciales— atribuyendo intenciones más absurdas todavía. Es
decir, lo que se ha creado no es una máquina inteligente, sino un programa
lleno de prejuicios que, como todos sabemos, es la ausencia de inteligencia.
RTVE.es
nos trae un interesante reportaje titulado "Día Mundial del Refugiado: una
inteligencia artificial para detectar el discurso de odio en redes",
firmado por Blanca Bayo, Paula Peña y la sección VerificaRTVE, en el que se
analizan precisamente los pros y contras de este uso de la IA para tratar de
controlar una realidad, el crecimiento de los discursos de odio en todo el
mundo en un espacio ya planetario, con una política comunicativa sin fronteras.
En el
inicio del texto se nos explica el origen y la intención:
El Alto Comisionado de Naciones Unidas para los Refugiados (ACNUR) ha
desarrollado la plataforma HateFree, una aplicación basada en el uso de
una inteligencia artificial para detectar el discurso de odio en redes sociales
contra las personas refugiadas. El programa rastrea, clasifica y cataloga
mensajes de redes sociales en 50 idiomas diferentes y cuando observa que
hay una actividad de discurso de odio inusual genera una alerta a los
voluntarios de la agencia de Naciones Unidas. La herramienta estará disponible
en los próximos meses en España, donde ya ha analizado 3.500 mensajes
publicados en X en el marco del entrenamiento de su inteligencia artificial.
HateFree, la herramienta de ACNUR para detectar el
discurso de odio en línea
ACNUR comienza a desarrollar en el año 2016 HateFree,
una herramienta interna digital que surge ante la necesidad de "enfoques
más eficientes y automatizados" para detectar el discurso de odio en redes
sociales, según explican a VerificaRTVE Patricia Fabi, del equipo de la
aplicación en la oficina de ACNUR en Nueva York (EE.UU.) y Gisella Lomax,
asesora en Integridad de la Información de esta agencia de la ONU. Estas dos
especialistas señalan que las plataformas digitales "han aumentado la
escala y la rapidez con la que estas narrativas dañinas pueden propagarse",
por lo que la "vigilancia manual" empleada hasta entonces en ACNUR
para localizar los mensajes de odio era "insuficiente debido al número de
conversaciones en línea que mencionan a los refugiados".
Fabi y Lomax explican que la herramienta "utiliza varios modelos de procesamiento del lenguaje natural que permiten diferenciar el discurso de odio del discurso normal, determinar el sentimiento en un texto y deducir los temas presentes en las conversaciones". Estos modelos de procesamiento de lenguaje natural utilizan "grandes modelos lingüísticos de código abierto, en concreto Llama3 (el modelo de lenguaje por inteligencia artificial de Meta, la matriz de Facebook, Instagram o WhatsApp)". Según nos cuentan las dos especialistas, ACNUR también utiliza "un enfoque humano para garantizar que el modelo no proporciona clasificaciones erróneas", ya que "la IA puede cometer errores". De ahí la importancia del trabajo de voluntarios como la investigadora y profesora de Periodismo en la UC3M Teresa Gil, quien destaca que "en cualquier idioma hay idiosincrasias del discurso que tienen que ser detectadas solamente en ese idioma y que no son traducibles, son muy diferentes de país a país, de región a región". *
La cuestión no es sencilla por muchos motivos. Es indudable que el aumento de los mensajes se debe a dos factores, el crecimiento de las redes —lo que aumenta la cantidad de los mensajes— y la intensificación del odio. Los dos hechos interactúan creando un nuevo modelo político en el que la expansión del "populismo" es efecto y causa de estas nuevas posibilidades que ofrece el espacio comunicativo. La política en los sistemas democráticos se basa en la comunicación, algo que nos afecta / influye personal y socialmente en nuestro comportamiento, define nuestras posiciones y nos agrupa o separa en función de nuestras respuestas.
El "odio" se está revelando como un poderoso agrupador. Ya no se trata solo de ofrecernos elementos positivos de acción, sino que es más fácil, en una sociedad en crisis, encontrar "responsables" a los que acusar. Se trata de "odio", que sería la parte activa de las fobias sociales y personales. Podemos diferir en cómo actuar, pero podemos estar agrupados por la creencia en la responsabilidad de nuestras situaciones, es decir en quiénes son los "culpables". En sociedades que no logran la satisfacción porque aumentan las desigualdades, las crisis son más profundas, etc. es mucho más fácil señalar culpables a los que responsabilizar y dirigir el malestar convirtiéndolo en "odio" (acción) y el "mensajes de odio" (incitación a la acción).
El reportaje nos habla de máquinas entrenadas para un tipo especial del odio, el dirigido contra los refugiados:
El trabajo de los voluntarios del proyecto en español empieza por "identificar el grupo del que hablan los mensajes de redes según las siguientes categorías: racial, étnico, religioso, si se refiere a un individuo por su identidad de género, orientación sexual, diversidad funcional o edad", señala esta investigadora y docente. En segundo lugar, los voluntarios han tenido que codificar "el sentimiento del mensaje, si era negativo, positivo o tenía un tono neutro". Gil indica que esta fase también se codificaba "si se le faltaba el respeto a los individuos sobre los que se hablaba, si había signos de humillación, deshumanización, atribuciones de violencia o referencias a genocidio". El objetivo final es determinar si estos mensajes encajaban dentro de la definición de discurso de odio de la ONU. Sobre este término, las especialistas de ACNUR Patricia Fabi y Gisella Lomax subrayan que el concepto engloba "cualquier tipo de comunicación oral, escrita o de comportamiento que ataque o utilice un lenguaje peyorativo o discriminatorio con referencia a los desplazados forzosos y apátridas". Gracias a la herramienta, en ACNUR se reciben "alertas" cuando los "modelos de IA detectan una actividad de odio inusual o superior a lo normal".*
Podemos
hablar de "especialización del odio", algo que tiene ventajas e
inconveniente. Puede que a los partidarios de la inteligencia artificial
(incluidos los intereses comerciales) les resulte sencillo parcelar el
problema, como hemos visto, pero lo cierto es que este sistema de detección no
va a su centro productor, a sus fuentes, por lo que no hará sino crecer y
modificar sus estrategias. Si solo se usa la censura y no se va al origen,
tendremos solo un parche.
Las estrategias del discurso de odio forman parte central de las estrategias políticas y será como tratar de ponerle puertas al campo. ¿Tiene, además, la agencia de la ONU la capacidad legal de quitar mensajes de las redes sociales? Las redes pueden desarrollar políticas censoras, ¿pero evitará esto que surjan otras redes que busquen más liberalidad? ¿No creó Donald Trump su propia red social cuando fue censurado por sus discursos de odio y falsedades? ¿Qué es lo que se define como "normal" o "actividad inusual" o "superior" en los discursos de odio, tal como se señala en el artículo?
En
20minutos se nos ofrecía ayer un ejemplo ocurrido en el ámbito de la Eurocopa
de fútbol que se está celebrando. Su titular era "Serbia amenaza con
abandonar la Eurocopa: pide sanciones para Albania y Croacia por los cánticos
de "matad al serbio"":
Jovan Surbatovic, secretario general de la Asociación Serbia de Fútbol, amenazó este jueves con la retirada de su selección de la Eurocopa por los cánticos que se escucharon desde un sector de los aficionados del duelo que enfrentó a Croacia y a Albania y en los que coreaban "matar al serbio".
En declaraciones a la RTS, la emisora estatal serbia, Surbatovic pidió a la UEFA que se adopte una sanción "severa" contra las federaciones de las selecciones croata y albanesa o, en caso contrario, Serbia procederá a tomar medidas.
"Lo ocurrido es escandaloso y pediremos sanciones a la UEFA, aunque eso signifique no continuar en la competición. Exigiremos a la UEFA que sancione a las federaciones de ambas selecciones. Si la UEFA no las castiga, pensaremos cómo procederemos", dijo Surbatovic.**
Claramente son "discursos de odio". Igualmente los tenemos en los campos con los cantos de tipo racista con los que los jugadores son insultados cada fin de semana al saltar al campo de juego de diversos deportes. La ACNUR dirá quizá que no es cosa suya pues no son "refugiados" sino profesionales bien pagados o que son los que pagan las relaciones conflictivas entre países.
Quiero decir con esto que podemos establecer reglas parciales, que estas se pueden mejorar, pero que el problema no es solo un "·mensaje de odio" sino una actitud de odio cada vez más generalizada que se multiplica en casos de todo tipo: género, étnicas, sociales (palizas a mendigos, por ejemplo) o mezcladas. El caso de la niña violada por sus compañeros en Francia por ser judía, que hemos tratado aquí hace un par de días, es otro caso de "odio" que todo lo "justifica" (género, religión).
El problema es tanto el aumento como la receptividad del odio, su conversión en habitual, en la forma de dar salida a las frustraciones sociales y a su manipulación política. Cualquier solución que ignore esto y se limite, con IA o sin IA, a censurar está condenada a ser burlada, a ser poco eficaz. La misma IA mandando millones de mensajes de odio compite con otra IA que los detecta.
Lo que hacen falta son voces de denuncia, que se explique el mal que esto acarrea; hay que afearle a los políticos que usen el motor del odio en sus discursos, como vemos cada día en la política nacional y ahora en la internacional. Hay que iniciar una didáctica del respeto, del diálogo, de la dignidad de todo ser humano y seguir llamando a las mentiras por su nombre, desmintiendo datos y frenando insinuaciones. En resumen, evidenciar el odio y sus discursos como lo que son, formas de atracción al servicio de muchas causas.
En el artículo se señala:
La voluntaria del proyecto HateFree en España Teresa Gil sostiene que "uno de los principales patrones" que ha detectado es el uso "de informaciones falsas o al menos sacadas de contexto". La investigadora destaca algunos ejemplos de las narrativas desinformativas que han encontrado en la red social X: "Era una constante la atribución de violencia" a los refugiados o las publicaciones que afirmaban que los "españoles carecen de ciertas prestaciones sociales que sí se les proporcionan" a las personas refugiadas. Gil recuerda que le llamó la atención una publicación falsa en la que hacían "un paralelismo entre los recién llegados a las Islas Canarias", de los que se decía "que tenían acceso a hoteles de cuatro o cinco estrellas, mientras que, por ejemplo, los damnificados por el volcán de La Palma no tenían acceso todavía a viviendas". Otra tendencia detectada por la voluntaria son los "mensajes que a menudo conllevan ataques políticos" en los que, según relata, "culpaban a las autoridades o a la política española de acomodar a los refugiados que venían solamente a violar a mujeres" y se les acusaba de "no buscar trabajo y de aumentar los índices de criminalización". Desde ACNUR, Patricia Fabi y Gisella Lomax relacionan esta narrativa con la multitud de procesos electorales que se están desarrollando en 2024 en varios países de acogida de refugiados. "Los refugiados son objeto de campañas de desinformación en todo el mundo, incluso como tema polarizador en las campañas electorales", aseguran. Esta publicación de 2023 de la ONG Amnistía Internacional pone de manifiesto algunas de las "frases racistas que indican odio" y que "perpetúan estereotipos dañinos y fomentan la división entre las personas".*
Ante esto, solo cabe esa pedagogía de la que hablaba. La denuncia, el apoyo a las instituciones —sociales, mediáticas, educativas...— comprometidas con los valores de la dignidad humana y de la verdad. Hay que cercar a la desinformación, a sabiendas que esto se puede hacer automáticamente, con las mismas máquinas.
Si el odio es malo, el odio contra los refugiados es repugnante por lo que implica cebarse en personas que han tenido que huir de sus país inmersos en procesos de violencia, destrucción y odio. Que se les utilice como justificación para agrupar con el odio es una situación que repugna. Más allá de la IA, de sus problemas conceptuales o técnicos, está la realidad del dolor, para la que no hay distinciones ni fronteras.
Ingenuamente, algunos titulan que la IA "acabaría los discursos de odio". No, no es eso. El discurso no es más que la visualización de algo más profundo, el odio mismo. No confundamos y actuemos.
*
Blanca Bayo / Paula Peña / VerificaRTVE
"Día Mundial del Refugiado: una inteligencia artificial para
detectar el discurso de odio en redes" RTVE.es /VerificaRTVE 20/06/2024
https://www.rtve.es/noticias/20240620/dia-mundial-refugiado-ia-para-detectar-discurso-odio-redes/16154319.shtml
**
"Serbia amenaza con abandonar la Eurocopa: pide sanciones para Albania y
Croacia por los cánticos de "matad al serbio"" 20minutos
20/06/2024 https://www.20minutos.es/deportes/noticia/5522953/0/serbia-amenaza-con-abandonar-pide-sanciones-para-albania-croacia-por-los-canticos-matad-serbio/
Casa Árabe |
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.