La inteligencia artificial, ¿la solución o el problema de la desinformación?

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

SOCIEDAD

iStock

El Citius de la Universidade de Santiago lidera en España HYBRIDS, un proyecto europeo que desarrollará herramientas automáticas para contrarrestar la desinformación a través de lo que se conoce como inteligencia híbrida

25 ene 2023 . Actualizado a las 23:59 h.

Un día, Amparo Alonso le preguntó a ChatGPT si la inteligencia artificial era capaz de escribir novelas, y respondió que sí. Acto seguido, le pidió dos ejemplos, y el sistema de devolvió el título de dos novelas que están a la venta en Amazon y que, desde luego, no constan como escritas por una máquina. «Puede darte una respuesta que parezca sensata, porque el GPT recoge información de muchos sitios, lo cual no quiere decir que sea correcta».

Con esa anécdota, la presidenta de la Asociación Española de Inteligencia Artificial sintetiza un debate que lleva años abierto, pero que ahora ha alcanzado un nuevo nivel. Muta a la misma velocidad que el procesamiento del lenguaje natural avanza. La gran preguntas es si la tecnología contribuye a la desinformación puede ser una herramienta eficaz para detectar y combatir fake news. Y la respuesta no es sencilla. Quizá se podría resumir en la máxima del superhéroe: El poder se puede utilizar para el mal, pero también para el bien.

«Distinguir algo falso de algo verdadero no es tan fácil», dice la catedrática de la UDC. Y es cierto, porque la línea entre verdad y mentira es muy difusa en no pocas ocasiones. «El caso del coronavirus fue muy claro», explica David Losada, investigador del Citius de la Universidade de Santiago. En un contexto en el que todavía había poca evidencia científica, «es todavía un desafío mayor para la tecnología, porque no tiene tantos datos o recursos externos de los que surtirse para estimar que un determinado flujo nuevo de contenidos puede ser malicioso».

Y es en esos márgenes estrechos es en los que trabajarán científicos de la Universidade de Santiago, que forman parte de un proyecto financiado por la Unión Europea e el UK Research and Innovation que lleva un nombre de lo más definitorio: HYBRIDS. Porque combatir la desinformación necesita de la tecnología, pero sobre todo necesita del conocimiento humano.

Es decir, el proyecto aúna los avances tecnológicos en el campo del procesamiento del lenguaje natural y el deep learning con los conocimientos adquiridos por el campo de las ciencias humanas y sociales con el objetivo de generar nuevos sistemas de interpretación neurosimbólica. Es lo que se conoce como inteligencia híbrida.

Pablo Gamallo, docente de la Facultad de Filología de la USC y responsable de la institución líder en España del proyecto, resume lo que significa ese concepto de inteligencia híbrida: «Consiste en combinar las altas capacidades computacionales de los recientes algoritmos neuronales con representaciones simbólicas que modelan el conocimiento humano» con el objetivo de superar las carencias de los actuales métodos de inteligencia artificial.

El nombre HYBRIDS también responde a que el proyecto combina la cuestión tecnológica con la humana. Lo explica José M. Alonso, uno de los investigadores del Citius que forman parte del proyecto. Por una parte, los humanos desarrollarán teorías simbólicas, que «hacen referencia a un conocimiento experto que una persona podría definir por una serie de reglas» y enseñárselo a la máquina, que a la vez aprendería por sí sola a partir de fuentes de datos.

Es decir, combina el conocimiento de las personas, que era lo que se utilizaba al inicio del desarrollo de los sistemas inteligentes, con el aprendizaje solo a base de datos, que es la tendencia predominante en la actualidad. Eso permite corregir uno de los principales problemas que contribuyen a la desinformación, que es que si los datos con los que la máquina aprende contienen sesgos o no son buenos, «el modelo va a aprender esas irregularidades», explica Alonso. Que una persona esté en el proyecto (lo que se conoce como human in the loop) es una forma de garantizar que el modelo aprende con datos correctos. 

Porque la desinformación puede ser voluntaria, como las noticias falsas y los bulos que se dispersan sobre inmigración o cuestiones políticas por intereses de ciertos grupos, pero también puede generarse de manera involuntaria, a través de la difusión de mensajes incorrectos (por desconocimiento, por ejemplo) que empiezan a dispersarse. 

«Si la información no está revisada cuidadosamente, si tiene errores o defectos, la máquina va a empezar a difundir algo que no debería», explica Alonso. Por eso es importante el trabajo de expertos en campos como la lingüística, porque no es solo que la información sea correcta, es también que esté expresada de manera adecuada.

Distinguir las sutilezas entre verdad y mentira es uno de los grandes retos de la investigación en este campo. Amparo Alonso pone el ejemplo de que una persona ha tenido una deuda financiera que ya ha solventado. Si se difunde la información de que tiene esa deuda, no es verdad, pero tampoco es completamente mentira, porque en algún momento la ha tenido.

En esas ambigüedades es importante la expresión correcta de la información, porque quizá con un cambio del tiempo verbal (tuvo por tiene) el modelo adquiera la información correcta. De depurar la expresión se encargan lingüistas. Pero es cierto que el ser humano tiende a la vaguedad en el lenguaje, y ahí es importante el contexto, explica José M. Alonso. 

El desafío es extremadamente complejo, ya que requiere un profundo conocimiento semántico, así como distintos mecanismos de inferencia y razonamiento basados en el lenguaje natural. Por ejemplo, en esa frontera borrosa entre verdad y mentira, quizá es necesario recurrir más a cuestiones estilísticas, al uso de un lenguaje más factual y no especulativo, o contar con evidencias que se pueden incorporar a la detección automática, como las referencias a estudios reputados y el uso de citas apropiadas, explica David Losada.

La inteligencia híbrida es todavía un campo apenas cultivado, con pocas publicaciones científicas y con perfiles profesionales de alta cualificación escasos, al tener que combinar disciplinas hasta el momento tan alejadas como la ingeniería informática, la lingüística y las ciencias sociales.

La Unión Europea financia programas altamente competitivos como HYBRIDS para fomentar colaboración entre instituciones, no solo universitarias, sino también con centros y empresas para que los futuros doctores que se van a formar y que van a desarrollar la tecnología de futuro tengan la mejor formación posible. Por eso, este proyecto cuenta con 14 organismos, ocho beneficiarios y seis partners. 

Híbridos serán también los conocimientos con los que saldrán los nuevos doctores, ya que podrán acceder a formación de los diversos campos que interseccionan en el ámbito de la inteligencia artificial, incluyendo humanidades, ciencias sociales y computación. Esa formación será testada de forma práctica en las empresas que forman parte del consorcio internacional.

Se contemplan cuatro escenarios: la desinformación en el ámbito de la salud, en política, en cuestiones relacionadas con la inmigración y a emergencia climática. Son cuatro grandes fuentes donde hay bastante debate y donde es fácil encontrar un montón de opiniones diversas, pero el reto es la verificación. Y para ello es necesario el acceso a los datos que permitan contrastar la información.

De hecho, entre las tesis que saldrán del proyecto hay varias que abordan el fact checking y como automatizar los procesos de verificación de la información que se han empezado a normalizar, por ejemplo, durante un debate electoral o mientras se emite una entrevista, para contrastar si efectivamente los datos que se están dando son los correctos. 

La creación de una nueva generación de sistemas de inteligencia artificial híbridos, capaces de analizar las sutilezas de las que se vale la desinformación, viene a combatir fenómenos preocupantes, como la propagación de información falsa, los discursos de odio, el acoso a través de las redes sociales y un sistema de plataformas que funciona como una caja de resonancia que amplifica las propias creencias y dificulta escuchar otras opiniones, impidiendo el debate público que ha caracterizado el avance democrático del último siglo y en el que han tenido, con luces y con sombras, un papel fundamental los medios de comunicación. 

«A eclosión destes últimos avances da intelixencia artificial están situándonos ante novos desafíos que xa caracterizaron a historia da humanidade». Xosé López, catedrático de Ciencias da Comunicación de la USC, hace referencia no solo a la revolución industrial, sino a otras revoluciones que han hecho cambiar la historia de la humanidad para siempre.

En ese paradigma del cambio, operan dos emocionales fundamentales: la ilusión y el miedo. «Medo a unha serie de cuestións que nos abren, ou unha serie de cuestións que é capaz de facer, e ilusións ou fantasías do que nos gustaría que fixera», explica López.

Deepfake o no te fíes de tus ojos y tus oídos

Están a punto de cumplirse 20 años de la muerte de Lola Flores, pero hace relativamente poco, la Faraona volvía a dirigirse a los españoles (esta vez no era para pedirles una peseta a cada uno) en un anuncio, que utilizaba el deepfake. La tecnología ya tiene la capacidad de generar vídeos y audios en los que una persona dice algo que en realidad, nunca dijo. Ya ni siquiera es fiable lo que se ve y lo que se escucha. 

«Efectivamente, es un problema y una preocupación. Hoy es muy difícil para un humano, y a veces imposible, discernir si un contenido ha sido producido automáticamente por un software», ya sea texto, audio o imagen, explica David Losada, investigador del Citius.

Amparo Alonso recuerda a Lola Flores pero también el famoso vídeo de Obama haciendo unas declaraciones sobre Trump que nunca hizo. Hay pequeñísimos detalles que permiten discernir que en realidad se trata de una falsificación, pero a simple vista es casi imposible. Para eso también sirve la tecnología, para que los humanos puedan diferenciar lo que es real de lo que no. 

Y a veces, ni siquiera hay que recurrir a ese deepfake para desinformar a la población. Simplemente hay que sacar la imagen de contexto. Lo ilustra locuazmente Alonso, que usa un ejemplo de plena actualidad: a través de las redes sociales, se difunde un vídeo que se localiza en la guerra de Ucrania. Pero comprobando los metadatos, queda patente que el vídeo no es actual. O ni siquiera está grabado en Ucrania. 

Desde hace unos años, se publican estudios sobre hasta qué punto la sociedad es capaz de distinguir un bulo de una información veraz, con cifras dispares, que van desde un 40 a un 80 % de la población incapaz de reconocer fake news. «Informarse esixe un certo esforzo», recuerda Xosé López. Y también contar con la formación necesaria para apuntalar una sociedad crítica. 

El catedrático de periodismo nombra países nórdicos que ya incluyen en los planes de estudio formación en cuestiones que tienen que ver con la búsqueda y el contraste de información. «Se non hai esa educación mediática na escola, se se descoñecen todos estes aspectos que hoxe caracterizan o funcionamento da sociedade, a comunicación e a información, temos unha eiva importante».

Xosé López se remonta a los clásicos para hablar de otra de las derivadas en el debate de la desinformación y las nuevas tecnologías: el factor generacional. «Hai un mantra sobre o que tamén temos que reflexionar e que está aí dende os presocráticos, que é que todas as xeneracións van dexenerando». Y no es eso. Simplemente están en un nuevo escenario.

«O problema é que coñezan os diferentes escenarios e o que achega cada un» y sobre todo, tender puentes de diálogo y de conocimiento para que luego cada persona tome decisiones. Pero que sean informadas.

«Non é que crea que a educación resolve todo», dice el catedrático de Comunicación, que pone como ejemplo los comportamientos sorprendentes que se dan en sociedades con un alto índice de formación. Pero la formación sí «nos sitúa con capacidade para poder ter máis criterio para posicionarnos, para actuar e para intervir».

«La tecnología en sí misma no es negativa, pero el uso que se puede hacer de ella», recalca José M. Alonso. Volviendo a la máxima del superhéroe, un gran poder conlleva una gran responsabilidad, y por eso es fundamental « la formación crítica de las personas. Que la gente sea consciente de que porque me lo diga una máquina, no me lo está diciendo un ser todopoderoso y me lo tengo que creer», alerta el investigador del proyecto HYBRIDS. 

Menos debate, más retroalimentación: el peligro de los sesgos

La sociedad de las plataformas es algo parecido a las zonas de cuarentena que se ven en The Last of Us: guetos en los que la retroalimentación ha devorado el debate, amparada por el conocido como sesgo de confirmación: es más sencillo escuchar y leer opiniones que concuerden con la de uno que aquellas que desafían el propio sistema de creencias.

Las redes sociales funcionan en este caso como cámaras de resonancia que amplifican aquello con lo que se está de acuerdo y silencian todo lo demás. El escenario alimenta la polarización «e por tanto crea un escenario moi favorable para eses sesgos: eu escoito o que quero escoitar, e o que non xa non o escoito, nin quero dialogar, nin rebater nin cambiar impresións». Solo hay que dejarse caer por alguno de los debates más candentes en Twitter. 

«Está claro que los seres humanos tenemos sesgos y por eso muchas veces se habla de la necesidad de incluir equipos diversos», afirma Amparo Alonso, que indica que buena parte de ellos son inadvertidos. Ese es otro de las grandes preguntas: si los seres humanos tienen sesgos, ¿es posible generar inteligencia artificial libre de ellos?

Un ejemplo: Amazon acabó por abandonar un sistema de inteligencia artificial para la contratación cuando descubrió que aplicaba un sesgo de género contra las mujeres, especialmente en áreas de desarrollo de software y técnicas, históricamente masculinizadas. 

Los sistemas de reconocimiento facial funcionan peor en las mujeres y las personas de raza negra y Google traducía palabras que en inglés tienen género neutro con sesgos sexistas: médico, pero enfermera.  

En todos esos casos, la discriminación que producía el sistema fue corregida, y, de hecho, Alonso recalca que la inmensa mayoría de los sesgos que se detectan son inadvertidos. Involuntarios. 

José M. Alonso habla de tres tipos de sesgos en el ámbito de la inteligencia artificial: el primero es el de los datos. Si el modelo se nutre de datos sesgados, tenderá a reproducirlos. Eso es relativamente sencillo de corregir, porque simplemente hay que procurar trabajar con juegos de datos equilibrados.

El segundo es el sesgo de modelo. Que una vez en marcha, se detecte que el patrón está desequilibrado, que produce un sesgo. Simplemente, hay que corregir el algoritmo o no utilizarlo. Como ocurrió con el proyecto que abandonó Amazon.

El tercer sesgo es el cognitivo. El cultural. Es el más difícil de corregir, si eso es posible, porque depende de la educación. Es decir, es necesario plantearse cómo son los planes educativos e incluir formación. 

«Los sesgos se pueden detectar y se pueden se pueden corregir mucho más fácilmente que corregir los sesgos de las personas», dice Alonso, que remarca la importancia de que en el ámbito de la inteligencia artificial trabajen equipos diversos, no solo en lo que a raza, sexo o creencias se refiere, sino también en cuanto a ámbitos de conocimiento: deben colaborar personas expertas en informática, en filosofía, en lingüística, en comunicación, en psicología...