Los expertos advierten sobre el peligro de asumir que por que algo lo diga una máquina automáticamente es verdad
23 oct 2023 . Actualizado a las 09:42 h.La generativa es una rama de la inteligencia artificial orientada a la creación de contenido nuevo a partir de datos que ya existen. Estos sistemas —ChatGPT (OpenIA), Bing (Microsoft), Llama (Meta), Bard (Google)— utilizan modelos de aprendizaje automático: se entrenan con ingentes cantidades de información y reproducen sus patrones y características. Pero a más sofisticación de la tecnología, más dudas sobre quién responde de lo hecho y decidido por este tipo de herramientas. ¿Debería haber una entidad o un grupo de individuos encargados de supervisar y evaluar los textos y las imágenes que generan? ¿Quién debe rendir cuentas en caso de daño, de resultados perjudiciales? ¿Dónde está el problema, en la herramienta o en su mal uso?
La mayor amenaza ahora mismo es, para Brais Cancela, profesor e investigador del Departamento de Computación de la Universidad de A Coruña (UDC), que la gente asuma que por que una máquina dice algo, automáticamente es verdad. «ChatGPT es un modelo generativo que está hecho para hacer frases coherentes, que no veraces —avisa—. Estos modelos se nutren de hacer scraping [extracción de datos de sitios web a través de procesos automatizados] por todo Internet, bajándose todo el texto habido y por haber, con y sin copyrights». Aquí se plantean dos problemas, expone: el de la propiedad intelectual de los datos que se usan para entrenar al sistema y el de la veracidad de estos textos que sirven como materia prima.
Aprendizaje por refuerzo
Para optimizar el método, algunos programas utilizan lo que se llama aprendizaje por refuerzo. «Una persona revisa varias respuestas a la misma pregunta y da un refuerzo positivo a la que considera más correcta para que el modelo tienda a devolver esa —explica Cancela—. Y aquí surge una problemática más, porque o bien el sistema se entrena de manera autosupervisada y no es consciente de lo que dice, solo genera texto hasta crear una frase coherente, o alguien decide cuál es el texto que tiene que devolver. Y entonces, ¿quién regula a esa persona?».
Si no hay ley que controle esto, es el empleado o la misma empresa la que decide cuál es la respuesta correcta, «lo que puede favorecer resultados más favorables a un ideario político o mismamente, en deportes, hacia un club de fútbol específico, por ejemplo». «Se puede forzar a la red para que responda lo que tú quieres que responda».
«La creación de noticias falsas existe desde hace años, no es nuevo —continúa—. El problema ahora es precisamente que los sistemas de IA se entrenan peinando millones de textos que encuentran en Internet y que tanto pueden ser rigurosos como falsos. Luego, cuando se les consulta, sus respuestas tienen probabilidades de no ser veraces».
Solo hasta septiembre del 2021
Hasta ahora, la versión más avanzada del ChatGPT únicamente se alimentaba de información publicada o subida a Internet antes de septiembre del 2021. Su propietaria, Open IA, anunció hace ya dos semanas el fin de esta limitación, pero el sistema al que de momento pueden acceder los usuarios españoles todavía no se ha actualizado [los dos ejemplos siguientes dan fe de ello].
Cuando lo haga, ofrecerá información al día y de fuentes autorizadas de la mano de Bing, de Microsoft, confirmó la compañía. Este cambio ya está disponible para los internautas con una suscripción de pago.