
Con el anuncio y lanzamiento de su nuevo modelo, OpenAI sigue en la línea de atribuirle capacidades que, por diseño, no puede tener. La última novedad: decir que su chatbot ahora «piensa».
Lo cierto es que los términos que estamos eligiendo a la hora de hablar sobre inteligencia artificial no solo son malos (en el sentido de que no describen adecuadamente la realidad de los modelos), sino que son deliberadamente engañosos, por interés corporativo: vende más usar significantes asociados a la experiencia humana (aunque su significado no sea el común) que otros más precisos, pero fríos. De ahí la tendencia a humanizar estos programas por parte de todas las empresas que buscan aparentar vanguardismo, intentando dar la imagen de poseer tecnologías internas salidas de la ciencia ficción más futurista.
En este caso, se atribuye a ChatGPT o1 la capacidad de pensar, con lo que pretenden hacernos entender que hay algún tipo de proceso consciente subyacente en operación. No es el caso, pues lo único que hace es preprocesar el texto para que sea más veraz, escribiendo texto oculto (pensamientos) a modo de borrador, que después usa para dar la respuesta final. No hay consciencia ni pensamiento racional, solo refinamiento iterativo de la salida antes de mostrársela al usuario.
Pero la resignificación del lenguaje va más allá: cuando una IA comete un error en su respuesta, los gurús nos hablan de que ha tenido una «alucinación», sin pararse a pensar en lo que están diciendo. Para alucinar momentáneamente hay que tener contacto con la realidad, y después perderlo de forma temporal. La IA es solo un predictor de texto, que va escogiendo la siguiente palabra hasta que completa una oración similar a las de su entrenamiento. No conoce la realidad, no tiene contacto con ella, ni tiene consciencia para discernirla de la ficción, por lo que no puede alucinar. A su vez, el proceso matemático que produce una alucinación es exactamente el mismo que produce el resto del texto correcto, por lo que, si queremos decir que las inteligencias artificiales «alucinan», tenemos que admitir que alucinan en todo momento, y que cuando nos dice datos veraces es simplemente porque su alucinación coincidió con la realidad. Quizá «pamplinas» sería una mejor forma de describir el texto generado por estas IA, traducción al castellano de bullshit, como lo llamaron tres investigadores de la universidad de Glasgow.
Y, por supuesto, el mayor engaño posible es hablar de «inteligencia», cuando aún no conocemos bien el significado de esta palabra, que de seguro va más allá de regurgitar textos sin entender lo que uno escribe.
Hay muchos más casos de este tipo de engaños en el sector, incluso sin que tengan que ver con la humanización de las IA, como que la empresa llamada OpenAI (IA-Abierta, en español) desarrolle IA cerradas, sin revelar cómo funcionan internamente ni qué datos ha usado para entrenarlas. No listaré más ejemplos, porque creo que con estos basta para ilustrar la reciente manipulación lingüística.
Las tecnológicas pretenden que creamos que, con un poco de álgebra lineal y máquinas capaces de hacer productos tensoriales monstruosos, vamos a encontrar respuesta a las grandes preguntas, o librarnos por siempre del trabajo. Ni las IA van a traer el edén, ni adulterar las palabras va a hacerlas más capaces de ello, aunque sí que ayudará a inflar algunas valoraciones bursátiles, que es el fin último de todo esto.
La IA es, sin duda, un avance muy positivo para la humanidad; pero debemos ser más humildes y honestos al hablar de ella, comenzando por emplear los términos adecuados, no antropomórficos, que la describan. Solo así la veremos como lo que realmente es, una herramienta, sin crear burbujas mediáticas ni bursátiles, ni desperdiciar incontables recursos en incorporarla donde no es requerida. Si esta espiral de degeneración semántica continúa, no tardaremos en escuchar hablar de IA con «agencia propia» o «creatividad», puede que incluso «consciencia». En el fondo, seguirán siendo lo que siempre fueron, álgebra inerte.