![](https://img.lavdg.com/sc/UfKk8XiLEwSn4klPMFt2QgRePOQ=/480x/2023/06/03/00121685807162094250986/Foto/O31Y3027.jpg)
El director del centro de procesamiento del lenguaje de la UNED asegura que ya no se puede ser escéptico con el uso de cerebros artificiales
04 jun 2023 . Actualizado a las 10:20 h.Julio Gonzalo (Madrid, 1968) es director del Centro de Investigación en Procesamiento del Lenguaje Natural de la UNED y vicerrector adjunto en investigación de esta universidad. Toda su carrera ha trabajado en el área de la inteligencia artificial dedicada al lenguaje y estos días ha participado en Ourense en una charla organizada por la UNED y el Colegio de Economistas sobre las dudas que genera ChatGPT.
—¿Cómo explicaría que es ChatGPT a alguien que no esté familiarizado con su uso?
—Se trata de un cerebro artificial que ha aprendido nuestro lenguaje, en un primer paso; y en un segundo paso ha sido entrenado para dialogar con humanos proporcionándoles todo tipo de información útil, aunque no necesariamente veraz. Podemos imaginar chatGPT como un supercuñado, que está muy motivado, pero que habla de oídas. Puede explicarnos cualquier cosa y lo hace con mucha suficiencia y con apariencia de estar muy bien informado de cualquier cosa. Pero no podemos olvidar que habla de oídas y, por tanto, lo que nos dice no es fiable.
—¿Cómo logra sus habilidades lingüísticas?
—Un cerebro artificial, antes de comenzar su aprendizaje, es como una gigantesca fórmula con cientos de miles de millones de parámetros con valores establecidos al azar. En el proceso de aprendizaje de nuestro lenguaje, el cerebro juega consigo mismo a cosas como predecir la siguiente palabra. Como tiene a su disposición enormes cantidades de texto, puede jugar a ese juego una cantidad enorme de veces. Cada vez que hace una predicción y acierta o se equivoca, va poco a poco ajustando los valores de sus parámetros, de forma que al final del proceso es capaz de predecir la siguiente palabra con mucha precisión y, lo que es más importante, en el proceso ha aprendido a representar internamente el significado de cada palabra en contexto, a un nivel de abstracción sorprendente.
—¿Qué conocimiento del mundo dispone?
—De casi todo y de nada al mismo tiempo. Ha leído la Wikipedia entera, aunque la versión actual se queda en el 2021, pero la ha asimilado solo de forma intuitiva, de oídas. No dispone de tablas de datos fiables donde consultar información. Por eso puede cometer errores respecto a cosas que ha leído.
—¿Por qué es capaz de dar información útil, pero falla en cosas simples como la aritmética?
—Es un sistema que emula exclusivamente nuestro pensamiento intuitivo y no nuestro pensamiento racional. Cuando usamos este último, razonamos sobre datos y conocimiento explícito como, por ejemplo, cuando hacemos la declaración de la Renta Cuando usamos nuestra intuición, tomamos decisiones basadas en nuestra experiencia a la que no podemos, en general, dar una explicación racional. La inteligencia humana mezcla las dos vertientes, y nuestro éxito depende en muchas ocasiones de saber cuándo debe predominar lo racional y cuándo lo intuitivo.
—¿Por dónde cree que pasará el futuro de la inteligencia artificial?
—El siguiente paso disruptivo sería conseguir fusionar el aprendizaje máquina con la posibilidad de manejar explícitamente la información y razonar sobre ella. Pero no es un problema trivial en absoluto. De momento, nadie sabe cómo hacerlo, aunque se está intentando de muchas maneras. La forma más inmediata es recurriendo a otros agentes inteligentes para la tareas en las que sabemos que ChatGPT y sus primos fallan, que es en proporcionar información veraz y actualizada.
—¿Qué les diría a los escépticos?
—Ya no se puede ser escéptico, está demostrado que usados adecuadamente esta nueva ola de cerebros artificiales pueden multiplicar la productividad en multitud de profesiones.
—¿Y a los que hablan de usos perversos?
—Una cosa es que no se pueda ser escéptico y otra que no se pueda tener miedo. Como otras tecnologías disruptivas antes, la inteligencia artificial generativa puede usarse para usos perversos. Y, lo que es peor, puede tener consecuencias negativas imprevistas aunque no haya una intención perversa como ya ha ocurrido con la combinación de teléfonos inteligentes y redes sociales .
—¿Cuál es la mayor «fake news» que ha conocido sobre ChatGPT?
—Se habla de que ya está cerca el cerebro artificial que dominará a la humanidad al estilo de la saga Terminator. Aunque hay incluso voces autorizadas poniendo el tema sobre la mesa, me parece una barbaridad plantearlo en estos términos ahora mismo. Sobre todo porque distrae de las consecuencias negativas que la inteligencia artificial ya está teniendo en nuestra sociedad. Pensemos que la información que consumimos está decidida, en un gran porcentaje, por sistemas de inteligencia artificial que deciden qué enseñarnos en Google, YouTube o Facebook y eso está teniendo efectos colaterales.