Marcos Almeida, de la comisión para el desarrollo de la inteligencia artificial en Galicia: «No hay que ser alarmistas con la IA, aunque sí presenta algunos riesgos»

M. Meizoso REDACCIÓN / LA VOZ

SOCIEDAD

El experto recuerda que ya se están usando sistemas algorítmicos en el sector público gallego

27 jun 2024 . Actualizado a las 05:00 h.

Marcos Almeida, profesor de Derecho Administrativo de la USC, es uno de los diez expertos que integran la Comisión de Expertos para el Desarrollo y Uso Ético de la Inteligencia artificial en Galicia, impulsada por la Xunta. En el marco de un encuentro digital celebrado ayer, Almeida resolvió las dudas que trasladaron los lectores de La Voz. 

¿Cree que las IA llegarán a desarrollar empatía? Y si fuese así ¿generar sentimientos no las convertiría prácticamente en humanas?

Yo sé que hay mucha gente que fantasea con que la IA pueda adquirir emociones y se comporte como personas. Pero el único escenario que se puede dar es que algún sistema de IA o robots basados en IA sean personas. Es decir, nosotros estamos acostumbrados a vivir con personas jurídicas o sociedades. El ser persona significa ser centro de imputación de derechos y deberes y es posible que se personifique alguna de estas entidades artificiales, para hacerla responder directamente de sus actuaciones. Si echamos una ojeada hacia otros sectores como el derecho ambiental, vemos como entidades naturales han sufrido un proceso de personificación. En España, es reciente la ley que otorga una personificación jurídica al Mar Menor. Por lo tanto, no tendría nada de raro que la IA se convirtiese en personas, pero no en personas humanas con sentimientos, sino en personas jurídicas con derechos y obligaciones.

¿Cómo afectará al mercado laboral?, ¿Dejaremos de trabajar?

Lamento decir que no dejaremos de trabajar. Ni en el ámbito público ni en el privado se va a producir una sustitución. Lo que vamos a tener es un cambio de paradigma, es decir, van a desaparecer determinadas funciones que hacemos porque van a ser automatizadas. No obstante, es cierto que algunos puestos de trabajo van a desaparecer porque se han quedado obsoletos, pero eso no significa que esas personas pierdan su trabajo. Lo que va a suceder es que tendrán que reciclarse. Hay funciones que recaerán en la IA, pero alguien tendrá que supervisar su funcionamiento.

¿Existe responsabilidad en el caso de que un sistema de IA proporcione información incorrecta?

Bueno, esta es una pregunta con una solución fácil. En el sistema español, la respuesta es sí. Si a un chatbot de una administración le hacemos una pregunta sobre una subvención para saber cuántos requisitos son necesarios y nos contesta cuatro y después sucede que eran cinco, hay que indemnizar a la persona que no tendría la subvención por haber seguido las instrucciones del chat. Esto es porque en España la responsabilidad administrativa es objetiva, es decir, si hay un daño y se puede unir a una actividad de la administración, en este caso una actividad automatizada a través de un sistema de inteligencia artificial, la administración paga. ¿Y quién asume ese gasto? La administración que está empleando ese sistema de inteligencia artificial. El mero fallo genera responsabilidad a cargo de la administración que emplea ese sistema.

Si una entidad del ámbito público adopta una decisión empleando un sistema de IA, ¿ese acto podría controlarse judicialmente?

Esta respuesta hay que analizarla con detalle para que sea precisa. Los sistemas de inteligencia artificial, cuando se emplean en el sector público, pueden aplicarse en dos momentos. La IA puede dar una recomendación que la administración puede seguir o no. Pero por otro lado, el sistema puede dictar directamente el acto administrativo. En el segundo caso, sin duda, si el acto produce efectos se puede recurrir. En el anterior, si es una recomendación, no podemos recurrir dicha sugerencia, tenemos que recurrir la decisión que se haya tomado. Ahora, no es irrelevante lo que haya propuesto, ni mucho menos. Porque podemos imaginar que la IA propone conceder una subvención y la administración lo rechaza. Conocer la decisión de la IA es un argumento potentísimo para poder recurrir la decisión final porque la administración tendrá que justificar por qué no siguió las indicaciones dadas por el sistema de inteligencia artificial.

¿Cómo valora la implementación de soluciones de IA en el sector público?

Lo primero es romper uno de esos mitos. Parece que la inteligencia artificial es algo de lo que estamos hablando ahora, pero que todavía no está en uso. Se cree que llegará y que habrá programas inteligentes, pero la realidad es que ya está aquí. Hay multitud de aplicaciones en diferentes campos que responden a las necesidades de distintos entes del sector público, por ejemplo, en nuestra comunidad autónoma tenemos sistemas de inteligencia artificial encargados de vigilar la sanidad animal, sistemas que detectan fraudes tanto de naturaleza tributaria como en otros campos, por ejemplo, en materia de subvenciones. Hay sistemas algorítmicos que tratan de mejorar las comunicaciones con predicciones de los desplazamientos, tanto de personas como de vehículos, para agilizar el tráfico en zonas congestionadas. Y también otros que se han anunciado para mejorar la empleabilidad de las personas. Existen, por lo tanto, muchos y están funcionando. El problema que yo detecto aquí es que hay una planificación muy débil. Existen muchas iniciativas separadas, pero que muchas veces no responden a estándares comunes. Por ello, en mi opinión creo que convendría estar más coordinados e implementar una escala de planificación.

¿Qué riesgos se pueden derivar de la implantación de aplicaciones de IA?

El elenco podría ser muy largo. De hecho, algún observatorio habla de riesgos catastróficos. Yo creo que no hay que ser alarmistas, aunque sí presenta algunos riesgos. El primero sería que empleo de sistemas de IA puede dar lugar a un aumento de la discriminación por género, orientación sexual, identidad o raza. Los sistemas son muy sensibles a generar sesgos negativos y es una experiencia que tenemos en Estados Unidos. Allí hemos visto como, por ejemplo, a la población de color se le denegaban determinadas prestaciones o hipotecas porque, en un cruce de datos, un sistema sacó una conclusión aberrante: si eres una persona de color tienes más posibilidades de ir a la cárcel y no pagarás tus compromisos. El segundo problema sería el crecimiento de la brecha digital. Hoy por hoy sabemos que hay un alto porcentaje de la población que no accede al sistema tecnológico por razones geográficas, de edad, de capacidad o de educación, entre otras. Y, si no lo hacen en esas circunstancias, con un nivel tecnológico básico, imaginémonos si tienen que interactuar con un sistema de inteligencia artificial que requiere disponer de ciertas capacidades que están por encima. Es decir, implementar la inteligencia artificial puede llevar a incrementar también la brecha digital. Eso va a implicar que la administración tendrá que empeñarse activamente en reducirla, lograr que la IA sea beneficiosa. Y, por último, el tercer riesgo es, el menos valorado, y es el que está relacionado con la privacidad y la seguridad.