Europa se plantea multar a quien use la inteligencia artificial inadecuadamente
SOCIEDAD
La UE ultima la primera ley del mundo que regulará esta nueva tecnología atenta a casos como las fotos de las niñas «desnudadas» de Almendralejo
23 oct 2023 . Actualizado a las 09:43 h.La inteligencia artificial salva vidas, y más que salvará. A través del procesamiento de ingentes cantidades de datos, detecta y alerta; anticipa el peligro, mantiene a salvo. Generalizada, apunta sin embargo maneras como seria amenaza a la privacidad, a la estabilidad social e incluso a la democracia: parte de su potencial ya está en manos de cualquiera, lo que exige una urgente regulación, porque manipular imágenes, audios y vídeos con tecnología de última generación es hoy sorprendentemente sencillo y accesible, y si todos podemos hacerlo —con buenas, pero también con malas intenciones—, también podemos, en cualquier momento, ser blanco de montajes. Los resultados son extremadamente realistas, invisibles las costuras al ojo humano que, por defecto, siempre cree lo que ve, aunque sea algo que nadie nunca hizo. El caso de las chicas de Almendralejo «desnudadas» con IA ha sido, por involucrar a menores y por su naturaleza sexual, el jarro de agua fría que ha hecho espabilar a una sociedad instalada en el «no será para tanto». Lo es.
«La tecnología avanza muy rápido y va por delante de la sociedad; se están viendo cosas que hasta hace poco parecían ciencia ficción y la gente, en el día a día, no es capaz de distinguir qué hay de verdad o de mentira en todo esto», señala José María Alonso, investigador del Centro Singular de Investigación en Tecnologías Inteligentes de la USC (Citius) y coordinador de la red científica encargada de velar por una inteligencia artificial fiable en España. Le preocupa especialmente que estas herramientas se vean como un juguete, que todavía no seamos plenamente conscientes de que el móvil que llevamos en el bolsillo es un ordenador y que tanto el desarrollo de un pensamiento crítico para distinguir si lo que tenemos enfrente —determinados términos y condiciones— es o no una amenaza como el abordaje legal de la tecnología vaya, «desgraciadamente», demasiado despacio. La Unión Europea lleva más de dos años dando forma a una ley —la primera del mundo sobre inteligencia artificial— que, como pronto, empezará a implementarse en el 2025.
Ya en su recta final —el objetivo es alcanzar un acuerdo antes de que acabe el año, con la presidencia española—, la normativa está siendo perfilada en cuestiones relativas al uso de herramientas de inteligencia artificial generativa. Las que atañen al uso comercial están bastante definidas: registros europeos y marcas invisibles que identifiquen el contenido creado con IA. Sobre el uso particular, Ibán García del Blanco, eurodiputado del PSOE ponente de la ley, avanza que se está discutiendo la posibilidad de introducir «algún tipo de multa o sanción para usuarios privados que utilicen estas herramientas de manera inadecuada». Advierte que, de momento, solo está en debate y recuerda que, a escala nacional, hay herramientas legales suficientes para abordar el uso indebido o la alteración de una imagen personal.
En su opinión, las que deberían estar bajo la lupa son las suministradoras de este tipo de servicios: «No es de recibo que haya un motor de acceso gratuito y sin ningún tipo de control que pueda ser utilizado indiscriminadamente por parte de menores para manipular imágenes y que cuando sucede una circunstancia como esa no haya ningún tipo de sanción para la compañía. Hay que restringir de alguna manera, y aceleradamente, el acceso a este tipo de herramientas».
¿Debe prohibirse a los menores de edad el acceso a este tipo de herramientas?
Aunque, según sus condiciones de uso, ChatGPT está dirigido a mayores de 13 y Bard —la inteligencia artificial de Google— solamente a adultos, ningún tipo de cortafuego impide que cualquiera, tenga la edad que tenga, acceda y utilice estas herramientas. El debate sobre si debería prohibirse o no para menores de edad está servido y, de hecho, la Unión Europea está contemplando incorporar en su regulación filtros de edad. ¿Cómo? A través del reglamento eIDAS, que propone la creación de una identidad digital fiable y segura, una especie de DNI electrónico europeo.
«Yo no soy muy partidario de prohibir, porque ¿dónde está el límite? —plantea José María Alonso, investigador del USC experto en IA—. ¿A qué una persona es lo suficientemente madura o no para saber si lo que está utilizando le puede poner o no en riesgo a otros o suponer un peligro para sí misma? ¿Tiene más riesgo una persona de 12 años o alguien de 70 que nunca ha utilizado tecnología y que ahora tiene un teléfono móvil porque se lo han dado sus hijos para que pueda llamar?».
Francia, contra los montajes
El Gobierno francés no solo tiene claro que hay que regular específicamente el uso lesivo de la IA, sino que ya se ha puesto a ello. En manos de sus diputados está desde hace ya días la «ley de seguridad y regulación del espacio digital», impulsada por el Ejecutivo de Macron, que además de tratar de controlar el acceso de menores a páginas pornográficas persigue sancionar los montajes de carácter sexual creados con algoritmo. Contempla imponer multas a la difusión y también a la creación de este tipo de contenidos.
El diccionario de la IA
Un nuevo mundo requiere un nuevo lenguaje. Estos son los conceptos básicos relacionados con la inteligencia artificial que conviene conocer:
Bot: abreviatura de robot. Programa informático diseñado para realizar automáticamente, por su cuenta, tareas en Internet o en otros sistemas digitales. A menudo utilizan algoritmos de procesamiento de lenguaje natural para comunicarse con los humanos.
Chatbot: un bot conversacional. Programa diseñado para interactuar y comunicarse con los usuarios —generalmente a través de texto o voz—, para brindar respuestas automáticas a preguntas o realizar tareas específicas. Las compañías suelen integrarlos en sus servicios de atención al cliente
ChatGPT: el asistente más listo. Sistema de IA diseñado para comprender y generar texto de manera coherente y contextualmente relevante en conversaciones escritas. Se alimenta de una vasta variedad de datos de internet para aprender el lenguaje y el conocimiento humano, lo que le permite responder preguntas y mantener conversaciones tal y como lo haría una persona. A medida que interactúa con el usuario va «aprendiendo» y adaptándose a nuevas situaciones. Es, de momento, una herramienta gratuita y de libre acceso.
Cheapfake: Deepfake barato. Imagen manipulada, editada o descontextualizada, difundida con el objetivo de extender bulos. Su factura es descuidada, por lo que no requiere de tecnología avanzada, pero al ser masiva —están por todas partes— es igualmente eficaz.
Deepfake: imagen falsa realista. Fotos o vídeos falsos, que al estar alterados con sofisticados algoritmos de aprendizaje profundo, parecen auténticos. Suele usarse para crear imágenes de personas haciendo cosas que nunca hicieron. También hace referencia a la tecnología o la técnica que se usa para conseguir estos resultados.
Deepvoice: voz humana sintéctica. Falsificación de la voz. La tecnología se entrena con archivos sonoros, de internet o captados, y es capaz de imitar a la perfección el tono diciendo lo que se le pide.
Los «deepfakes», punta de iceberg del lado más oscuro de la inteligencia artificial
La de los deepfakes —fotografías, vídeos o audios manipulados— no es la única amenaza que gana músculo en esa «ciudad sin ley» que, según el experto en Ciencias de la Computación Brais Cancela, es el ecosistema algorítmico en estos momentos. Es la que más ruido hace, porque es capaz de tomar formas diversas y alcanzar dimensiones inimaginables, del montaje sexual —nueve de cada diez— al vídeo falso con presentadora conocida recomendando inversiones que resultan ser estafas o la llamada con voz clonada de un hijo pidiendo un Bizum [ingreso de dinero a través del teléfono]. Pero hay más.
Noticias falsas
«Una información publicada en internet y difundida a través de las redes o los servicios de mensajería puede ser falsa porque alguien cometió un error o porque alguien la ha compartido con la intención de manipular y desestabilizar, a lo que se suma que con la forma en la que hoy se consume información las posibilidades de ser manipulados son muy elevadas —pone en contexto José María Alonso, profesor en el grado de Ingeniería Informática y en el máster de inteligencia artificial de la USC—. La gente no se fía de los medios tradicionales, se informa en fuentes alternativas con contenidos sin verificar, lo que supone una quiebra del sistema». Si a esta crisis de confianza se le suma una tecnología capaz de sembrar automáticamente de contenido falso un campo infinito, como es internet, la desestabilización social está servida.
La mera reflexión sobre el problema no es suficiente, coinciden los expertos; hacen falta herramientas para atajarlo. Borja Adsuara, especializado en Derecho Digital, apela a un valor constitucional: «Si tú difundes viralmente de forma artificial con una red de bots una noticia falsa estás perturbando o adulterando el pluralismo informativo, porque estás bombardeando mañana, tarde y noche con noticias falsas que, a base de ser repetidas, calan en la gente. Para atacar esto habría que desarticular las redes de bots que, además, como son máquinas, no tienen derechos fundamentales, con lo cual nadie te puede decir que le estás censurando».
Propiedad intelectual
La inteligencia artificial generativa supone además una amenaza para los autores y creadores de contenido complicada de abordar, porque estos sistemas producen textos o imágenes a partir de otros textos e imágenes —¿cuánto de originalidad hay en el resultado inédito y cuánto de copia?— y porque si las máquinas son capaces de superar el ingenio humano, para qué la creatividad humana. Admite la complejidad de la primera cuestión Adsuara, que explica que no hay obra derivada porque no hay una transformación de una obra preexistente. «La inteligencia artificial se entrena con millones de obras para generar otras nuevas, nadie puede reconocer su obra preexistente; es muy difícil de probar —amplía—. Lo que defienden las editoriales es que no hace falta probarlo, que la compañía dueña de la IA debería pagar solo por el hecho de usar un determinado fondo editorial para entrenar a su sistema. Aún así es difícil demostrar que se ha usado tu fondo editorial, así que creo que lo que pedirán es un canon. Como todas las obras son susceptibles de ser utilizadas sería un canon genérico de un sector a otro». ¿Nos quitarán estos programas el trabajo a los que escribimos? «Al contrario —asegura, convencido, el experto—. Será una oportunidad de reivindicar la autoría».