Nace el manual práctico de la Ley de Inteligencia Artificial

e. v. pita VIGO / LA VOZ

SOCIEDAD

CE

El código, en fase de borrador, ilustra con casos de uso cómo aplicar la regulación de la UE a productos de IA general y de riesgo sistémico

05 ene 2025 . Actualizado a las 10:26 h.

Estados Unidos apuesta por la desregulación de la inteligencia artificial (IA) para fomentar la innovación sin barreras, China se inclina por una IA de la vigilancia y la UE sigue adelante con la regulación tras haber aprobado la AI Act o Ley de la IA. Ahora, Bruselas trabaja en el borrador de un Código de Prácticas para la IA de Propósito General Confiable. La idea es ayudar a las empresas a implementar con éxito las reglas y claves de la AI Act. Traduce los principios de la ley en medidas y métricas viables y proporciona claridad legal en toda la UE. Se trata de un enfoque armonizado que busca facilitar la innovación y, a la vez, proteger los derechos fundamentales, la democracia y el Estado de Derecho. El borrador busca ejemplos prácticos para mejorar la claridad de las directrices a través de casos de uso del mundo real. La consulta finalizó el 11 diciembre. La Comisión Europea publicó el 19 de diciembre el segundo borrador del Código de Prácticas, que confía en aprobarlo en mayo del 2025.

¿Cuáles son los objetivos de estas directrices?

Tienen por objeto ayudar a las autoridades nacionales competentes, los proveedores y los implementadores (los usuarios) a adherirse a la AI Act antes de que las disposiciones entren en vigor el 2 de febrero del 2025.

¿Quién hace las recomendaciones para el Código de Prácticas?

Corre a cargo del ALLAI, que publicó sus recomendaciones. El borrador fue redactado por expertos independientes y se debatió con mil interesados (proveedores de IA, empresas, autoridades nacionales, el mundo académico, los investigadores y las organizaciones de la sociedad civil) en cuatro grupos de trabajo temáticos. Esta es la primera de las cuatro rondas de redacción.

¿Cuáles son los pilares del documento?

Hay tres pilares: la legalidad, la alineación ética y la solidez. El código debería alinearse con las regulaciones de la AI Act, a la vez que apoya la innovación y aporta luz sobre la distinción entre modelos de IA de propósito general y específicos.

¿Qué cuestiones aborda este manual?

El Código se adapta a las necesidades de las empresas emergentes, así como las implicaciones legales de la AI Act y los procesos de revisión. Establece reglas de transparencia y cumplimiento de los derechos de autor para los proveedores de modelos de IA de propósito general.

¿Por qué presta atención a los riesgos sistémicos?

El problema de los riesgos sistémicos surge cuando un fallo en una IA puede generar múltiples daños en cadena, por ejemplo, cuando regula el tráfico. Estos riesgos sistémicos deben ser evaluados y mitigados. El borrador propone medidas proporcionadas basadas en el tamaño del proveedor aunque si se trata de una pyme puede optar a un cumplimiento simplificado.

¿Qué hacer si se reporta un incidente serio?

Un ejemplo de caso de uso que ayuda a resolver el borrador es cómo actuar si se reporta un incidente serio. ¿Debería usarse la definición de sistema de inteligencia artificial de la AI Act o una más apropiada para la IA de propósito general con riesgo sistémico? ¿Bajo qué condiciones debería juzgarse que está ocurriendo un incidente serio? ¿Hay mejores prácticas estándar para automatizar el reporte?

¿Qué estándares de ciberseguridad deberían aplicarse con la IA general?

Otro caso de uso plantea qué estándares de ciberseguridad e información de seguridad deberían aplicarse a los modelos de IA general y qué grado de severidad.

¿Cómo se puede adaptar a la magnitud y naturaleza de los riesgos sistémicos?

La solución que aporta el caso de uso es establecer información de seguridad, una profundidad de acceso a los componentes y documentación, o hacer test.

Un sistema de inteligencia artificial identifica a personas en riesgo de suicidio

Las alertas clínicas impulsadas por inteligencia artificial (IA) pueden ayudar a los médicos a identificar pacientes en riesgo de suicidio, mejorando potencialmente los esfuerzos de prevención en entornos médicos de rutina, tal y como afirman investigadores del Centro Médico de la Universidad de Vanderbilt (Estados Unidos) en un estudio que se publica en JAMA Network Open.

 En concreto, el equipo dirigido por Colin Walsh, profesor asociado de Informática Biomédica, Medicina y Psiquiatría, probó si su sistema de IA, llamado modelo de probabilidad de ideación e intento de suicidio de Vanderbilt (VSAIL), podría incitar eficazmente a los médicos de tres clínicas de neurología a evaluar a los pacientes en busca de riesgo de suicidio durante las visitas clínicas regulares.

El estudio comparó dos enfoques: alertas emergentes automáticas que interrumpían el flujo de trabajo del médico versus un sistema más pasivo que simplemente mostraba información de riesgo en la historia clínica electrónica del paciente. De esta forma, encontró que las alertas disruptivas fueron mucho más efectivas, lo que llevó a los médicos a realizar evaluaciones de riesgo de suicidio en relación con el 42 % de las alertas de detección, en comparación con solo el 4 % con el sistema pasivo.

«La mayoría de las personas que se suicidan han consultado a un profesional de la salud durante el año anterior a su muerte, a menudo por motivos no relacionados con la salud mental», puntualiza Walsh. «Pero la detección universal no es práctica en todos los entornos. Desarrollamos VSAIL para ayudar a identificar a los pacientes de alto riesgo», añade el experto.