Regístrate gratis y recibe en tu correo las principales noticias del día

España pide a Europa que examine las brechas de privacidad de ChatGPT

La Voz REDACCIÓN / LA VOZ

SOCIEDAD

Un usuario de la herramienta ChatGPT
Un usuario de la herramienta ChatGPT Europa Press

La Agencia de Protección de Datos da este paso tras el bloqueo de la herramienta en Italia

12 abr 2023 . Actualizado a las 08:29 h.

España y Francia se suman a Italia al expresar su preocupación por los fallos en la protección de datos de ChatGPT, la herramienta de inteligencia artificial generada por la empresa OpenAI y promovida por el gigante tecnológico Microsoft. Estos países siguen así el ejemplo de Italia, donde hace unos días el Garante para la Protección de Datos Personales (GPDP), una autoridad administrativa italiana que busca garantizar la protección en el tratamiento de datos personales, ordenó, «con efecto inmediato», el bloqueo temporal de OpenAI en el país debido a sus brechas a la hora de respetar la privacidad de los usuarios.

Siguiendo el precedente de Italia, la Agencia Española de Protección de Datos (AEPD) solicitó este martes al comité de protección de datos de la Unión Europea que evalúe en profundidad las implicaciones de este software de inteligencia artificial en la protección de las referencias de los usuarios, tal como anunció un portavoz de este organismo a la agencia a Reuters.

«La AEPD entiende que las operaciones de procesamiento global que pueden tener un impacto significativo en los derechos de las personas, requieren decisiones coordinadas a nivel europeo», señaló el portavoz de la agencia en un comunicado enviado a Reuters. Por estas consideraciones, la agencia española solicita que el uso de la herramienta de lenguaje predictivo sea abordado en el próximo pleno del Comité Europeo de Protección de Datos con el fin de que todos los países miembros, protegidos desde el 2018 bajo el paraguas de un reglamento común, adopten acciones al respecto de forma coordinada.

En Francia, la Comisión Nacional de Informática y Libertades (CNIL) también investiga dos demandas presentadas en el país por asociaciones que denuncian que ChatGPT no respeta la privacidad de quienes la utilizan.

Bruselas espera que la regulación europea sobre inteligencia artificial entre en vigor en el año 2024 con el fin de elaborar normas comunes que aborden los riesgos derivados de las herramientas de inteligencia artificial.

La medida de bloqueo adoptada hace unos días por Italia señala la falta de transparencia de OpenAI a la hora de abordar el uso de los datos de los usuarios, que deben registrarse para poder usar esta herramienta. Acusan la ausencia de una base legal que justifique la recopilación y el almacenamiento masivo de las informaciones personales, que desde la plataforma justifican con el propósito de «entrenar» los algoritmos que subyacen en su funcionamiento. «Tal y como demuestran las comprobaciones realizadas, la información facilitada por ChatGPT no siempre se corresponde con los datos reales», señalan.

OpenAI sufrió hace unos días un fallo de seguridad que dejó expuestos los datos personales del 1,2 % de los usuarios de su versión de pago.