La Voz de Galicia

Cómo conseguir que las aplicaciones funcionen respetando la privacidad

Vigo

Ángel Paniagua Vigo / la voz
Los investigadores y docentes Ana Fernández Vilas, Manuel Fernández Veiga y Rebeca Díaz.

Un equipo de Teleco investiga en que las «apps» utilicen menos datos

22 May 2022. Actualizado a las 17:08 h.

¿De verdad las aplicaciones necesitan recopilar tantos datos personales para funcionar? Un equipo del centro de investigación Atlanttic, vinculado a la Escuela de Ingeniería de Telecomunicaciones de la Universidad de Vigo, trabaja en demostrar que no. El grupo Information & Computing Lab está trabajando en un proyecto para hacer posible que las apps o servicios web sean más respetuosas con la privacidad pero, aun así, no dejen de prestar servicio. Se llama, de forma elocuente, Compromise, «porque intentamos llegar a una solución de compromiso entre la información que cedemos cuando usamos aplicaciones y la utilidad de esos datos que cedemos», explica la investigadora Rebeca Díaz, que es también directora de la Escuela de Teleco. Con ella trabajan los también docentes Manuel Fernández Veiga y Ana Fernández Vilas.

El proyecto está financiado por el Ministerio de Ciencia (125.000 euros) y en él participan también las universidades Politécnica de Cataluña y Carlos III de Madrid. «Cada vez hay más gente concienciada en que se debe proteger su privacidad y que exige esto a los gobiernos», reflexiona Rebeca Díaz, que cree que con la privacidad va a suceder algo parecido a lo que ocurre con la sostenibilidad medioambiental: «A las empresas no les va a quedar más remedio, porque cada vez se les exige más».

La ingeniera plantea tres escalones. El primero es compartir menos datos. Hay aplicaciones que conocen la edad del usuario, su sexo, dónde vive... Esa información queda recopilada y es susceptible de ser vendida después a terceros para, por ejemplo, publicidad. ¿Hace falta para que la aplicación funcione de manera correcta? «Lo más típico es que las aplicaciones pidan permiso para acceder a la galería de fotos, los contactos y la ubicación... y cuando ves la aplicación no tendría por qué, podría funcionar perfectamente sin todo eso», opina la investigadora.

El segundo escalón es distorsionar la información que se transmite, a lo que se refieren como ofuscarla. De este modo se evitan detalles concretos que permitan averiguar quién está detrás. En lugar de conocer la edad, se puede establecer una franja; también se puede categorizar las ciudades en función del número de habitantes, sin especificar cuál es el lugar donde se encuentra el usuario.

El tercer escalón es codificar la información para que se comparta de manera encriptada, o sea, protegida a ojos externos.

Son tres escalones de la privacidad y plantean utilizarlos todos para que el resultado sea que la información compartida permite a las aplicaciones prestar su servicio pero sin que esto pueda llevar a averiguar quién es el usuario.

Los datos suelen agregarse para aplicar técnicas de machine learning, gracias a las que los sistemas aprenden a hacer cosas para las que no estaban programados inicialmente. Por ejemplo, cuando Spotify recomienda determinados tipos de música a un usuario a partir de conocer sus hábitos y sus gustos. Utilizar las técnicas de los tres escalones puede llevar a perder información y a que, por lo tanto, el machine learning no funcione. El trabajo de los investigadores es conseguir que sí funcione.

Un ejemplo puede ser una aplicación de mapas. Parece claro que para que pueda informar al usuario de cuánto va a tardar de un punto a otro, tendrá que conocer su ubicación. «¿Es necesario que conozca tu ubicación exacta con GPS? Igual le llega con una triangulación. ¿Y para recomendarte un restaurante? ¿No pueden decirte simplemente los de la zona?», plantea Díaz. Es probable, además, que para ese servicio la app no necesite conocer la edad del usuario ni tener acceso a su galería de imágenes.

Todo esto también tiene implicaciones en la industria conectada, también llamada 4.0, que genera información a partir de sensores. Los grupos de Compromise están planteando un trabajo piloto en una empresa. Se trata de crear una red de dispositivos para comprobar que los algoritmos funcionan con menos información. Una de las claves es que los datos no se envíen a un nodo central —por ejemplo, la nube de Google— sino que los dispositivos trabajen de manera colaborativa y coordinada, pero independiente.

Cuando lo hayan comprobado trabajarán con la información ofuscada. Finalmente, con ella encriptada.


Comentar