Patrocinado por:

Novias virtuales con inteligencia artificial: Así recopilan y venden tus datos

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

OCIO@

WB

Los expertos recomiendan evitar el uso de chatbots románticos, ya que recogen información sensible, la procesan e incluso la ceden a terceros

31 jul 2024 . Actualizado a las 05:00 h.

La película Her venía a adelantarse a lo que ya está ocurriendo: una inteligencia artificial que funciona como una pareja, ofrece conversación y compañía... y también recopila datos, incluso muy sensibles, de una persona para luego venderlos. Detrás de las conocidas como novias virtuales, que habitualmente se representan como rubias, con ojos azules o verdes, pelo largo y cuerpos perfectamente proporcionados, se esconden una multitud de peligros de lo que los usuarios no suelen ser conscientes.

Según la Fundación Mozilla, que analizó una decena de estos chatbots románticos, el 90 % de estas aplicaciones pueden vender los datos de sus usuarios o compartirlos con fines publicitarios. Un 73 % no da ninguna información sobre cómo gestionan las vulnerabilidades de seguridad, y prácticamente la mitad (45 %) permiten contraseñas tan débiles como poner simplemente el número 1.

Es más, según el mismo estudio, más de la mitad de las aplicaciones (54 %) no permite eliminar los datos personales que se han facilitado, entre los que puede haber las conversaciones que se han mantenido con la novia virtual. De hecho, la mayoría de estas aplicaciones dejan claro que pueden compartir la información que se haya dado a la pareja virtual con el gobierno o las fuerzas del orden sin requerir ningún tipo de orden judicial.

 «Las novias de inteligencia artificial son una pesadilla para la privacidad de las personas, y es una idea nefasta utilizarlas». Es la conclusión de  Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Y es la misma conclusión a la que llega Eduard Blasi, profesor colaborador en la Universitat Oberta de Catalunya y cofundador y divulgador del canal Tech and Law. «Hay una falta de transparencia por parte de este tipo de herramientas», afirma. 

En este tipo de herramientas novedosas es importante informar correctamente al usuario final de qué tipo de datos se van a recoger y qué se va a hacer con ellos. Porque se pueden aportar datos de forma directa, a través de un formulario, o también de manera indirecta a través del uso y del transcurso de la actividad dentro de la aplicación. 

«Esta información se puede utilizar, se puede reutilizar incluso se puede ceder a terceros», advierte Blasi. La normativa obliga a que se informe de forma transparente y que en determinadas circunstancias, como la transmisión de información a terceros, haya que pedir el consentimiento. 

Estos chatbots románticos están diseñados para obtener el máximo de información posible a través de uso de frases como «quiero saber todo de ti» y así hacerse con fotografías, la voz e incluso información íntima y sensible como la orientación sexual, lo que puede suponer un peligro a la hora de ceder esos datos a terceros. Eduard Blasi pone un ejemplo concreto, y es que países que tienen leyes en contra de la homosexualidad puedan acceder a la orientación sexual de un viajero. 

«Estos datos son susceptibles de convertirse en la fuente de ingresos principal de estas empresas, compartiéndolos con compañías interesadas en perfiles de personas», apunta Josep Curto.  Y algunas de estas aplicaciones a menudo incluyen rastreadores que envían información a países que tienen interés en el espionaje de las personas y consideran que la privacidad no es un derecho.

Es más, «no hay transparencia en el tipo de modelo de inteligencia artificial fundacional utilizada  en el sistema ni si se ha diseñado siguiendo las premisas de la IA responsable», subrayan desde la UOC. Y el mercado hace «poca cosa» para limitar la proliferación de este tipo de aplicaciones. Por eso también es importante la concienciación de los usuarios. 

«Si existen dudas o interrogantes cuando nos instalamos una aplicación es un indicador de que probablemente tenemos que limitar el uso o tenemos que optar por una alternativa», afirma Eduard Blasi. Y en este caso, al compartir datos con un cierto grado de intimidad y suponer información sensible, «las cautelas deben ser mayores».

«Hay que evitar estas aplicaciones para no encontrarse en un futuro en situaciones complicadas, no solo por el tema de los datos, sino también por potenciales escenarios de scam [una estafa extendida en internet]», deja claro Curto. 

En ocasiones también es interesante limitar la información que el usuario comparte dentro de las aplicaciones en el caso de que se opte por seguir utilizando la información. «Generalmente, las aplicaciones dan la oportunidad de utilizarlo de forma más extensiva y estas funcionalidades que permitirían aportar más datos y dar más información, es aconsejable no utilizarlas en el caso de que no se tuviera la certeza absoluta del destino de la información y de los usos que se van a hacer con ella», indica Eduard Blasi. 

La responsabilidad, desde luego, es conjunta y apunta a distintos actores: los gobiernos deben regular y establecer un marco normativo suficiente para las situaciones que se plantean y las compañías deben ser garantes de la información de los usuarios y por tanto poner medidas de seguridad y controles para «minimizar la recepción o tratamiento de los datos para que sean los mínimos y necesarios», explica el colaborador de la UOC y divulgador. 

«Nuestra información va dejando un rastro en la red, y es importante saber que esta huella digital puede tener repercusiones en un futuro», recuerda el divulgador del canal Tech and Law. Y en el caso de este tipo de aplicaciones se comparten datos de la esfera íntima de la persona, así que hay que ser especialmente precavidos con el destino que tienen esos datos. 

Por eso, en cuanto a los usuarios, la responsabilidad está a la hora de elegir las plataformas o canales más adecuados. «De nada sirve que determinadas compañías implementen muchas medidas o que los gobiernos ofrezcan marcos normativos si al final el usuario elige la que tiene una interfaz más atractiva dejando de lado todo lo demás».

Usar este tipo de chatbots románticos puede llevar a compartir datos incluso referentes a la sexualidad con una plataforma que «procesa este tipo de información y conozca sus gustos preferencias y pueda incluso perfilar al usuario. Esta información al final es considerada sensible no únicamente porque permanezca en esta esfera íntima del usuario de las aplicaciones, sino porque la propia normativa de protección de datos el reglamento lo establece como una categoría especial de datos», recalca Eduard Blasi,

Pero con estos chatbots románticos no solo se pone en peligro la privacidad del usuario, sino que también pueden provocarle problemas psicológicos. «El simple hecho de mezclar IA con la palabra novia —porque básicamente la mayoría de aplicaciones ofrecen un perfil de mujer— ya me parece peligroso», apunta Sylvie Pérez, profesora colaboradora de los Estudios de Psicología y Ciencias de la Educación de la UOC. «El hecho de que sea una mujer ayuda a perpetuar los estereotipos de género de mujeres complacientes, sumisas, que siempre están disponibles y que nunca están de mal humor», añade.

Además, asegura la profesora de la UOC, una novia de inteligencia artificial se crea en función del carácter del usuario. Por lo tanto, es una forma de interactuar con alguien que imaginas al otro lado y que está preparada para darte siempre la razón «creando patrones de entender las relaciones con los otros que no se ajustan a la realidad», afirma.

«Puedes llegar a confundir cuáles son las interacciones sociales y su naturaleza real, que parten de la base de que puede haber conflictos, desacuerdos, diferentes puntos de vista… Y esto es precisamente lo que nos hace inteligentes, lo que en definitiva nos hace crecer», recuerda la profesora colaboradora de la UOC. «Además, también se corre el peligro de que si se pasan muchas horas interactuando con estas novias virtuales se tengan dificultades para poder separar la realidad de la ficción», añade. «O de entrada entiendes que estás interactuando contigo mismo o puedes perder la cabeza», concluye la psicóloga.