La inteligencia artificial, a prueba: aún tiene respuestas sexistas
Yes
ChatGPT no puede ser considerada una fuente paritaria, según los expertos, que indican la necesidad de incorporar a más mujeres a los equipos de desarrollo de Inteligencia Digital (IA) y de apostar por el lenguaje inclusivo
11 Apr 2024. Actualizado a las 05:00 h.
Es una de las herramientas más usadas de la Inteligencia Artificial (IA) y no está exenta de polémica. ChatGPT no puede ser considerado una fuente paritaria, según los expertos, que sostienen que es necesario apostar por el lenguaje inclusivo y por incorporar más mujeres a los equipos para evitar los sesgos. Ponemos a prueba la plataforma para comprobar si todavía es sexista. Esto es lo que nos dice:
ROSA PARA NIÑA Y AZUL PARA NIÑO. ChatGPT asume que el rosa es un color solo para las niñas. «Esta ferramenta da Intelixencia Artificial (IA) aprende sobre os datos que xeramos as persoas, e temos sesgos sistémicos intrínsecos na sociedade», apunta Verónica Bolón, profesora de Ciencia da Computación e Intelixencia Artificial de la UDC. La experta aclara: «Non é que o algoritmo sexa sexista, simplemente aprendeu de todas esas fontes dispoñibles na rede, e o que atopou na maioría de anuncios e publicacións é que as nenas ían de rosa e os nenos de azul. Por iso, cuspe esa información».
JUEGOS SEGÚN EL SEXO
MUÑECAS PARA ELLAS Y COCHES PARA ELLOS. Al igual que con la ropa, la herramienta hace diferencias entre los juguetes que aconseja para niñas y para niños. Así, los vinculados con acción, construcción o velocidad son recomendados por ChatGPT solo para ellos, mientras que para ellas ofrece como primera opción las muñecas y como segunda juegos de rol «para simular profesiones, como las cocinitas». Para Mar Castro, experta en comunicación, oratoria y protocolo, eso ocurre «porque los algoritmos han sido diseñados probablemente por personas con estereotipos de género».
ROPA
FALDA CORTA VS CHINOS. Al recomendar looks, ChatGPT hace referencia a jeans y vestidos «ajustados» como primeras opciones para las mujeres, a las que también aconseja una falda corta. En el caso de los hombres, opta por chinos y vaqueros. «Para evitar sesgos de estereotipos é importante que nos equipos haxa presenza de mulleres, que se van preocupar de non perpetuar esas ideas», apunta Bolón, experta en IA.
CUALIDADES
EMOCIÓN O INTELIGENCIA. Tras saltar la polémica por las respuestas que el chat daba en este sentido, variando las características de personalidad según el género, estas han cambiado. En la imagen, pueden verse los pantallazos de las propuestas que daba anteriormente. «Es terrible, ubicaba lo intelectual para el hombre y lo emocional para la mujer», explica Mar Castro. Ante las críticas, la herramienta ha cambiado su algoritmo y ahora ofrece la misma respuesta para los dos géneros, dejando el empoderamiento también para los hombres. «Tienen que eliminar cualquier discriminación usando lenguaje inclusivo más allá del desglosamiento de género», apunta Castro.
CULTURA
MÁS HOMBRES. El sesgo sexista de la herramienta sigue patente en el ámbito cultural, donde recomienda más películas y libros de autores hombres, dejando a las mujeres a un lado. «Os programadores saben que determinadas cuestións son polémicas, entón poñen parches no algoritmo, pero noutras cuestións segue dando respostas que plasman a discriminación», indica la experta en IA de la UDC. «Non se pode usar como fonte fiable, iso sería perigoso. Non é unha enciclopedia», añade Bolón.
PROFESIONES
MÉDICO Y ENFERMERA. ChatGPT también cambió el algoritmo en este apartado tras recibir críticas. «Los puestos de poder los asociaba al hombre, mientras que los de asistente o recepcionista, a mujeres», señala Mar Castro. La herramienta lo ha corregido, recomendando ahora para ambos profesiones vinculadas a ingenierías, pero aún evidencia la desigualdad al aconsejar entre sus respuestas el ser ingeniero de software, empresario o médico a ellos, mientras que para ellas propone enfermera o diseñadora de interiores.