Carlos Manuel Sánchez en colaboración con fundación BBVA
Viernes, 11 de abril 2025, 12:17
Empezó desarrollando un bot «que estaba programado para provocar». El objetivo de Flor Miriam Plaza del Arco (Villacarrillo, Jaén, 1994) era recopilar expresiones injuriosas para ayudar a la inteligencia artificial a detectar mensajes sexistas, homófobos o racistas. «Pero lo que podía considerarse una ofensa grave en una región geográfica resultaba inocuo o ambiguo en otra. Y una expresión como 'de p… madre' plantea enormes retos técnicos. Dependiendo del contexto o del estado de ánimo, cambia su sentido; y la máquina falla a menudo a la hora de descifrarla», expone esta investigadora, galardonada en 2024 con el premio a jóvenes talentos informáticos de la Fundación BBVA y la SCIE.
«El odio se utiliza para generar engagement, para hacer las redes más adictivas. Sale demasiado rentable. Para erradicarlo, necesitamos detectar no solo las ... expresiones explícitas, sino también la ironía y el sarcasmo, que se usan para enmascararlo. Los sistemas no son buenos en esto». Si las máquinas fueran más eficaces, añade, sería posible crear mejores herramientas automáticas que moderen contenidos a gran escala, un problema cada vez más acuciante desde que las grandes plataformas están optando por prescindir de la moderación humana.
«Cuando enseñamos a las máquinas a comprender el lenguaje, las entrenamos con datos que están en Internet, que es un reflejo de la sociedad y contiene sesgos. Por ejemplo, si le preguntas a un modelo cómo se sentiría una mujer cuando la deja su pareja, responderá que triste. Mientras que para un hombre diría que enfadado. Y con el idioma, además, tenemos otro problema: ChatGPT fue entrenado con menos de un 5 por ciento de contenido en español», explica.
«Los modelos de lenguaje también se usan para apoyo emocional. Vemos que los jóvenes tienen cada vez más problemas de salud mental, pero muchos no pueden pagarse una terapia con los salarios actuales y el precio del alquiler, y recurren a la IA», reflexiona esta investigadora, que se acaba de incorporar a la Universidad de Leiden (Holanda). «Necesitamos un marco regulador que defina cómo deben responder estos sistemas cuando detectan vulnerabilidad emocional».
«Desarrollo sistemas que no solo detectan el discurso de odio explícito, sino que analizan el contexto. Por ejemplo, recursos humorísticos que enmascaran mensajes dañinos».
«Investigo cómo evitar que los sesgos y estereotipos se trasladen a la inteligencia artificial. De este modo, intento ayudar a crear modelos de lenguaje más justos».
«Trabajo con sociólogos y filósofos para entender mejor los fenómenos sociales, antropológicos y humanísticos que afectan a la tecnología. La IA puede (y debería) servir para mejorar la sociedad».
«Estudio cómo hacer que los modelos de lenguaje sean más inclusivos con diferentes idiomas y culturas; están muy sesgados hacia el inglés y no representan la diversidad lingüística mundial».
Noticias relacionadas
Sobre la firma
Carlos Manuel Sánchez en colaboración con fundación BBVA
Publicidad
Noticia Patrocinada
Más de
Desayuno de domingo con...
Texto: Virginia Drake / Fotografía y vídeo: Javier Ocaña
El secreto de Steven Spielberg
Anaïs Maquiné Denecke / Fotos: Eva Sakellarides
En otros medios
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia