Las brechas y sesgos de género en investigación en salud, extrapolables a otros ámbitos, tienen un impacto negativo en la vida de millones de personas. Faltan mujeres -y también mayores, niños- en estudios científicos y ensayos clínicos. Falta también diversidad en los equipos de tecnología.
"Si los reguladores llevan pidiendo una representación equitativa de hombres y mujeres en la investigación de la salud durante casi 25 años, ¿por qué las mujeres siguen estando infrarrepresentadas?". Con ese titular, la revista Nature denunciaba en 2017 la escasez histórica de representantes femeninas en los estudios sobre los mecanismos y el tratamiento de las enfermedades.
El problema sigue patente: un estudio transversal de 43.135 artículos científicos y 13.165 registros de ensayos clínicos mostró en 2019 "una subrepresentación sustancial de participantes femeninas en siete de once categorías de enfermedades". Las consecuencias son graves. Por ejemplo, las mujeres tienen un 50% más de probabilidades de recibir un diagnóstico inicial incorrecto cuando están sufriendo un ataque cardíaco, lo que se traduce en un 70% más de riesgo de morir.
Con la Enfermedad Pulmonar Obstructiva Crónica (EPOC) sucede algo parecido. Como reconoce la Sociedad Española de Médicos Generales (SEMG) a raíz del estudio ESPIRAL-ES, una "percepción anticuada de la EPOC como una enfermedad masculina se asocia a un menor conocimiento de los síntomas de la enfermedad entre las mujeres". Además, señala que "diferentes estudios han demostrado un efecto de género, con un aumento en la mortalidad de EPOC entre las mujeres".
"El cuerpo del hombre es el estándar y el femenino se trata como una desviación de la norma incluso para la investigación médica. Parece ser que el sistema biológico de la mitad de la muestra es demasiado difícil de medir y que la menstruación interfiere con los estudios", ironizaba la periodista Caroline Criado en su intervención en la conferencia ODI Summit 2019, a la que asistí.
Criado publicó ese mismo año el libro La mujer invisible. Descubre cómo los datos configuran un mundo hecho por y para los hombres (traducido luego al castellano por Planeta). Todo un hit.
"Necesitamos recopilar datos desagregados en relación al sexo", decía Criado. Lo mismo opina Paula Petrone, líder del grupo Biomedical Data Science en ISGlobal y fundadora de la consultoría de ciencia de datos Phenobyte. "Las variables sexo y género no se tienen en cuenta”, comenta. Incluso en cohortes de datos donde pueda haber igual representación de hombres y mujeres, a menudo no se sabe quien es quién", señala.
Pobreza de datos en la IA
En la era de la inteligencia artificial (IA), el problema aumenta exponencialmente. Los sistemas basados en esta tecnología se alimentan de datos masivos, y si las mujeres están infrarrepresentadas en ellos, sus resultados resultarán sesgados, como ya se ha podido comprobar en fallidos diagnósticos y predicciones de estos sistemas cuando se usan con pacientes mujeres. Y peor aún si las mujeres son de piel oscura: entonces el sesgo es doble.
"La falta de datos de sexo y género no permite que hagamos y respondamos a preguntas diferenciadas sobre enfermedades y diagnósticos en la mujer y en el hombre. Así, los algoritmos predictivos basados en IA pierden generalidad", señala Petrone. El artículo 'Health data poverty: an assailable barrier to equitable digital health care', publicado en The Lancet este año ahonda en esa pobreza de datos en salud como "una amenaza para la salud mundial".
Las autoras y autores del estudio señalan que la escasez de datos representativos de individuos, grupos o poblaciones específicas "podría impedir que se obtengan los beneficios de las tecnologías sanitarias digitales basadas en datos de forma generalizada e incluso podría llevar a que causen daños".
En particular, señalan que "es notable la frecuencia con la que no se evalúan las pruebas, terapias y otras intervenciones en niños, mujeres (especialmente embarazadas), personas de grupos étnicos minoritarios, y personas mayores".
La consecuencia -dice Petrone- es que la medicina invisibiliza problemas que son específicos de estos grupos y poblaciones, como ha quedado ampliamente demostrado.
"La ausencia de datos impide hacer, por ejemplo, estudios de género o ahondar en parámetros específicos asociados a determinados grupos", añade Karina Gibert, catedrática y directora del centro de investigación en inteligencia artificial IDEAI-UPC y fundadora de donesCOEINF, la comisión de género del Colegio Oficial de Ingeniería Informática de Cataluña.
La participación de poblaciones diversas en los estudios científicos -y en específico de salud- es crucial. Si bien lo es también la elección de las preguntas que se realizan y qué datos se recogen y parametrizan, como señalan Gibert y Petrone. Por ejemplo, ¿se debe registrar el sexo físico o el género percibido de la persona, o ambas?
La cuestión no podría estar más de actualidad, en la misma semana en que el Consejo de Ministros ha aprobado la 'ley trans'. Las expertas creen que la respuesta está clara: deben registrarse las dos variables, dado que cada cual proporciona -por sí misma y en combinación- información valiosa y asociada a problemas de salud específicos.
Petrone apunta que es clave también la organización de los datos, la interpretación que realice el modelo algorítmico usado y la decisión final de aplicarlo o no que realice el humano al otro lado.
"Es un proceso altamente humanizado que está lejos de ser artificial. Por eso, cuanta más diversidad haya en los equipos que desarrollan estos sistemas, menor riesgo habrá de errores, infrarrepresentación y sesgos”, asegura.
Más mujeres 'tech'
Ambas, Petrone y Gibert, son embajadoras en Barcelona de la iniciativa internacional Women in Data Science (WiDS), nacida en la Universidad de Stanford en 2015 para instar a las mujeres a conectar y formar comunidades que promuevan la ciencia de datos inclusiva.
Esto es algo que les preocupa particularmente. Gibert hace referencia a la escasa presencia femenina en Informática. En el curso 2017-2018, el porcentaje de mujeres egresadas en ese grado no alcanzó el 10% del total, según las estadísticas más recientes del Ministerio de Educación y Formación Profesional.
"Me cuesta entender que las mujeres no se interesen por los ámbitos que van a dominar el mercado laboral los próximos 20 años. Será un futuro diseñado por los hombres, que dejará fuera la mirada y necesidades de la mitad de la población. Va más allá de los sesgos, hablamos de toda una visión del mundo", afirma la catedrática.
En efecto, apenas un 25% de las personas que trabajan en puestos técnicos en los gigantes tecnológicos que están definiendo buena parte de ese futuro son mujeres, según datos de Statista. Por ponerlo más negro aún: solo un 8% de los desarrolladores de software a nivel mundial son mujeres, también según Statista, "lo cual demuestra la realidad dominante masculina del trabajo de desarrollo de software".
"Los equipos de programadores son masculinos y responden a problemáticas masculinas", afirma Petrone. Por eso -añade- a menudo no registran, o no desde un primer momento, variables como la menstruación, la menopausia, la edad de desarrollo de hombres y mujeres, etc. Pone como ejemplo el dispositivo de medición de actividad Fitbit, que hasta 2018 no comenzó a monitorizar el ciclo menstrual.
Para cambiar esa realidad de predominio masculino en el mundo del desarrollo de software, lo que Petrone se propone con WiDS es promover el reclutamiento de mujeres en esos entornos, incluidos los equipos de ciencia de datos. "Mostrar -dice- que las científicas de datos existen y que valen".
"Son necesarios equipos diversos, empáticos y que tengan en cuenta los sesgos de género a la hora de considerar los resultados, porque la IA realmente no es inteligente. La inteligencia está en quienes toman decisiones a partir de sus resultados, comprendiendo de dónde vienen", asegura.
Gibert sostiene que esa diversidad no solo es útil para prevenir o corregir sesgos -algo que, además, es sistematizable- sino para mejorar los diseños. "Mi experiencia me dice que los productos de equipos sin mujeres suelen ser correctos técnicamente pero se les escapa o no abordan con detalle la parte relacional, como por ejemplo prever qué problemas de interacción pueden tener las tecnologías con diferentes tipos de usuarios", comenta la experta.
Largo camino
La necesidad de equipos de desarrollo multidisciplinares e inclusivos en el ciclo de planteamiento, desarrollo y verificación de resultados en sistemas basados en datos es algo a lo que también hace alusión el equipo organizador del ciclo “Sesgos de sexo y género en inteligencia artificial y salud” celebrado en el Palau Macaya de Barcelona, compuesto por Nataly Buslón, María José Rementeria, Davide Cirilo y Átia Cortés.
El grupo -asociado al Centro de Supercomputación de Barcelona, el BSC- adelanta a D+I algunas otras conclusiones y recomendaciones resultantes del ciclo. Por ejemplo, la necesidad de fomentar la financiación de proyectos de investigación sobre los problemas de salud relacionados con el sexo y el género, o de formar a personas públicas con capacidad de decisión y financiación para evitar financiar proyectos científicos parciales en su análisis desde la perspectiva de género.
Otra de las propuestas es adaptar los programas de estudios universitarios para incluir el problema de los sesgos, en particular en las carreras relacionadas con salud e ingeniería, y promover la educación y concienciación sobre esta problemática en escuelas e institutos. Además, potenciar el diálogo social y realizar campañas de sensibilización.
También recogen la necesidad de estrategias inclusivas en la promoción y en la atención sanitaria. En relación con las revistas científicas, las recomendaciones se dirigen a incluir criterios de evaluación que consideren el balance respecto al sexo y género de los datos utilizados en los estudios y ensayos clínicos sometidos a revisión antes de publicarse. También revisar y corregir la falta de datos en los estudios médicos, completándolos con datos socioculturales provenientes de fuentes diversas.
En relación con los sistemas de inteligencia artificial, recogen entre sus conclusiones la necesidad de velar por la calidad y la equidad en los conjuntos de datos de entrenamiento, y también de contar con sistemas de IA auditables, explicables y transparentes que permitan identificar posibles sesgos presentes en ellos.
La lista de aspectos a corregir, cambiar y mejorar es larga, pero ello no es excusa para no hacerlo. Como subraya Gibert, "si todo esto no se tiene en cuenta, los derechos de las mujeres [y, por extensión, de otros grupos infrarrepresentados] seguirán siendo vulnerados". Corregirlo no solo será positivo para estos colectivos: como bien señala el artículo de Nature de 2017, ha de verse “como una oportunidad para mejorar la ciencia”. De no ser así, seguiremos hablando de mala investigación, mala tecnología y mala ciencia.