¿Tiene un sesgo de género la Inteligencia Artificial?
Tu Asesor Legal
Contenido de expertos en colaboración con Espacio Mutuo
Artículo escrito por los siguientes abogados:
Andrea Céspedes
Oscar Molina
Eliel Hasson
Durante las últimas semanas hemos sido testigos de las consecuencias que la crisis sanitaria está generando en nuestras formas de trabajar y de relacionarnos. Ello, porque entre otras razones, la pandemia nos ha obligado a adelantar procesos tecnológicos y tener importantes discusiones que cambian nuestra sociedad, desde cómo recopilar datos frente a una epidemia sanitaria, hasta la forma de enfrentarnos a nuestras diferentes tareas cotidianas. En este contexto, la Inteligencia Artificial (o “IA” en adelante) es una de las tantas herramientas que desde hace años se encuentra en boga, pero de la que se sabe bastante poco, siendo una gran fuente de incerteza con respecto a lo que se avecina.
La Inteligencia Artificial es una disciplina joven que reúne distintas ciencias, teorías y técnicas (incluyendo lógica, matemática, estadística, probabilidades, neurobiología computacional, entre otras) y cuyo objetivo es lograr la imitación de las habilidades cognitivas de un ser humano por una máquina. Dicho propósito es amplio y muy ambicioso, y aún se encuentra en etapas que podríamos llamar débiles, de modo que de forma más específica, muchos han optado por llamar a la etapa actual como de machine learning o aprendizaje automático.[1]
Es importante reconocer que este tipo de tecnología no trabaja desde cero, sino que supone la existencia de una fuente de datos que le permita aprender y con ello desarrollar nuevas soluciones. El aprendizaje automático funciona aprendiendo del pasado, deduciendo patrones estadísticos y aplicando esos patrones para hacer predicciones. A medida que los algoritmos se diseñan y entrenan, absorben sesgos y suposiciones arraigadas en datos históricos, así como en sus diseñadores, y proyectan esos defectos en el futuro.
Por lo anterior, la intervención humana sigue siendo esencial, ya sea para elegir los datos de aprendizaje, identificar sus posibles sesgos o, cuando sea posible, distinguir las verdaderas causas entre las conclusiones y correlaciones que la IA obtiene.
Si bien esta tecnología tiene lo que podríamos llamar “inteligencia”, no tiene por sí misma las características humanas que permiten valorar un acto como sesgado o discriminatorio. En este sentido ha señalado el profesor David Gelernter de la Universidad de Yale, Estados Unidos, que “durante los últimos 50 años, las ciencias exactas se han convertido en la nueva religión, reconociendo que, si bien la simulación informática de la conciencia y los sentimientos es factible, no debemos ser tan ingenuos como para confundir simulación y realidad”.
De ahí la importancia del diseño y de la constante revisión. Para que la IA pueda cumplir un rol catalizador y normalizador que permita un cambio cultural sistémico que nos conduzca a una sociedad más equitativa y justa es necesario que desde el diseño se evalúen dichas directrices, especialmente por aquellos grupos prioritarios.
Según un informe realizado por Accenture, la IA tiene el potencial de aumentar las tasas de crecimiento anuales en América Latina hasta un punto porcentual en 2035. Los servicios financieros, las industrias de commodities, el comercio mayorista y los servicios públicos serían los sectores más beneficiados por el desarrollo de esta tecnología en la región. En ese contexto, varios estudios demuestran que una mayor participación de las mujeres en el desarrollo de la IA impulsaría la economía y el bienestar general de la sociedad en su conjunto, por lo que resulta particularmente relevante construir políticas nacionales en la materia con enfoque de género de manera coherente con los Objetivos de Desarrollo Sostenible (ODS), acorde a los respectivos contextos locales.
Por ejemplo, dentro del objeto de combatir el sesgo de género en el mundo de la inteligencia artificial, la UNESCO utiliza el ejemplo de los asistentes de voz digital. En efecto, no es sorprendente encontrarnos con bots femeninos realizando funciones administrativas y de secretaría y bots masculinos, en cambio, desempeñando funciones analíticas propias del mundo financiero y legal. Esto puede parecer inocuo, pero asienta y acentúa las inequidades en posibilidades y labores que debe asumir cada género, lo que sabemos tiene una incidencia tremenda en las oportunidades, y en definitiva, libertades, con las que efectivamente cuentan las personas.
Más grave es ver cómo la brecha de información en relación a las mujeres también es posible encontrarla en el área de la salud, en donde desde los ensayos clínicos hasta en materia de diagnóstico, el estándar es dado por un modelo masculino. Lo anterior ha generado importantes riesgos a la salud de la mujer, como lo son en la falta y dificultad para el tratamiento de una enfermedad ante la falta de un modelo de diagnóstico inclusivo, como en el caso de los ataques cardíacos, porque no siempre las mujeres experimentan el síntoma típico (masculino) del dolor en el pecho. [2]
Así, en palabras de la profesora de la Universidad de Nueva York, Meredith Broussard: “Los algoritmos reproducen las desigualdades del mundo real”. La falta de la perspectiva de género en los datos, nos muestra y demuestra una vez más la imperiosa necesidad de continuar sumando nuestros esfuerzos y voluntades en la consecución de la equidad de género en nuestra políticas públicas y buenas prácticas empresariales.
Como todas las tecnologías, la IA refleja los valores de sus creadores. En efecto, como bien lo sabemos, la IA usa los datos que el creador le asigna, expresando sus propios prejuicios. Y nuestro mundo está hecho de prejuicios y sesgos, incluyendo uno de los más acentuados: el de género. Por ello, como bien lo advierte Elena Alfaro, responsable de Data y Open Innovation de Client Solutions en BBVA, “cuando estamos haciendo sistemas de inteligencia artificial que toman decisiones sobre la vida de las personas, no podemos dejar fuera la perspectiva de la mitad de la población”.
Debido a que las personas esencialmente aprenden a través del modelamiento y la representación conductual, hoy tenemos una oportunidad real de afectar a la sociedad a través de la interrupción o el refuerzo de los estereotipos de género, por la forma en que las diversas aplicaciones de IA están diseñadas y las ideologías que inevitablemente representan. Dependerá entonces de nosotros asumir este desafío frontalmente o permitir que la «comunidad de bots» sea un reflejo directo de los defectos sexistas de nuestra sociedad, perpetuando el statu quo.
Sin embargo, el desafío no es menor. En un reciente informe de la UNESCO[3] se identifica un hallazgo nuevo y paradójico: los países que obtienen puntajes más altos en los índices de igualdad de género tienen la menor cantidad de mujeres que persiguen las habilidades avanzadas necesarias para incursionar en carreras tecnológicas. Por el contrario, los países con niveles más bajos de igualdad de género tienen el mayor porcentaje de mujeres que postulan a dichas carreras. A modo de ejemplo, en Bélgica solo el 6% de los graduados en TIC son mujeres, mientras que en los Emiratos Árabes Unidos esta cifra asciende al 58%. Actualmente, las mujeres representan solo el 12% de los investigadores de IA y el 6% de los desarrolladores de software, por una parte, y por otra, son 13% menos propensas a presentar una patente de TIC que los hombres. Por ello, abordar las desigualdades de género en la IA debe comenzar con más educación y capacitación en habilidades digitales con perspectiva de género.
La IA bien manejada y con una mirada crítica en su uso podría ayudar a abordar las disparidades existentes, ya que cuenta con la capacidad de manejar grandes conjuntos de datos y absorber los rápidos cambios de los nuevos conocimientos que son generados. En efecto, si existe una constante revisión del diseño de estos modelos de predicción, a la luz del respeto a los derechos humanos, la IA puede ser una herramienta de avanzada para modificar y resguardar los mismos.
En ese contexto, resulta de vital importancia que en la implementación de IA exista un diseño previo que precava circunstancias que pueden implicar violaciones los derechos humanos, y exista una especie de modelo de cumplimiento para procurar que dichas herramientas tecnológicas no se conviertan en tiranos cuya base es data que trae consigo importantes sesgos. Asimismo, las políticas nacionales de IA adopten la diversidad y la equidad de género como un valor consustancial y transversal – y no como una simple prioridad temporal – que permita representar una sociedad multicultural, inclusiva y justa. Como bien lo señala Moojan Asghari, Cofundadora de @Women in AI “(…) no solo necesitamos más mujeres en IA, sino más diversidad en general; y ello puede extenderse al color de la piel, la religión, la educación, el país, la familia, la edad”.
Referencias:
[1] https://www.coe.int/en/web/artificial-intelligence/what-is-ai
[2] https://www.womenatthetable.net/blog/deadly-data-gap-gender-data
https://www.brinknews.com/how-will-ai-affect-gender-gaps-in-health-care/