El Proyecto AIGENBIAS

Identificación de sesgos de género en inteligencia artificial. Discursos tecnológico, científico y mediático.

PID2019-106695RB-I00 / AI-GENBIAS /10.13039/501100011033

En la era del big data y de los algoritmos y a las puertas de una aclamada cuarta revolución industrial comienzan a discutirse los riegos de las aplicaciones de la inteligencia artificial (IA) a nivel internacional en numerosos sectores: la pérdida de empleo o las armas, son las que más reflexiones ocupan, aunque, la equidad es una preocupación cada vez más importante. Los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. El Foro Económico y Mundial alerta del escaso análisis con perspectiva de género para conocer cómo afectarán estos avances a la vida de las mujeres, tanto en el ámbito público como en el privado y desde UNESCO se reclama una mayor presencia de mujeres en las investigaciones que se desarrollan con IA, la incorporación de «auditorías algorítmicas» para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo, y la financiación de estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones.


En los escasos experimentos existentes, varias científicas han pronosticado un dramático retroceso en materia de igualdad entre mujeres y hombres, poniendo el foco en el aprendizaje automático (maching learning), en el aprendizaje profundo (deep learning) y el Natural Language System (NLS). En el caso de los NLSs se confirma que si se construye un sistema inteligente que aprende lo suficiente sobre las propiedades del lenguaje para poder entenderlo y producirlo, en el proceso también adquirirá asociaciones culturales históricas, algunas de las cuales pueden ser negativas.

Este proyecto aborda de forma empírica una de las consecuencias sociales de la revolución tecnológica en la que estamos inmersos y pretende dar respuesta a las necesidades detectadas identificando y analizando las prácticas y los discursos en torno a los sesgos de género en IA por tres agentes: empresas y centros de investigación que producen sistemas de inteligencia artificial desarrollados en España, aplicaciones desarrolladas por empresas extranjeras que aún no siendo españolas operan en territorio nacional, haciendo especial hincapié en las aplicaciones desarrolladas para el ámbito de la comunicación (asistentes personales de voz, sistemas de recomendación, recuperación de información…) y medios de comunicación (noticias automatizadas, selección de fuentes, personalización de noticias y discurso tecnológico…). Todo ello se realizará teniendo en cuenta la perspectiva de género en ciencia y con un enfoque multidisciplinar derivado del campo de estudio, del objeto de estudio y, favorecido por las distintas especialidades de las/los miembros del equipo de investigación.

Los resultados pretenden aportar soluciones para evitar que estas tecnologías aumenten la brecha de género y, además, generen conciencia crítica en el sector empresarial, mediático y en las audiencias, que contribuya a la consecución de una sociedad más justa e igualitaria. Se espera que los resultados repercutan en el diseño de políticas públicas y legislativas en esta materia. Por último, se prevé tener un alto impacto en la sociedad, favorecido por el momento actual que están viviendo los feminismos en el mundo y especialmente en España desde las manifestaciones de 2018.