El proyecto AIGenBias
Identificación de sesgos de género en inteligencia artificial. Discursos tecnológico, científico y mediático.
PID2019-106695RB-I00 / AEI /10.13039/501100011033
En la era del big data y de los algoritmos y a las puertas de una aclamada cuarta revolución industrial comienzan a discutirse los riegos de las aplicaciones de la inteligencia artificial (IA) a nivel internacional en numerosos sectores: la pérdida de empleo o las armas, son las que más reflexiones ocupan, aunque, la equidad es una preocupación cada vez más importante. Los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. El Foro Económico y Mundial alerta del escaso análisis con perspectiva de género para conocer cómo afectarán estos avances a la vida de las mujeres, tanto en el ámbito público como en el privado y desde UNESCO se reclama una mayor presencia de mujeres en las investigaciones que se desarrollan con IA, la incorporación de “auditorías algorítmicas” para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo, y la financiación de estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones.
Este proyecto aborda de forma empírica una de las consecuencias sociales de la revolución tecnológica en la que estamos inmersos y pretende dar respuesta a las necesidades detectadas identificando y analizando las prácticas y los discursos en torno a los sesgos de género en IA por tres agentes: empresas y centros de investigación que producen sistemas de inteligencia artificial desarrollados en España, aplicaciones desarrolladas por empresas extranjeras que aún no siendo españolas operan en territorio nacional, haciendo especial hincapié en las aplicaciones desarrolladas para el ámbito de la comunicación (asistentes personales de voz, sistemas de recomendación, recuperación de información…) y medios de comunicación (noticias automatizadas, selección de fuentes, personalización de noticias y discurso tecnológico…). Todo ello se realizará teniendo en cuenta la perspectiva de género en ciencia y con un enfoque multidisciplinar derivado del campo de estudio, del objeto de estudio y, favorecido por las distintas especialidades de las/los miembros del equipo de investigación.
Los resultados pretenden aportar soluciones para evitar que estas tecnologías aumenten la brecha de género y, además, generen conciencia crítica en el sector empresarial, mediático y en las audiencias, que contribuya a la consecución de una sociedad más justa e igualitaria. Se espera que los resultados repercutan en el diseño de políticas públicas y legislativas en esta materia. Por último, se prevé tener un alto impacto en la sociedad, favorecido por el momento actual que están viviendo los feminismos en el mundo y especialmente en España desde las manifestaciones de 2018.
/
In the times of big data and algorithms and right on the verge of the fourth industrial revolution, the debate on the impact of the applications of Artificial Intelligence (AI) and robotics is open at an international level on many fields: the way in which the progress of these areas is going to influence employment and work relationships, the safety of transactions and relations, national security, commercial traffic, institutional frameworks and others are being discussed and, on a lower scale, it is being pondered upon the biases that these technologies involve and their consequences. In this context, until only a few months, the absence of a gender perspective in AI had not been taken into account. Several experiments performed at the core of some of the most important digital platforms such as Amazon and research done by female scientists have discovered the consequences of the use of AI and the harm it causes in terms of gender equality, focusing on NLGs, machine learning and deep learning.
Recently, several supranational institutions as the UNO have made respective appeals to alert about gender biases that these intelligent systems involve and promote research in this sense.
This project intends to identify and analyze, from a gender perspective, the biases that accentuate o perpetuate the social inequalities between women and men in the artificial intelligence systems that are being developed in Spain -in companies or research centres- and those applications that, while not being Spanish, operate on Spanish soil. All of this, with a multidisciplinary approach derived from the field of study gender studies, the object of study biases in AI and, favoured by the various fields of specialization of the members of the research team. We will largely focus on the most used applications by citizens: platforms, websites and media that use systems of recommendation, prediction, translation, news customization, and so forth.
Likewise, an emphasis on the implementation of these technologies in the news production and development processes is planned, that is, in automated journalism.
Equipo de Investigación
Las Investigadoras Principales de este proyecto son las Dras. Mª Teresa Sandoval Martín y Clara Sainz de Baranda Andujar.