Identificación de sesgos de género en inteligencia artificial. Discursos tecnológico, científico y mediático.

PID2019-106695RB-I00 / AI-GENBIAS /10.13039/501100011033

En la era del big data y de los algoritmos y a las puertas de una aclamada cuarta revolución industrial comienzan a discutirse los riegos de las aplicaciones de la inteligencia artificial (IA) a nivel internacional en numerosos sectores: la pérdida de empleo o las armas, son las que más reflexiones ocupan, aunque, la equidad es una preocupación cada vez más importante. Los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. El Foro Económico y Mundial alerta del escaso análisis con perspectiva de género para conocer cómo afectarán estos avances a la vida de las mujeres, tanto en el ámbito público como en el privado y desde UNESCO se reclama una mayor presencia de mujeres en las investigaciones que se desarrollan con IA, la incorporación de “auditorías algorítmicas” para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo, y la financiación de estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones.

Tanto en el periodismo como en cualquier otro sector en que se utilice el lenguaje, al trabajar con algoritmos y con profesionales no concienciados con la perspectiva de género, se puede caer en perpetuar la discriminación no reconocida, la más sutil, replicándola en los algoritmos y en la inteligencia artificial. Por eso es de gran importancia conocer la situación actual, para establecer medidas que frenen esta situación. Ante la falta de estudios sobre el tema y la inexistencia de estos en España, nos preguntamos ¿las empresas estarán adoptando una perspectiva de género?, ¿estarán a favor de una política de transparencia que permita analizar sus algoritmos e implementaciones en IA?, ¿pensarán lo mismo los grupos de investigación de las universidades?, ¿qué mundo imaginan los medios cuando hablan de las tecnologías de la IA? Después de la repercusión que han tenido casos como el de Cambridge Analytics, en la era de las fakenews y la postverdad, se hace más necesario que nunca preservar la seguridad y la democracia, pero también la igualdad entre hombre y mujeres.

Este proyecto aborda de forma empírica una de las consecuencias sociales de la revolución tecnológica en la que estamos inmersos y pretende dar respuesta a las necesidades detectadas identificando y analizando las prácticas y los discursos en torno a los sesgos de género en IA por tres agentes: empresas y centros de investigación que producen sistemas de inteligencia artificial desarrollados en España, aplicaciones desarrolladas por empresas extranjeras que aún no siendo españolas operan en territorio nacional, haciendo especial hincapié en las aplicaciones desarrolladas para el ámbito de la comunicación (asistentes personales de voz, sistemas de recomendación, recuperación de información…) y medios de comunicación (noticias automatizadas, selección de fuentes, personalización de noticias y discurso tecnológico…). Todo ello se realizará teniendo en cuenta la perspectiva de género en ciencia y con un enfoque multidisciplinar derivado del campo de estudio, del objeto de estudio y, favorecido por las distintas especialidades de las/los miembros del equipo de investigación.

Los resultados pretenden aportar soluciones para evitar que estas tecnologías aumenten la brecha de género y, además, generen conciencia crítica en el sector empresarial, mediático y en las audiencias, que contribuya a la consecución de una sociedad más justa e igualitaria. Se espera que los resultados repercutan en el diseño de políticas públicas y legislativas en esta materia. Por último, se prevé tener un alto impacto en la sociedad, favorecido por el momento actual que están viviendo los feminismos en el mundo y especialmente en España desde las manifestaciones de 2018.