Mikel Galar Idoate, investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), ha sido uno de los tres ponentes invitados al ciclo de conferencias organizado para conmemorar el 40.º aniversario del nacimiento de la Asociación Española para la Inteligencia Artificial (AEPIA). El también profesor del Departamento de Estadística, Matemáticas e Informática ha dedicado su ponencia a los sesgos de la inteligencia artificial, que, según ha explicado, son aquellos patrones no deseados que pueden aparecer tanto en los datos con los que se entrenan los modelos de inteligencia artificial como en los resultados o las decisiones que esta realiza basándose en el conocimiento adquirido a partir de dichos datos. Estas predisposiciones o parcialidades pueden llevar a resultados injustos o discriminatorios.

UN CHERCHEUR DE L’UPNA, INVITÉ AU 40E ANNIVERSAIRE DE L’ASSOCIATION ESPAGNOLE POUR L’INTELLIGENCE ARTIFICIELLE. Mikel Galar Idoate, chercheur à l’Institut des villes intelligentes (ISC) de l’Université publique de Navarre (UPNA), était l’un des trois conférenciers invités à la série de conférences organisées pour commémorer le 40e anniversaire de la naissance de l’Association espagnole pour l’intelligence artificielle (AEPIA). L’autre professeur du Département de statistique, mathématiques et informatique a consacré son exposé aux biais de l’intelligence artificielle, qui, comme il l’a expliqué, sont des modèles indésirables qui peuvent apparaître dans les données utilisées pour la formation de modèles d’intelligence artificielle, ainsi que dans les résultats ou les décisions prises par l’intelligence artificielle sur la base des connaissances acquises à partir de ces données. Ces préjugés peuvent mener à des résultats injustes ou discriminatoires [Le texte continue en espagnol].

A UPNA RESEARCHER, INVITED TO THE 40th ANNIVERSARY OF THE SPANISH ASSOCIATION FOR ARTIFICIAL INTELLIGENCE. Mikel Galar Idoate, researcher at the Institute of Smart Cities (ISC) of the Public University of Navarre (UPNA)was one of three speakers invited to the series of conferences held to commemorate the 40th anniversary of the birth of the Spanish Association for Artificial Intelligence (AEPIA). The other professor from the Department of Statistics, Mathematics and Computer Science devoted his talk to the biases of artificial intelligence, which, as he explained, are undesirable patterns that may appear in the data used for training artificial intelligence models, as well as in the results or decisions made by artificial intelligence based on the knowledge acquired from these data. These prejudices or prejudices can lead to unfair or discriminatory results [The text continues in spanish].

“Este tipo de patrones indeseados suelen basarse en características protegidas de las personas, como el género, la raza o la edad, que son inherentes e inmutables —explica Mikel Galar—. Los sesgos pueden provenir de diferentes puntos del proceso de aprendizaje automático; los más típicos son los sesgos en los conjuntos de datos. Estos pueden originarse en el proceso de selección de la población utilizada en el conjunto de datos o en las medidas que se toman”.

Según este experto, los sesgos de selección pueden ser de dos tipos: representacionales y estereotípicos. Los primeros se refieren a “una desproporción en la representación de los grupos demográficos, como, por ejemplo, más hombres que mujeres o más personas blancas”. Los segundos, que, “aunque menos estudiados pueden ser más perjudiciales”, hacen referencia a “la representación de ciertos estereotipos”. “Cuando se trabaja en el reconocimiento de expresiones faciales, es típico encontrarse con que las mujeres tienden a aparecer más felices en los conjuntos de datos y los hombres, más enfadados. Esto puede llevar a los modelos a asociar incorrectamente la felicidad con las mujeres y el enfado con los hombres”, indica.

Por tanto, estos sesgos en los conjuntos de datos se transfieren a los modelos de inteligencia artificial, que se entrenan con ellos y “aprenden los patrones presentes en ellos, incluyendo los indeseados o sesgos”. “Si los datos de entrenamiento contienen sesgos, estos pueden ser capturados y reproducidos por los modelos durante el proceso de aprendizaje —señala Mikel Galar—. Por ejemplo, en el caso de que un conjunto de datos de reconocimiento de expresiones faciales tenga más imágenes de mujeres felices y hombres enfadados, el modelo puede aprender a asociar estas características demográficas con ciertas emociones. Así, cuando se le presenta una nueva imagen, el modelo puede tender a predecir felicidad para mujeres y enfado para hombres, perpetuando así los sesgos presentes en los datos de entrenamiento”. Los sesgos en inteligencia artificial pueden ser combatidos, por ejemplo, recolectando datos diversos y representativos, diseñando algoritmos justos, realizando auditorías y evaluaciones continuas, organizando equipos diversos de desarrollo o introduciendo ciertas regulaciones.

En su conferencia, Mikel Galar ha analizado los sesgos demográficos de la inteligencia artificial basándose en su experiencia como investigador principal en el proyecto Emotional Films. Esta iniciativa ha desarrollado una tecnología que utiliza la inteligencia artificial para adaptar el contenido audiovisual que ve un espectador en función de sus respuestas emocionales. De ahí la necesidad de procesar conjuntos de datos de reconocimiento de expresiones faciales.

Fuente: UPNA

Un investigador de la UPNA, ponente invitado en el 40.º aniversario de la Asociación Española para la Inteligencia Artificial
Etiquetado en: