Los sesgos en la Inteligencia Artificial

·

·

, ,

La inteligencia artificial (IA) tiene importantes sesgos. Presentes en los primeros modelos de reconocimiento facial o de toma de decisiones hasta las últimas IAs generativas, la tecnología reproduce los prejuicios de los equipos que la desarrollan. Desde procesos de selección de empleo sesgados a imágenes generadas que perpetúan estereotipos. ¿Por qué ocurre esto? ¿Es posible evitarlo?

Sesgos

Los seres humanos tenemos opiniones, prejuicios y nos vemos influenciados por la imperante desigualdad que se vive en el mundo. Estas cuestiones, aunque en la mayoría de casos de forma totalmente involuntaria, se ven reflejadas en nuestras creaciones, y la inteligencia artificial (IA) no es diferente.

Los sesgos en la IA son un fenómeno ampliamente documentado y se manifiestan cuando los sistemas de IA reproducen o amplifican prejuicios humanos, ya sea de género, raza, clase social u otras formas de discriminación. Las causas que producen este tipo de sesgos en la tecnología de uso diario son claros: una importante falta de diversidad en los equipos de desarrollo, la utilización de fuentes de datos sesgadas para el entrenamiento de los modelos y la escasa monitorización, según UN Women e IBM.

Los efectos de los sesgos no son algo anecdótico y van más allá de ser algo que pueda hacer que nos llevemos las manos a la cabeza. Puesto que podemos encontrar ejemplos del uso de la IA en todo tipo de ámbitos, la presencia de sesgos entraña una forma de discriminación que puede tener efectos reales sobre la vida de las personas. La denegación de créditos bancarios en función del barrio de residencia, la invisibilización en los procesos de selección para un empleo o la perpetuación de estereotipos y roles de género son algunos de los efectos de los sesgos que encontramos en los algoritmos.

Los efectos no se limitan a las personas que sufren esta discriminación, sino que también afectan a las empresas que adoptan los modelos sesgados. Según IBM, los modelos de IA sesgados pueden dan lugar a decisiones erróneas y a problemas en la adopción de las tecnologías basadas en dichos modelos, lo que supone un gran obstáculo en la implantación de estos sistemas y un perjuicio económico para las empresas.

El sesgo algorítmico con ejemplos

Sesgo de género

El ejemplo más sonado del sesgo algorítmico por cuestiones de género se produjo en el año 2018. Por aquel entonces Amazon empleaba un sistema automático para la valoración y selección de candidatos a ofertas de trabajo de dicha empresa. Se demostró que este sistema era menos proclive a seleccionar currículums en los que la palabra “mujer” estuviera presente.

Algunas herramientas aparentemente neutras como los traductores automáticos han evidenciado sesgos de género. También en el año 2018, un estudio de la Universidad de Stanford demostró que Google Translate tendía a traducir términos neutros de idiomas como el turco o el húngaro en género masculino cuando se trataba de profesiones como “doctor” o “ingeniero“, y en femenino para ocupaciones como “enfermera”.

Este último ejemplo se ve también reflejado en las recientes IAs generativas. Por ejemplo, al preguntar a ChatGPT que genere la imagen de una persona en un puesto de poder será en la mayoría de los casos un hombre blanco. Sin embargo, al pedir que genere imágenes de profesiones como la enfermería o la albañilería, generará a mujeres o a hombres no blancos, respectivamente.

Imágenes generadas por ChatGPT al pedirle que genere la imagen de un CEO, “nurse” (enfermero/a) y “construction worker” (albañil/a). Este es el resultado repetido de pedirle cada una de esas imágenes 5 veces.

Sesgo racial

Uno de los casos más notorios de sesgo racial en la inteligencia artificial ocurrió con sistemas de reconocimiento facialque presentaban altos índices de error al identificar rostros de personas negras en comparación con personas blancas. Un estudio del MIT Media Lab del año 2018 reveló que el software de empresas como IBM, Microsoft y Face++ tuvo tasas de error de hasta el 35% para mujeres negras, mientras que para hombres blancos fue inferior al 1%.

Otro ejemplo identificado en otro articulo de Science en el año 2019 se dio en un algoritmo de atención médica en EE. UU., que subestimaba la necesidad de tratamiento de pacientes negros en comparación con los blancos. El sesgo se debía a que el sistema usaba el gasto sanitario previo como indicador de salud, sin considerar las desigualdades estructurales en el acceso a la atención médica. Estos casos evidencian cómo los datos y criterios de diseño pueden perpetuar desigualdades existentes.

Sesgo de clase

El sesgo por motivos socioeconómicos también está presente en la IA. El ejemplo más claro tiene lugar en el sector de la banca. Según un estudio del Journal of Financial Economics, a pesar de las leyes anti-discriminación que existen en los EEUU para la concesión de préstamos, en el año 2021 se demostró que los intereses de los préstamos a personas de clases más bajas eran más altos que los de las de las personas de clases más altas, y que una proporción alta de peticiones de préstamos a personas de clases bajas eran denegadas, normalmente por la acción de modelos de IA. Según el MIT, se están empezando a desarrollar soluciones a estos problemas específicos del sector de la banca, como nuevas técnicas de entrenamiento que tienen en cuenta y mitigan dichos sesgos.

Las soluciones al sesgo algorítmico

El sesgo en la IA es un fenómeno que las empresas ya conocen, y del que son conscientes de sus efectos. Es por ello que ya han empezado a tomar acciones para garantizar una IA más accesible para todos y que evite la discriminación. Para ello se proponen acciones como un incremento en la diversidad de los equipos encargados de desarrollar y supervisar los modelos de IA, una mayor diversidad en las fuentes de datos, un incremento en la monitorización y transparencia de estos modelos y la aplicación de técnicas específicas en el desarrollo de los modelos para disminuir el sesgo, segun IBM, UN Women y el MIT.

A pesar de esto, la falta de diversidad en el sector tecnológico es flagrante, puesto que se trata de un sector mayoritariamente conformado por hombres blancos, donde las mujeres y personas no binarias solo representan el 29% de los trabajadores, un 25% de los trabajadores pertenecen a minorías étnicas y solamente un 9% de los empleados provienen de un contexto socioeconómico bajo, según datos de Tech Talent Charter en 2024 en el Reino Unido.

Conclusión

El sesgo en la IA es un problema real con consecuencias sobre la vida de las personas. Estas consecuencias también afectan a las propias empresas que adoptan los modelos de IA sesgados, ya que los sesgos también dificultan la adopción de estas tecnologías emergentes fuera de las burbujas en que son desarrolladas. Aún queda un largo camino por recorrer, pero las empresas ya han reconocido este problema y están lentamente trabajando en afrontarlo para acabar con esta discriminación (y, por qué no decirlo, para mejorar sus resultados económicos).

Las imágenes del artículo han sido generadas por IA.


Discover more from Catedra T-Systems X URV

Subscribe to get the latest posts sent to your email.


Leave a Reply

Your email address will not be published. Required fields are marked *