{"id":725,"date":"2025-05-22T16:28:08","date_gmt":"2025-05-22T16:28:08","guid":{"rendered":"https:\/\/cloudlab.urv.cat\/catedracloud\/?p=725"},"modified":"2025-05-22T16:35:06","modified_gmt":"2025-05-22T16:35:06","slug":"los-sesgos-en-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/cloudlab.urv.cat\/catedracloud\/2025\/05\/22\/los-sesgos-en-la-inteligencia-artificial\/","title":{"rendered":"Los sesgos en la Inteligencia Artificial"},"content":{"rendered":"\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<figure class=\"wp-block-pullquote has-text-align-left\"><blockquote><p>La inteligencia artificial (IA) tiene importantes sesgos. Presentes en los primeros modelos de reconocimiento facial o de toma de decisiones hasta las \u00faltimas IAs generativas, la tecnolog\u00eda reproduce los prejuicios de los equipos que la desarrollan. Desde procesos de selecci\u00f3n de empleo sesgados a im\u00e1genes generadas que perpet\u00faan estereotipos. \u00bfPor qu\u00e9 ocurre esto? \u00bfEs posible evitarlo?<\/p><\/blockquote><\/figure>\n<\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\">Sesgos<\/h2>\n\n\n\n<p>Los seres humanos tenemos <strong>opiniones<\/strong>, <strong>prejuicios<\/strong> y nos vemos influenciados por la imperante <strong>desigualdad<\/strong> que se vive en el mundo. Estas cuestiones, aunque en la mayor\u00eda de casos de forma totalmente involuntaria, se ven <strong>reflejadas en nuestras creaciones<\/strong>, y la inteligencia artificial (IA) no es diferente. <\/p>\n\n\n\n<p>Los sesgos en la IA son un fen\u00f3meno <strong>ampliamente documentado<\/strong> y se manifiestan cuando los sistemas de IA reproducen o amplifican prejuicios humanos, ya sea de g\u00e9nero, raza, clase social u otras formas de discriminaci\u00f3n. Las causas que producen este tipo de sesgos en la tecnolog\u00eda de uso diario son claros: una importante <strong>falta de diversidad<\/strong> en los equipos de desarrollo, la utilizaci\u00f3n de<strong> fuentes de datos sesgadas <\/strong>para el entrenamiento de los modelos y <strong>la escasa monitorizaci\u00f3n<\/strong>, seg\u00fan <a href=\"https:\/\/www.unwomen.org\/es\/noticias\/entrevista\/2025\/02\/como-la-inteligencia-artificial-refuerza-los-sesgos-de-genero-y-que-podemos-hacer-al-respecto\">UN Women<\/a> e <a href=\"https:\/\/www.ibm.com\/think\/topics\/ai-bias\">IBM<\/a>.<\/p>\n\n\n\n<p>Los efectos de los sesgos <strong>no son algo anecd\u00f3tico<\/strong> y van m\u00e1s all\u00e1 de ser algo que pueda hacer que nos llevemos las manos a la cabeza. Puesto que podemos encontrar ejemplos del uso de la IA en todo tipo de \u00e1mbitos, la presencia de sesgos entra\u00f1a una forma de discriminaci\u00f3n que puede tener <strong>efectos reales sobre la vida de las personas<\/strong>. <a href=\"https:\/\/www.cnbc.com\/2023\/06\/23\/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html\">La denegaci\u00f3n de cr\u00e9ditos bancarios en funci\u00f3n del barrio de residencia<\/a>, <a href=\"https:\/\/www.reuters.com\/article\/world\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG\/\">la invisibilizaci\u00f3n en los procesos de selecci\u00f3n para un empleo<\/a> o <a href=\"https:\/\/www.unwomen.org\/es\/noticias\/entrevista\/2025\/02\/como-la-inteligencia-artificial-refuerza-los-sesgos-de-genero-y-que-podemos-hacer-al-respecto\">la perpetuaci\u00f3n de estereotipos y roles de g\u00e9nero<\/a> son algunos de los efectos de los sesgos que encontramos en los algoritmos.<\/p>\n\n\n\n<p>Los efectos no se limitan a las personas que sufren esta discriminaci\u00f3n, sino que tambi\u00e9n <strong>afectan a las empresas<\/strong> que adoptan los modelos sesgados. <a href=\"https:\/\/www.ibm.com\/think\/topics\/ai-bias\">Seg\u00fan IBM<\/a>, los modelos de IA sesgados pueden dan lugar a decisiones err\u00f3neas y a problemas en la adopci\u00f3n de las tecnolog\u00edas basadas en dichos modelos, lo que supone un <strong>gran obst\u00e1culo en la implantaci\u00f3n<\/strong> de estos sistemas y un perjuicio econ\u00f3mico para las empresas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El sesgo algor\u00edtmico con ejemplos<\/h2>\n\n\n\n<h4 class=\"wp-block-heading\">Sesgo de g\u00e9nero<\/h4>\n\n\n\n<p>El ejemplo m\u00e1s sonado del sesgo algor\u00edtmico por cuestiones de g\u00e9nero se produjo <a href=\"https:\/\/www.bbc.com\/news\/technology-45809919\">en el a\u00f1o 2018<\/a>. Por aquel entonces Amazon empleaba un sistema autom\u00e1tico para la valoraci\u00f3n y selecci\u00f3n de candidatos a ofertas de trabajo de dicha empresa. Se demostr\u00f3 que este sistema <strong>era menos proclive a seleccionar curr\u00edculums en los que la palabra &#8220;mujer&#8221; estuviera presente<\/strong>.<\/p>\n\n\n\n<p>Algunas herramientas aparentemente neutras como los traductores autom\u00e1ticos han evidenciado sesgos de g\u00e9nero. Tambi\u00e9n en el a\u00f1o 2018, <a href=\"https:\/\/ssir.org\/books\/excerpts\/entry\/sounds_like_me\">un estudio de la Universidad de Stanford<\/a> demostr\u00f3 que Google Translate tend\u00eda a traducir t\u00e9rminos neutros de idiomas como el turco o el h\u00fangaro en <strong>g\u00e9nero masculino<\/strong> cuando se trataba de profesiones como <strong>&#8220;doctor&#8221; o &#8220;ingeniero<\/strong>&#8220;, y en <strong>femenino<\/strong> para ocupaciones como <strong>&#8220;enfermera&#8221;<\/strong>.<\/p>\n\n\n\n<p>Este \u00faltimo ejemplo se ve tambi\u00e9n reflejado en las recientes IAs generativas. Por ejemplo, al preguntar a ChatGPT que genere la imagen de una <strong>persona en un puesto de poder<\/strong> ser\u00e1 en la mayor\u00eda de los casos un <strong>hombre blanco<\/strong>. Sin embargo, al pedir que genere im\u00e1genes de profesiones como la enfermer\u00eda o la alba\u00f1iler\u00eda, generar\u00e1 a mujeres o a hombres no blancos, respectivamente.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"544\" src=\"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53-1024x544.jpeg\" alt=\"\" class=\"wp-image-1268\" srcset=\"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53-1024x544.jpeg 1024w, https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53-300x159.jpeg 300w, https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53-768x408.jpeg 768w, https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53-1536x816.jpeg 1536w, https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-22-at-07.47.53.jpeg 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Im\u00e1genes generadas por ChatGPT al pedirle que genere la imagen de un CEO, &#8220;nurse&#8221; (enfermero\/a) y &#8220;construction worker&#8221; (alba\u00f1il\/a). Este es el resultado repetido de pedirle cada una de esas im\u00e1genes 5 veces.<\/figcaption><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\">Sesgo racial<\/h4>\n\n\n\n<p>Uno de los casos m\u00e1s notorios de sesgo racial en la inteligencia artificial ocurri\u00f3 con sistemas de\u00a0<strong>reconocimiento facial<\/strong>que presentaban altos \u00edndices de error al identificar rostros de personas negras en comparaci\u00f3n con personas blancas. Un <a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a.html\">estudio del MIT Media Lab del a\u00f1o 2018<\/a> revel\u00f3 que el software de empresas como IBM, Microsoft y Face++ tuvo <strong>tasas de error de hasta el 35% para mujeres negras<\/strong>, mientras que para <strong>hombres blancos fue inferior al 1%<\/strong>.<\/p>\n\n\n\n<p>Otro ejemplo identificado en <a href=\"https:\/\/science.sciencemag.org\/content\/366\/6464\/447\">otro articulo de Science en el a\u00f1o 2019<\/a> se dio en un algoritmo de atenci\u00f3n m\u00e9dica en EE. UU., que <strong>subestimaba la necesidad de tratamiento de pacientes negros en comparaci\u00f3n con los blancos<\/strong>. El sesgo se deb\u00eda a que el sistema usaba el <strong>gasto sanitario previo <\/strong>como indicador de salud, sin considerar las <strong>desigualdades estructurales en el acceso a la atenci\u00f3n m\u00e9dica<\/strong>. Estos casos evidencian c\u00f3mo los datos y criterios de dise\u00f1o pueden perpetuar desigualdades existentes.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Sesgo de clase<\/h4>\n\n\n\n<p>El sesgo por motivos socioecon\u00f3micos tambi\u00e9n est\u00e1 presente en la IA. El ejemplo m\u00e1s claro tiene lugar en <strong>el sector de la banca.<\/strong> Seg\u00fan<a href=\"https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0304405X21002403?via%3Dihub\"> un estudio del <em>Journal of Financial Economic<\/em><\/a><em><a href=\"https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0304405X21002403?via%3Dihub\">s<\/a><\/em>, a pesar de las leyes anti-discriminaci\u00f3n que existen en los EEUU para la concesi\u00f3n de pr\u00e9stamos, en el a\u00f1o 2021 se demostr\u00f3 que los <strong>intereses de los pr\u00e9stamos a personas de clases m\u00e1s bajas eran m\u00e1s altos<\/strong> que los de las de las personas de clases m\u00e1s altas, y que una <strong>proporci\u00f3n alta de peticiones de pr\u00e9stamos a personas de clases bajas eran denegadas<\/strong>, normalmente por la acci\u00f3n de modelos de IA.  <a href=\"https:\/\/news.mit.edu\/2022\/machine-learning-model-discrimination-lending-0330\">Seg\u00fan el MIT<\/a>, se est\u00e1n empezando a desarrollar soluciones a estos problemas espec\u00edficos del sector de la banca, como nuevas t\u00e9cnicas de entrenamiento que tienen en cuenta y mitigan dichos sesgos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Las soluciones al sesgo algor\u00edtmico<\/h2>\n\n\n\n<p>El sesgo en la IA es un fen\u00f3meno que las empresas ya conocen, y del que son conscientes de sus efectos. Es por ello que ya han empezado a tomar acciones para garantizar una IA m\u00e1s accesible para todos y que evite la discriminaci\u00f3n. Para ello se proponen acciones como un <strong>incremento en la diversidad de los equipos encargados de desarrollar y supervisar los modelos de IA<\/strong>, una <strong>mayor diversidad en las fuentes de datos<\/strong>, un <strong>incremento en la monitorizaci\u00f3n<\/strong> y <strong>transparencia<\/strong> de estos modelos y la <strong>aplicaci\u00f3n de t\u00e9cnicas espec\u00edficas en el desarrollo<\/strong> de los modelos para disminuir el sesgo, segun <a href=\"https:\/\/www.ibm.com\/think\/topics\/ai-bias\">IBM<\/a>, <a href=\"https:\/\/www.unwomen.org\/es\/noticias\/entrevista\/2025\/02\/como-la-inteligencia-artificial-refuerza-los-sesgos-de-genero-y-que-podemos-hacer-al-respecto\">UN Women<\/a> y el <a href=\"https:\/\/news.mit.edu\/2022\/machine-learning-model-discrimination-lending-0330\">MIT<\/a>.<\/p>\n\n\n\n<p>A pesar de esto, <strong>la falta de diversidad en el sector tecnol\u00f3gico es flagrante<\/strong>, puesto que se trata de un sector mayoritariamente conformado por hombres blancos, donde las mujeres y personas no binarias solo representan el 29% de los trabajadores, un 25% de los trabajadores pertenecen a minor\u00edas \u00e9tnicas y solamente un 9% de los empleados provienen de un contexto socioecon\u00f3mico bajo, seg\u00fan datos de <a href=\"https:\/\/www.techtalentcharter.co.uk\/wp-content\/uploads\/diversity-in-tech-report-2024.pdf\">Tech Talent Charter en 2024<\/a> en el Reino Unido.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n<\/h2>\n\n\n\n<p>El sesgo en la IA <strong>es un problema real con consecuencias sobre la vida de las personas<\/strong>. Estas consecuencias tambi\u00e9n afectan <strong>a las propias empresas que adoptan los modelos<\/strong> de IA sesgados, ya que los sesgos tambi\u00e9n dificultan la adopci\u00f3n de estas tecnolog\u00edas emergentes fuera de las burbujas en que son desarrolladas. A\u00fan queda un largo camino por recorrer, pero las empresas ya han reconocido este problema y est\u00e1n lentamente trabajando en afrontarlo para acabar con esta discriminaci\u00f3n (y, por qu\u00e9 no decirlo, para mejorar sus resultados econ\u00f3micos). <\/p>\n\n\n\n<p><sub>Las im\u00e1genes del art\u00edculo han sido generadas por IA.<\/sub><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial (IA) tiene importantes sesgos. Presentes en los primeros modelos de reconocimiento facial o de toma de decisiones hasta las \u00faltimas IAs generativas, la tecnolog\u00eda reproduce los prejuicios de los equipos que la desarrollan. Desde procesos de selecci\u00f3n de empleo sesgados a im\u00e1genes generadas que perpet\u00faan estereotipos. \u00bfPor qu\u00e9 ocurre esto? \u00bfEs posible [&hellip;]<\/p>\n","protected":false},"author":8,"featured_media":1258,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_uag_custom_page_level_css":"","_swt_meta_header_display":false,"_swt_meta_footer_display":false,"_swt_meta_site_title_display":false,"_swt_meta_sticky_header":false,"_swt_meta_transparent_header":false,"footnotes":""},"categories":[15,39,40],"tags":[98,88],"class_list":["post-725","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-divulgacion","category-ia","category-machine-learning","tag-divulgacion","tag-ia"],"jetpack_featured_media_url":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53.jpeg","uagb_featured_image_src":{"full":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53.jpeg",1536,1024,false],"thumbnail":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53-150x150.jpeg",150,150,true],"medium":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53-300x200.jpeg",300,200,true],"medium_large":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53-768x512.jpeg",768,512,true],"large":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53-1024x683.jpeg",1024,683,true],"1536x1536":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53.jpeg",1536,1024,false],"2048x2048":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/05\/WhatsApp-Image-2025-05-21-at-18.49.53.jpeg",1536,1024,false]},"uagb_author_info":{"display_name":"Pablo Gimeno Sarroca","author_link":"https:\/\/cloudlab.urv.cat\/catedracloud\/author\/pgimeno\/"},"uagb_comment_info":14,"uagb_excerpt":"La inteligencia artificial (IA) tiene importantes sesgos. Presentes en los primeros modelos de reconocimiento facial o de toma de decisiones hasta las \u00faltimas IAs generativas, la tecnolog\u00eda reproduce los prejuicios de los equipos que la desarrollan. Desde procesos de selecci\u00f3n de empleo sesgados a im\u00e1genes generadas que perpet\u00faan estereotipos. \u00bfPor qu\u00e9 ocurre esto? \u00bfEs posible&hellip;","_links":{"self":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/725","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/users\/8"}],"replies":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/comments?post=725"}],"version-history":[{"count":12,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/725\/revisions"}],"predecessor-version":[{"id":1277,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/725\/revisions\/1277"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/media\/1258"}],"wp:attachment":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/media?parent=725"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/categories?post=725"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/tags?post=725"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}