¿Inteligencia Artificial sin sesgos?: 3 acciones para disminuirlos en el ámbito corporativo

¿Inteligencia Artificial sin sesgos?: 3 acciones para disminuirlos en el ámbito corporativo
Photo by Mohamed Nohassi / Unsplash

Si hacemos un ejercicio consciente por reconocer los riesgos de nuestros sesgos y prejuicios, la tecnología puede ser una gran aliada para la igualdad.

En 2023, Chat GPT se integró en las rutinas diarias de miles de personas, evidenciando el poder transformador de la Inteligencia Artificial (IA). En el mundo corporativo, la IA ha revolucionado desde la automatización de procesos, análisis predictivos hasta estrategias de marketing personalizadas. Se estima que, para 2025, casi todas las empresas adoptarán alguna forma de IA, y alcanzará un mercado potencial de 37.000 millones de dólares según Forrester [1].

Como líderes y personas comprometidas con la promoción de la igualdad en los espacios de trabajo, debemos ser conscientes de un desafío emergente: el riesgo de sesgos inconscientes en la IA. Una gran paradoja sería que nuestras estrategias de Diversidad, Equidad e Inclusión (DEI), se vean negativamente impactadas con el avance de la IA. Es nuestra responsabilidad abordar el tema siempre desde una mirada crítica y con un enfoque de diversidad.

Dado que la IA, entendida como la simulación de procesos humanos, se desarrolla a partir de grandes conjuntos de datos y algoritmos, existe el peligro de que esta perpetúe prejuicios sociales. A fin de cuentas, detrás de estos datos, se encuentran seres humanos con sus propios sesgos. Esto podría implicar que la tecnología que empleamos termine reforzando desigualdades y exacerbando la discriminación frente a personas históricamente excluidas. Particularmente, nos referimos a esos sesgos que se traducen en prácticas discriminatorias sutiles, que casi siempre pasan desapercibidas.

Los sesgos inconscientes son atajos mentales que toma nuestro cerebro para poder realizar múltiples acciones automáticamente y de forma simultánea. En nuestro día a día, cada segundo, nuestro cerebro recibe más información de la que puede procesar, por ello estos atajos cumplen una función esencial en nuestra vida. Sin embargo, los sesgos se forman a partir de nuestras experiencias de vida, aprendizajes y, en muchas ocasiones, en estereotipos. Estos sesgos nos llevan a formar juicios instantáneos basados en, por ejemplo, el género, la orientación sexual, el origen étnico-racial, el nivel educativo, entre otras características de identidad de las personas.

Un claro ejemplo del impacto de los sesgos inconscientes en la IA lo encontramos en ciertos sistemas de reconocimiento facial [2]. Investigaciones han revelado que herramientas como las desarrolladas por IBM, Microsoft y Face++ mostraron dificultades en la precisión al identificar géneros y orígenes étnicos que no corresponden al perfil predominante de hombres blancos. De hecho, con una mirada de género interseccional, el Gender Shades Project [3] encontró que la menor tasa de precisión correspondía a mujeres con el color de piel más oscuro:

Fuente de la imagen: Najibi, Alex (2020) [4]

En el ámbito de la gestión humana, un caso concreto ilustra cómo la IA puede replicar sesgos humanos: Amazon tuvo que abandonar un sistema de reclutamiento basado en IA después de descubrir que favorecía a candidatos masculinos para puestos técnicos, debido a que el sistema estaba entrenado con currículums que, en su mayoría, pertenecían a hombres. En Nueva York han prohibido la utilización de inteligencia artificial en ciertos procesos de atracción de talento por la presencia de sesgos [5].

Es innegable el impacto transformador que la Inteligencia Artificial puede proporcionar en las estrategias corporativas de DEI. Pero, a partir de los ejemplos antes mencionados y otros que ya vienen siendo alertados a nivel mundial, es importante notar los riesgos que el uso de la IA puede significar en estas estrategias. Al igual que con cualquier herramienta, con la IA hay que identificar estos riesgos de forma anticipada, reconocer su potencial impacto, y adoptar una actitud transformadora que nos permita seguir fomentando la igualdad. Parte importante de ello es reconocer que en el desarrollo de la IA, se pueden trasladar nuestros propios sesgos y perpetuarlos. Se trata entonces de hacer visibles nuestros sesgos y de establecer mecanismos para evitar que se traduzcan en decisiones y procesos discriminatorios. Desde ELSA tenemos la convicción de que es posible poner la tecnología al servicio de la igualdad.

Los sesgos inconscientes no son una problemática nueva en el mundo corporativo. De hecho, muchas organizaciones ya vienen gestionando estrategias para abordar los sesgos inconscientes en diversos procesos como en la resolución de casos de acoso sexual laboral; o el reclutamiento, selección y promociones. Cada vez son más los mecanismos que se incorporan para disminuir sus impactos negativos: Entrenamientos a Comités de Intervención frente al Acoso Sexual Laboral, Hojas de vida ciegas o semi-ciegas, paneles de entrevistas diversos, ternas de entrevistas diversas, búsqueda activa de talento diverso, entre otras.

Lo que toca hoy entonces, es adaptarnos a la realidad que tenemos y al avance de la tecnología. Empezar a establecer lineamientos y pautas para evitar que la IA perpetúe estos sesgos y, más bien, se convierta en una aliada para disminuirlos.

A continuación, compartimos 3 acciones que se pueden adoptar en el marco de esta revolución tecnológica para disminuir sesgos inconscientes:

  1. Equipos de desarrollo diversos: Identifica qué patrones podrían estarse repitiendo en la selección de personas para estos equipos y busca de forma activa diferentes perfiles que consideren factores como el género, origen étnico-racial, instituciones educativas, entre otros. Esto permitirá incorporar diferentes perspectivas y experiencias en el desarrollo de soluciones que utilicen IA, así como alertar de posibles sesgos que otros/as integrantes del equipo podrían estar omitiendo de forma inconsciente.
  2. Entrenamientos en sesgos inconscientes: Dirígete específicamente a los equipos de desarrollo y principales stakeholders. Utiliza las herramientas educativas que ya existen y adáptalas a las tareas cotidianas de estos equipos con ejemplos y casos reales del impacto de estos sesgos en el desarrollo tecnológico.
  3. Transparencia y accountability: Establece mecanismos de gobernanza corporativa que te permitan fomentar la transparencia y la rendición de cuentas en el desarrollo e implementación de la IA. Esto hará que su uso sea conocido, entendido y esté sujeto a comentarios de todos los equipos. Estas prácticas permitirán identificar posibles sesgos de forma anticipada.

Desde ELSA tenemos la convicción de que la tecnología puede ser una gran aliada para lograr espacios de trabajo más seguros e igualitarios. En la era de la revolución tecnológica, es importante adaptarnos y replantear nuevas formas de promover la igualdad, siempre teniendo presente que finalmente, somos personas - con creencias y sesgos - las que estamos detrás de este trabajo.


Referencias:

[1] Marr, Bernard (2022). The Problem With Biased AIs (and How To Make AI Better). Forbes. En: https://www.forbes.com/sites/bernardmarr/2022/09/30/the-problem-with-biased-ais-and-how-to-make-ai-better/?sh=38698b214770

[2] Existen diversas investigaciones que muestran las tasas de error en sistemas de reconocimiento facial de acuerdo a factores demográficos, en donde la menor tasa de precisión se encuentra determinada por factores de género, orígen étnico y edad. Un ejemplo se puede encontrar en: El Khiyari H, Wechsler H (2016). Face Verification Subject to Varying (Age, Ethnicity, and Gender) Demographics Using Deep Learning. Journal of Biometrics and Biostatistics 7: 323. doi:10.4172/2155-6180.1000323.

[3] El proyecto Gender Shades es una evaluación que se centra en clasificaciones de género para mostrar la necesidad de una mayor transparencia en el desarrollo de productos y servicios de IA. En esta página se encuentra la información del proyecto y sus resultados: http://gendershades.org/overview.html

[4] Najibi, Alex (2020). Racial Discrimination in Face Recognition Technology. En: https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/

[5] Juárez, Blanca (2023). La IA y las herramientas tecnológicas tienen los mismos sesgos que quienes las crean. El Economista. En: https://www.eleconomista.com.mx/capitalhumano/La-IA-y-las-herramientas-tecnologicas-tienen-los-mismos-sesgos-que-quienes-las-crean-20230911-0107.html