El sesgo de género está profundamente arraigado en el empleo y el trabajo.
En Australia, en promedio, las mujeres gana 23% menos que los hombresSi invitados con menos frecuencia a entrevistas de trabajo y evaluados más severamente.
Búsqueda de currículum a ciegas o contratación a ciegasque oculta los nombres de los solicitantes en los currículos durante el proceso de solicitud es una estrategia común utilizada para abordar este sesgo. Otro utiliza el aprendizaje automático (ML) o la inteligencia artificial (AI) para mejorar al menos parte del proceso de toma de decisiones. Después de todo, la inteligencia artificial debería ser ajena a los estereotipos humanos.
¿Normal? Demonio.
Nuestra investigación muestra que estrategias como la eliminación de currículums que podrían funcionar para las personas que contratan no funcionan para la IA.
Ya es bien sabido que la IA reproduce el error inherente a sus datos de entrenamiento.
Por ejemplo, Amazon introdujo un sistema automatizado de selección de CV para candidatos de ingeniería. El sistema fue más tarde resultó ser sexista (y rápidamente desactivado). Aprendió la conexión entre la “masculinidad” y la calidad del candidato.
Nuestro estudio analiza más de cerca los diferentes niveles de sesgo de género en los algoritmos de contratación.
Descubrimos que las señales de género, mucho más sutiles que un nombre, son asimiladas y explotadas por la IA, lo que se está convirtiendo en un problema cada vez más apremiante frente a la creciente popularidad de la poderosa IA generativa como ChatGPT.
Descubrimos que el género está tan profundamente arraigado en nuestra sociedad: cómo hablamos, dónde trabajamos, qué aprendemos, que es casi imposible ocultar el género de un CV de la IA y los humanos.
¿Qué significa? Bueno, incluso con nuestras mejores intenciones, el algoritmo puede detectar tu género. Los algoritmos que pueden detectar el género pueden usarlo para predecir la calidad del candidato.
representante de crianza
ChatGPT (actualmente la IA basada en lenguaje más poderosa) está afectando tantos aspectos de la sociedad con una velocidad sin precedentes que los desarrolladores pidieron el fin de los experimentos de IA para comprender mejor sus efectos y consecuencias.
En nuestro estudio reciente, observamos el sesgo de género en ChatGPT en el contexto de la contratación para un puesto y les pedimos a los solicitantes que calificaran los CV.
Hemos construido un CV para varias profesiones. Nuestros currículos eran de alta calidad y altamente competitivos, pero hicimos dos cambios importantes.
Primero, cambiamos el nombre del solicitante para indicar si el trabajo lo solicita un hombre o una mujer. En segundo lugar, agregamos una brecha de licencia parental para la mitad de nuestros encuestados.
Todos nuestros candidatos tenían las mismas calificaciones y experiencia laboral, pero algunos eran hombres, algunas eran mujeres, algunos eran padres y otros no.
Mostramos el CV a ChatGPT y les pedimos que calificaran las calificaciones de la persona para el trabajo en una escala de cero a 100. Repetimos esto para seis ocupaciones diferentes y 30 veces para cada CV para asegurarnos de que nuestros resultados fueran sólidos.
Algo interesante sucedió aquí.
Descubrimos que ChatGPT no clasificaba los currículos de mujeres y hombres de manera diferente. Independientemente de nuestro cambio de nombre, nuestras clasificaciones de desempeño fueron equivalentes para los solicitantes de empleo masculinos y femeninos.
Pero cuando agregamos la brecha de licencia parental, descubrimos que ChatGPT clasificó a nuestros padres más abajo en todas las profesiones. Esto fue cierto para los padres y las madres: la interrupción en la licencia del cuidador le dijo al algoritmo que esta persona estaba menos calificada para el trabajo.
El sesgo de género se puede eliminar de la capacidad predictiva de ChatGPT, pero la crianza de los hijos no.
¿Por qué es importante?
Incluso si los desarrolladores evitan que ChatGPT tenga prejuicios de género, el mismo sesgo se infiltrará a través de otro mecanismo: la crianza de los hijos. Sabemos que las mujeres hacen la mayor parte del trabajo de cuidados en nuestras sociedades y Es más probable que los CV de las mujeres contengan lagunas en el permiso parental que masculino.
Si bien no sabemos si ChatGPT realmente evaluará los currículums en la vida real, nuestra investigación muestra con qué facilidad el sesgo puede colarse en los modelos y que es casi imposible para los desarrolladores de IA predecir todos estos sesgos o combinaciones de variables que conducen al sesgo, especialmente en modelos complejos como ChatGPT.
Responsabilidad lingüística
Imagine dos currículums idénticos en todos los aspectos excepto en la identidad del solicitante: uno escrito por un hombre y el otro escrito por una mujer. Si ocultamos la identidad de un candidato al panel de selección, ¿habrá lugar a la discriminación?
Nuestra investigación muestra que la respuesta es sí, si el panel de reclutamiento es AI.
Al analizar datos de 2000 currículos, encontramos que hombres y mujeres en la misma profesión usan un lenguaje ligeramente diferente para describir sus habilidades y educación.
Por ejemplo, descubrimos que las mujeres usan significativamente más verbos de baja potencia (como “ayudar”, “aprender” o “necesitar”) que los hombres.
Aquí está el problema.
En otro experimento, nuestro equipo descubrió que las representaciones de IA vinculan estas sutiles diferencias lingüísticas con el género. Esto significa que los modelos de aprendizaje automático pueden identificar el género en un CV incluso después de eliminar nombres y pronombres.
Si una IA puede predecir el género en función del idioma, puede usarlo como evidencia en la evaluación del CV.
Fuerte respuesta política
¿Qué significa cuando empezamos a integrar la IA en nuestra vida profesional?
Bueno, nuestra investigación muestra que, si bien la “verificación ciega de CV” puede funcionar para los humanos, no funciona para la IA. Incluso si eliminamos todo lenguaje de identificación (ella, suyo y nombres), otro lenguaje señala el género.
Un control exhaustivo del sesgo puede eliminar la capa más obvia de discriminación, pero se necesita trabajar más en las sustituciones que pueden conducir al sesgo pero que pueden no ser tan evidentes.
Aquí es donde necesitamos un escrutinio regulatorio en respuesta a esta comprensión más detallada de la capacidad de la IA para discriminar y asegurarnos de que todos entiendan que la IA no es neutral ni justa.
Todos debemos hacer todo lo posible para que la IA sea justa y beneficiosa para todos, incluidas las mujeres y los padres.