Facebook muestra varios anuncios de trabajo para mujeres y hombres de una manera que puede violar las leyes contra la discriminación, según un nuevo estudio.
Investigadores de la Universidad del Sur de California que estudiaron los algoritmos de publicación de anuncios de Facebook y LinkedIn encontraron que Facebook tenía un sesgo de género más allá de lo que podría justificarse legalmente por diferencias en las calificaciones profesionales.
Los hombres vieron las ofertas de trabajo de los conductores de pizza Domino más en Facebook, mientras que las mujeres vieron los anuncios de los clientes de Instacart con más frecuencia.
La tendencia también continuó en la ingeniería mejor remunerada. Ofertas de trabajo en empresas de tecnología como Netflix y el fabricante de chips Nvidia. La mayoría de las mujeres vieron anuncios de Netflix que los de Nvidia, lo que corresponde al desglose por género de los empleados de cada empresa.
No se encontró evidencia de sesgo similar en las ofertas de trabajo enviadas por LinkedIn.
La autora del estudio, Aleksandra Korolov, profesora asistente de ciencias de la computación en la USC, dijo que podría suceder que LinkedIn sea mejor para suprimir deliberadamente los prejuicios, o tal vez que Facebook sea simplemente mejor para capturar señales del mundo real que sus usuarios sobre los desequilibrios de género y su perpetuación.
“No es que el usuario diga,” Oh, eso me interesa “. Facebook decidió en nombre del usuario si era probable que se involucrara “, dijo. “Y solo porque históricamente un determinado grupo no ha estado interesado en involucrarse en algo, no significa que no deberían haber tenido la oportunidad de hacerlo, especialmente en la categoría laboral”.
Facebook dijo en un comunicado el viernes que está tomando medidas importantes para abordar los problemas de discriminación en la publicidad.
“Nuestro sistema utiliza muchas señales para tratar de mostrarle a la gente los anuncios que más les interesan, pero entendemos las preocupaciones del informe”, dijo.
Facebook ha prometido renovar su sistema de orientación de anuncios en 2019 como parte de un acuerdo legal.
La red social dijo que ya no permitiría publicidad de viviendas, ofertas de trabajo o préstamos dirigidos a personas por edad, género o código postal. También restringió otras opciones de orientación para que estos anuncios no excluyan a las personas por motivos de raza, etnia y otras categorías protegidas legalmente en los EE. UU., Incluido el origen nacional y la orientación sexual.
La personalización infinita de la orientación de sus anuncios es el pan y la mantequilla de Facebook, por lo que cualquier limitación en su proceso de orientación de anuncios puede dañar los resultados de su empresa. Los anuncios que ven los usuarios se pueden adaptar a la información más detallada, no solo sobre dónde viven las personas y qué sitios han visitado recientemente, sino también si se han involucrado en los últimos seis meses o tienen las mismas características que las personas que compraron nuevos zapatillas de deporte, incluso si nunca expresaron ese interés ellos mismos.
Pero incluso si los anunciantes no pueden orientar los anuncios por sí mismos, el estudio muestra lo que los críticos han enfatizado durante años: que los propios algoritmos de Facebook pueden discriminar, incluso si los anunciantes mismos no tienen ninguna intención.
“No hemos visto ninguna evidencia pública de que estén trabajando en problemas con sus algoritmos discriminatorios”, dijo Korolova.
Dado que no es posible mostrar todos los anuncios dirigidos a todos los usuarios, el software de Facebook elige lo que considera relevante. Si más mujeres muestran interés en determinadas ocupaciones, el software aprende que debería mostrar más de estos anuncios a las mujeres.
LinkedIn dijo que los resultados de la encuesta están en línea con una evaluación interna de la focalización en la colocación laboral.
“Sin embargo, reconocemos que el cambio sistémico lleva tiempo y estamos al comienzo de un viaje muy largo”, dijo la compañía en un comunicado.
La ley de EE. UU. Permite la segmentación basada en calificaciones, pero no en categorías protegidas como raza, género y edad. Pero leyes contra la discriminación se basan en gran medida en quejas y nadie puede quejarse de que se le impidió el empleo a menos que supiera que les sucedió ”, dijo Sandra Wachter, profesora de derecho tecnológico en la Universidad de Oxford.
“Las herramientas que desarrollamos para prevenir la discriminación se referían al delincuente humano”, dijo Wachter, que no participó en el estudio de la USC. “En algoritmo discrimina de manera diferente, agrupa a las personas de manera diferente y lo hace de una manera muy sutil. Básicamente, los algoritmos discriminan a tus espaldas “.
Si bien Domino’s e Instacart tienen requisitos laborales similares para sus conductores, los empleados de Domino’s son predominantemente hombres, mientras que Instacart es más de la mitad de mujeres. Un estudio que analizó los anuncios de conductores mostrados en Carolina del Norte en comparación con la demografía de los registros de votantes encontró que los algoritmos de Facebook aparentemente aprenden y perpetúan estos desequilibrios de género.
La misma tendencia también ocurrió con los trabajos de ventas en Reeds Jewelers, que vio más mujeres, y Leith Automotive, que vio más hombres.
Los científicos piden un control más estricto de dichos algoritmos y analizan otros factores como los prejuicios raciales. Korolova dijo que las auditorías externas como el estudio de la USC solo podrían hacer mucho sin acceder a los algoritmos patentados de Facebook, pero los reguladores pueden requerir algún tipo de revisión independiente para ver si hay discriminación.
“Hemos visto que las plataformas no son tan buenas para autocomprobar sus algoritmos en busca de consecuencias sociales no deseadas, especialmente cuando se trata de su negocio”, dijo.
© 2021 The Associated Press. Reservados todos los derechos. Este material no puede ser publicado, difundido, reescrito o distribuido sin permiso.