Imagina que estás en una entrevista. Cuando responde las preguntas del reclutador, el sistema de inteligencia artificial (IA) escanea tu carajuzgándote por nerviosismo, empatía y fiabilidad. Puede parecer ciencia ficción, pero estos sistemas se utilizan cada vez más, a menudo sin que la gente lo sepa o consentimiento.
La tecnología de reconocimiento de emociones (ERT) está evolucionando industria multimillonaria que tiene como objetivo utilizar la inteligencia artificial para detectar emociones expresiones faciales. Sin embargo, la ciencia detrás de los sistemas de reconocimiento de emociones es controvertido: Los sesgos están integrados en los sistemas.
Muchas empresas utilizan ERT para probar la reacción del cliente a sus productos, desde cereales hasta videojuegos. Pero también se puede utilizar en situaciones en las que hay muchos tasas más altas, por ejemplo en contratación, mediante seguridad en el aeropuerto marcar rostros como reveladores de fraude o miedo durante los controles fronterizos Policía para identificar “personas peligrosas” o en Educación monitorear la participación de los estudiantes en la tarea.
Terreno científico inestable
Por suerte, tecnología de reconocimiento facial atrae la atención del público. El galardonado Coded Bias, lanzado recientemente en Netflix, documenta el descubrimiento de que muchas tecnologías de reconocimiento facial no pueden detectar con precisión los rostros de piel más oscura. El equipo de investigación que administra ImageNet, uno de los conjuntos de datos más grandes e importantes utilizados para entrenar el reconocimiento facial, se vio obligado recientemente a difuminar 1,5 millones de imágenes. en respuesta a preocupaciones de privacidad.
Las revelaciones sobre errores algorítmicos y conjuntos de datos discriminatorios en la tecnología de reconocimiento facial han llevado a las principales empresas tecnológicas, incluidas Microsoft, Amazon e IBM, a detener las ventas. Y Tecnología enfrenta desafíos legales en relación con su uso en operaciones policiales en Gran Bretaña. Existe una coalición de más de 40 organizaciones de la sociedad civil en la UE pidió una prohibición completamente en la tecnología de reconocimiento facial.
Al igual que otras formas de reconocimiento facial, ERT plantea preguntas sobre los prejuicios, la privacidad y la vigilancia masiva. Pero ERT plantea otra preocupación: la ciencia emocional detrás de ella es controvertida. La mayoría de los ERT se basan en la teoría de las “emociones básicas” que sostiene que las emociones están biológicamente arraigadas y expresadas de la misma manera por personas de todo el mundo.
Sin embargo, esto se cuestiona cada vez más. Los estudios antropológicos muestran que las emociones se expresan de manera diferente en diferentes culturas y sociedades. En 2019 Asociación de Ciencias Psicológicas revisó la evidencia y concluyó que no hay respaldo científico por el supuesto común de que una persona emocional la condición se puede deducir fácilmente de sus movimientos faciales. En resumen, ERT se basa en una base científica incierta.
Al igual que otras formas de tecnología de reconocimiento facial, ERT está codificada con prejuicios raciales. El estudio encontró que los sistemas interpretan constantemente los rostros de las personas negras como más furiosos que los rostros blancos, independientemente de las expresiones faciales. Aunque explorando los prejuicios raciales en ERT es pequeño, el sesgo racial en otras formas de reconocimiento facial está bien documentado.
Hay dos formas en que esta tecnología puede dañar a las personas, dice la investigadora de inteligencia artificial Deborah Raji en una entrevista con MIT Technology Review: “Una forma es no hacer nada: debido a las tasas de error más altas para las personas de color, las pone en mayor riesgo. La segunda situación es cuando funciona: tienes un excelente sistema de reconocimiento facial, pero es fácil armarlo contra las comunidades para acosarlas. ”
Entonces, aunque la tecnología de reconocimiento facial puede estar sesgada y ser precisa para todas las personas, aún puede ser injusta o justa. Podemos verlo diferentes efectos cuando la tecnología de reconocimiento facial se utiliza en sistemas policiales y judiciales que ya son discriminatorios y dañinos para las personas de color. Las tecnologías pueden ser peligrosas si no funcionan como deberían. También pueden ser peligrosos cuando son perfectos para un mundo imperfecto.
Desafíos relacionados con Reconocimiento facial Las tecnologías, incluida la ERT, no tienen respuestas fáciles ni claras. Resolver los problemas presentados por ERT requiere un cambio de una ética de IA centrada en principios abstractos a una ética de IA centrada en ejercicio y efectos en la vida de las personas.
Cuando se trata de ERT, necesitamos explorar conjuntamente la controvertida ciencia de las emociones incrustada en estos sistemas y analizar su potencial. Prejuicio racial. Y tenemos que preguntarnos: incluso si ERT pudiera diseñarse para leer con precisión los sentimientos internos de todos, ¿queremos una vigilancia tan íntima en nuestras vidas? Estas son preguntas que requieren reflexión, aportación y acción por parte de todos.
Proyecto científico cívico
ERT puede afectar la vida de millones de personas y, sin embargo, ha existido un pequeño debate público sobre cómo – y si –deberías usarlo. Por eso desarrollamos proyecto de ciencia cívica.
En nuestro sitio web interactivo (que funciona mejor en una computadora portátil que en un teléfono), puede probar la ERT privada y segura para ver cómo escanea su rostro e interpreta sus emociones. También puedes jugar juegos que comparan emociones de inteligencia humana y artificial. reconocimiento y aprenda sobre la controvertida ciencia de las emociones detrás de ERT.
Lo más importante es que puede aportar su punto de vista e ideas para generar nuevos conocimientos sobre los posibles efectos de la ERT. Como especialista en TI y activista digital Joy Buolamwini él dice: “Si tienes una cara, tienes un lugar en la conversación”.
Entregado por
Conversacion
Este artículo se volvió a publicar con Conversacion bajo una licencia Creative Commons. Leer artículo original.