Las empresas confían cada vez más en algoritmos que utilizan datos proporcionados por los usuarios para tomar decisiones que afectan a las personas. Por ejemplo, Amazon, Google y Facebook usan algoritmos para ajustar lo que ven los usuarios, y Uber y Lyft los usan para relacionar pasajeros con conductores y fijar precios. ¿Los usuarios, clientes, empleados y otros tienen derecho a saber cómo toman decisiones las empresas que utilizan algoritmos? En un nuevo análisis, los investigadores exploran los fundamentos morales y éticos de tal ley. Llegan a la conclusión de que el derecho a esa explicación es un derecho moral y luego se preguntan cómo pueden hacerlo las empresas.
El análisis realizado por científicos de la Universidad Carnegie Mellon aparece en Ética empresarial trimestral, publicación de la Sociedad de Ética Empresarial.
“La mayoría de las veces, las empresas no ofrecen explicación sobre cómo acceden a los perfiles de usuario, dónde recopilan datos y con quién los comparten ”, explica Tae Wan Kim, profesor asociado de ética empresarial en la Escuela de Negocios Tepper de la Universidad Carnegie Mellon, coautor del análisis. “No solo está en juego la justicia; también es confianza “.
En respuesta a la aparición de algoritmos autónomos de toma de decisiones y su dependencia de las aportaciones de los usuarios, un número creciente de profesionales de TI y organismos gubernamentales han pedido transparencia dentro del amplio concepto de responsabilidad algorítmica. Por ejemplo, el Parlamento Europeo y el Consejo de la Unión Europea adoptaron el Reglamento General de Protección de Datos (GDPR) en 2016, algunos de los cuales regulan el uso de sistemas automatizados de toma de decisiones algorítmicas. El GDPR, que se introdujo en 2018, se refiere a las empresas que procesan datos personales de residentes de la Unión Europea.
Sin embargo, el RGPD no es inequívoco en cuanto a si implica el derecho a explicar cómo toman decisiones los sistemas de perfiles empresariales algorítmicos automatizados. En este análisis, los autores desarrollan un argumento moral que puede servir de base para una versión legalmente reconocida de esta ley.
en era digital, escriben los autores, algunos argumentan que el consentimiento informado, es decir, obtener el consentimiento previo para divulgar información con plena conciencia de las posibles consecuencias, ya no es posible, ya que se realizan muchas transacciones digitales. En cambio, los autores conceptualizan el consentimiento informado como una garantía de confianza para procesos algorítmicos incompletos.
Obtener el consentimiento informado, especialmente cuando las empresas recopilan y procesan informacion personal, es un requisito ético a menos que sea reemplazado por ciertas razones aceptables, argumentan los autores. Además, el consentimiento informado en el contexto de la toma de decisiones algorítmicas, especialmente para usos fuera de contexto e impredecibles, está incompleto sin una garantía de confianza.
En este contexto, los autores concluyen que las empresas tienen la obligación moral de dar explicaciones no solo antes de la toma de decisiones automatizada, sino también después de su finalización, de modo que la explicación pueda relacionarse tanto con la funcionalidad del sistema como con la justificación de una decisión concreta. .
Los autores también analizan cómo las empresas que dirigen un negocio basado en algoritmos pueden explicar su uso de una manera que atraiga clientes mientras mantienen secretos comerciales. Es importante decisión para muchas nuevas empresas modernas, incluidas preguntas sobre cuánto código debe ser de código abierto y qué tan extensa y expuesta debe ser la interfaz de la aplicación.
Los autores señalan que muchas empresas ya se enfrentan a estos desafíos. Algunos pueden optar por contratar “traductores de datos”, empleados que combinan el trabajo de científicos de datos y personas que están influenciadas por las decisiones de la empresa.
“¿Requerir que un algoritmo sea interpretable o explicable obstaculizará el negocio o conducirá a mejores resultados?” pregunta Bryan R. Routledge, profesor asociado de finanzas en la Tepper School of Business en Carnegie Mellon, quien coescribió el estudio. “Esto es algo que veremos en un futuro próximo, al igual que el conflicto de transparencia entre Apple y Facebook. Pero lo que es más importante, el derecho a ser explicado es una obligación ética, independientemente del impacto en el resultado final “.
Tae Wan Kim et al. Por qué debería existir el derecho a explicar la toma de decisiones algorítmicas: un enfoque basado en la confianza, Ética empresarial trimestral (2021). DOI: 10.1017 / beq.2021.3
Entregado por
Universidad de Carnegie mellon