
Fuente: Pixabay / CC0 Public Domain
Examinar solicitudes de empleo, analizar radiografías, sugerir una nueva lista de reproducción: la interacción entre personas y máquinas se ha convertido en una parte integral de la vida moderna. La piedra angular de estos procesos de inteligencia artificial (IA) es la toma de decisiones algorítmicas. Sin embargo, como generalmente son difíciles de entender, a menudo resultan menos útiles de lo previsto. Los investigadores de la Universidad de Paderborn y Bielefeld esperan cambiar esto y discutir cómo la explicación de la IA se puede mejorar y adaptar a las necesidades de los usuarios. Su trabajo ha sido publicado recientemente en una revista respetada. Transacciones IEEE para sistemas cognitivos y de desarrollo. Los investigadores describen la explicación como una práctica social en la que ambos lados co-construyen el proceso de comprensión.
Investigación explicativa
“Los sistemas artificiales se han vuelto complicados. Este es un problema grave, especialmente cuando las personas son responsables de las decisiones que toma la computadora ”, dice el profesor Philipp Cimiano, científico informático de la Universidad de Bielefeld. Especialmente en el área de pronóstico médico o contextos legales, necesitamos entender cómo se toman las decisiones de las máquinas ”, continúa Cimiano. Señala que, si bien ya existen enfoques que se ocupan de la explicabilidad de tales sistemas, no van muy lejos. suficiente.
La profesora Katharina Rohlfing, de la Universidad de Paderborn, está de acuerdo en que se necesitan con urgencia más acciones: “Los ciudadanos tienen derecho a tomar decisiones algorítmicas de forma transparente. Hay buenas razones por las que este tema se menciona explícitamente en el Reglamento general de protección de datos de la Unión Europea ”. El objetivo de hacer que los algoritmos estén disponibles es fundamental para la llamada “inteligencia artificial explicable (XAI)”: “En la investigación sobre explicabilidad, la atención se centra ahora en los resultados deseados de claridad e interpretabilidad”, dice Rohlfing, describiendo la última investigación.
Entender cómo se toman las decisiones
El equipo involucrado en este estudio va un paso más allá y analiza las explicaciones informáticas desde diferentes perspectivas. Asumen que las explicaciones son comprensibles para los usuarios solo si no se les presentan, pero si los usuarios están involucrados en formularlas: “Como sabemos por muchas situaciones cotidianas, las buenas explicaciones no valen nada si no lo son. tener en cuenta el conocimiento y la experiencia de la otra persona. Cualquiera que se pregunte por qué su solicitud fue rechazada por un algoritmo generalmente no está interesado en aprender sobre la tecnología de aprendizaje automático, sino que pregunta cómo se procesaron los datos en relación con sus propias calificaciones, explica Rohlfing.
“Cuando las personas interactúan entre sí, el diálogo entre ellas asegura que la explicación esté alineada con la comprensión de la otra persona. El interlocutor hace preguntas para mayor aclaración o puede expresar un malentendido que luego se resuelve. inteligencia artificial existen limitaciones debido al rango limitado de interacciones ”, continúa Rohlfing. Para solucionar este problema, lingüistas, psicólogos, investigadores de medios, sociólogos, economistas y Especialistas en TI trabajan en estrecha colaboración en un equipo interdisciplinario. Estos expertos estudian modelos informáticos y sistemas complejos de inteligencia artificial, así como roles en la interacción de la comunicación.
Explicación como práctica social
Investigadores de Paderborn y Bielefeld han desarrollado un marco conceptual para el diseño de sistemas de IA explicables. Rohlfing dice: “Nuestro enfoque permite que los sistemas de inteligencia artificial respondan preguntas seleccionadas de tal manera que el proceso se pueda configurar de forma interactiva. De esta manera, la explicación se puede adaptar al interlocutor y los aspectos sociales se pueden integrar en el proceso de toma de decisiones “. El equipo de investigación trata las explicaciones como una serie de actividades vinculadas por ambas partes en forma de práctica social.
El objetivo es guiarse por el “andamiaje” y el “seguimiento”. Estos términos provienen originalmente del campo de los estudios de desarrollo. “En pocas palabras, el andamio describe un método en el que los procesos de aprendizaje están respaldados por indicaciones y señales y se dividen en pasos parciales. Monitorear significa observar y evaluar la respuesta de la otra parte ”, explica Rohlfing. El objetivo de los investigadores es aplicar estos principios a los sistemas de IA.
Nuevas formas de ayuda
Este enfoque tiene como objetivo ampliar la investigación actual y proporcionar nuevas respuestas a los desafíos sociales asociados con la inteligencia artificial. La premisa subyacente es que la única manera efectiva de obtener comprensión y seguimiento de la explicación es involucrar a un interlocutor en el proceso. explicación. De hecho, se trata de la participación humana en los sistemas socio-técnicos. “Nuestro objetivo es crear nuevas formas de comunicación con sistemas de inteligencia artificial realmente explicables y comprensibles y así facilitar nuevas formas de asistencia”, concluye Rohlfing.
Katharina J. Rohlfing y col. Aclaración como práctica social: hacia un marco conceptual para el diseño social de sistemas de IA, Transacciones IEEE para sistemas cognitivos y de desarrollo (2020). DOI: 10.1109 / TCDS.2020.3044366
Entregado por
Universidad de Bielefeld