Las personas pueden ser reacias a pasar sus datos personales a los sistemas de inteligencia artificial (IA), aunque los sistemas los necesitan para proporcionar servicios más precisos y personalizados, pero una nueva investigación revela cómo la forma en que los sistemas piden información a los usuarios puede marcar la diferencia.
En el estudio, los investigadores de Penn State informaron que los usuarios reaccionaban de manera diferente cuando la IA se ofrecía a ayudar a un usuario o le pedía ayuda. Esta respuesta influyó en si el usuario confiaba en la IA para sus datos personales. Agregaron que estas introducciones de inteligencia artificial pueden diseñarse para aumentar la confianza del usuario y aumentar su conciencia sobre la importancia de los datos personales.
Los científicos que presentaron sus hallazgos hoy en la conferencia virtual ACM CHI 2021 sobre factores humanos en sistemas informáticos, la conferencia internacional más importante dedicada al estudio de la interacción humano-computadora, encontraron que las personas conocedoras de la tecnología, los usuarios avanzados, prefieren la inteligencia artificial que se encuentra en necesitan ayuda o buscan ayuda, mientras que los usuarios no expertos prefieren con mayor frecuencia la inteligencia artificial, que se presenta como buscadores y proveedores.
A medida que la IA se vuelve más ubicua, los desarrolladores deben crear sistemas que puedan relacionarse mejor con las personas, dijo S. Shyam Sundar, profesor James P. Jimirro Media Effects en Donald P. Bellisario College of Communications y codirector de Media Effects Research. Laboratorio.
“Necesitamos repensar cómo los sistemas de IA se comunican con los usuarios”, dijo Sundar. “Esto ha salido a la luz a medida que aumenta la preocupación sobre cómo los sistemas de inteligencia artificial están comenzando a apoderarse de nuestras vidas y saben más sobre nosotros de lo que pensamos. Entonces, con estas preocupaciones en mente, sería mejor si comenzamos a alejarnos de los diálogos tradicionales hacia una comunicación más colaborativa y cooperativa que valide la agencia del usuario “.
¿Aquí para ayudar?
Los investigadores dijeron que los diálogos tradicionales de IA generalmente incluyen una introducción que define su papel como ayudantes.
De hecho, los usuarios avanzados pueden sentirse desalentados por la forma en que la IA se comunica habitualmente con los usuarios, lo que puede parecerles condescendiente, dijo Sundar, quien también es afiliado del Instituto de Ciencias Computacionales y de Datos de Penn State (ICDS). Por ejemplo, los investigadores citan la solicitud de Facebook de información de cumpleaños para que la IA pueda brindar a los usuarios una experiencia apropiada para su edad.
“La IA parece tener un enfoque paternalista en la forma en que hablan con los usuarios; parecen decirles a los usuarios que están aquí para ayudarlo y que debe brindarles su información para obtener sus beneficios”, dijo Sundar.
Por otro lado, cuando un sistema de inteligencia artificial solicita ayuda a los usuarios, se considera social. Según Mengqi Liao, estudiante de doctorado en comunicaciones masivas y autor principal del artículo, los usuarios avanzados descubrieron que la inteligencia artificial en busca de ayuda había inteligencia social, denominada por los investigadores como presencia social.
“Tiene sentido que si alguien está buscando ayuda, es un comportamiento inherentemente social y muy interpersonal por naturaleza”, dijo Liao. “Esta presencia social, a su vez, genera una mayor confianza y aumenta la intención de proporcionar a la IA más datos personales. Los usuarios avanzados también han otorgado a los buscadores de IA una calificación más alta por su rendimiento, a pesar de que ofrecen los mismos resultados que otras IA “.
Liao agregó que cuando el sistema busca ayuda y les dice a los usuarios que puede ayudarlos en el futuro, los usuarios no avanzados tienen menos preocupaciones sobre la privacidad.
Inteligencia artificial ética
Los investigadores dijeron que el estudio ofrece a los diseñadores una forma ética de aumentar la confianza en las máquinas sin intentar engañar a las personas para que proporcionen su información personal.
“Creemos que estos hallazgos también podrían ser útiles para los diseñadores que buscan desarrollar tácticas para combatir los sistemas de inteligencia artificial que se aprovechan de los usuarios”, dijo Liao. “Por ejemplo, hemos descubierto que la presencia tanto de la búsqueda de ayuda como de las sugerencias de ayuda puede generar preocupaciones sobre la privacidad de los usuarios avanzados. Por lo tanto, simplemente aplicar estos dos consejos en las explicaciones para usuarios avanzados podría hacerlos más atentos a sus datos personales “.
Para no personasUsuarios avanzadoslos diseñadores podrían agregar sugerencias en busca de ayuda para reducir Presencia social y animarlos a estar más atentos a los datos personales, agregó Liao.
Los científicos reclutaron a 330 participantes de una plataforma de investigación de micro-tareas en línea. Los participantes fueron asignados al azar a un sitio web simulado que representa una de las cuatro condiciones experimentales: el estado que requiere asistencia, el estado relacionado con la prestación de la ayuda, tanto las condiciones para buscar ayuda como las condiciones para dar la ayuda, y la condición de control. En el estado de búsqueda de ayuda, AI ha proporcionado una explicación por escrito de que necesita la ayuda de los usuarios y su información personal para mejorar y crecer. En un estado de ayuda, explicó que podía aprovecharse de los enviados. informacion personal para ayudar al usuario a encontrar artículos de noticias. La tercera condición implicaba buscar ayuda y orientación. El control no dio ninguna explicación.
Los investigadores también investigaron si había diferencias en la forma en que la IA se relaciona consigo misma, y encontraron que la gente confía menos en ella cuando se relaciona consigo misma como “yo” en comparación con “este sistema”.
Las investigaciones futuras pueden incluir el examen del uso de la IA en otros contextos que son inherentemente más sensibles, como la recopilación de información financiera y médica, para determinar cómo estos insumos pueden afectar la usuariosvigilancia al vigilarlo información.
Entregado por
Universidad del Estado de Pensilvania