Moderadores con inteligencia artificial que supervisan espacios virtuales 3D e intervienen contra el mal comportamiento

Moderadores con inteligencia artificial que supervisan espacios virtuales 3D e intervienen contra el mal comportamiento

Fuente: Universidad de Glasgow

Un nuevo estudio sugiere que las nuevas formas de moderadores con inteligencia artificial que supervisan los espacios virtuales en 3D e intervienen contra el mal comportamiento podrían ayudar a proteger a los niños del acoso y la intimidación en línea.

Investigadores de la Universidad de Glasgow trabajaron con padres e hijos para evaluar sus reacciones ante ‘Big Buddy’, un prototipo de moderador de realidad virtual de espacios sociales en línea desarrollado por el equipo.

Durante el estudio, Big Buddy ayudó a los padres a mantenerse informados sobre las experiencias de sus hijos en el espacio virtual y ayudó a los niños a sentirse más seguros respondiendo al mal comportamiento con castigos similares a los que imponen los maestros en las aulas reales.

La investigación del equipo, que se presentará en forma de artículo en la conferencia. ACM Interaction Design and Children Conference el 20 de junio, podría ayudar a desarrollar futuros moderadores controlados por IA para su uso en espacios virtuales como Metaverse.

El estudio involucró a un grupo de 43 niños de 8 a 16 años reclutados con la ayuda de la organización escocesa anti-bullying RespectMe y Giggleswick School, junto con 17 de sus padres. El artículo del equipo, “Big Buddy: Explorando las reacciones de los niños y las percepciones de los padres hacia un sistema de moderación incorporado simulado para la realidad virtual social”, se publicó en Actas de la 22ª Conferencia Anual de Diseño de Interacción y Niños de ACM.

Los niños se pusieron cascos de realidad virtual que los colocaron en un escritorio en un entorno de aula que los investigadores crearon con la herramienta de desarrollo de juegos Unity 3D.

Los niños usaron controladores portátiles de realidad virtual para jugar rondas del juego en las que tenían que construir torres de bloques en una competencia cronometrada con otro compañero de clase cuyas acciones estaban preprogramadas. Obtuvieron puntos por construir las torres rápidamente antes de que se acabara el tiempo.

En cada ronda, los niños enfrentaron escenarios diseñados para medir sus reacciones al mal comportamiento y las reacciones resultantes del Gran Buda, una figura virtual de tamaño adulto al frente del salón de clases.

En cada escenario, el oponente de los niños se les acercó y derribó la torre que habían construido. En un escenario, Big Buddy estaba ausente y no se tomaron medidas contra el mal comportamiento. En otros, Big Buddy intervino para restablecer los puntos de un jugador, informar a los padres sobre el mal comportamiento, bloquear su acceso al juego o una combinación de los tres.

El Dr. Mark McGill, profesor de interacción humano-computadora en la Escuela de Ciencias de la Computación, es uno de los autores del artículo. Él dijo: “Parte del impacto de la realidad virtual social es que puede ofrecer una experiencia muy realista, brindando a los usuarios un cuerpo virtual y una presencia que conduce a una fuerte sensación psicológica de estar en un espacio real.

“Puede ser una experiencia realmente positiva cuando el espacio virtual es seguro para el usuario. Sin embargo, puede volverse negativo rápidamente cuando los usuarios optan por un comportamiento inapropiado, y ya ha habido muchos informes de intimidación y acoso en la realidad virtual. la experiencia de realidad virtual puede hacer que las burlas sean tan molestas como en la vida real, y es posible que los niños y los padres no sepan cómo responder con las herramientas del juego, como bloquear o denunciar.

“La intimidación puede incluso ser más probable en espacios virtuales no moderados, donde las inhibiciones sociales que limitan el mal comportamiento en la vida real son menores porque los usuarios son anónimos. En el estudio de Big Buddy, queríamos explorar cómo se sentían los niños y sus padres cuando se interrumpían los juegos y cómo respondían a las intervenciones de Big Buddy.

Entre rondas, las respuestas de los niños a escenarios provocativos se probaron mediante un cuestionario que calificó sus respuestas emocionales en una escala de tristeza a felicidad, calma a ira, miedo o intimidación a seguridad. También se puso a prueba su percepción de la justicia de la respuesta del Gran Buda.

Mientras tanto, se pidió a los padres que miraran videos de sus hijos reaccionando a los escenarios y expresaran sus propias reacciones emocionales al ver el comportamiento indeseable de sus hijos y su percepción de la intervención de Big Buddy.

Cristina Fiani, estudiante de posgrado en la Facultad de Ciencias de la Computación, es coautora del artículo. Ella dijo: “Vimos muy claramente en las respuestas que la mayoría de los niños se sentían más seguros cuando Big Buddy estaba presente en el salón de clases, y que muchos sintieron que Big Buddy ayudó a que el juego fuera más justo. Se consideraba que Big Buddy desempeñaba un papel similar al de un árbitro o maestro que haría que el juego fuera más justo y castigaría a los demás si hacían algo mal.

“Muchos padres informaron cierto nivel de nerviosismo, conmoción o preocupación cuando vieron a sus hijos afectados por el mal comportamiento. A menudo, sin embargo, los padres se sintieron tranquilizados por la presencia del Gran Buda y en su mayoría apreciaron las intervenciones del Gran Buda como respuestas razonables. para que puedan apreciar recibir alertas en la vida real que les ayudarán a saber cuándo sus hijos están pasando por situaciones difíciles y les permitirán intervenir por sí mismos si es necesario.

“Los comentarios recibidos sugieren que Big Buddy ofrece un modelo útil y quizás necesario para futuros moderadores de IA. Big Buddy ofrece autonomía a los niños, pero los ayuda a sentirse seguros y, potencialmente, ofrece a los padres un mayor grado de participación y conciencia de lo que sus hijos ven y hacen en la realidad virtual”.

El Dr. Mohamed Khamis, quien dirigió la investigación, agregó: “Los moderadores humanos en espacios virtuales, si es que existen, son superados en número y carecen de recursos, por lo que la IA tiene un gran potencial para proporcionar una alternativa que pueda monitorear imparcialmente el comportamiento y mantener a los padres informados sobre lo que está pasando en los auriculares de su hijo.

“Si bien Big Buddy fue controlado por un operador humano en este estudio inicial, nos alientan los comentarios que hemos recopilado de padres e hijos que sugieren que una versión automatizada de este modelo de moderación podría ser valiosa en futuros espacios sociales de realidad virtual. Si bien es importante que los espacios sean seguros, esto debe equilibrarse con mantener a los usuarios libres para jugar en sus propios términos sin sentirse indebidamente en control.

“Queremos continuar desarrollando el modelo Big Buddy, trabajando en estrecha colaboración con educadores y expertos en desarrollo infantil para ayudar a refinar su eficacia, así como buscando desarrollar una IA robusta que pueda ser útil para los espacios sociales de realidad virtual en el futuro”.

Más información:
Cristina Fiani et al., Big Buddy: Explorando las reacciones de los niños y las percepciones de los padres a un sistema de moderación incorporado simulado para la realidad virtual social, Actas de la 22ª Conferencia Anual de Diseño de Interacción y Niños de ACM (2023). DOI: 10.1145/3585088.3589374

Proporcionado por la Universidad de Glasgow


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *