Red neuronal artificial para obtener representaciones fundamentadas de las acciones y el lenguaje de los robots

Red neuronal artificial para obtener representaciones fundamentadas de las acciones y el lenguaje de los robots

La estructura propuesta por los investigadores transforma la incrustación de palabras observando las acciones del robot y genera acciones apropiadas para palabras invisibles utilizando una capa no lineal (capa de actualización) y un modelo de traducción bidireccional para acciones y descripciones (Paired Recursive Autencoder (PRAE)). Fuente: Toyoda et al.

Para ayudar mejor a los usuarios con sus tareas diarias, los robots deben poder comprender sus consultas, responderlas y actuar en consecuencia. En otras palabras, deben poder generar y realizar de manera flexible actividades que sigan las instrucciones verbales del usuario.

Para comprender y seguir las instrucciones del usuario, los sistemas robóticos deben poder formar asociaciones entre expresiones lingüísticas, actividades y entornos. Las redes neuronales profundas han demostrado ser particularmente buenas para obtener representaciones de expresiones lingüísticas, pero generalmente necesitan ser entrenadas para big data, incluidas acciones robóticas, descripciones lingüísticas e información sobre diferentes entornos.

Los científicos de la Universidad de Waseda en Tokio desarrollaron recientemente una red neuronal profunda que puede derivar representaciones fundamentadas de acciones robóticas y descripciones lingüísticas de estas acciones. La técnica que crearon fue presentada en un artículo publicado en Cartas de robótica y automatización de IEEEpodría utilizarse para aumentar la capacidad de los robots para actuar de acuerdo con las instrucciones verbales del usuario.

“Estamos abordando el problema de la integración de símbolos en el mundo real, el” problema de los símbolos de conexión a tierra “, dijo TechXplore Tetsuya Ogata, uno de los investigadores detrás del estudio. “Ya hemos publicado muchos artículos sobre este problema con los robots y las redes neuronales”.

Nuevo red neuronal profundaEl modelo basado en modelos puede extraer representaciones vectoriales de palabras, incluidas descripciones del significado de las actividades. Usando estas representaciones, puede generar las acciones de robot apropiadas para palabras individuales, incluso si las palabras son desconocidas (es decir, si no están incluidas en el conjunto de datos de entrenamiento inicial).

Red neuronal artificial para obtener representaciones fundamentadas de las acciones y el lenguaje de los robots

Descripción general del modelo. El modelo propuesto consta de dos autocodificadores repetidos y una capa de modernización. Fuente: Toyoda et al.

“En particular, convertimos los vectores de palabras del modelo de aprendizaje profundo que se han entrenado previamente con el corpus de texto en varios vectores de palabras que se pueden usar para describir el comportamiento del robot”, explicó Ogata. “En el aprendizaje del corpus de lenguaje normal, los vectores de similitud se asignan a palabras que aparecen en contextos similares, por lo que no se puede obtener el significado de la acción correspondiente. Por ejemplo, “rápido” y “lento” tienen representaciones vectoriales similares en el lenguaje, pero tienen significados opuestos en la acción real. Nuestro método resuelve este problema.

Ogata y sus colegas entrenaron alternativamente la capa de modernización de su modelo y el modelo de traducción bidireccional. Este proceso de entrenamiento permite que el modelo transforme la incrustación de palabras aprendidas previamente y lo adapte a pares de actividades existentes y descripciones relacionadas.

“Nuestro estudio sugiere que el lenguaje integrador y el aprendizaje activo pueden permitir la extracción de representaciones vectoriales que reflejan el significado real de los adverbios y verbos, incluidas palabras desconocidas que son difíciles de digerir en modelos de aprendizaje profundo que utilizan solo un gran cuerpo de texto”. Dijo Ogata.

En evaluaciones preliminares, la técnica de aprendizaje profundo mostró resultados muy prometedores, ya que podría generar acciones de robot a partir de palabras previamente invisibles (es decir, palabras que no estaban emparejadas con sus acciones correspondientes en el conjunto de datos utilizado para entrenar el modelo). En el futuro, el nuevo modelo podría permitir el desarrollo de robots que comprendan mejor y se comporten de acuerdo con las instrucciones humanas.

“Este estudio fue el primer paso en nuestra investigación en esta dirección y todavía queda mucho por hacer en términos de vincular el lenguaje y el comportamiento”, dijo Ogata. “Por ejemplo, todavía es difícil convertir algunas palabras. En este estudio, el número de movimientos del robot fue pequeño, por lo que nos gustaría aumentar la flexibilidad. robot lidiar con oraciones más complejas en el futuro ”.


Un planificador robótico que responde a los comandos del lenguaje natural.

Más información:
La encarnación de la incrustación de palabras previamente entrenadas a través de acciones de robot. Cartas de robótica y automatización de IEEE(2021). DOI: 10.1109 / LRA.2021.3067862.

Autencoders periódicos emparejados para la traducción bidireccional entre las acciones del robot y las descripciones lingüísticas. Listas de robótica y automatización de IEEE (RA-L)(2018). DOI: 10.1109 / LRA.2018.2852838.

Representación del aprendizaje lógico de palabras por RNN: desde secuencias de palabras hasta acciones robóticas. Los límites de la neurobótica(2017) DOI: 10.3389 / fnbot.2017.00070.

Traducción bidireccional de oraciones compuestas y movimientos de brazos a través de redes neuronales repetitivas. Materiales de la conferencia internacional IEEE / RSJ sobre robots y sistemas inteligentes (IROS-2007) (2007). DOI: 10.1109 / IROS.2007.4399265.

© 2021 Science X Network

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *