Los investigadores entrenaron a un ‘chef’ robótico para mirar y aprender de videos de cocina y recrear el plato en sí.
Investigadores de la Universidad de Cambridge programaron a su chef robótico utilizando un libro de cocina con ocho sencillas recetas de ensaladas. Después de ver un video de un humano demostrando una de las recetas, el robot pudo identificar qué receta se estaba preparando y prepararla.
Además, los videos ayudaron al robot a agregar gradualmente a su libro de cocina. Al final del experimento, el robot ideó la novena receta por su cuenta. Sus resultados se publican en la revista acceso IEEEdemostrar cómo el contenido de video puede ser una fuente valiosa y rica de datos para la producción automatizada de alimentos y puede permitir una implementación más fácil y económica de chefs robóticos.
Los chefs robóticos han estado apareciendo en la ciencia ficción durante décadas, pero en realidad cocinar es un desafío robótico. Varias empresas comerciales han construido prototipos de chefs robóticos, aunque actualmente ninguno está disponible comercialmente, y están muy por detrás de sus contrapartes humanas en términos de habilidad.
Los chefs pueden aprender nuevas recetas a través de la observación, ya sea viendo a otra persona cocinar o viendo un video de YouTube, pero programar un robot para preparar diferentes platos es costoso y requiere mucho tiempo.
“Queríamos ver si podíamos entrenar a un chef robótico para que aprendiera de la misma manera incremental que los humanos, identificando los ingredientes y cómo encajan en un plato”, dijo Grzegorz Sochacki del Departamento de Ingeniería de Cambridge, primer autor del artículo.
Sochacki, dr hab. El candidato en el laboratorio de robótica bioinspirada del profesor Fumiya Iida y sus colegas desarrollaron ocho sencillas recetas de ensaladas y se filmaron preparándolas. Luego usaron una red neuronal disponible públicamente para entrenar a su robot jefe. La red neuronal ya ha sido programada para identificar una variedad de objetos diferentes, incluidas frutas y verduras utilizadas en ocho recetas de ensaladas (brócoli, zanahoria, manzana, plátano y naranja).
Usando técnicas de visión por computadora, el robot analizó cada cuadro de video y pudo identificar varios objetos y características, como un cuchillo e ingredientes, así como los brazos, las manos y la cara del demostrador. Tanto las recetas como los videos se convirtieron en vectores y el robot realizó operaciones matemáticas en los vectores para determinar la similitud entre la demostración y el vector.
Al identificar correctamente los ingredientes y las acciones del chef humano, el robot pudo determinar qué receta se estaba preparando. El robot podría inferir que si el demostrador humano sostenía un cuchillo en una mano y una zanahoria en la otra, la zanahoria sería cortada.
De los 16 videos vistos, el robot reconoció la receta correcta el 93% de las veces, a pesar de que solo detectó el 83% de las acciones del chef. El robot también pudo detectar que cambios menores en una receta, como hacer un lote doble o un simple error humano, eran cambios y no una nueva receta. El robot también reconoció correctamente la presentación de la nueva novena ensalada, la agregó a su libro de cocina y la preparó.
“Es sorprendente la cantidad de matices que el robot pudo detectar”, dijo Sochacki. “Estas recetas no son complicadas, son básicamente frutas y verduras picadas, pero fueron realmente efectivas para reconocer, por ejemplo, que dos manzanas en rodajas y dos zanahorias en rodajas son la misma receta que tres manzanas en rodajas y tres zanahorias picadas.”
Los videos que se usan para entrenar a un chef robótico no son como los videos de comida creados por algunos influencers de las redes sociales, que están llenos de cortes de alta velocidad y efectos visuales y van y vienen rápidamente entre la persona que prepara la comida y el plato que están preparando. . Por ejemplo, el robot tendría dificultades para identificar la zanahoria si el demostrador humano la envolvía con la mano; para que el robot identificara la zanahoria, el demostrador humano tenía que levantar la zanahoria para que el robot pudiera ver toda la verdura.
“Nuestro robot no está interesado en los tipos de videos de comida que se vuelven virales en las redes sociales, son demasiado difíciles de seguir”, dijo Sochacki. “Pero a medida que estos chefs robóticos identifiquen mejor y más rápido los ingredientes en los videos de comida, tal vez puedan usar sitios como YouTube para aprender una amplia gama de recetas”.
Más información:
Grzegorz Sochacki et al., Reconocimiento de las intenciones de un chef humano para el aprendizaje incremental de un libro de cocina por parte de un chef robot de ensaladas, acceso IEEE (2023). DOI: 10.1109/ACCESO.2023.3276234