La investigación metodológica básica sobre el aprendizaje autónomo puede beneficiar a la mayoría, si no a todas, las tareas de visión por computadora. Con la ayuda del aprendizaje autónomo, podemos diseñar automáticamente una red neuronal que tenga en cuenta el contexto de diferentes datos percibidos realizando tareas específicas relacionadas con la visión por computadora.
“Aunque la comunicación inalámbrica y la visión artificial se centran en diferentes formas de señales, podemos utilizar el aprendizaje automático para acelerar tareas específicas, como automatizar u optimizar procesos y facilitar la interacción humana”, señalan el profesor Guoying Zhao y el profesor Xiaobai Li.
Los expertos estudian la IA de las emociones, incluido el reconocimiento y análisis de (micro) expresiones faciales, (micro) gestos emocionales y emociones inusuales que están directamente relacionadas con la comprensión de las emociones y pueden facilitar la educación, la psicoterapia, los servicios de conducción remota y autónoma, solo por nombrar algunos.
“El análisis de la microexpresión facial es importante para comprender las emociones ocultas o reprimidas de una persona, y la unidad de función facial (UA) es el elemento más pequeño de los movimientos faciales”, señalan los expertos. Además, analizar y reconocer los gestos corporales y los microgestos también son cruciales para reconocer un estado emocional. Se investigó la fusión de información multicanal para el sistema completo de comprensión de las emociones.
El equipo tiene como objetivo mejorar la comprensión de emociones que no pertenecen a las clases más generales o típicas, por ejemplo, alegría, tristeza, enfado, etc., pero que se encuentran comúnmente en nuestra vida diaria y son prácticamente imprescindibles en escenarios de aplicación. Estas emociones inusuales incluyen aburrimiento, confusión, interés, vergüenza, nerviosismo y confianza, señala Li.
Soluciones para el autocontrol y la detección temprana de enfermedades
La medición remota de señales fisiológicas tiene un gran potencial en muchas aplicaciones de atención médica remota, como la automonitorización de la función cardíaca, la detección temprana de enfermedades cardíacas, etc. Por lo tanto, son una herramienta clave para las mediciones remotas de la frecuencia cardíaca, las mediciones de la variabilidad de la frecuencia cardíaca y las mediciones de la respiración y pueden generar enormes ahorros de costos. Cuidado de la salud. Un ejemplo de aplicación es la detección remota de la fibrilación auricular mediante el análisis de vídeo del rostro solo en colaboración con cardiólogos de un hospital universitario.
Gracias a la tecnología avanzada de visión por computadora y aprendizaje automático, los expertos están buscando soluciones a desafíos relacionados, tales como: cómo contrarrestar la influencia de los movimientos humanos y los cambios en la iluminación al medir la frecuencia cardíaca a partir de videos faciales; cómo lidiar con la baja intensidad y mejorar la precisión del reconocimiento de microexpresiones y; cómo resolver el problema de datos insuficientes y desequilibrados para el análisis de microgestión.
El grupo exploró en profundidad el aprendizaje multimodal y la fusión. En la práctica, la fusión de la multimodalidad puede tener lugar a diferentes niveles. Incluye fusión a nivel de sensor, es decir, datos capturados con múltiples sensores (RGB, NIR, cámaras de profundidad o 4D, biosensores), fusión de nivel de característica, es decir, varias pistas de características como profundidad y textura, vista de múltiples caras, etc., y también fusión en el nivel de toma de decisiones, es decir, clasificación por equipos y votación de módulos paralelos.
“Con 6G y el concepto de IoT, podemos explorar ideas para combinar cámaras con otros tipos de aprendizaje distribuido y sensores de fusión para tareas como la seguridad en la conducción o el monitoreo de la atención médica en el hogar”, dice Zhao. “La fusión multimodal conectada y el aprendizaje autónomo pueden conducir a soluciones de aprendizaje automático más sólidas y eficientes en todas las disciplinas y como software, servicios o productos inteligentes con inteligencia emocional y aprendizaje 6G”.
Diagnósticos médicos de apoyo basados en la visión.
En el presente y futuro videos i dispositivos de comunicación, la integración de aplicaciones de diagnóstico asistido por visión artificial jugará un papel cada vez más importante, ya que se integrará con todo tipo de estrategias de TeleSalud.
El profesor Miguel Bordallo López adopta un enfoque multidisciplinario en la intersección de la atención primaria de salud asistida por inteligencia artificial y la visión por computadora y el análisis de señales en tiempo real. “Es probable que nuestra investigación introduzca nuevas aplicaciones y métodos en varios campos relacionados que tradicionalmente no se estudian juntos, como la salud digital y pública, la visión por computadora, la arquitectura de la computación y la comunicación”.
Su investigación tiene como objetivo sentar las bases para el desarrollo de soluciones novedosas para respaldar el diagnóstico visual en la atención primaria, llevar la tecnología a un uso práctico y cambiar potencialmente la forma en que se realizan las actividades médicas y sanitarias.
“El diagnóstico médico asistido por cámara es un tema que está surgiendo de interés ya que es una alternativa remota a la atención primaria tradicional, ya que no requiere necesariamente visitas en persona a los centros de salud y permite un seguimiento continuo”, dice Bordallo López. “La visión por computadora y la inteligencia artificial pueden usar datos de video móviles y remotos y pueden ayudar a proporcionar información discreta y objetiva sobre la condición del paciente”.
Por ejemplo, pueden detectarse síntomas o afecciones de importancia médica o al menos evaluarse objetivamente mediante la visión por computadora y los métodos de imágenes faciales. Al mismo tiempo, el análisis de señales de modalidades complementarias como las señales de radio, como las que se utilizan en las comunicaciones 5G / 6G, proporciona fuentes alternativas de información para proteger la privacidad.
“Si bien se han demostrado muchos diagnósticos médicos y de atención médica avanzados basados en visión por computadora, sus implementaciones reales como soluciones integradas o remotas, si existen, aún están lejos de ser útiles”, señala Bordallo López. “El problema surge de los desafíos de implementación de explicabilidad, computación en tiempo real, comunicación y problemas de costos”.
Desafíos de los dispositivos 5G / 6G distribuidos e integrados
El verdadero desafío es encontrar una forma en la que podamos habilitar el uso de la visión por computadora para el diagnóstico médico utilizando dispositivos basados en cámaras como teléfonos móviles o videollamadas remotas, como los servicios de videoconferencia, teniendo en cuenta las capacidades de comunicación.
“Un problema particular que estamos abordando actualmente es el uso de señales de radio generadas por dispositivos 5G / 6G para la comunicación y la detección en conjunto, de modo que podamos obtener datos de ubicación, actividad y biológicos como los signos vitales del paciente. de forma discreta y privada ”, apunta Bordallo López. “Esto permitiría una amplia gama de aplicaciones con sistemas cooperativos que también están integrados con otros dispositivos”.
La implementación de estos métodos involucra esencialmente una gran cantidad de dispositivos distribuidos e integrados que necesitan comunicar y procesar grandes cantidades de datos con baja latencia de una manera altamente eficiente desde el punto de vista energético, un desafío que subyace a la investigación 6G. Además, las aplicaciones efectivas deben admitir múltiples fuentes de datos heterogéneas que se recuperan de diferentes ubicaciones y que deben estar conectadas en tiempo real.
Es importante considerar los desafíos y las especificidades que surgen de escenarios, condiciones y dispositivos reales para que las soluciones sean realmente útiles. Él y sus colegas utilizan el video para extraer y clasificar señales biológicas (como la respiración o la frecuencia cardíaca) y las señales de advertencia relacionadas con la respiración o la circulación (deslizamiento hacia el pecho, asimetrías) de videos ordinarios obtenidos con dispositivos de mano o servicios de videoconferencia remota: un costo -Solución eficaz que puede tener un amplio impacto global.
“Estamos intentando crear aplicaciones de video de autoevaluación móviles para el diagnóstico inicial de ictus, antes de ir al hospital”, explica Bordallo López. “También entregamos análisis de video en tiempo real basados en dispositivos móviles a áreas remotas en países de ingresos bajos y medianos, lo que permite el apoyo diagnóstico, por ejemplo, en el caso de neumonía infantil”.
Más de 200 científicos están trabajando en varios temas de investigación relacionados con la inteligencia artificial (IA) en la Universidad de Oulu. El primer grupo de investigación que se ocupa de la inteligencia artificial, Machine Vision Group, el predecesor del Center for Machine Vision and Signal Analysis (CMVS), se estableció en 1981. Esta investigación tiene raíces realmente largas.
La investigación y el desarrollo en el campo de la inteligencia artificial en la Universidad de Oulu cubre una amplia gama de campos diferentes: visión por computadora, emociones de inteligencia artificial, aprendizaje automático, robótica, procesamiento de bordes y aplicaciones médicas, industriales y atmosféricas de los métodos de inteligencia artificial.
“A lo largo de los años, han nacido muchas empresas derivadas de la IA”, dice Olli Silvén, director de la unidad de investigación CMVS. “Los muchos años de experiencia de nuestro grupo también tienen mucho que ofrecer en términos de desarrollo de tecnología 6G”.
Proporcionado por la Universidad de Oulu