Conducir en la nieve es un esfuerzo de equipo para los sensores de IA

Conducir en la nieve es un esfuerzo de equipo para los sensores de IA

Puede resultar difícil encontrar un sendero en algunas carreteras de invierno. La tecnología de sensores y el procesamiento de imágenes pueden ayudar a los vehículos autónomos a navegar mejor en condiciones de nieve. Fuente: Sarah Atkinson / Michigan Tech

A nadie le gusta conducir en una tormenta de nieve, incluidos los vehículos autónomos. Para hacer que los autos autónomos sean más seguros en carreteras nevadas, los ingenieros analizan el problema desde el punto de vista del automóvil.

Un serio desafío al máximo vehículos autónomos navega con mal tiempo. La nieve interrumpe particularmente los datos del sensor clave, lo que ayuda a determinar la profundidad del vehículo, encontrar obstáculos y permanecer en el lado correcto de la línea amarilla, suponiendo que sea visible. La península de Keweenaw en Michigan, con un promedio de más de 200 pulgadas de nieve cada invierno, es el lugar perfecto para aprovechar al máximo la tecnología de los vehículos autónomos. En dos artículos presentados en SPIE Defense + Commercial Sensing 2021, investigadores de la Universidad Tecnológica de Michigan discutir soluciones para escenarios de conducción en la nieve esto podría ayudar a introducir opciones de conducción autónoma en ciudades cubiertas de nieve como Chicago, Detroit, Minneapolis y Toronto.

Al igual que el clima a veces, la autonomía no es un término de sí-no soleado o nevado. Los vehículos autónomos incluyen un espectro de nivelesdesde automóviles que ya están en el mercado con advertencias de ángulo muerto o asistencia de frenado, hasta vehículos que pueden activar y desactivar los modos de conducción autónoma, y ​​otros que pueden navegar de forma completamente independiente. Los principales fabricantes de automóviles y las universidades de investigación continúan mejorando la tecnología y los algoritmos para la conducción autónoma. Ocasionalmente ocurren accidentes porque el auto no se calculó correctamente. inteligencia artificial (AI) o abuso por parte del conductor de la función de conducción autónoma.

Los seres humanos también tenemos sensores: nuestros ojos que escanean, nuestro sentido del equilibrio y el movimiento, y el poder de procesamiento de nuestro cerebro nos ayudan a comprender nuestro entorno. Estos insumos aparentemente básicos nos permiten guiarnos por prácticamente cualquier escenario, incluso si es nuevo para nosotros, porque los cerebros humanos son buenos para generalizar nuevas experiencias. En los vehículos autónomos, dos cámaras montadas en cardán escanean y perciben la profundidad utilizando visión estéreo para imitar la visión humana, mientras que el equilibrio y el movimiento se pueden medir con una unidad de medición inercial. Sin embargo, las computadoras solo pueden reaccionar ante escenarios que encontraron previamente o que fueron programados para reconocer.

Sin cerebros artificiales todavía, los algoritmos de inteligencia artificial (IA) específicos de la tarea deben hacerse cargo, lo que significa que los vehículos autónomos deben depender de múltiples sensores. Las cámaras de ojo de pez amplían la vista, mientras que otras cámaras funcionan de manera muy similar al ojo humano. El infrarrojo capta las firmas de calor. El radar puede ver a través de la niebla y la lluvia. La detección y la orientación de la luz (lidar) penetra en la oscuridad y teje una tela de neón a partir de los hilos de un rayo láser.

“Cada sensor tiene sus limitaciones, y cada sensor cubre la parte posterior del otro”, dijo Nathir Rawashdeh, profesor asociado de ciencias de la computación en la Facultad de Computación de Michigan Tech y uno de los investigadores principales. Está trabajando en la fusión de datos de sensores en un proceso de inteligencia artificial llamado fusión de sensores.

“La fusión de sensores utiliza múltiples sensores con diferentes modalidades para comprender la escena”, dijo. “No se puede programar exhaustivamente todos los detalles cuando los datos de entrada tienen patrones difíciles. Por eso necesitamos inteligencia artificial “.

Los asociados de Rawashdeh en Michigan Tech incluyen a Nader Abu-Alrub, su estudiante de doctorado en Ingeniería Eléctrica e Informática, y Jeremy Bos, profesor asociado de ingeniería eléctrica e informática, así como graduados y ex alumnos de Bos lab: Akhil Kurup, Derek Chopp y Zach Jeffries . Bos explica que los sensores lidar, infrarrojos y otros en sí mismos son como un martillo en un viejo dicho. “Para un martillo, todo parece un clavo”, citó Bos. “Bueno, si tienes un destornillador y un remachador, tienes más opciones”.

La mayoría de los sensores autónomos y los algoritmos de autoactivación se desarrollan en paisajes soleados y limpios. Sabiendo que el resto del mundo no era como Arizona o el sur de California, el laboratorio de Bos comenzó a recopilar datos locales en un vehículo autónomo de Michigan Tech (tripulado de manera segura) durante las fuertes nevadas. El equipo de Rawashdeh, particularmente Abu-Alrub, arrojó más de 1,000 cuadros de lidar, datos de radar e imágenes de carreteras cubiertas de nieve en Alemania y Noruega para comenzar a aprender el programa de inteligencia artificial, cómo se ve la nieve y cómo verla.

“No toda la nieve es igual”, dijo Bos, señalando que la variedad de nieve hace que la detección de sensores sea un desafío. Rawashdeh agregó que el procesamiento previo de los datos y garantizar un etiquetado preciso es un paso importante para garantizar la precisión y la seguridad: “La IA es como un chef: si tiene buenos ingredientes, habrá una comida excelente”, dijo. “Proporcione datos sucios de los sensores de la red de inteligencia artificial de aprendizaje y obtendrá un resultado incorrecto”.

Los datos de mala calidad son un problema, al igual que la suciedad real. Al igual que la suciedad de la carretera, la acumulación de nieve en los sensores es un problema que se puede solucionar pero molesto. Cuando la vista es clara, autónoma vehículo los sensores aún no son siempre compatibles para detectar obstáculos. Bos mencionó un gran ejemplo de un descubrimiento de ciervos al organizar los datos recopilados a nivel local. Lidar dijo que la gota no era nada (30% de probabilidad de obstáculo), la cámara la vio como un hombre dormido al volante (50% de probabilidad) y el sensor de infrarrojos gritó WHOA (90% seguro de que era un ciervo).

Convencer a los sensores y a sus evaluaciones de riesgo para que hablen y aprendan unos de otros es como la parábola india de tres hombres ciegos que encuentran un elefante: cada uno toca una parte diferente del elefante (la oreja, el torso y la pierna de una criatura) y llega a una conclusión diferente sobre de qué tipo es un animal. Mediante la fusión de sensores, Rawashdeh y Bos quieren que los sensores autónomos funcionen juntos para determinar la respuesta, ya sea un elefante, un ciervo o un ventisquero. Como dijo Bos: “En lugar de votar estrictamente utilizando la fusión de sensores, obtendremos una nueva estimación”.

Mientras navega por una ventisca, Keweenaw es una salida para vehículos autónomos, su sensores tal vez conozca mejor el mal tiempo y, gracias a avances como la fusión de sensores, algún día podrá conducir de forma segura en carreteras nevadas.


Las fuertes lluvias afectan la detección de objetos por los sensores LiDAR autónomos de los vehículos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *