Integración de imágenes médicas y biología del cáncer con redes neuronales profundas

Integración de imágenes médicas y biología del cáncer con redes neuronales profundas

Espina dorsal de una red neuronal. Crédito: Smedley, Aberle y Hsu

A pesar de nuestros notables avances en medicina y atención médica, la cura para el cáncer sigue eludiéndonos. Por otro lado, hemos logrado un progreso significativo en la detección de varios cánceres en una etapa más temprana, lo que permite a los médicos utilizar tratamientos que aumentan la supervivencia a largo plazo. Esto se debe a los “diagnósticos integrados”, un enfoque de la atención al paciente que combina información molecular y datos de imágenes médicas para diagnosticar el tipo de cáncer y, en última instancia, predecir los resultados del tratamiento.

Sin embargo, existen algunas complejidades. Correlación de patrones moleculares como La expresion genica y una mutación, con características de imagen (por ejemplo, cómo aparece un tumor en la tomografía computarizada), se denomina comúnmente “radiogenómica”. Este campo está limitado por el uso frecuente de datos multivariados en los que el número de características excede el número de observaciones. La radiogenómica también está plagada de varios supuestos de modelos simplificadores y la falta de conjuntos de datos de validación. Si bien las técnicas de aprendizaje automático, como las redes neuronales profundas, pueden aliviar esta situación al proporcionar predicciones precisas de las características de la imagen basadas en patrones de expresión genética, surge un nuevo problema: no sabemos qué aprendió el modelo.

“Ser capaz de examinar el modelo es fundamental para comprender y validar las asociaciones radiogenómicas aprendidas”, explica William Hsu, profesor de radiología en la Universidad de California en Los Ángeles y director del recurso compartido de diagnóstico integrado. El laboratorio de Hsu se ocupa de la integración de datos, el aprendizaje automático y la informática de imágenes. En un estudio anterior, Hsu y sus colegas utilizaron el método de interpretar una red de neuronas llamado ‘enmascaramiento genético’ para estudiar redes neuronales entrenadas para comprender los vínculos aprendidos entre genes y fenotipos de imágenes. Demostraron que las asociaciones radiogenómicas descubiertas por su modelo eran consistentes con conocimientos previos. Sin embargo, solo usaron uno conjunto de datos en el caso de un tumor cerebral en su estudio anterior, lo que significa que queda por establecer la posibilidad de una generalización de su abordaje.

Integración de imágenes médicas y biología del cáncer con redes neuronales profundas

En un nuevo estudio, los científicos probaron la capacidad de su modelo de red neuronal profunda para predecir características radiogenómicas frente a otros clasificadores dentro del mismo conjunto de datos de entrenamiento y encontraron que su rendimiento general era mejor. Crédito: Smedley, Aberle y Hsu

En este contexto, Hsu y sus colegas Nova Smedley, ex graduado y autor principal, y Denise Aberle, radióloga de tórax, investigaron si redes neuronales profundas puede representar la relación entre la expresión génica, la histología (características microscópicas de los tejidos biológicos) y las características de la imagen obtenidas de la tomografía computarizada. Resultó que el la red no solo podría recrear asociaciones previamente reportadas, sino también identificar otras nuevas. Los resultados de este estudio fueron publicados en Revista de imágenes médicas.

Los investigadores utilizaron un conjunto de datos de 262 pacientes para entrenar sus redes neuronales para predecir 101 rasgos de una enorme colección de 21.766 expresiones genéticas. Luego probaron su capacidad predictiva en un conjunto de datos independiente de 89 pacientes mientras comparan su capacidad con otros modelos en el conjunto de datos de entrenamiento. Finalmente, utilizaron el enmascaramiento genético para determinar las relaciones aprendidas entre subconjuntos. genes y el tipo de cáncer de pulmón.

Descubrieron que el rendimiento general de las redes neuronales al representar estos conjuntos de datos era mejor que el de los otros modelos y podía generalizarse a conjuntos de datos de una población diferente. Además, los resultados del enmascaramiento de genes sugirieron que la predicción de cada rasgo de imagen se asoció con un perfil de expresión genética único, gestionado por procesos biológicos.

Los científicos se sienten animados por sus descubrimientos. “Si bien se ha demostrado anteriormente que las asociaciones de radiogenómica estratifican con precisión el riesgo del paciente, estamos entusiasmados con la perspectiva de que nuestro Modelo pueden identificar y comprender mejor el significado de estas asociaciones. Esperamos que este enfoque aumente la confianza del radiólogo a la hora de evaluar el tipo de cáncer de pulmón que se observa en la tomografía computarizada. Esta información sería muy beneficiosa para informar sobre la planificación del tratamiento individualizado ”, señala Hsu.


El aprendizaje profundo puede ayudar a los médicos a elegir mejores tratamientos para el cáncer de pulmón

Más información:
Nova F. Smedley et al., Utilización de redes neuronales profundas y métodos de interpretación para identificar patrones de expresión génica que predicen las características radiómicas y la histología del cáncer de pulmón de células no pequeñas. Revista de imágenes médicas (2021). DOI: 10.1117 / 1.JMI.8.3.031906

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *