En comparación con otras modalidades de imágenes como rayos X o tomografías computarizadas, las resonancias magnéticas proporcionan un contraste de tejidos blandos de alta calidad. Desafortunadamente, la resonancia magnética es muy sensible al movimiento, incluso los movimientos más pequeños producen artefactos en la imagen. Estos artefactos ponen a los pacientes en riesgo de diagnósticos erróneos o tratamientos inapropiados cuando los detalles críticos están ocultos para el médico. Pero los investigadores del MIT pueden haber desarrollado un modelo de aprendizaje profundo capaz de corregir el movimiento en la resonancia magnética del cerebro.
“El movimiento es un problema común en la resonancia magnética”, explica Nalini Singh, estudiante de doctorado afiliada a la Clínica Abdul Latif Jameel para el Aprendizaje Automático en Salud (Clínica Jameel) en el Programa Harvard-MIT en Ciencias y Tecnología de la Salud (HST) y autora principal de el papel. «Es una modalidad de imagen bastante lenta».
Las sesiones de resonancia magnética pueden durar desde unos pocos minutos hasta una hora, según el tipo de imágenes requeridas. Incluso durante los escaneos más cortos, los pequeños movimientos pueden tener efectos dramáticos en la imagen resultante. A diferencia de las imágenes de la cámara, donde el movimiento generalmente se manifiesta como un desenfoque localizado, el movimiento en la resonancia magnética a menudo produce artefactos que pueden corromper toda la imagen. Se puede anestesiar a los pacientes o pedirles que limiten la respiración profunda para minimizar el movimiento. Sin embargo, estas medidas a menudo no se pueden tomar en poblaciones particularmente susceptibles al movimiento, incluidos niños y pacientes con trastornos psiquiátricos.
El documento, titulado «Corrección de movimiento de resonancia magnética rígida profunda consistente en datos», recibió recientemente el premio a la mejor presentación oral en la conferencia Medical Imaging with Deep Learning (MIDL) en Nashville, Tennessee. El método construye computacionalmente una imagen sin movimiento a partir de datos dañados por movimiento sin cambiar nada sobre el procedimiento de escaneo. “Nuestro objetivo era combinar el modelado basado en la física y el aprendizaje profundo para obtener lo mejor de ambos mundos”, dice Singh.
La importancia de este enfoque combinado radica en garantizar la coherencia entre la salida de la imagen y las medidas reales de lo que se representa; de lo contrario, el modelo crea «alucinaciones»: imágenes que parecen realistas, pero que son física y espacialmente inexactas, lo que podría empeorar los resultados cuando se trata de a los diagnósticos.
Procurar una resonancia magnética sin artefactos de movimiento, particularmente de pacientes con trastornos neurológicos que causan movimientos involuntarios, como la enfermedad de Alzheimer o Parkinson, beneficiaría más que solo los resultados del paciente. Un estudio del Departamento de Radiología de la Universidad de Washington estimó que el movimiento afecta al 15 por ciento de las resonancias magnéticas cerebrales. El movimiento en todos los tipos de MRI que lleva a exploraciones o sesiones de imágenes repetidas para obtener imágenes con suficiente calidad para el diagnóstico genera aproximadamente $115,000 en gastos hospitalarios por escáner anualmente.
Según Singh, el trabajo futuro podría explorar tipos más sofisticados de movimiento de la cabeza, así como el movimiento de otras partes del cuerpo. Por ejemplo, la resonancia magnética fetal sufre de un movimiento rápido e impredecible que no se puede modelar solo mediante traslaciones y rotaciones simples.
“Esta línea de trabajo de Singh y compañía es el siguiente paso en la corrección de movimiento por resonancia magnética. No solo es un excelente trabajo de investigación, sino que creo que estos métodos se utilizarán en todo tipo de casos clínicos: niños y personas mayores que no pueden quedarse quietas en el escáner, patologías que inducen movimiento, estudios de tejido en movimiento, incluso pacientes sanos. se moverá en el imán”, dice Daniel Moyer, profesor asistente en la Universidad de Vanderbilt. «En el futuro, creo que probablemente será una práctica estándar procesar imágenes con algo que descienda directamente de esta investigación».
Los coautores de este artículo incluyen a Nalini Singh, Neel Dey, Malte Hoffmann, Bruce Fischl, Elfar Adalsteinsson, Robert Frost, Adrian Dalca y Polina Golland. Esta investigación fue apoyada en parte por GE Healthcare y por hardware computacional proporcionado por el Centro de Ciencias de la Vida de Massachusetts. El equipo de investigación agradece a Steve Cauley por sus útiles debates. NIH NIBIB, NIA, NIMH, NINDS, el Blueprint for Neuroscience Research, parte del proyecto multiinstitucional Human Connectome, la red de censos celulares de la iniciativa BRAIN y una beca de doctorado de Google brindaron apoyo adicional.