Las redes neuronales han tenido un impacto enorme en la forma en que los ingenieros diseñan controladores para robots, lo que ha permitido que las máquinas sean más adaptables y eficientes. Sin embargo, estos sistemas de aprendizaje automático similares a cerebros son un arma de doble filo: su complejidad los hace poderosos, pero también dificulta garantizar que un robot impulsado por una red neuronal realice su tarea de manera segura.
La forma tradicional de verificar la seguridad y la estabilidad es mediante técnicas llamadas funciones de Lyapunov. Si puede encontrar una función de Lyapunov cuyo valor disminuya de manera constante, entonces podrá saber que las situaciones inseguras o inestables asociadas con valores más altos nunca ocurrirán. Sin embargo, en el caso de los robots controlados por redes neuronales, los enfoques anteriores para verificar las condiciones de Lyapunov no se adaptaban bien a las máquinas complejas.
Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y de otros centros han desarrollado nuevas técnicas que certifican rigurosamente los cálculos de Lyapunov en sistemas más elaborados. Su algoritmo busca y verifica de manera eficiente una función de Lyapunov, lo que proporciona una garantía de estabilidad para el sistema. Este enfoque podría permitir un despliegue más seguro de robots y vehículos autónomos, incluidos aviones y naves espaciales.
Para superar a los algoritmos anteriores, los investigadores encontraron un atajo económico para el proceso de entrenamiento y verificación. Generaron contraejemplos más económicos (por ejemplo, datos adversos de sensores que podrían haber desequilibrado el controlador) y luego optimizaron el sistema robótico para tenerlos en cuenta. Comprender estos casos extremos ayudó a las máquinas a aprender a manejar circunstancias desafiantes, lo que les permitió operar de manera segura en una gama más amplia de condiciones de lo que era posible anteriormente. Luego, desarrollaron una nueva formulación de verificación que permite el uso de un verificador de red neuronal escalable, α,β-CROWN, para brindar garantías rigurosas en el peor de los casos más allá de los contraejemplos.
“Hemos visto algunos resultados empíricos impresionantes en máquinas controladas por IA, como humanoides y perros robóticos, pero estos controladores de IA carecen de las garantías formales que son cruciales para los sistemas críticos para la seguridad”, dice Lujie Yang, estudiante de doctorado en ingeniería eléctrica y ciencias de la computación (EECS) del MIT y afiliado a CSAIL, quien es coautor principal de un nuevo artículo sobre el proyecto junto con el investigador del Toyota Research Institute Hongkai Dai SM ’12, PhD ’16. “Nuestro trabajo cierra la brecha entre ese nivel de rendimiento de los controladores de redes neuronales y las garantías de seguridad necesarias para implementar controladores de redes neuronales más complejos en el mundo real”, señala Yang.
Para una demostración digital, el equipo simuló cómo un dron cuadricóptero con sensores lidar se estabilizaría en un entorno bidimensional. Su algoritmo guió con éxito el dron hasta una posición de vuelo estacionario estable, utilizando únicamente la información ambiental limitada proporcionada por los sensores lidar. En otros dos experimentos, su enfoque permitió el funcionamiento estable de dos sistemas robóticos simulados en una gama más amplia de condiciones: un péndulo invertido y un vehículo de seguimiento de trayectorias. Estos experimentos, aunque modestos, son relativamente más complejos que lo que la comunidad de verificación de redes neuronales podría haber hecho antes, especialmente porque incluyeron modelos de sensores.
“A diferencia de los problemas comunes de aprendizaje automático, el uso riguroso de redes neuronales como funciones de Lyapunov requiere resolver problemas de optimización global difíciles y, por lo tanto, la escalabilidad es el principal obstáculo”, afirma Sicun Gao, profesor asociado de informática e ingeniería en la Universidad de California en San Diego, que no participó en este trabajo. “El trabajo actual hace una importante contribución al desarrollar enfoques algorítmicos que se adaptan mucho mejor al uso particular de redes neuronales como funciones de Lyapunov en problemas de control. Logra una mejora impresionante en la escalabilidad y la calidad de las soluciones en comparación con los enfoques existentes. El trabajo abre direcciones interesantes para un mayor desarrollo de algoritmos de optimización para métodos neuronales de Lyapunov y el uso riguroso del aprendizaje profundo en el control y la robótica en general”.
El enfoque de estabilidad de Yang y sus colegas tiene un amplio potencial de aplicaciones en las que garantizar la seguridad es crucial. Podría ayudar a garantizar un viaje más suave para vehículos autónomos, como aviones y naves espaciales. Del mismo modo, un dron que entregue artículos o trace mapas de diferentes terrenos podría beneficiarse de tales garantías de seguridad.
Las técnicas desarrolladas aquí son muy generales y no son específicas de la robótica; las mismas técnicas podrían ayudar potencialmente en otras aplicaciones, como la biomedicina y el procesamiento industrial, en el futuro.
Si bien la técnica es una mejora con respecto a trabajos anteriores en términos de escalabilidad, los investigadores están explorando cómo puede funcionar mejor en sistemas con dimensiones más altas. También les gustaría tener en cuenta datos más allá de las lecturas lidar, como imágenes y nubes de puntos.
Como línea de investigación futura, el equipo desea ofrecer las mismas garantías de estabilidad para sistemas que se encuentran en entornos inciertos y sujetos a perturbaciones. Por ejemplo, si un dron se enfrenta a una fuerte ráfaga de viento, Yang y sus colegas quieren asegurarse de que seguirá volando de forma constante y completará la tarea deseada.
Además, pretenden aplicar su método a problemas de optimización, donde el objetivo sería minimizar el tiempo y la distancia que necesita un robot para completar una tarea sin perder estabilidad. Planean extender su técnica a humanoides y otras máquinas del mundo real, donde un robot necesita mantenerse estable mientras establece contacto con su entorno.
Russ Tedrake, profesor Toyota de Ingeniería Eléctrica, Aeronáutica y Astronáutica, Ingeniería Mecánica y Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT), vicepresidente de investigación en robótica del TRI y miembro de CSAIL, es uno de los autores principales de esta investigación. El artículo también reconoce el mérito de Zhouxing Shi, estudiante de doctorado de la Universidad de California en Los Ángeles, y de Cho-Jui Hsieh, profesor asociado, así como de Huan Zhang, profesor adjunto de la Universidad de Illinois en Urbana-Champaign. Su trabajo fue financiado, en parte, por Amazon, la Fundación Nacional de Ciencias, la Oficina de Investigación Naval y el programa AI2050 de Schmidt Sciences. El artículo de los investigadores se presentará en la Conferencia Internacional sobre Aprendizaje Automático de 2024.