Imagine que tiene la tarea de enviar un equipo de jugadores de fútbol a un campo para evaluar el estado del césped (una tarea probable para ellos, por supuesto). Si eliges sus posiciones al azar, es posible que se agrupen en algunas áreas y descuiden por completo otras. Pero si les da una estrategia, como distribuirse uniformemente por el campo, es posible que obtenga una imagen mucho más precisa del estado del césped.
Ahora, imaginemos que necesitamos expandirnos no sólo en dos dimensiones, sino en decenas o incluso cientos. Ese es el desafío al que se enfrentan los investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT. Han desarrollado un enfoque impulsado por IA para el «muestreo de baja discrepancia», un método que mejora la precisión de la simulación al distribuir puntos de datos de manera más uniforme en el espacio.
Una novedad clave radica en el uso de redes neuronales gráficas (GNN), que permiten que los puntos se «comunican» y se autooptimizan para lograr una mejor uniformidad. Su enfoque marca una mejora fundamental para las simulaciones en campos como la robótica, las finanzas y la ciencia computacional, particularmente en el manejo de problemas complejos y multidimensionales críticos para simulaciones y cálculos numéricos precisos.
«En muchos problemas, cuanto más uniformemente se puedan distribuir los puntos, con mayor precisión se podrán simular sistemas complejos», dice T. Konstantin Rusch, autor principal del nuevo artículo y postdoctorado en MIT CSAIL. “Hemos desarrollado un método llamado Message-Passing Monte Carlo (MPMC) para generar puntos espaciados uniformemente, utilizando técnicas geométricas de aprendizaje profundo. Esto además nos permite generar puntos que enfatizan dimensiones que son particularmente importantes para un problema en cuestión, una propiedad que es muy importante en muchas aplicaciones. Las redes neuronales gráficas subyacentes del modelo permiten que los puntos ‘hablen’ entre sí, logrando una uniformidad mucho mejor que los métodos anteriores».
Su trabajo fue publicado en la edición de septiembre de la Actas de la Academia Nacional de Ciencias.
Llévame a Montecarlo
La idea de los métodos de Monte Carlo es aprender sobre un sistema simulándolo con muestreo aleatorio. El muestreo es la selección de un subconjunto de una población para estimar las características de toda la población. Históricamente, ya se utilizaba en el siglo XVIII, cuando el matemático Pierre-Simon Laplace lo empleó para estimar la población de Francia sin tener que contar a cada individuo.
Las secuencias de baja discrepancia, que son secuencias con baja discrepancia, es decir, alta uniformidad, como Sobol’, Halton y Niederreiter, han sido durante mucho tiempo el estándar de oro para el muestreo cuasi aleatorio, que intercambia muestreo aleatorio con muestreo de baja discrepancia. Se utilizan ampliamente en campos como los gráficos por computadora y las finanzas computacionales, para todo, desde opciones de precios hasta evaluación de riesgos, donde llenar espacios uniformemente con puntos puede conducir a resultados más precisos.
El marco MPMC sugerido por el equipo transforma muestras aleatorias en puntos con alta uniformidad. Esto se hace procesando las muestras aleatorias con un GNN que minimiza una medida de discrepancia específica.
Un gran desafío del uso de la IA para generar puntos altamente uniformes es que la forma habitual de medir la uniformidad de los puntos es muy lenta de calcular y difícil de trabajar. Para resolver esto, el equipo cambió a una medida de uniformidad más rápida y flexible llamada discrepancia L2. Para problemas de alta dimensión, donde este método no es suficiente por sí solo, utilizan una técnica novedosa que se centra en importantes proyecciones de los puntos de dimensiones inferiores. De esta manera, pueden crear conjuntos de puntos que se adapten mejor a aplicaciones específicas.
Las implicaciones se extienden mucho más allá del mundo académico, afirma el equipo. En finanzas computacionales, por ejemplo, las simulaciones dependen en gran medida de la calidad de los puntos de muestreo. «Con este tipo de métodos, los puntos aleatorios suelen ser ineficientes, pero nuestros puntos de baja discrepancia generados por GNN conducen a una mayor precisión», dice Rusch. «Por ejemplo, consideramos un problema clásico de las finanzas computacionales en 32 dimensiones, donde nuestros puntos MPMC superaron a los métodos de muestreo cuasi aleatorios de última generación anteriores por un factor de cuatro a 24».
Robots en Montecarlo
En robótica, la planificación de trayectorias y movimientos a menudo se basa en algoritmos basados en muestreo, que guían a los robots a través de procesos de toma de decisiones en tiempo real. La uniformidad mejorada de MPMC podría conducir a una navegación robótica más eficiente y adaptaciones en tiempo real para cosas como la conducción autónoma o la tecnología de drones. «De hecho, en una preimpresión reciente, demostramos que nuestros puntos MPMC logran una mejora cuatro veces mayor que los métodos anteriores de baja discrepancia cuando se aplican a problemas de planificación del movimiento robótico del mundo real», dice Rusch.
«Las secuencias tradicionales de baja discrepancia fueron un gran avance en su época, pero el mundo se ha vuelto más complejo y los problemas que estamos resolviendo ahora a menudo existen en espacios de 10, 20 o incluso 100 dimensiones», dice Daniela Rus, CSAIL. director y profesor del MIT de ingeniería eléctrica e informática. “Necesitábamos algo más inteligente, algo que se adapte a medida que crece la dimensionalidad. Los GNN son un cambio de paradigma en la forma en que generamos conjuntos de puntos de baja discrepancia. A diferencia de los métodos tradicionales, donde los puntos se generan de forma independiente, los GNN permiten que los puntos ‘conversen’ entre sí para que la red aprenda a colocar los puntos de una manera que reduzca la agrupación y las brechas, problemas comunes con los enfoques típicos».
En el futuro, el equipo planea hacer que los puntos MPMC sean aún más accesibles para todos, abordando la limitación actual de entrenar un nuevo GNN para cada número fijo de puntos y dimensiones.
«Gran parte de las matemáticas aplicadas utilizan cantidades que varían continuamente, pero el cálculo normalmente nos permite utilizar sólo un número finito de puntos», dice Art B. Owen, profesor de estadística de la Universidad de Stanford, que no participó en la investigación. “El campo de la discrepancia, que tiene más de un siglo de antigüedad, utiliza álgebra abstracta y teoría de números para definir puntos de muestreo efectivos. Este artículo utiliza redes neuronales gráficas para encontrar puntos de entrada con baja discrepancia en comparación con una distribución continua. Ese enfoque ya se acerca mucho a los conjuntos de puntos de baja discrepancia más conocidos en problemas pequeños y se muestra muy prometedor para una integral de 32 dimensiones a partir de finanzas computacionales. Podemos esperar que este sea el primero de muchos esfuerzos para utilizar métodos neuronales para encontrar buenos puntos de entrada para el cálculo numérico”.
Rusch y Rus escribieron el artículo con el investigador de la Universidad de Waterloo, Nathan Kirk, el profesor DeepMind de IA de la Universidad de Oxford y ex afiliado de CSAIL, Michael Bronstein, y la profesora de Estadística y Ciencias Actuariales de la Universidad de Waterloo, Christiane Lemieux. Su investigación fue apoyada, en parte, por el programa AI2050 de Schmidt Futures, Boeing, el Laboratorio de Investigación de la Fuerza Aérea de los Estados Unidos y el Acelerador de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, la Fundación Nacional Suiza de Ciencias, el Consejo de Investigación de Ingeniería y Ciencias Naturales de Canadá. y una beca de investigación líder mundial en IA EPSRC Turing.