La inteligencia artificial no solo se refiere a herramientas que escriben textos o generan imágenes. En los últimos años, vía las aplicaciones de aprendizaje profundo, también ha comenzado a resolver algunos de los problemas más difíciles de la economía: los modelos de equilibrio general, esos sistemas de ecuaciones que describen cómo interactúan millones de agentes, empresas y gobiernos en el tiempo.
Durante décadas, los economistas se toparon con un límite matemático. Los modelos que describen la economía real —dinámicos, inciertos y con agentes distintos entre sí— son tan complejos que no se pueden resolver con lápiz y papel. Se usan entonces métodos numéricos, como la iteración de funciones de valor o las aproximaciones por polinomios, que permiten simular el comportamiento del modelo. Pero hay un problema: cuando el número de variables crece, el tiempo de cálculo se dispara de forma exponencial. Es lo que Richard Bellman llamó la “maldición de la dimensionalidad”.
Ahí es donde entran las redes neuronales. En lugar de buscar una fórmula cerrada, las redes aprenden una función: observan los datos del modelo —los estados y las decisiones de los agentes— y ajustan sus parámetros hasta que las predicciones se acercan a las soluciones verdaderas. Lo hacen a través de un proceso de entrenamiento que minimiza el “error” entre lo que la red predice y lo que el modelo impone.
Dicho así suena a magia, pero no lo es. Lo que hace el aprendizaje profundo (deep learning) es transformar las variables del modelo en una representación más eficiente, una especie de nuevo lenguaje matemático donde las relaciones son casi lineales. En ese espacio transformado, resolver el modelo se vuelve mucho más sencillo. Es la misma lógica que usamos al tomar logaritmos para simplificar algunas funciones, solo que ahora la red encuentra automáticamente la transformación óptima, incluso cuando la intuición económica no alcanza.
El resultado es sorprendente: con suficientes capas y neuronas, una red puede aproximar cualquier función —una propiedad conocida como teorema de aproximación universal— y romper la maldición de la dimensionalidad. Así, modelos con decenas de variables, antes inabordables, se vuelven resolubles.
En un documento de investigación reciente, Jesús Fernández-Villaverde muestra un ejemplo clásico: el modelo de crecimiento neoclásico. La red neuronal aprende a reproducir el comportamiento de un planificador social que decide cuánto producir, consumir y ahorrar para maximizar el bienestar futuro. En pruebas, el algoritmo halló la misma solución que los métodos tradicionales, pero en una fracción del tiempo y sin necesidad de simplificar el modelo.
Lo más interesante es que las redes no solo sirven para reproducir resultados conocidos, sino para explorar mundos que antes eran imposibles de calcular: economías con millones de agentes heterogéneos, sistemas con restricciones que se activan o se relajan según las circunstancias, o modelos espaciales donde las decisiones de una ciudad afectan a otra.
Aun así, el método no está exento de riesgos. Los economistas no siempre pueden garantizar que la red converge al equilibrio correcto, y el entrenamiento puede ser inestable. Pero las ventajas son tan grandes que el aprendizaje profundo se ha convertido en un nuevo paradigma para la economía computacional.
Detrás de esta revolución hay también un ecosistema tecnológico que la hace posible: procesadores paralelos —como los de NVIDIA— y bibliotecas abiertas —como PyTorch o JAX— que permiten programar modelos económicos en pocas líneas de código.
En el fondo, lo que las redes neuronales hacen es matemática, no magia. Pero abren una puerta fascinante: entender la economía no solo como un conjunto de ecuaciones, sino como un sistema que puede aprender de sí mismo. Quizá el próximo gran avance en política económica no venga de un nuevo modelo teórico, sino de una red que logre resolver los que hasta hoy creíamos irresolubles.