El estado de la teoría macro

Por Martín Rapetti*

Olivier Blanchard acaba de publicar una valiosa nota quetambién vale como autocrítica. Siete años atrás —para ser más preciso, justo un mes antes del derrumbe de Lehamn Brothers— el profesor del MIT y hoy economista jefe del FMI publicaba un artículo académico, en el que evaluaba el estado de la teoría macroeconómica y concluía que: “the state of macro is good”. La crisis financiera global lo hizo cambiar de parecer.

Su postura actual puede resumirse de la siguiente manera. Las economías desarrolladas son sistemas que la mayor parte del tiempo se desenvuelven en un marco de estabilidad. Ciertamente, están expuestas a shocks que —mecanismos de propagación mediante— generan fluctuaciones, pero éstas son eficazmente moderadas por la política macroeconómica (por lo general, a través de alguna tasa de interés que maneja el Banco Central). La teoría macroeconómica mainstream—representada en modelos de equilibrio general dinámicos estocásticos; DSGE por sus siglas en inglés— es lo suficientemente buena como para explicar la naturaleza de las fluctuacioneseconómicas y ofrecer tratamientos eficaces para moderarlas. La llamada “gran moderación” del ciclo económico de los países avanzados era una prueba palpabledel éxito de la teoría macroeconómicapara entender el comportamiento del ciclo y el artículo de Blanchard de 2008 la representación del espíritu de auto-congratulación de la época. La crisis de 2008-09 demostró, sin embargo, que aunque en general operan dentro rangos de normalidad, las economías ocasionalmente pueden presentar comportamientos disruptivos que traspasen la dinámica cíclica normal y derivar en crisis. Blanchard describe estos casos como “rincones oscuros” donde la economía puede funcionar muy mal. Son estos rincones oscuros los que la teoría macroeconómica mainstream ha tendido a ignorar en las últimas décadas y sobre los que menos tiene para decir.

No valoro la nota de Blanchard por esta descripción del funcionamiento de una economía monetaria. Quien haya tenido exposición a la tradición keynesiana, coincidirá conmigo queeste tipo de descripción está viva en el análisis de muchos economistas keynesianos; como, por ejemplo,Axel Leijonhufvud y su noción de “corredor”. El valor de la nota de Blachard reside, a mi entender, en la capacidad de rever sus ideas y, sobre todo, en que viniendo de un economista influyente promueve la visión de que la macro importa porque los “rincones oscuros” existen y son más comúnes de lo que se pensaba hasta hace poco. Celebro también que Blanchard haga un reconocimiento (aunque tibio) a aquellos que no siguieron a la corriente —como lo hace con Frank Hahn— y mantuvieron una postura crítica respecto al desarrollo de la teoría macroeconomía mainstream desde los setenta. Es valioso no sólo porque nobleza obliga, sino porque muy probablemente haya entre los críticos ideas ignoradas de utilidad para entender la macroeconomía de los “rincones oscuros”.

Con lo que me siento menos cómodo es con su conclusión sobre el estado de la teoría macro. Al final de la nota, Blanchard confiesa que: “tratar de crear un modelo que integre períodos de normalidad y riesgo sistémico pareciera estar más allá del actual alcance conceptual y técnico de la profesion”. Interpreto que se refiere a que no concibe técnicamente posible representar la visión descripta arriba con un modelo de equilibrio general dinámico estocástico, DSGE. ¿Tan limitados estamos los macroeconomistas? Para contestar, déjenme hacer un pequeño desvío por la historia del pensamiento macro.

Como señala Blanchard, la revolución iniciada por Robert Lucas a principios de los años setenta fue un hito central en el desarrollo de la teoría macro moderna. Dicha revolución fue, a mi juicio, mucho más metodológica que conceptual. Si uno compara la macro de aquel entonces —lo que Robert Gordon llama la macro de la era de 1978— con los modelosDSGE Nuevo Keynesiano que usan actualmente buena parte los economistas académicos y aplicados, no encuentra diferencias sustantivas desde el punto de vista conceptual. Ambos modelos se basan en tres elementos centrales: 1) en el corto plazo el nivel de actividad se determina por el nivel de demanda agregada (condición IS); 2) la inflación tiene un componente autorregresivo, otro de aceleración/desaceleración vinculado al estado del mercado de trabajo o brecha del productoy un componente aleatorio o shock de oferta (curva de Phillips); y 3) la política macroeconómica maneja el gasto agregado, esencialmente influyendo sobre las decisiones de gasto privado (políticas monetaria y fiscal, o regla de Taylor). Ciertamente, entre ambos esquemas hay diferencias relevantes —por ejemplo, los modelosDSGE reflejan el actual uso de una tasa de interés de referencia como instrumento para conducir la política monetaria, en vez de un agregado monetario como lo hacen los modelos más antiguos— pero la diferencias más importantes ocurren en el plano metodológico. En vez de analizarse mediantes modelos basados en comportamientos agregados “ad-hoc”, los modelos DSGE modernos se construyen a partir de comportamientos “microfundamentados” explícitamente.

En su crítica a los modelos macroeconómicos con ecuaciones de comportamiento “ad-hoc” —ej. la función keynesiana de consumo: C = C1+ cY— Lucas advirtió que dichas ecuaciones se basan en parámetros que son sensibles a cambios decisiones de política. Está crítica metodológica fue muy influyente en la profesión (aunque no en todos). La reacción fue empezar a construir modelos en los que los comportamientos estuvieran basados en “microfundamentos” cuyos parámetros fueran inmunes a la crítica de Lucas (por ejemplo,las preferencias de los consumidores y tecnología de las empresas). La propuesta se corporizó en una estrategia metodológica con cuatro elementosclave: E1) el comportamiento agregado se representaa través del comportamiento de un agente representativo; E2) este comportamiento surge, a su vez, de cálculos de optimización individual; E3) lo que motiva la acción es el bienestar materialdel individuo representativo; y E4) el decisor representativo proyecta el futuro en base a expectativas racionales. Esta estrategia modelística —llamémosla“microfundamentación lucasiana”— fue adoptada porla mayoría de los macroeconomistas académicos (el mainstream) y todo intento teórico basado en ecuaciones de comportamiento agregado, sectorial o institucional fue tachado de “ad-hoc” y sin “microfundamentos”. Esta fue mayormente la norma en la academia desde mediados los setenta hasta hoy, período al que Paul Krugman llama “era de la oscuridad” de la macroeconomía.

El enfoque metodológico lucasiano —aunque muy dominante en la enseñanza a nivel de doctorado en las universidades y en la investigación académica— ha recibido un serie de críticas. Se han identificado, por ejemplo, problemas en la representación de preferencias agregadas a través de preferencias individuales (crítica a E1). La economía del comportamiento(behavioral economics, en inglés), por su parte, ha provisto un gran volumen de evidencia demostrando algo que resulta obvio para el no-economista: existen varias razones, además del bienestar individual, que motivan la conducta de las personas (crítica aE3).

Mi mayor fuente de insatisfacción con la metodología dominante no se vincula tanto a las críticas señaladas arriba sino a otras asociadas a los elementos E2 y E4. La Teoría General, obra cumbre de John Maynard Keynes, tiene numerosas contribuciones relevantes que han sido discutidas con diferente intensidad a lo largo de los años. Hay una que, a mi juicio, es sumamente relevante pero que lamentablemente ha tendido a ser ignorada por el mainstream de la profesión (no así por algunos de sus seguidores post-keynesianos); me refiero a su descripción de la conducta humana. La Teoría General está plagada de pasajes en los que Keynes describe el comportamiento de las personas, en parte basado en el cálculo racional, pero en buena medida también por elementos irracionales como la intuición, la imitación del comportamiento de otros (efecto manada), la rutina, el optimismo/pesimismo, las corazonadas, etc; elementos a los que Keynes llamó animal spirits (algo así como energía animal). A esta caracterización del comportamiento humano, me gusta llamarla “microfundamentos keynesianos”.

Las razones por las que la conducta de las personas no brota exclusivamente del cálculo racional sino que también de elementos “irracionales” son mayormente dos. En primer lugar, tenemos una capacidad limitada tanto para recoger y organizar la información, como para hacer cálculos sofisticados que involucren identificar múltiples rutas de acción y sus respectivos costos y beneficios. Muchos cientificos, psicólogos y economistas han enfatizado este aspecto de la toma de decisiones, pero merece una mención especial Herbert Simon y su concepto de racionalidad limitada por el que le dieron, entre otras razones, el premio Nobel en Economía en 1975.

En segundo lugar, la mayoría de nuestras decisiones requiere que proyectemos cómo será el futuro. Sirve aquí introducir la distinción de Frank Knight entre riesgo e incertidumbre. El primero se asocia a un escenario en el que se conocen los posibles eventos futuros y sus respectivas probabilidades de ocurrencia, mientras que en el segundo se desconocen los posibles estados futuros y sus probabilidades. Por definición, el futuro no ocurrió y es, por lo tanto, incierto en el sentido de Knight. Ciertamente, nosotros podemos usar la información pasada para proyectar el futuro y asignar probabilidades a eventos en base a la información estadística que recogemos del pasado. En situaciones de normalidad y/o estabilidad, nos valemos de información pasada para proyectar escenarios futuros y decidimos en base al cálculo y a nuestros animal spirits. En condiciones de gran inestabilidad, el pasado puede resultarnos una pobre guía sobre el futuro y decidimos mayormente en base a nuestros animal spirits.

La economía del comportamiento (behavioral economics) también a contribuido a mostrar que las personas nos comportamos en forma más keynesiana que lucasiana. Dicho más pomposamente, los “microfundamentos keynesianos” representan mejor el comportamiento individual que los “microfundamentos lucasianos”. Ésta es, al menos, la mirada de muchos economistas —este humilde servidor incluído— no sólo en la heterodoxia sino también dentro del mainstream. Tal vez el caso más visible de esta corriente sean los premios Nobel George Ackerlof y Robert Shiller con su influyente libro Animal Spirits, en el que muestran como las investigaciones hechas por la economía del comportamiento en las últimas dos décadas respaldan la hipótesis de que las personas se comportan parecido a como describía Keynes.

Un problema de los “microfundamentos keynesianos” es que son difíciles de representar matemáticamente; o, al menos, de hacerlolo suficientemente sencillo como para introducirlos en un modelo macroeconómico. No debería sorprender. La psicología humana es muy compleja y tal vez imposible de representar formalmente. He aquí la disyuntiva que se nos plantea a los macroeconomistas que para construir teorías necesitamos alguna hipótesis sobre el comportamiento de las personas. Una ruta posible eshacer teoría en base ala descripción formal yexplícita de la conducta de las personas (una microfundamentación matemática)y cómo de la interacción entre ellas emergen los resultados agregados.Aquí hay una tensión evidente entre precisión y relevancia. Un sesgo a favor de una representación muy precisa del comportamiento individual puede resultar una caricatura inadecuada que no arroje suficiente luz sobre los rincones oscuros. Creo que ésta es la ambición de Blanchard y también la razón de su pesimismo.

Otra opción es nutrirnos de la investigación de psicólogos y neurocientíficos sobre la conducta humana y hacer modelos sencillos que arrojen luz sobre problemas concretos relevantes aunque no necesariamente construidos en base a “microfundamentos” explícitos. Los modelos pueden construirse con ecuaciones simples agregadas que tengan por detrás una microfundamentación desarrollada verbalmente. Esta opción puede implicar algún sacrificioen términos de precisión y/o virtuosismo analítico, pero hacernos ganar en realismo y relevancia. Muchos modelos macroeconómicos construidos con funciones de comportamiento agregadas “ad-hoc”, pero respaldados verbalmente con buenos “microfundamentos keynesianos” han sido de mucha utilidad para entender fenómenos relevantes como las crisis. Además, esta estrategia modelística permite resaltar aspectos sociales, estructurales e institucionales que también influencian el comportamiento individual y los resultados agregados; elementos que han permeado el análisis de varios economistas institucionalistasy estructuralistas. La alternativa a favor de modelos sencillos con ecuaciones de comportamiento agregadas es promovida por varios economistas importantes como Paul Krugman, Robert Solow y otros más heterodoxos.

Más allá de las virtudes y deficiencias de uno y otro camino, creo necesario que tengamos una mayor amplitud de criterio y flexibilidad para aceptar modelos alternativos. En última instancia, los modelos son instrumentos que nos permiten eludir el karma del memorioso Funese interpretar la abrumadora y compleja realidad que nos rodea.¡Que florezcan cienflores!

*Es profesor de Macroeconomía II de la FCE, UBA profesor de la Maestría en Economía y del Posgrado de Especialización en Mercado de Capitales de la misma facultad. Es Investigador Asociado del CEDES, del Instituto Interdisciplinario de Economía Política (IIEP-Baires) e Investigador Asistente del CONICET

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s