Debate sobre el estado de la teoría macro

Un Comentario a «Where Danger lurks,» de Olivier Blanchard

Por Danilo Trupkin*

Debo confesar que, en los últimos años, cada vez que leo artículos que argumentan, tal como en este caso, algo así como «the mainstream view was wrong,» tiendo al desinterés. Más aún, si en el mismo artículo se argumenta también que la explicación al hecho en cuestión (la reciente crisis financiera global) se encuentra «fuera del alcance técnico y conceptual de la profesión». Entiendo que ambos argumentos forman parte de una estrategia tendiente a motivar el debate. Sin embargo, encuentro en el artículo una mera (auto) crítica sin propuestas. De aquí que me parece apropiado elaborar algunos comentarios al respecto. Dado mi sesgo hacia lo académico, enfatizaré en esta nota dicho costado.

Siempre me ha generado ruido la generalización caricaturesca de lo que se denomina «mainstream view» en la academia económica. Después de todo, ¿quiénes entran en esa categoría? Al parecer, para Olivier Blanchard, entraría una gran fracción de la academia macro de los EE.UU. encolumnada detrás del proyecto comenzado en los 70’s y 80’s por Robert Lucas (de Chicago), Edward Prescott (hoy en ASU y la Fed de Minneapolis), y Finn Kydland (hoy en UCSB), entre otros, y que formara las bases del marco teórico conocido actualmente como modelos DSGE («dynamic stochastic general equilibrium»).

Este tipo de modelos ha sido utilizado extensamente tanto por organismos internacionales como por la mayoría de los Bancos Centrales en el mundo. Asimismo, una parte importante de la academia los utiliza hoy día. Basta con solo revisar los últimos volúmenes de las revistas académicas más prestigiosas internacionalmente, para encontrar una gran cantidad de artículos con marco analítico DSGE, a nada más que 6 años de la crisis. Solo por citar un ejemplo, «Ambiguous Business Cycles,» de Cosmin Ilut and Martin Schneider, aparecido en American Economic Review de agosto último, se refiere precisamente al efecto de shocks de información negativa, capaces de replicar grandes recesiones en modelos DSGE.

De cualquier modo, me niego a creer que los economistas (e incluso aquellos que trabajamos con modelos del tipo DSGE) creímos alguna vez que el mundo se comportaba de forma benigna, tal como dice el autor. Después de todo, la visión sobre la cual se funda el marco DSGE (la llamada revolución de expectativas racionales), emerge justamente en los 70’s, periodo de alta volatilidad (tanto en precios, como en empleo y nivel de actividad).

Es cierto que la etapa conocida como Gran Moderación, iniciada a principios de los 80’s (más precisamente en 1984, como muestran, por ejemplo, McConnell y Perez-Quiros, 2000) impulsa este tipo de literatura, para algunos «Mickey Mouse models», por lo naive, para otros «Godzilla models», por la enorme cantidad de variables y la complejidad técnica que contemplan los modelos utilizados hoy día. De cualquier manera, más allá de los muchos defectos de este tipo de modelos, no olvidemos que su contribución fundamental ha sido la de racionalizar, a través de modelos dinámicos de equilibrio general, algunos hechos de la macroeconomía, especialmente las fluctuaciones económicas. Sabemos que este tipo de modelos no ha sido exitoso para explicar «corners» (así llama a las crisis el autor), sin embargo ha habido ciertamente avances en los últimos años con respecto a la integración de momentos normales con esquinas bajo este marco (ej., un artículo interesante de Bianchi, 2011).

En su aspecto formal, el modelo DSGE estándar integra la teoría neoclásica del crecimiento económico con la teoría de los ciclos, argumentando que las fluctuaciones macro son generadas por procesos estocásticos que gobiernan la dinámica de ciertos shocks que impactan sobre la economía — tecnológicos en sus inicios. Con origen en modelos de equilibrio competitivo, esta literatura se basa en la construcción de economías artificiales, cuyos parámetros de estructura son «calibrados» de modo de replicar las regularidades empíricas de los ciclos económicos. Este proceso de calibración, por cierto, requiere que los parámetros seleccionados fueran consistentes con las observaciones micro relevantes como, por ejemplo, aquellas del mercado de trabajo, del consumo, de la industria, entre otras. [1]

La literatura ha sido capaz de replicar (no sin defectos, claro está) tanto los ciclos de países desarrollados (ej., Kydland y Prescott, 1982) como también aquellos de países en desarrollo (ej., García-Cicco, Pancrazi, y Uribe, 2011); si bien los modelos que explican estas regularidades en ambos grupos de países difieren en su naturaleza. Por caso, la corriente que intenta reproducir los ciclos de países emergentes, en general, recurre a modelos DSGE con restricciones financieras internacionales, o ciclos que en realidad son la tendencia (ej., Aguiar y Gopinath, 2007).

La contribución esencial de la primera generación de modelos DSGE, en definitiva, fue explicar las regularidades cíclicas a través de modelos simples que mantenían la consistencia entre la macro y la micro. De hecho, las regularidades más relevantes replicadas por la literatura DSGE, a saber, que en los países desarrollados la volatilidad del consumo agregado es menor que la volatilidad del PIB, en tanto que la volatilidad de la inversión es (significativamente) mayor que ambas, se han mantenido después de la crisis. Por caso, las desviaciones estándar de los componentes cíclicos, con datos trimestrales de los EE.UU. pre-crisis (digamos, 1969-2007), han sido de 1.53% para el PIB, 1.25% para el consumo, y 6.57% para la inversión. Asimismo, las volatilidades post-crisis (2008-2014) han sido de 1.24% para el PIB, 0.97% para el consumo, y 7.80% para la inversión.[2]

En definitiva, y más allá de la suba de la volatilidad de la inversión, observamos que el ranking de volatilidades se ha mantenido luego de la crisis. En particular, se ha conservado la propiedad de «consumption smoothing,» resultado estándar de la optimización intertemporal de modelos DSGE, y cualidad característica de las economías desarrolladas.[3] La Figura 1 muestra que las desviaciones cíclicas de los tres principales componentes del producto no han sido más pronunciadas, por caso, que aquellas de los 70’s o inicio de los 80’s. Si bien la caída de la inversión ha sido significativa durante la crisis, tampoco ha sido más amplia que en crisis relativamente recientes.

Figura 1: Componentes cíclicos reales de PIB, Consumo, e Inversión en EE.UU.

trupkin (1) a

Fuente: BEA.

El patrón de consumo privado tampoco ha variado sustancialmente luego de la crisis de 2008, aún si lo comparamos con la recesión de 1991 (ver Figura 2). No quiero argumentar con esto que la última crisis financiera global no haya traído consecuencias graves para los EE.UU. y el mundo. Tampoco quisiera sumergirme en la discusión relacionada con que un componente de los resultados mostrados aquí tiene que ver también con estancamiento secular. Solo argumento que, después de todo, una parte importante de la contribución de la literatura DSGE, aún la de primera generación, mantiene su relevancia (al menos para tiempos relativamente normales, claro está).

Figura 2: Componentes cíclicos reales de PIB y Consumo en EE.UU.

trupkin (1) b

Fuente: BEA.

Junto con Pepe Auernheimer (lamentablemente fallecido en 2010), de hecho, hemos elaborado un modelo DSGE que sirviera para explicar el comportamiento macro de los inventarios, y su relación con la utilización de la capacidad (los factores de producción), de modo de evaluar cuan sustitutos y/o complementarios son dependiendo del horizonte temporal. Tal modelo, en definitiva, puede ser utilizado para racionalizar el hecho que los inventarios y la utilización tanto del trabajo como del capital son sustitutos en el corto plazo, pero complementarios en el largo plazo. Y esto, más allá de si se atravesare una situación normal o de «esquina», ya que así es como se han comportado incluso en etapas de crisis (el efecto de potenciales asimetrías es, al menos en este aspecto, no significativo).

Debo destacar, sin embargo, que tanto Pepe como yo nunca creímos que este tipo de herramientas pudiera servir para explicar, de la misma manera, otros hechos macroeconómicos — como por ejemplo las crisis, consecuentes en todo caso con fallas de coordinación u otros factores no contemplados por modelos DSGE. De hecho, ambos creíamos que estos modelos enfatizaban excesivamente lo técnico, muchas veces en desmedro de lo esencial.

Quisiera destacar, nuevamente, que no todos los economistas en la academia de los EE.UU., incluso aquellos que podrían entrar en la categoría de «mainstream», tomaban una actitud benigna frente a las fluctuaciones económicas. Sin ir más lejos, un paper publicado en 2000 por Pepe Auernheimer, junto con García-Saltos (de hecho ha salido en el IMF Staff Papers; imagino que Blanchard sabrá de su existencia), estudiaba los problemas de deuda, los precios de los activos, y la posibilidad de «overborrowing», haciendo referencia directa a los EE.UU., alertando en ese sentido de posibles crisis del tipo de los países emergentes (en línea también con Bernanke, Gertler, y Gilchrist, 1999).

A modo de conclusión, creo en definitiva que tanto los conceptos como la técnica que pudieran explicar los tiempos normales así como aquellos de «esquinas oscuras» a que se refiere Blanchard están ciertamente al alcance de la profesión. Podría estar de acuerdo con que no contamos aún con teorías que integren ambos momentos. Pero, me pregunto, ¿por qué pedirle a un modelo que lo explique todo? Ciertamente, sabemos cuales son las fortalezas y debilidades de los modelos DSGE, así como sabemos cuales son las fortalezas y debilidades de otros modelos. Por ejemplo, se sabe que inicialmente los modelos de búsqueda en teoría monetaria (ej., Kiyotaki y Wright, 1989) han sido débiles, comparados con la literatura relacionada, para brindar implicancias simples de política monetaria. Es que, si bien ha habido avances en este último aspecto (ej., Lagos y Wright, 2005), su contribución fundamental ha sido la de brindar una teoría que explicare el rol del dinero como medio de cambio.

Todos aquellos que investigamos sabemos que la ciencia se construye, tal como las estructuras, ladrillo por ladrillo. Más ladrillos vendrán de modo que este edificio crezca. Mientras tanto, estoy convencido que los cimientos (puestos mucho tiempo antes que en los 70’s) están más firmes que nunca.

Lo anterior no invalida una advertencia que me parece adecuada a estas alturas, especialmente para los hacedores de política. ¡Usar DSGE responsablemente!

[1] Para los fines de esta nota, es irrelevante distinguir entre modelos DSGE del tipo New Keynesian o del tipo Real Business Cycle, ya que ambos comparten los mismos fundamentos (micro).

[2] Un patrón similar al de pre-crisis se mantiene si usamos toda la muestra, es decir 1969-2014.

[3] Naturalmente, podríamos conjeturar que el consumo privado pudo haber caído más durante la crisis si no fuera por la asistencia gubernamental de aquellos años (ej., la «American Recovery and Reinvestment Act» de 2009). Pero ello no invalida el hecho que el sector privado pudo mantener en parte sus niveles de consumo de largo plazo.

*Investigador del IIEP-UBA y del Conicet. Profesor de la maestría en Economía de la UBA.

 

El estado de la teoría macro

Por Martín Rapetti*

Olivier Blanchard acaba de publicar una valiosa nota quetambién vale como autocrítica. Siete años atrás —para ser más preciso, justo un mes antes del derrumbe de Lehamn Brothers— el profesor del MIT y hoy economista jefe del FMI publicaba un artículo académico, en el que evaluaba el estado de la teoría macroeconómica y concluía que: “the state of macro is good”. La crisis financiera global lo hizo cambiar de parecer.

Su postura actual puede resumirse de la siguiente manera. Las economías desarrolladas son sistemas que la mayor parte del tiempo se desenvuelven en un marco de estabilidad. Ciertamente, están expuestas a shocks que —mecanismos de propagación mediante— generan fluctuaciones, pero éstas son eficazmente moderadas por la política macroeconómica (por lo general, a través de alguna tasa de interés que maneja el Banco Central). La teoría macroeconómica mainstream—representada en modelos de equilibrio general dinámicos estocásticos; DSGE por sus siglas en inglés— es lo suficientemente buena como para explicar la naturaleza de las fluctuacioneseconómicas y ofrecer tratamientos eficaces para moderarlas. La llamada “gran moderación” del ciclo económico de los países avanzados era una prueba palpabledel éxito de la teoría macroeconómicapara entender el comportamiento del ciclo y el artículo de Blanchard de 2008la representación del espíritu de auto-congratulación de la época. La crisis de 2008-09 demostró, sin embargo, que aunque en general operan dentro rangos de normalidad, las economías ocasionalmente pueden presentar comportamientos disruptivos que traspasen la dinámica cíclica normal y derivar en crisis. Blanchard describe estos casos como “rincones oscuros” donde la economía puede funcionar muy mal. Son estos rincones oscuros los que la teoría macroeconómica mainstream ha tendido a ignorar en las últimas décadas y sobre los que menos tiene para decir.

No valoro la nota de Blanchard por esta descripción del funcionamiento de una economía monetaria. Quien haya tenido exposición a la tradición keynesiana, coincidirá conmigo queeste tipo de descripción está viva en el análisis de muchos economistas keynesianos; como, por ejemplo,Axel Leijonhufvud y su noción de “corredor”. El valor de la nota de Blachard reside, a mi entender, en la capacidad de rever sus ideas y, sobre todo, en que viniendo de un economista influyente promueve la visión de que la macro importa porque los “rincones oscuros” existen y son más comúnes de lo que se pensaba hasta hace poco. Celebro también que Blanchard haga un reconocimiento (aunque tibio) a aquellos que no siguieron a la corriente —como lo hace con Frank Hahn— y mantuvieron una postura crítica respecto al desarrollo de la teoría macroeconomía mainstream desde los setenta. Es valioso no sólo porque nobleza obliga, sino porque muy probablemente haya entre los críticos ideas ignoradas de utilidad para entender la macroeconomía de los “rincones oscuros”.

Con lo que me siento menos cómodo es con su conclusión sobre el estado de la teoría macro. Al final de la nota, Blanchard confiesa que: “tratar de crear un modelo que integre períodos de normalidad y riesgo sistémico pareciera estar más allá del actual alcance conceptual y técnico de la profesion”. Interpreto que se refiere a que no concibe técnicamente posible representar la visión descripta arriba con un modelo de equilibrio general dinámico estocástico, DSGE. ¿Tan limitados estamos los macroeconomistas? Para contestar, déjenme hacer un pequeño desvío por la historia del pensamiento macro.

Como señala Blanchard, la revolución iniciada por Robert Lucas a principios de los años setenta fue un hito central en el desarrollo de la teoría macro moderna. Dicha revolución fue, a mi juicio, mucho más metodológica que conceptual. Si uno compara la macro de aquel entonces —lo que Robert Gordon llama la macro de la era de 1978— con los modelosDSGE Nuevo Keynesiano que usan actualmente buena parte los economistas académicos y aplicados, no encuentra diferencias sustantivas desde el punto de vista conceptual. Ambos modelos se basan en tres elementos centrales: 1) en el corto plazo el nivel de actividad se determina por el nivel de demanda agregada (condición IS); 2) la inflación tiene un componente autorregresivo, otro de aceleración/desaceleración vinculado al estado del mercado de trabajo o brecha del productoy un componente aleatorio o shock de oferta (curva de Phillips); y 3) la política macroeconómica maneja el gasto agregado, esencialmente influyendo sobre las decisiones de gasto privado (políticas monetaria y fiscal, o regla de Taylor). Ciertamente, entre ambos esquemas hay diferencias relevantes —por ejemplo, los modelosDSGE reflejan el actual uso de una tasa de interés de referencia como instrumento para conducir la política monetaria, en vez de un agregado monetario como lo hacen los modelos más antiguos— pero la diferencias más importantes ocurren en el plano metodológico. En vez de analizarse mediantes modelos basados en comportamientos agregados “ad-hoc”, los modelos DSGE modernos se construyen a partir de comportamientos “microfundamentados” explícitamente.

En su crítica a los modelos macroeconómicos con ecuaciones de comportamiento “ad-hoc” —ej. la función keynesiana de consumo: C = C1+ cY— Lucas advirtió que dichas ecuaciones se basan en parámetros que son sensibles a cambios decisiones de política. Está crítica metodológica fue muy influyente en la profesión (aunque no en todos). La reacción fue empezar a construir modelos en los que los comportamientos estuvieran basados en “microfundamentos” cuyos parámetros fueran inmunes a la crítica de Lucas (por ejemplo,las preferencias de los consumidores y tecnología de las empresas). La propuesta se corporizó en una estrategia metodológica con cuatro elementosclave: E1) el comportamiento agregado se representaa través del comportamiento de un agente representativo; E2) este comportamiento surge, a su vez, de cálculos de optimización individual; E3) lo que motiva la acción es el bienestar materialdel individuo representativo; y E4) el decisor representativo proyecta el futuro en base a expectativas racionales. Esta estrategia modelística —llamémosla“microfundamentación lucasiana”— fue adoptada porla mayoría de los macroeconomistas académicos (el mainstream) y todo intento teórico basado en ecuaciones de comportamiento agregado, sectorial o institucional fue tachado de “ad-hoc” y sin “microfundamentos”. Esta fue mayormente la norma en la academia desde mediados los setenta hasta hoy, período al que Paul Krugman llama “era de la oscuridad” de la macroeconomía.

El enfoque metodológico lucasiano —aunque muy dominante en la enseñanza a nivel de doctorado en las universidades y en la investigación académica— ha recibido un serie de críticas. Se han identificado, por ejemplo, problemas en la representación de preferencias agregadas a través de preferencias individuales (crítica a E1). La economía del comportamiento(behavioral economics, en inglés), por su parte, ha provisto un gran volumen de evidencia demostrando algo que resulta obvio para el no-economista: existen varias razones, además del bienestar individual, que motivan la conducta de las personas (crítica aE3).

Mi mayor fuente de insatisfacción con la metodología dominante no se vincula tanto a las críticas señaladas arriba sino a otras asociadas a los elementos E2 y E4. La Teoría General, obra cumbre de John Maynard Keynes, tiene numerosas contribuciones relevantes que han sido discutidas con diferente intensidad a lo largo de los años. Hay una que, a mi juicio, es sumamente relevante pero que lamentablemente ha tendido a ser ignorada por el mainstream de la profesión (no así por algunos de sus seguidores post-keynesianos); me refiero a su descripción de la conducta humana. La Teoría General está plagada de pasajes en los que Keynes describe el comportamiento de las personas, en parte basado en el cálculo racional, pero en buena medida también por elementos irracionales como la intuición, la imitación del comportamiento de otros (efecto manada), la rutina, el optimismo/pesimismo, las corazonadas, etc; elementos a los que Keynes llamó animal spirits (algo así como energía animal). A esta caracterización del comportamiento humano, me gusta llamarla “microfundamentos keynesianos”.

Las razones por las que la conducta de las personas no brota exclusivamente del cálculo racional sino que también de elementos “irracionales” son mayormente dos. En primer lugar, tenemos una capacidad limitada tanto para recoger y organizar la información, como para hacer cálculos sofisticados que involucren identificar múltiples rutas de acción y sus respectivos costos y beneficios. Muchos cientificos, psicólogos y economistas han enfatizado este aspecto de la toma de decisiones, pero merece una mención especial Herbert Simon y su concepto de racionalidad limitada por el que le dieron, entre otras razones, el premio Nobel en Economía en 1975.

En segundo lugar, la mayoría de nuestras decisiones requiere que proyectemos cómo será el futuro. Sirve aquí introducir la distinción de Frank Knight entre riesgo e incertidumbre. El primero se asocia a un escenario en el que se conocen los posibles eventos futuros y sus respectivas probabilidades de ocurrencia, mientras que en el segundo se desconocen los posibles estados futuros y sus probabilidades. Por definición, el futuro no ocurrió y es, por lo tanto, incierto en el sentido de Knight. Ciertamente, nosotros podemos usar la información pasada para proyectar el futuro y asignar probabilidades a eventos en base a la información estadística que recogemos del pasado. En situaciones de normalidad y/o estabilidad, nos valemos de información pasada para proyectar escenarios futuros y decidimos en base al cálculo y a nuestros animal spirits. En condiciones de gran inestabilidad, el pasado puede resultarnos una pobre guía sobre el futuro y decidimos mayormente en base a nuestros animal spirits.

La economía del comportamiento (behavioral economics) también a contribuido a mostrar que las personas nos comportamos en forma más keynesiana que lucasiana. Dicho más pomposamente, los “microfundamentos keynesianos” representan mejor el comportamiento individual que los “microfundamentos lucasianos”. Ésta es, al menos, la mirada de muchos economistas —este humilde servidor incluído— no sólo en la heterodoxia sino también dentro del mainstream. Tal vez el caso más visible de esta corriente sean los premios Nobel George Ackerlof y Robert Shiller con su influyente libro Animal Spirits, en el que muestran como las investigaciones hechas por la economía del comportamiento en las últimas dos décadas respaldan la hipótesis de que las personas se comportan parecido a como describía Keynes.

Un problema de los “microfundamentos keynesianos” es que son difíciles de representar matemáticamente; o, al menos, de hacerlolo suficientemente sencillo como para introducirlos en un modelo macroeconómico. No debería sorprender. La psicología humana es muy compleja y tal vez imposible de representar formalmente. He aquí la disyuntiva que se nos plantea a los macroeconomistas que para construir teorías necesitamos alguna hipótesis sobre el comportamiento de las personas. Una ruta posible eshacer teoría en base ala descripción formal yexplícita de la conducta de las personas (una microfundamentación matemática)y cómo de la interacción entre ellas emergen los resultados agregados.Aquí hay una tensión evidente entre precisión y relevancia. Un sesgo a favor de una representación muy precisa del comportamiento individual puede resultar una caricatura inadecuada que no arroje suficiente luz sobre los rincones oscuros. Creo que ésta es la ambición de Blanchard y también la razón de su pesimismo.

Otra opción es nutrirnos de la investigación de psicólogos y neurocientíficos sobre la conducta humana y hacer modelos sencillos que arrojen luz sobre problemas concretos relevantes aunque no necesariamente construidos en base a “microfundamentos” explícitos. Los modelos pueden construirse con ecuaciones simples agregadas que tengan por detrás una microfundamentación desarrollada verbalmente. Esta opción puede implicar algún sacrificioen términos de precisión y/o virtuosismo analítico, pero hacernos ganar en realismo y relevancia. Muchos modelos macroeconómicos construidos con funciones de comportamiento agregadas “ad-hoc”, pero respaldados verbalmente con buenos “microfundamentos keynesianos” han sido de mucha utilidad para entender fenómenos relevantes como las crisis. Además, esta estrategia modelística permite resaltar aspectos sociales, estructurales e institucionales que también influencian el comportamiento individual y los resultados agregados; elementos que han permeado el análisis de varios economistas institucionalistasy estructuralistas. La alternativa a favor de modelos sencillos con ecuaciones de comportamiento agregadas es promovida por varios economistas importantes como Paul Krugman, Robert Solow y otros más heterodoxos.

Más allá de las virtudes y deficiencias de uno y otro camino, creo necesario que tengamos una mayor amplitud de criterio y flexibilidad para aceptar modelos alternativos. En última instancia, los modelos son instrumentos que nos permiten eludir el karma del memorioso Funese interpretar la abrumadora y compleja realidad que nos rodea.¡Que florezcan cienflores!

*Es profesor de Macroeconomía II de la FCE, UBA profesor de la Maestría en Economía y del Posgrado de Especialización en Mercado de Capitales de la misma facultad. Es Investigador Asociado del CEDES, del Instituto Interdisciplinario de Economía Política (IIEP-Baires) e Investigador Asistente del CONICET

2 comentarios sobre “Debate sobre el estado de la teoría macro

  1. Algunas advertencias que los eruditos académicos perdieron de vista cuando esbozaron sus estilizados DSGE:

    2005: R. Rajan, «Has financial development made the world risker?
    2006: N. Roubini, «Why central banks should burst bubbles?
    2007: B. Ackman, «Who is holding the bag?

    Feliz año macroeconomistas!

    Me gusta

Deja un comentario