Devido ao grande sucesso do post "O futuro da macro", meu assíduos leitores pediram que fosse explorado o passado da macro. A proposta não é entrar muito na história da macro; será apenas pincelado o paradigma que vigorava até mais ou menos 2008. Podemos, futuramente, nos adentrar nos grandes debates da história da macroeconomia, durante o pós-guerra, que, diga-se de passagem, são bastante interessantes.
Para começar, portanto, partimos do fato de que uma das grandes perguntas colocadas pela macroeconomia é a respeito das flutuações de produto. Como estabilizar o produto e o emprego? Como minimizar a volatilidade inerente a essas variáveis? Essas questões estão no âmbito da macroeconomia de curto prazo. Se pensarmos no longo prazo, entraremos no campo das teorias do crescimento, que apesar de relacionada, possui suas próprias especificidades.
Pensando no curto prazo (que pode não ser tão curto assim), vemos que os ciclos são estudados há bastante tempo (desde que Jevons associou erroneamente os ciclos às manchas solares). São diversas escolas de pensamento que buscam respostas em relação às frequências, duração, determinantes e maneiras de evitar os ciclos. Lima (2011) estabelece duas principais correntes: a que estudava os ciclos de maneira estatística e a que estudava de maneira teórica. Nesta última, haveria outras duas correntes: uma que acreditava nos ciclos como intrínsecos ao capitalismo (modelos acelerador/multiplicador) e outra que via cada ciclo como único, causado por choques exógenos (modelos de propagação). Para esse grupo, dos teóricos, várias causas são apontadas como determinante, dependendo da escola. Fatores reais (tecnologia, preferências, investimento, etc) e fatores monetários diversos são explorados. Fatores financeiros, obviamente, também (como em Minsky). A minha conclusão é que provavelmente vários fatores podem contribuir conjuntamente ou isoladamente para a flutuação econômica e existência das crises.
Blanchard (2008) acreditava em seu trabalho de 2008 (The State of Macro) que a macroeconomia havia atingido uma relativa convergência, tanto de ideias quanto de método. Após anos de intensa atividade e acalorados debates, havia se chegado a um relativo consenso. No método, o destaque seria para os modelos DSGE, embora estes não estivessem livres nem de críticas (a algumas de suas premissas, principalmente) nem de uma agenda de pontos a serem aperfeiçoados/introduzidos. Em relação às ideias, haveria um consenso de que as fricções seriam importantes para explicar o funcionamento da economia, com destaque para a rigidez de preços e salários, custos de ajustamento, dentre outros. O modelo básico seria então composto pelas curvas IS (demanda agregada), de Phillips e a regra de Taylor, todas obviamente em sua versão das expectativas racionais. Um ponto importante, ressaltado por Blanchard (2008) é que esse modelo já teria substituído o modelo IS-LM como modelo básico para flutuações nos cursos de pós-graduação, embora ainda não nos cursos de graduação. Essa mudança apresentava benefícios e custos, mas aparentemente os primeiros superariam os últimos. E, por fim, como prescrição de política, esse modelo traria lições importantes, sendo uma delas a defesa do inflation targeting, este tendo um dos pilares no que se chamou da “divina coincidência”.
O que Blanchard não esperava era a ocorrência da crise, ou pelo menos o seu grau de profundidade. A verdade é que a crise originada no mercado imobiliário dos EUA teve consequências drásticas, não só para a economia mundial, como também para os economistas e seus modelos. E o que vem emergindo desse cenário, depois de 5 anos de crise, ao menos em termos de política econômica, é um questionamento grande acerca do consenso anterior, seja em relação ao sistema de política monetária ou ao papel da regulação do setor financeiro ou das políticas fiscais.
Nenhum comentário:
Postar um comentário