horizontal rule

http://goofynomics.blogspot.it/2016/08/dgp-post-ad-personam.html

 

venerdì 19 agosto 2016

DGP (post ad personam)

The andrea puglisi18 agosto 2016 00:29


Riconosco che il fit lineare 1970-2007 rende in maniera molto efficace il muro contro cui ci siamo scontrati frontalmente nel 2008.

L'efficacia "pittorica" basta e avanza a giustificarlo. Io personalmente lo trovo impressionante.

Da fisico (e docente di processi stocastici) mi domando se c'è qualcosa di più. So che questo esula dal "problema", ma la curiosità mi resta.

Ho letto i tre post del 2014 sui cammini aleatori, non mi pare che dicano altro da: è molto improbabile (non impossibile) che un random walk (lancio di moneta non truccata ad ogni trimestre) faccia quel che fanno i dati del grafico dal 1970 al 2008, che pare piuttosto una moneta con bias. Cioè col trucco.

Immagino che il pil sia ben diverso da un random walk. Ma allora perchè rimandare alla lezione sui cammini aleatori? Che poi immagino andrebbe applicata ai logaritmi (visto che i tassi di crescita in economia sono percentuali e quindi, anche per colpa vostra, a me tocca pure fare delle lezioni sui processi moltiplicativi :-)



andrea puglisi ha lasciato un nuovo commento sul tuo post "186 trimestri di Pil (destagionalizzato)":

Grazie. Solo di striscio (dalle mie parti non si usano molto modelli arma, etc.). Allora ho dato una letta al primo testo che ho trovato (Walter Enders, Applied Econometric Time-Series, molto leggibile) e credo di aver capito lo scopo di uno unit root test: immagino me lo citi a sostegno dell'ipotesi di non-stazionarietà della serie. E io ci credo, non metto in dubbio che in 1970-2008 ci sia un bel trend, ovviamente sono anche più convinto se (come sembri suggerire) ci sono test statistici che formalizzano e controllano quest'ipotesi. Resto incuriosito (ma forse è sufficiente dire affascinato, non pretendo lezioni ad personam) dalla linearità del trend su un arco di tempo così lungo - e storicamente così accidentato. Quando (dalle mie parti) si vede un andamento "semplice", ci si chiede se non ci sia una spiegazione "semplice".
Postato da andrea puglisi in
Goofynomics alle 18 agosto 2016 09:57



Caro Andrea,

il tuo
modus operandi dimostra che sei una persona intelligente (hai inquadrato il problema) e sei distante dai tronfi ellissoidi saccenti che arrivano sparando supercazzole random per far vedere che ce l'hanno lungo (hai cercato una fonte, che è a mio avviso un'ottima fonte). Mi fa quindi molto piacere venirti incontro con qualche stimolo in più, anche se, naturalmente, avendo solo tre quarti d'ora a disposizione posso farlo in un modo che credo tu possa capire perfettamente, ma che certamente non tutti gli altri potranno seguire. Del resto, abbiamo anche avuto post in greco per Nat, quindi per una volta potremo parlare di econometria.

Parto da una cosa semplice ma essenziale: l'economia non è una scienza sperimentale. Le osservazioni non provengono da sistemi fisici replicabili mediante esperimenti controllati, ma da sistemi sociali. Se lanciamo un razzo contro un bersaglio, sappiamo com'è fatto il razzo e sappiamo quanto è lontano il bersaglio. Ci possono essere errori di misurazione, ma la "macchina" sappiamo com'è fatta. La "macchina" dell'economia non sappiamo com'è fatta, non lo sa nessuno, e può essere in qualche modo concettualizzata solo in via inferenziale partendo da un singolo campione di dati: quello generato dalla storia economica del paese o dei paesi che stiamo analizzando (ovviamente qui mi riferisco all'ambito macroeconomico: esiste un'economia sperimentale, che opera a livello microeconomico con esperimenti controllati, attraverso i quali comunque cerca di inferire come funziona l'
homo oeconomicus...).

Questo noumeno, il "modello vero" dell'economia, in econometria si chiama DGP (Data Generating Process). Il DGP del mondo naturalmente è
in mente Dei. Diciamo che il DGP lo concettualizziamo a seconda del contesto nel quale ci troviamo a operare, ovvero, dell'insieme di informazioni che vogliamo/possiamo utilizzare. È del tutto evidente che il PIL di un paese dipende da una quantità di variabili, fra cui i PIL degli altri paesi, le variabili di politica economica, l'andamento dei corsi delle materie prime e delle valute estere, ecc. Se vogliamo mettere tutte queste informazioni nel modello, ne verrà fuori un gigantesco processo stocastico vettoriale non molto gestibile: a quel punto il ragionamento economico serve a imporre un minimo di struttura, e qui comincia una lunga e dolorosa storia (traccia: overidentifying restrictions, modelli VAR, ecc.). Io però ho fatto una cosa diversa: ho usato come info set solo la storia della variabile. Mi sono cioè posto nell'ottica di un processo stocastico univariato: operazione legittima, nel senso che sta comunque al ricercatore decidere quante informazioni vuole utilizzare. In linea di principio, più ne utilizza e più la previsione sarà non distorta ed efficiente (varianza minima). In pratica però non sempre è così, e questo perché non importa solo quanta informazione utilizzi, ma anche come la utilizzi, e qui comincia una lunga e gaudiosa storia (traccia: fallimento dei modelli strutturali all'inizio degli anni '70, affermazione dei modelli Box-Jenkins, cointegrazione).

Ci siamo fino a qui?

In ogni caso, io ho fatto la scelta di utilizzare un'unica variabile, e il problema che intuisci io lo esprimerei così: il grafico dell'estrapolazione di tendenza è un buono strumento descrittivo, ma non è interpretabile come modello analitico o predittivo del Pil italiano semplicemente perché una tendenza deterministica non è una buona rappresentazione del DGP di questa variabile.

Tanto per capirci: nell'equazione


è molto difficile che beta sia diverso da zero e rho diverso da uno. Avremo viceversa rho uguale a uno e beta uguale a zero, ovvero, in questa riparametrizzazione:


il coefficiente del livello ritardato di
y non sarà significativamente diverso da zero.

Nota: tu potresti dirmi: "questo può anche essere, ma perché dici che questo implica che beta sarà uguale a zero?". Risposta: perché altrimenti osserveremmo un andamento parabolico (se osservi la seconda equazione e la risolvi ti rendi conto che se lasci una tendenza lineare nelle differenze prime della variabile, stai implicitamente assumendo che i livelli della variabile seguano una tendenza parabolica, che nei dati però non osserviamo e che quindi scartiamo a priori sulla base delle informazioni disponibili).

Ora, il punto è che l'ipotesi nulla di radice unitaria non viene respinta non solo su tutto il campione, ma anche sul sottocampione pre-crisi. Il primo risultato potrebbe essere banalmente dovuto al fatto che la tendenza deterministica è "segmentata" dalla crisi del 2008, e si sa almeno fin dal tempo di
Rappoport e Reichlin che in questo caso i test di radici unitarie sono poco potenti (visto che cose belle faceva la Reichlin?). La difficoltà nel respingere la nulla di integrazione è dovuta al fatto che una rottura di tendenza deterministica può tranquillamente essere interpretata, a occhio, come una inversione di tendenza stocastica (l'altro riferimento importante è Zivot e Andrews, ma la letteratura è sterminata). Il punto è che la prima (la rottura di tendenza deterministica) presuppone un cambiamento strutturale nel modello, mentre la seconda (l'inversione di tendenza stocastica) solo uno shock, o una raffica di shock, anomali, il che naturalmente apre prospettive diverse circa la prevedibilità del fenomeno.

Mi aspettano a cena, e quindi vado di corsa fornendoti solo i risultati del test ADF su tutto il campione e poi fino a prima di Lehman:




Il numerino da guardare è la statistica
t che, come vedi, non è significativa né su tutto il campione, né fino a prima della crisi. Visto che hai l'occhio esperto, noterai che nel sottocampione fino a 2008Q3 la statistica è più grande in valore assoluto (il test è unilaterale sinistro e la distribuzione non è standard per motivi che credo tu conosca e che comunque puoi capire meglio di me e sono spiegati qui). Tuttavia, non riesce comunque a respingere la nulla di radice unitaria verso l'alternativa di tendenza deterministica (la soglia al 10% è -3.1).

Quindi?

Quindi il grafico ha un valore descrittivo, e come tale l'ho esplicitamente proposto,
ma un random walk (non esattamente: in realtà un modello ARIMA(1,1,0), come intuisci dai tabulati) fornisce una rappresentazione più accurata del DGP. Il che, banalmente, significa che se io dovessi prevedere il PIL del 2016 riterrei più affidabile come "predittore" il valore del Pil del 2015 che non l'estrapolazione di un trend lineare non segmentato stimato dal 1970 (l'ipotesi di DGP alla base del grafico "pittoricamente efficace"), ma anche quella di un trend segmentato (e di punti di rottura ce ne sono almeno quattro, ma di questo se ti interessa parliamo nella prossima puntata).

Ovviamente, astenersi ingengngngnieri, e agli altri posso dire che prima o poi capiranno quasi tutti. Alcuni studiando, altri andando in paradiso. Quindi, non abbiate fretta. Agli euristi, ovviamente, questa materia resterà per sempre oscura. In Inferno nulla est redemptio.

Del resto, le aspettative razionali, se ci pensate, sono la quintessenza del piddinismo: sono la pretesa ideologica che l'agente economico sappia di sapere com'è fatto il DGP (cioè il modello vero dell'economia). E anche chi non ha capito niente di questo post, proprio perché non ha capito niente, capisce e al tempo stesso dimostra quanto questa pretesa sia assurda. Non è quindi un caso che interi programmi di ricerca basati su di essa, buon ultimi i modelli DSGE, alla prova dei fatti miseramente falliscano, anche se Lippi non se n'è accorto (ma qualcuno un po' più titolato di lui sì: e quest'ultima osservazione ovviamente era per eric, da cui devo tornare).

Alles klar?


(...
ai refusi pensateci voi, che ho il lato oscuro della forza a cena e non sta bene farlo attendere...)