Domanda:
C'è una differenza tra una serie temporale autocorrelata e gli errori autocorrelati in serie?
Christoph_J
2012-04-10 00:03:34 UTC
view on stackexchange narkive permalink

Sono abbastanza sicuro che mi manchi qualcosa di ovvio qui, ma sono piuttosto confuso con termini diversi nel campo delle serie temporali. Se lo capisco correttamente, gli errori serialmente autocorrelati sono un problema nei modelli di regressione (vedi ad esempio qui). La mia domanda è ora cosa definisce esattamente un errore autocorrelato? Conosco la definizione di autocorrelazione e posso applicare le formule, ma questo è più un problema di comprensione con serie temporali in regressioni.

Ad esempio, prendiamo le serie temporali delle temperature giornaliere: Se è un giornata calda oggi (ora estiva!), probabilmente fa caldo anche domani, e viceversa. Immagino di avere un problema a chiamare questo fenomeno un fenomeno di "errori serialmente autocorrelati" perché semplicemente non mi colpisce come un errore, ma come qualcosa di previsto.

Più formalmente, supponiamo un insieme di regressione -up con una variabile dipendente $ y_t $ e una variabile indipendente $ x_t $ e il modello.

$$ y_t = \ alpha + \ beta x_t + \ epsilon_t $$

È è possibile che $ x_t $ sia autocorrelato, mentre $ \ epsilon_t $ sia iid? In tal caso, cosa significa per tutti quei metodi che regolano gli errori standard per l'autocorrelazione? Devi ancora farlo o si applicano solo agli errori autocorrelati? Oppure modelleresti sempre l'autocorrelazione in tale impostazione nel termine di errore, quindi fondamentalmente non fa differenza se $ x_t $ è autocorrelato o $ e_t $?

Questa è la mia prima domanda qui. Spero non sia troppo confuso e spero di non essermi perso nulla di ovvio ... Ho anche provato a cercarlo su google e ho trovato alcuni collegamenti interessanti (ad esempio, qui su SA), ma nulla ha davvero aiutato me.

Due risposte:
Dimitriy V. Masterov
2012-04-10 02:40:57 UTC
view on stackexchange narkive permalink

Mi sembra che tu ti stia bloccando sulla differenza tra autoregressione (la temperatura oggi è influenzata dalla temperatura di ieri, o il mio consumo di eroina oggi dipende dal mio precedente uso di droghe) ed errori autocorrelati (che hanno a che fare con la termini fuori diagonale in termini di varianza-covarianza per $ \ epsilon $ diverso da zero. Attenendoti al tuo esempio meteorologico, supponi di modellare la temperatura in funzione del tempo, ma è anche influenzato da cose come le eruzioni vulcaniche, che hai tralasciato del tuo modello. Il vulcano solleva nuvole di polvere, che bloccano il sole, abbassando la temperatura. Questo disturbo casuale persisterà per più di un periodo. Ciò farà apparire la tua tendenza temporale meno ripida di quanto dovrebbe essere. Per essere onesti , è probabilmente vero che sia l'autoregressione che gli errori autocorrelati sono un problema con la temperatura.

Gli errori autocorrelati possono anche sorgere nei dati spaziali trasversali, dove uno shock casuale che influenza l'attività economica in o Una regione si estenderà ad altre aree perché hanno legami economici. Uno shock che uccide l'uva in California ridurrà anche le vendite di carne bovina del Montana. Puoi anche indurre disturbi autocorrelati se ometti una variabile indipendente pertinente e autocorrelata dal tuo modello di serie temporale.

Grazie mille, Dimitriy. Hai capito bene: mi sono confuso sulla differenza tra autoregressione ed errori autocorrelati. Solo per essere sicuro, però: nel mio esempio, modellerei $ x_t $ come una serie temporale autoregressiva (astrazione dalle eruzioni vulcaniche, ecc.) A causa dei periodi estivi e invernali e quindi non dovrei occuparmi di errori autocorrelati?
@Christoph_J Idealmente si desidera regredire contro uno o più ritardi temporali per il modello stagionale * e * l'attività vulcanica. Se invece ignorassimo la causa degli errori autocorrelati, un modello di media mobile può aiutare. In questo caso sarebbe un modello ARIMA.
@Christoph_J Non sono sicuro di aver capito la tua domanda. Volevi scrivere $ y_ {t} $ sopra? Dovresti anche dirci di più sul problema reale che stai affrontando. Il mio esempio di temperatura era solo un modello giocattolo per evidenziare i problemi. Esistono diverse soluzioni per gestire l'AR, la più semplice delle quali è la specifica del ritardo distribuito di Koyck, che si riduce alla stima di una semplice equazione con un termine di errore $ MA (1) $. Tuttavia, dovresti comunque eseguire una sorta di test di autocorrelazione, come il Durbin-Watson, anche se questo può darti un falso positivo se non ottieni le specifiche corrette.
Grazie a tutti e due. @DimitriyV.Masterov A questo punto, non ho un vero problema. Questo è il motivo per cui ho cercato di inquadrare il mio problema nel modo più generale possibile. Penso di lottare solo con le serie temporali da un lato e le regressioni dall'altro. A volte sembrano essere due questioni completamente diverse; se ho capito bene ci sono casi in cui provi a modellare una serie temporale (quanti ritardi ha? è stazionario? ecc.). All'altro estremo, a volte sembra semplicemente di regredire una serie temporale dall'altra, senza prestare molta attenzione al fatto che è una ST.
E a volte ho dei problemi qual è il modo migliore per andare avanti: devo prima modellare il processo autoregressivo o posso semplicemente correggere l'autocorrelazione nei termini di errore? Tuttavia, per quanto riguarda la mia domanda, la tua risposta e quella di Robert hanno aiutato molto e penso che nel mio campo (modelli fattoriali in finanza) debba occuparsi di errori serialmente autocorrelati, non di autoregressione. Se sta sorgendo un'altra domanda, farei una nuova domanda.
Robert Kubrick
2012-04-10 04:06:23 UTC
view on stackexchange narkive permalink

Giusto per aggiungere a Dimitriy un'ottima risposta: l'autocorrelazione dell'errore pone problemi per il calcolo dell'errore standard dei coefficienti e quindi dei livelli di significatività, o valore p, rendendo la selezione degli IV meno semplice. Anche $ R ^ 2 $ e il valore F sono influenzati.

Di tutte le ipotesi di regressione lineare (omoschedasticità, indipendenza dei residui, linearità della relazione IVs -> DV, normalità dei residui) linearità e l'indipendenza dei residui sono quelli che incidono più seriamente sui risultati se violati.



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...