Domanda:
$ \ Sum_ {i \ neq j} \ text {Cov} (X_i, X_j) = 0 $ implica $ \ text {Cov} (X_i, X_j) = 0, \, \ forall \, i \ neq j $
kjo
2013-07-08 00:04:38 UTC
view on stackexchange narkive permalink

Siano $ X_1, \ dots, X_n $ variabili casuali, per alcuni interi $ n > 2 $. Quindi, $$ \ text {Var} \ left (\ sum_ {i = 1} ^ nX_i \ right) = \ sum_ {i = 1} ^ n \ text {Var} (X_i) + \ sum_ {i \ neq j } \ text {Cov} (X_i, X_j) $$

C'è un interesse naturale nel caso speciale in cui $ X_i $ sono tali che $$ \ sum_ {i \ neq j} \ text { Cov} (X_i, X_j) = 0 \ quad \ Leftrightarrow \ quad \ text {Var} \ left (\ sum_ {i = 1} ^ nX_i \ right) = \ sum_ {i = 1} ^ n \ text {Var} (X_i) $$

Ora, la condizione $$ \ text {Cov} (X_i, X_j) = 0, \, \ forall \, i \ neq j \ tag {1} $$ implica chiaramente la condizione $$ \ sum_ {i \ neq j} \ text {Cov} (X_i, X_j) = 0 \;. \ tag {2} $$

È vero il contrario?

In alternativa, qualcuno può fornirmi un esempio in cui $ (2) $ vale ma $ (1) $ fallisce?

(La mia ipotesi è che $ (2) $ non implichi $ (1) $, poiché mi rendo conto che, in generale, $ \ sum_1 ^ {n>1} a_i = 0 $ non implica che tutti i $ a_i $ siano zero, ma non posso trovare prontamente un esempio di questo fatto generale quando gli addendi sono i termini $ \ text {Cov} (X_i, X_j), \; ( i \ neq j) $.)

(Le mie restanti domande sono controverse se, contrariamente a quanto sospetto, $ (2) $ implica ed è quindi equivalente a, $ (1) $.)

Quando le variabili casuali $ X_1, \ dots, X_n $ sono descritte come "non correlate" , significa che soddisfano $ (1 ) $, o semplicemente che soddisfano $ (2) $?

Infine, ho spesso visto il termine "pairwise non correlato", il che significa chiaramente che $ (1) $ vale, c'è un nome per la condizione in $ (2) $ (quando $ (1) $ non è assunto)?

Una risposta:
Dilip Sarwate
2013-07-08 01:50:00 UTC
view on stackexchange narkive permalink

Considera tre variabili casuali con matrice di covarianza $$ \ left [\ begin {matrix} 1 & a & 0 \\ a & 1 & -a \\ 0 & -a & 1 \ end {matrix} \ right] $ $ che ha principali minori $ 1 $, $ 1-a ^ 2 $ e $ 1-2a ^ 2 $ e quindi è definita positiva (come devono essere tutte le matrici di covarianza) a condizione che $ \ vert a \ vert < \ frac {1} {\ sqrt {2}} $. Ovviamente questo soddisfa $$ \ sum_ {i \ neq j} \ text {Cov} (X_i, X_j) = 0 \ tag {2} $$ ma non $$ \ text {Cov} (X_i, X_j) = 0, \, \ forall \, i \ neq j. \ Tag {1} $$

Come notato nel mio commento (ora eliminato), la correlazione è un pairwise e quindi $ n $ variabili casuali non sono correlate significa che $ (1) $ vale: ogni coppia di variabili casuali distinte non è correlata. Per quanto ne so, non esiste un nome per variabili casuali per le quali $ (2) $ vale ma $ (1) $ no. Nell'esempio fornito, le variabili casuali sono non correlate in modo significativo nel senso che $ Y $ "non riesce a spiegare" più della metà della varianza di $ X $ o $ Z $.

+1. Generalmente, tali matrici di covarianza possono essere derivate da matrici $ \ mathbb {\ Sigma} $ aventi queste proprietà: (1) sono matrici reali simmetriche semi-definite positive e (2) il nucleo di $ \ mathbb {\ Sigma} ^ * $ non è banale, dove $ \ mathbb {\ Sigma} ^ * $ si ottiene azzerando gli elementi diagonali di $ \ mathbb {\ Sigma} $. Per matrici di correlazione come la tua, che hanno diagonali unitarie, questo significa che $ \ mathbb {\ Sigma} $ ha $ 1 $ per un autovalore. Abbastanza sicuro, la tua matrice - con autovalori $ 1 $ e $ 1 \ pm a \ sqrt {2} $ - si qualifica.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...