Siano $ X_1, \ dots, X_n $ variabili casuali, per alcuni interi $ n > 2 $. Quindi, $$ \ text {Var} \ left (\ sum_ {i = 1} ^ nX_i \ right) = \ sum_ {i = 1} ^ n \ text {Var} (X_i) + \ sum_ {i \ neq j } \ text {Cov} (X_i, X_j) $$
C'è un interesse naturale nel caso speciale in cui $ X_i $ sono tali che $$ \ sum_ {i \ neq j} \ text { Cov} (X_i, X_j) = 0 \ quad \ Leftrightarrow \ quad \ text {Var} \ left (\ sum_ {i = 1} ^ nX_i \ right) = \ sum_ {i = 1} ^ n \ text {Var} (X_i) $$
Ora, la condizione $$ \ text {Cov} (X_i, X_j) = 0, \, \ forall \, i \ neq j \ tag {1} $$ implica chiaramente la condizione $$ \ sum_ {i \ neq j} \ text {Cov} (X_i, X_j) = 0 \;. \ tag {2} $$
È vero il contrario?
In alternativa, qualcuno può fornirmi un esempio in cui $ (2) $ vale ma $ (1) $ fallisce?
(La mia ipotesi è che $ (2) $ non implichi $ (1) $, poiché mi rendo conto che, in generale, $ \ sum_1 ^ {n>1} a_i = 0 $ non implica che tutti i $ a_i $ siano zero, ma non posso trovare prontamente un esempio di questo fatto generale quando gli addendi sono i termini $ \ text {Cov} (X_i, X_j), \; ( i \ neq j) $.)
(Le mie restanti domande sono controverse se, contrariamente a quanto sospetto, $ (2) $ implica ed è quindi equivalente a, $ (1) $.)
Quando le variabili casuali $ X_1, \ dots, X_n $ sono descritte come "non correlate" , significa che soddisfano $ (1 ) $, o semplicemente che soddisfano $ (2) $?
Infine, ho spesso visto il termine "pairwise non correlato", il che significa chiaramente che $ (1) $ vale, c'è un nome per la condizione in $ (2) $ (quando $ (1) $ non è assunto)?