Se è impossibile, qual è la prova?
Se è impossibile, qual è la prova?
Prendi due varianti positive di Cauchy iid $ Y_1, Y_2 $ con densità comune $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ e infinite aspettative.
La variazione minima $ \ min (Y_1, Y_2) $ ha quindi densità $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ Poiché (secondo regola L'Hospital) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > all'infinito, la funzione $ x \ mapsto xg (x) $ è integrabile. Quindi, $ \ min (Y_1, Y_2) $ ha un'aspettativa finita in realtà uguale a $ \ log (16) / \ pi $ .
Più in generale, in un normale esempio di Cauchy $ X_1, \ ldots, X_n $ , con $ n \ ge 3 $ , ogni statistica di ordine tranne gli estremi $ X _ {(1)} $ e $ X _ {(n )} $ gode di un'aspettativa (finita). (Inoltre, $ X _ {(1)} $ e $ X _ {(n)} $ hanno entrambi aspettative infinite, $ - \ infty $ e $ + \ infty $ rispettivamente, piuttosto che nessuna aspettativa. )
Troviamo una soluzione generale per le variabili indipendenti $ X $ e $ Y $ con CDF $ F_X $ e $ F_Y, $ rispettivamente. Questo ci darà utili indizi su cosa sta succedendo, senza la distrazione del calcolo di integrali specifici.
Lascia che $ Z = \ min (X, Y). $ Quindi, da definizioni e assiomi di base, possiamo ricavarlo per qualsiasi numero $ z, $
$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$
Per qualsiasi CDF $ F $ , l'aspettativa è
$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$
la somma di una parte negativa e di una parte positiva
Di conseguenza, la domanda chiede se sia possibile $ E_ {F_Z} $ e $ E_ {F_Y} $ deve essere infinito ma per $ E_ {F_Z} $ essere finito. Ciò richiede sia la parte negativa che quella positiva di $ E_ {F_Z} $ deve essere finito. Piuttosto che analizzarlo a fondo, sarà sufficiente studiare cosa succede alle parti positive: puoi elaborare l'analogo per le parti negative.
Nel peggiore dei casi, quindi, gli integrali $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ e $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ divergerà ma ci chiediamo se l'integrale del prodotto
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$
diverge. Chiaramente non può essere peggiore dei due integrali originali, perché poiché $ 0 \ le F (z) \ le 1 $ per tutti $ z, $
$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$
TQuesta è una visione sufficiente per esaminare il paesaggio. Supponi che come $ z \ to \ infty, $ $ 1- F_X (z) $ è approssimato da $ z ^ {- p} $ per un po 'di potere positivo $ p , $ e in modo simile $ 1-F_Y (z) $ è approssimato da $ z ^ {- q} $ per $ q \ gt 0. $ Scriviamo $ 1-F_X \ sim O (Z ^ p) $ e $ 1-F_Y \ sim O (Z ^ q). $ Quindi, quando entrambi $ p $ e $ q $ sono inferiori a $ 1, $ $ E_ {F_X} $ e $ E_ {F_Y} $ sono infiniti.
Quando $ p + q \ le 1, $ perché $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ $ E_ {F_Z} = \ infty. $
Ma quando $ p + q \ gt 1, $ $ E_ {F_Z} $ span > è finito perché $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ è delimitato sopra da $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ più alcuni multipli di $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$
In altre parole, le infinite aspettative delle parti positive di $ X $ e $ Y $ implicano le loro funzioni di sopravvivenza $ 1-F_X $ e $ 1-F_Y $ si avvicinano al loro limite inferiore di $ 0 $ solo molto lentamente; ma il prodotto di queste funzioni di sopravvivenza, che è la funzione di sopravvivenza di $ Z, $ può avvicinarsi a $ 0 $ sufficientemente rapidamente da dare a $ Z $ un'aspettativa finita.
In breve,
Affinché $ Z $ abbia aspettative finite, $ (1-F_X) (1-F_Y) $ span> deve convergere a $ 0 $ sufficientemente rapidamente in $ + \ infty. $ Ciò può accadere anche quando nessuno dei due $ 1-F_X $ o $ 1-F_Y $ convergono in modo sufficientemente rapido.
Bene, se non imponi l'indipendenza, sì.
Considera $ Z \ sim Cauchy $ e $ B \ sim Bernouilli (\ frac {1} {2}) $ . Definisci $ X $ e $ Y $ per:
$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$
$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$
Dove $ |. | $ denota un valore assoluto. $ X $ e $ Y $ hanno aspettative infinite, ma $ \ min (X, Y) = 0 $ quindi $ E (\ min (X, Y)) = 0 $ .
Per variabili casuali indipendenti, non lo so e mi interesserebbe un risultato!
Questa risposta non è generale come la risposta di Whuber, e si riferisce a X e Y distribuiti identici, ma credo che sia una buona aggiunta perché fornisce un'intuizione diversa. Il vantaggio di questo approccio è che si generalizza facilmente a statistiche di ordine diverso e a momenti o altre funzioni differenti $ T (X) $ . Anche quando la funzione quantile è nota, la possibilità o l'impossibilità di "fare una statistica finita" utilizzando una statistica di ordine è facilmente visibile dal tipo di singolarità a 0 e 1.
Una rapida visione intuitiva della possibilità che una statistica di ordine possa avere aspettative finite finite anche quando la variabile sottostante non può essere eseguita tramite la funzione quantile.
Possiamo vedere i momenti di una distribuzione come i momenti della funzione quantile: https://stats.stackexchange.com/a/365385/164061
$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$
Supponiamo di voler calcolare il primo momento e quindi $ T (x) = x $ . Nell'immagine sotto questo corrisponde all'area tra F e la linea verticale a $ x = 0 $ (dove l'area sul lato sinistro può contare come negativo quando $ T (x) <0 $ ).
Le curve nell'immagine mostrano quanto ogni quantile contribuisce al calcolo. Se la curva $ T (Q (F)) $ va sufficientemente veloce fino all'infinito quando F si avvicina a zero o uno, l'area può essere infinita.
Ora, per una statistica di ordine, l'integrale sui quantili $ dq $ cambia leggermente. Per la variabile normale ogni quantile ha uguale probabilità. Per una distribuzione degli ordini, questa è una versione beta. Quindi l'integrale diventa per un campione di dimensione $ n $ e utilizzando il minimo:
$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$
Questo termine $ (1-q) ^ {n-1} $ potrebbe essere in grado di creare una funzione che inizialmente si integrava all'infinito perché aveva un polo di ordine 1 o superiore (il suo comportamento vicino a $ q = 1 $ era come $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ con $ a>1 $ ), è ora in grado di integrarsi a un valore finito.
Esempio: la media campionaria della mediana di un campione presa da una variabile distribuita di Cauchy è ora finita perché i poli di 1 ° ordine vengono rimossi. Cioè, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0.5)) $ è finito per $ a \ geq 1 $ e $ b \ geq 1 $ . (questo si riferisce all'affermazione più generale di Xi'an sulle statistiche degli ordini in relazione a una variabile di Cauchy)
Inoltre: quando la funzione quantile ha una singolarità essenziale, ad esempio $ Q (p) = e ^ {1 / (1-p)} - e $ quindi il minimo del campione rimane con momenti infiniti o indefiniti indipendentemente dalla dimensione del campione (ho appena inventato quella funzione quantile come esempio, si riferisce a $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ , non sono sicuro che ci siano distribuzioni più note che hanno una singolarità essenziale nella funzione quantile).
È il caso di quasi tutte le distribuzioni perché l'aspettativa su un sottoinsieme cresce di solito molto più lentamente del sottoinsieme. Diamo un'occhiata alle aspettative su un sottoinsieme per una variabile $ z $ con PDF $ f (z) $ : $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ Diamo un'occhiata al tasso di crescita di questa esigenza: $$ \ frac d {dx} E_x [z] = xf (x) $$ Quindi l'aspettativa su un sottoinsieme cresce molto più lentamente di $ x $ , il confine di un sottoinsieme. L'implicazione è che sebbene per una distribuzione senza momenti come il modulo di Cauchy $ | z | $ l'aspettativa è infinita $ E_ \ infty [| z |] = \ infty $ , la sua crescita con il limite superiore del sottoinsieme rallenta molto con $ z $ grande. Infatti per questo caso $ E_x [z] \ approx 1 / x $ .
Perché è rilevante? Ecco perché. Guarda le aspettative di $ E [x | x<y] $ dove entrambi $ x, y $ provengono da la stessa distribuzione con densità $ f (.) $ che ha una media infinita: guardiamo l'aspettativa del minimo: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times X\\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ Poiché $ E_y [x] $ cresce molto più lentamente di $ y $ , questo integrale molto probabilmente sarà finito . È certamente finito per il modulo di Cauchy $ | x | $ ed è uguale a $ \ ln 4 / \ pi $ :
Puoi applicare banalmente questa analisi alla funzione minima.