Domanda:
Siano X, Y 2 r.v. con infinite aspettative, ci sono possibilità in cui min (X, Y) hanno aspettative finite?
Preston Lui
2020-05-27 17:12:46 UTC
view on stackexchange narkive permalink

Se è impossibile, qual è la prova?

cosa hai fatto per rispondere a questa domanda?
Questa domanda è collegata a un compito?In tal caso dovrebbe essere fornito con il tag `self-study`.
Cinque risposte:
Xi'an
2020-05-27 19:56:08 UTC
view on stackexchange narkive permalink

Prendi due varianti positive di Cauchy iid $ Y_1, Y_2 $ con densità comune $$ f (x) = \ frac {2} {\ pi} \ frac {\ mathbb I_ {x>0}} {1 + x ^ 2} $$ e infinite aspettative.

La variazione minima $ \ min (Y_1, Y_2) $ ha quindi densità $$ g (x) = \ frac {8} {\ pi ^ 2} \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ mathbb I_ {x>0} $$ Poiché (secondo regola L'Hospital) $$ \ frac {\ pi / 2- \ arctan (x)} {1 + x ^ 2} \ equiv \ frac {1} {x ^ 3} $$ span > all'infinito, la funzione $ x \ mapsto xg (x) $ è integrabile. Quindi, $ \ min (Y_1, Y_2) $ ha un'aspettativa finita in realtà uguale a $ \ log (16) / \ pi $ .

Più in generale, in un normale esempio di Cauchy $ X_1, \ ldots, X_n $ , con $ n \ ge 3 $ , ogni statistica di ordine tranne gli estremi $ X _ {(1)} $ e $ X _ {(n )} $ gode di un'aspettativa (finita). (Inoltre, $ X _ {(1)} $ e $ X _ {(n)} $ hanno entrambi aspettative infinite, $ - \ infty $ e $ + \ infty $ rispettivamente, piuttosto che nessuna aspettativa. )

Grazie.Ma vuoi dire che solo Xn non gode di aspettative limitate?
Un bell'esempio.E $ E [\ min (Y_1, Y_2)] = log (16) / \ pi $
whuber
2020-05-27 22:37:52 UTC
view on stackexchange narkive permalink

Troviamo una soluzione generale per le variabili indipendenti $ X $ e $ Y $ con CDF $ F_X $ e $ F_Y, $ rispettivamente. Questo ci darà utili indizi su cosa sta succedendo, senza la distrazione del calcolo di integrali specifici.


Lascia che $ Z = \ min (X, Y). $ Quindi, da definizioni e assiomi di base, possiamo ricavarlo per qualsiasi numero $ z, $

$$ \ eqalign { F_Z (z) & = \ Pr (Z \ le z) = 1 - \ Pr (Z > z) = 1 - \ Pr (X \ gt z, Y \ gt z) \\ & = 1 - (1-F_X (z)) (1-F_Y (z)).} $$

Per qualsiasi CDF $ F $ , l'aspettativa è

$$ E_F = \ int _ {- \ infty} ^ 0 F (z) \ mathrm {d} z + \ int_ {0} ^ \ infty (1-F ( z)) \ mathrm {d} z, $$

la somma di una parte negativa e di una parte positiva

Di conseguenza, la domanda chiede se sia possibile $ E_ {F_Z} $ e $ E_ {F_Y} $ deve essere infinito ma per $ E_ {F_Z} $ essere finito. Ciò richiede sia la parte negativa che quella positiva di $ E_ {F_Z} $ deve essere finito. Piuttosto che analizzarlo a fondo, sarà sufficiente studiare cosa succede alle parti positive: puoi elaborare l'analogo per le parti negative.

Nel peggiore dei casi, quindi, gli integrali $ \ int_0 ^ \ infty (1-F_X (z)) \ mathrm {d} z $ e $ \ int_0 ^ \ infty (1-F_Y (z)) \ mathrm {d} z $ divergerà ma ci chiediamo se l'integrale del prodotto

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z $$

diverge. Chiaramente non può essere peggiore dei due integrali originali, perché poiché $ 0 \ le F (z) \ le 1 $ per tutti $ z, $

$$ \ int_0 ^ \ infty (1-F_X (z)) (1-F_Y (z)) \ mathrm {d} z \ le \ int_0 ^ \ infty ( 1-F_X (z)) \ mathrm {d} z \, \ sup_ {z \ ge 0} (1-F_Y (z)) \ le \ int_0 ^ \ infty (1-F_X (z)). $$

TQuesta è una visione sufficiente per esaminare il paesaggio. Supponi che come $ z \ to \ infty, $ $ 1- F_X (z) $ è approssimato da $ z ^ {- p} $ per un po 'di potere positivo $ p , $ e in modo simile $ 1-F_Y (z) $ è approssimato da $ z ^ {- q} $ per $ q \ gt 0. $ Scriviamo $ 1-F_X \ sim O (Z ^ p) $ e $ 1-F_Y \ sim O (Z ^ q). $ Quindi, quando entrambi $ p $ e $ q $ sono inferiori a $ 1, $ $ E_ {F_X} $ e $ E_ {F_Y} $ sono infiniti.

  • Quando $ p + q \ le 1, $ perché $ (1-F_X) (1- F_Y) \ sim O (z ^ {p + q}), $ $ E_ {F_Z} = \ infty. $

  • Ma quando $ p + q \ gt 1, $ $ E_ {F_Z} $ span > è finito perché $ \ int_0 ^ t (1-F_Z (z)) \ mathrm {d} z $ è delimitato sopra da $ \ int_0 ^ 1 (1-F_Z (z)) \ mathrm {d} z $ più alcuni multipli di $$ \ int_1 ^ tz ^ {- ( p + q)} \ mathrm {d} z = \ frac {1} {p + q-1} \ left (1 - t ^ {- (p + q-1)} \ right) \ to \ frac {1 } {p + q-1} \ lt \ infty. $$

In altre parole, le infinite aspettative delle parti positive di $ X $ e $ Y $ implicano le loro funzioni di sopravvivenza $ 1-F_X $ e $ 1-F_Y $ si avvicinano al loro limite inferiore di $ 0 $ solo molto lentamente; ma il prodotto di queste funzioni di sopravvivenza, che è la funzione di sopravvivenza di $ Z, $ può avvicinarsi a $ 0 $ sufficientemente rapidamente da dare a $ Z $ un'aspettativa finita.

In breve,

Affinché $ Z $ abbia aspettative finite, $ (1-F_X) (1-F_Y) $ span> deve convergere a $ 0 $ sufficientemente rapidamente in $ + \ infty. $ Ciò può accadere anche quando nessuno dei due $ 1-F_X $ o $ 1-F_Y $ convergono in modo sufficientemente rapido.

A titolo illustrativo possiamo considerare la distribuzione Lomax con sopravvivenza $ S (x) = [1 + x / \ beta] ^ {- \ alpha} $ per $ x> 0 $ dove $ \ beta > 0 $ e $ \ alpha> 0 $ sono i parametri di scala e forma.Il l'aspettativa è finita per $ \ alpha> 1 $.Se $ X $ e $ Y $ sono Lomax indipendente con la stessa scala $ \ beta> 0 $ e forme $ \ alpha_X $, $ \ alpha_Y $ vediamo che $ \ min (X, \, Y) $ è Lomax con scala $ \ beta $ e forma $ \ alpha_X + \ alpha_Y $.
Pohoua
2020-05-27 18:11:33 UTC
view on stackexchange narkive permalink

Bene, se non imponi l'indipendenza, sì.

Considera $ Z \ sim Cauchy $ e $ B \ sim Bernouilli (\ frac {1} {2}) $ . Definisci $ X $ e $ Y $ per:

$$ X = \ left \ {\ begin {array} [ccc] 0 0 & \ text {if} & B = 0 \\ | Z | & \ text {if} & B = 1 \ end {array} \ right. $$

$$ Y = \ left \ {\ begin {array} [ccc]. | Z | & \ text {if} & B = 0 \\ 0 & \ text {if} & B = 1 \ end {array} \ right. $$

Dove $ |. | $ denota un valore assoluto. $ X $ e $ Y $ hanno aspettative infinite, ma $ \ min (X, Y) = 0 $ quindi $ E (\ min (X, Y)) = 0 $ .

Per variabili casuali indipendenti, non lo so e mi interesserebbe un risultato!

X e Y non sono un caso veramente bidimensionale, però, scommetto che puoi mostrare che il rango della matrice di covarianza è 1. in realtà stai proponendo solo B.non lo considererei un esempio.fondamentalmente X e Y sono definiti sullo stesso esatto insieme di eventi, quindi è la stessa variabile in un certo senso.è come dire che ho X = Z e Y = 1-Z.
Sì ... questo è un po 'un esempio di trucco ^^.Penso che la matrice di covarianza non sia definita in questo esempio, ma in effetti il supporto di $ (X, Y) $ è di misura nulla in $ \ mathbb {R} ^ 2 $. Tuttavia, avere variabili casuali non totalmente collegate non è difficile, con la stessa configurazione, disegnare $ X $ e $ Y $ dalla distribuzione uniforme indipendente se $ B = 0 $ e dal valore assoluto indipendente Cauchy se $ B = 1 $.
puoi mostrare in questo caso che min è effettivamente finito?
Ebbene sì, poiché è sempre più piccolo di uno (poiché c'è sempre uno tra $ X $ o $ Y $ simulato da uniform.
Nel mio commento di 2 precedenti ho commesso un errore, intendevo che $ X \ sim \ mathcal {U} ([0, 1]) $ se $ B = 0 $ e $ Y \ sim \ mathcal {U} ([0, 1]) $ se $ B = 1 $, e lo stesso per la parte di Cauchy della distribuzione, in modo tale che per qualsiasi valore di $ B $, una delle due variabili sia stata generata da $ \ mathcal {U} ([0, 1]).
Sextus Empiricus
2020-05-28 21:17:00 UTC
view on stackexchange narkive permalink

Questa risposta non è generale come la risposta di Whuber, e si riferisce a X e Y distribuiti identici, ma credo che sia una buona aggiunta perché fornisce un'intuizione diversa. Il vantaggio di questo approccio è che si generalizza facilmente a statistiche di ordine diverso e a momenti o altre funzioni differenti $ T (X) $ . Anche quando la funzione quantile è nota, la possibilità o l'impossibilità di "fare una statistica finita" utilizzando una statistica di ordine è facilmente visibile dal tipo di singolarità a 0 e 1.

Una rapida visione intuitiva della possibilità che una statistica di ordine possa avere aspettative finite finite anche quando la variabile sottostante non può essere eseguita tramite la funzione quantile.

Possiamo vedere i momenti di una distribuzione come i momenti della funzione quantile: https://stats.stackexchange.com/a/365385/164061

$$ E (T (x)) = \ int_ {0} ^ 1 T (Q (q)) dq \\ $$

Supponiamo di voler calcolare il primo momento e quindi $ T (x) = x $ . Nell'immagine sotto questo corrisponde all'area tra F e la linea verticale a $ x = 0 $ (dove l'area sul lato sinistro può contare come negativo quando $ T (x) <0 $ ).

Cauchy versus Normal

Le curve nell'immagine mostrano quanto ogni quantile contribuisce al calcolo. Se la curva $ T (Q (F)) $ va sufficientemente veloce fino all'infinito quando F si avvicina a zero o uno, l'area può essere infinita.


Ora, per una statistica di ordine, l'integrale sui quantili $ dq $ cambia leggermente. Per la variabile normale ogni quantile ha uguale probabilità. Per una distribuzione degli ordini, questa è una versione beta. Quindi l'integrale diventa per un campione di dimensione $ n $ e utilizzando il minimo:

$$ E (T (x _ {(n)})) = n! \ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) dq \\ $$

Questo termine $ (1-q) ^ {n-1} $ potrebbe essere in grado di creare una funzione che inizialmente si integrava all'infinito perché aveva un polo di ordine 1 o superiore (il suo comportamento vicino a $ q = 1 $ era come $ T (Q (q)) \ sim ( 1-q) ^ {- a} $ con $ a>1 $ ), è ora in grado di integrarsi a un valore finito.


Esempio: la media campionaria della mediana di un campione presa da una variabile distribuita di Cauchy è ora finita perché i poli di 1 ° ordine vengono rimossi. Cioè, $ q ^ a (1-q) ^ b \ tan (\ pi (q-0.5)) $ è finito per $ a \ geq 1 $ e $ b \ geq 1 $ . (questo si riferisce all'affermazione più generale di Xi'an sulle statistiche degli ordini in relazione a una variabile di Cauchy)

Inoltre: quando la funzione quantile ha una singolarità essenziale, ad esempio $ Q (p) = e ^ {1 / (1-p)} - e $ quindi il minimo del campione rimane con momenti infiniti o indefiniti indipendentemente dalla dimensione del campione (ho appena inventato quella funzione quantile come esempio, si riferisce a $ f (x) = \ frac { 1} {(x + a) \ log (x + a) ^ 2} $ , non sono sicuro che ci siano distribuzioni più note che hanno una singolarità essenziale nella funzione quantile).

(+1) ottimo punto di utilizzo della trasformata quantile.Suggerirei di scrivere l'ultima equazione integrale come $$ \ mathbb E [T (X _ {(n)})] = n!\ int_ {0} ^ 1 (1-q) ^ {n-1} T (Q (q)) \ text {d} q $$ per rendere le cose più chiare.
Aksakal
2020-05-27 21:35:23 UTC
view on stackexchange narkive permalink

È il caso di quasi tutte le distribuzioni perché l'aspettativa su un sottoinsieme cresce di solito molto più lentamente del sottoinsieme. Diamo un'occhiata alle aspettative su un sottoinsieme per una variabile $ z $ con PDF $ f (z) $ : $$ E_x [z] = \ int _ {- \ infty} ^ xzf (z) dz $$ Diamo un'occhiata al tasso di crescita di questa esigenza: $$ \ frac d {dx} E_x [z] = xf (x) $$ Quindi l'aspettativa su un sottoinsieme cresce molto più lentamente di $ x $ , il confine di un sottoinsieme. L'implicazione è che sebbene per una distribuzione senza momenti come il modulo di Cauchy $ | z | $ l'aspettativa è infinita $ E_ \ infty [| z |] = \ infty $ , la sua crescita con il limite superiore del sottoinsieme rallenta molto con $ z $ grande. Infatti per questo caso $ E_x [z] \ approx 1 / x $ .

Perché è rilevante? Ecco perché. Guarda le aspettative di $ E [x | x<y] $ dove entrambi $ x, y $ provengono da la stessa distribuzione con densità $ f (.) $ che ha una media infinita: guardiamo l'aspettativa del minimo: $$ E [x | x<y] = \ int _ {- \ infty} ^ \ infty dyf (y) \ int _ {- \ infty} ^ {y} dxf (x) \ times X\\ = \ int _ {- \ infty} ^ \ infty dy f (y) E_y [x] $$ Poiché $ E_y [x] $ cresce molto più lentamente di $ y $ , questo integrale molto probabilmente sarà finito . È certamente finito per il modulo di Cauchy $ | x | $ ed è uguale a $ \ ln 4 / \ pi $ :

  • $ E_x [| z |] = \ int_0 ^ x \ frac 2 \ pi \ frac {z} {1 + z ^ 2} dz = \ int_0 ^ x \ frac1 \ pi \ frac {1} {1 + z ^ 2} dz ^ 2 = \ frac 1 \ pi \ ln (1 + z ^ 2) | _0 ^ x = \ frac {\ ln (1 + x ^ 2)} {\ pi} $ - già qui vediamo come l'aspettativa sul sottoinsieme sia rallentata da $ x $ a $ \ ln x $ .
  • $ E [x | x<y] = \ int_ {0} ^ \ infty \ frac 2 \ pi \ frac 1 {1 + x ^ 2} \ frac {\ ln (1 + x ^ 2)} {\ pi} dx = \ frac 1 \ pi \ ln 4 $

Puoi applicare banalmente questa analisi alla funzione minima.

Dato che $ \ mathbb E [\ min (| X_1 |, | X_2 |)] = \ log (4 ^ 2) / π $, sono rimasto perplesso dalla discrepanza.Penso che sia perché hai dimenticato la normalizzazione $ \ mathbb P (x


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 4.0 con cui è distribuito.
Loading...