Domanda:
Come calcoli il valore atteso di $ e ^ {- X} $?
anxoestevez
2012-07-10 04:22:40 UTC
view on stackexchange narkive permalink

Se $ X $ è una variabile casuale, vorrei essere in grado di calcolare qualcosa come $$ E (e ^ {- X}) $$

Come posso farlo? Grazie mille.

questo è il momento che genera la funzione $ m_ {X} (t) = E [\ exp (tX)] $ valutata a $ t = -1 $.
Una risposta:
Macro
2012-07-10 04:30:41 UTC
view on stackexchange narkive permalink

Come sottolineato nei commenti, la tua domanda specifica può essere risolta valutando la funzione di generazione del momento e $ t = -1 $, ma sembra che tu stia ponendo la domanda più generale su come calcolare il valore atteso di una funzione di una variabile casuale.

In generale, se $ X $ ha la funzione di densità $ p $, allora

$$ E \ left (f (X) \ right) = \ int_ {D} f ( x) p (x) dx $$

dove $ D $ denota il supporto della variabile casuale. Per variabili casuali discrete, l'aspettativa corrispondente è

$$ E \ left (f (X) \ right) = \ sum_ {x \ in D} f (x) P (X = x) $$

Queste identità derivano dalla definizione di valore atteso. Nel tuo esempio $ f (X) = \ exp (-X) $, quindi dovresti semplicemente inserirlo nella definizione sopra.

Esempio continuo: supponiamo $ X \ sim N (0,1) $, quindi

\ begin {align *} E \ left (\ exp (-X) \ right) & = \ int _ {- \ infty} ^ {\ infty} e ^ {- x} \ frac {1} {\ sqrt {2 \ pi}} e ^ {- x ^ 2/2 } dx \\ & = \ int _ {- \ infty} ^ {\ infty} \ frac {1} {\ sqrt {2 \ pi}} e ^ {- (x ^ 2 + 2x) / 2} dx \\ & = \ int _ {- \ infty} ^ {\ infty} \ frac {1} {\ sqrt {2 \ pi}} e ^ {- (x ^ 2 + 2x + 1) / 2} e ^ {1/2} dx \\ & = e ^ {1/2} \ int _ {- \ infty} ^ {\ infty} \ underbrace {\ frac {1} {\ sqrt {2 \ pi}} e ^ {- (x + 1) ^ 2/2}} _ {{\ rm densità \ of \ a \ N (-1,1)}} dx \\ & = e ^ {1/2} \ end {align *}

Esempio discreto: $ X \ sim {\ rm Bernoulli} (p) $. Quindi

\ begin {align *} E \ left (\ exp (-X) \ right) & = \ sum_ {i = 0} ^ {1} e ^ {- i} P (X = i) \\ & = pe ^ 0 + (1-p) e ^ {- 1} \\ & = p + (1-p) / e \ end {align *}

$ Y = f (X) $ è una variabile casuale che assumiamo per semplicità sia una variabile casuale continua con funzione di densità $ g_Y (y) $. Quindi la _definizione_ di $ E [Y] $ è $$ E [Y] = \ int _ {- \ infty} ^ {\ infty} yg_Y (y) \, \ mathrm dy, $$ e quindi la domanda è _perché_ è il aspettativa di $ Y $ ** anche ** data da $$ E [Y] = E [f (X)] = \ int _ {- \ infty} ^ {\ infty} f (x) g_X (x) \, \ mathrm dx? $$ Vale la pena menzionare da qualche parte il fatto che le due formule concorrenti per $ E [Y] $ diano lo stesso valore, possibilmente collegandosi a una prova di questo notevole risultato che il collegamento di Wikipedia chiama Legge dello Statistico Inconscio.
@DilipSarwate, non segue solo il cambiamento del teorema della variabile?
Misura teoricamente, lo provi quando $ f $ è un indicatore, poi quando $ f $ è una funzione semplice non negativa, poi quando $ f $ è una funzione misurabile non negativa (usando la convergenza monotona), e infine quando $ f $ è un arbitrario funzione misurabile.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...