Domanda:
Prova / derivazione delle formule di asimmetria e curtosi
volintine
2014-08-12 21:15:19 UTC
view on stackexchange narkive permalink

Qualcuno può spiegarmi da dove viene la formula dell'asimmetria o della curtosi? (Intendo la sua derivazione.) Qual è la logica dietro? Chi lo ha dimostrato?

In che senso qualcuno "proverebbe" una misura di qualcosa? Sarebbe come provare a "provare" la media. Non è chiaro cosa possa significare. Si prega di precisare. Nota anche che c'è più di una misura di queste nozioni. Stai cercando le misure basate sul terzo e quarto momento?
Oltre ai punti @Glen_b's, tieni presente che ci sono state diverse formule per l'asimmetria, ad es. Il più comune nei libri di testo, penso, è il terzo momento.
@gung Il terzo momento è raramente equiparato all'asimmetria, che è tipicamente un terzo momento per dati * standardizzati * o per un loro estimatore.
@whuber, hai ragione. Avrei dovuto dire 3 ° momento * standardizzato *.
Grazie mille a tutti per tutte le vostre meravigliose risposte e spiegazioni, e Yeh, intendevo il terzo momento.Quello che voglio dire è che perché l'asimmetria è definita come Terzo momento centrale e non Quinto o qualsiasi altro numero?Qual è la logica dietro.L'unica spiegazione che ho scoperto è stata che poiché la media è il centro dei dati e aumentarla alla potenza dispari annullerebbe il termine e la risposta finale sarà zero se la distribuzione dei dati è simmetrica e non zero se non è simmetrica.È vero?
Una risposta:
Glen_b
2014-08-13 08:11:25 UTC
view on stackexchange narkive permalink

Non dovresti aspettarti prove, poiché asimmetria e curtosi sono nozioni alquanto vaghe.

La simmetria è matematicamente precisa, ma l'asimmetria al contrario è sorprendentemente scivolosa. La curtosi forse lo è ancora di più.

Ci sono stati un numero piuttosto elevato di tentativi di fornire misure corrispondenti a queste nozioni, ma queste misure spesso utili possono essere sorprendentemente controintuitive a volte. Ad esempio, l'asimmetria basata sul momento può essere zero quando la distribuzione è asimmetrica (contraddicendo un'asserzione che si può sorprendentemente trovare spesso leggendo testi elementari che discutono dell'asimmetria).

Qualcuno può spiegarmi dove la formula di asimmetria o curtosi viene da?

Sia asimmetria che curtosi sono termini piuttosto vaghi con diverse misure.

Oggigiorno le persone intendono principalmente le misure basate sul momento , basati rispettivamente su terzo e quarto momenti standardizzati.


Un po 'di cronologia

Il termine " asimmetria " applicato a una distribuzione di probabilità sembra derivare da uno sguardo iniziale con Karl Pearson, 1895 $ ^ {\ text {[1]}} $. Comincia parlando di asimmetria.

Il termine " curtosi " applicato a una distribuzione di probabilità sembra avere origine anche da Karl Pearson, 1905 $ ^ {\ text {[2]}} $.

Pearson ha formule per la curtosi del momento e il quadrato dell'asimmetria del momento ($ \ beta_2 $ e $ \ beta_1 $) nel suo articolo del 1895, e vengono utilizzate in un certo senso per descrivere forma, anche se la nozione di curtosi non è particolarmente sviluppata lì.

Tuttavia, l'idea che i momenti più alti (standardizzati) del secondo possano essere pensati come una misura di forma o almeno di deviazione dalla normalità sembra essere più antica di questa.

Nota, in particolare, le informazioni storiche contenute nell'articolo di Nick Cox $ ^ {\ text {[3]}} $, qui, che chiarisce che dovremmo dare gran parte della priorità a Thiele (1889) $ ^ {\ text {[4]}} $.

Tuttavia, ci sono altre misure oltre alle quantità basate sul momento. Ad esempio, nel caso dell'asimmetria, ci sono i coefficienti di asimmetria del primo e del secondo di Pearson, che si basano sulla semplice nozione di ridimensionare la differenza tra la media e il modo e la media e la mediana rispettivamente . (Penso che anche questi risalgano al documento del 1895 ma non l'ho verificato.)

Queste diverse misure relative alla stessa nozione sottostante possono suggerire cose abbastanza diverse (anche essere opposte nel segno). per esempio. vedi qui. Un motivo per essere cauti sull'interpretazione eccessiva della curtosi del momento può essere visto qui


Modifica: informazioni aggiuntive -

Sembra che le voci su asimmetria e curtosi in I primi usi conosciuti di alcune delle parole della matematica , di Miller et al . $ ^ {[5]} $ concorda con me che sembra che abbiano avuto origine con Karl Pearson rispettivamente nel 1895 e nel 1905.

È bello avere un certo grado di conferma.


Quello che voglio dire è che perché l'asimmetria è definita come terzo momento centrale e non quinto o qualsiasi altro numero? Qual è la logica alla base?

Ok, quindi abbiamo a che fare specificamente con l'asimmetria dei momenti.

Primo, perché il terzo momento ha un senso. Cominciamo pensando all'asimmetria in un modo alquanto intuitivo piuttosto che fare affidamento su una definizione formale e vedere cosa potrebbe implicare.

Ricorda che $ \ sigma $ rappresenta una sorta di distanza "tipica" delle osservazioni dal significa, e considera cosa succede quando prendiamo una distribuzione dall'aspetto simmetrico e la rendiamo più inclinata a destra (cercando di mantenere l'area, $ \ mu $ e $ \ sigma $ costanti):

Right skewness

Qui dividiamo l'asse in quattro regioni: approssimativamente posizionate a più di una deviazione standard sotto la media, meno di una deviazione standard sotto la media, meno di una deviazione standard sopra la media e più di una deviazione standard sopra la media media - sezioni rispettivamente da $ A $ a $ D $.

Per un leggero aumento dell'asimmetria, tendiamo a vedere relativamente più probabilità immediatamente a sinistra della media (regione $ B $) e lontano sopra la media (regione $ D $), mentre si vede meno immediatamente sopra la media (regione $ C $) e molto al di sotto (regione $ A $).

In effetti, cercando di mantenere l'area costante, se alziamo la coda estrema (l'estremità destra di $ D $), siamo costretti ad avere meno probabilità altrove. Ma se vogliamo mantenere la media costante, dobbiamo avere più probabilità da qualche parte più in basso. Se mettessimo la probabilità di compensazione in "$ A $" (abbassando $ B $ e $ C $) potremmo mantenere l'area e la media costanti, ma finiremmo con un cambiamento simmetrico (in effetti, aumenteremmo la varianza , non rendendolo più inclinato).

Non possiamo aumentare $ C $ perché alzare sia $ C $ che $ D $ sposterebbe la media verso l'alto.

Quindi, se aumentiamo la coda destra ($ D $), mantenendo costanti l'area, la media e la deviazione standard, possiamo aumentare la probabilità anche in $ B $ e ridurre gli altri due - se otteniamo gli importi e le posizioni relativi proprio all'interno di quelli regioni. Mantenere $ \ sigma $ quasi costante vincola ciò che facciamo più di quanto ho realmente descritto (il diagramma è leggermente impreciso e come disegnato suggerisce un aumento di $ \ sigma $).

Quindi, per farlo sembrare un po ' più inclinazione a destra, tenderemmo a spostarci come descritto più o meno in quelle aree.

Ma cosa significa se proviamo a costruire una semplice misura basata sui momenti? Nota che con il terzo momento centrale, più area in $ A $ o $ B $ tenderà a ridurla mentre più area in $ C $ o $ D $ tenderebbe ad aumentarla (a parità di altre condizioni), ma come abbiamo visto, non possiamo aggiungere un'area senza portarla da qualche altra parte. Cubare le cose sopra 1 le tira fuori più che cubare le cose sotto 1 può "tirarle dentro", quindi se aggiungiamo $ D $ mentre sottraiamo $ C $, il terzo momento aumenterà ancora. Allo stesso modo se aggiungiamo $ B $ mentre sottraiamo $ A $, il terzo momento tenderà di nuovo ad aumentare. Cioè, il senso approssimativo "aumento dell'asimmetria" a cui siamo appena arrivati ​​sembra corrispondere abbastanza bene al terzo momento.

Ora questa discussione non esclude affatto il quinto e il momento superiore, anzi un l'aumento del terzo momento tenderà anche ad aumentare il quinto (a meno che non lo si faccia con molta attenzione), ma il terzo momento (standardizzato) sarà circa il modo più semplice per catturare la nozione di asimmetria utilizzando una misura basata sul momento; mentre il quinto momento è più complesso e può muoversi in modi che non catturano il nostro senso di asimmetria come fa il terzo momento.

Il terzo momento standardizzato non corrisponde perfettamente al nostro senso di asimmetria, ma è una misura abbastanza buona e semplice che per lo più gli corrisponde.

L'unica spiegazione che ho scoperto è stata che poiché la media è il centro dei dati e aumentarla alla potenza dispari annullerebbe il termine e la risposta finale saranno Zero se la distribuzione dei dati è simmetrica e non zero se non è simmetrica. È vero?

1) Nonostante tali commenti siano molto facili da trovare nei trattamenti elementari **, in senso stretto, riguardo alle distribuzioni di probabilità, nessuna delle due parti è effettivamente vera.

a) È possibile che una distribuzione sia simmetrica ma non abbia un terzo momento zero. Un semplice controesempio è qualsiasi distribuzione t con 3 o meno gradi di libertà. Nei campioni, tuttavia, la simmetria implica zero terzo momento, ma i campioni non sono quasi mai perfettamente simmetrici, quindi non è molto utile neanche lì.

b) È possibile che una distribuzione asimmetrica abbia zero terzo momento.

Quindi la simmetria non implica necessariamente zero terzo momento e zero terzo momento non implica necessariamente simmetria.

2) In ogni caso, ciò non spiegherebbe "perché il terzo momento anziché il quinto", poiché la quinta potenza sarebbe tanto strana quanto la terza.

** ( in effetti, poiché spesso mi viene chiesto se consiglierei un libro in particolare, la seconda parte (ovvero l'affermazione che $ \ gamma_1 = 0 $ implica simmetria) è uno dei numerosi "test rapidi" che utilizzo per valutare se vale la pena di un libro elementare esaminando più da vicino - se un testo inciampa su due o più degli errori di base comuni che tendo a vedere, non mi preoccupo di perdere altro tempo a cercare.)


Riferimenti

[1]: Pearson, K. (1895),
"Contributions to the Mathematical Theory of Evolution, II: Skew Variation in Homogeneous Material",
Philosophical Transactions della Royal Society , Serie A, 186, 343-414
[Fuori copyright. Disponibile gratuitamente qui]

[2]: Pearson, K. (1905),
"Das Fehlergesetz und Seine Verallgemeinerungen Durch Fechner und Pearson.", Una controreplica (Skew variazione, una controreplica),
Biometrika , 4 (1905), pp. 169–212.
[Anche se questo è anche fuori dal diritto d'autore (posso trovare copie di un Biometrika da 3 anni dopo, ad esempio), non riesco a trovare una copia di questo a cui posso collegarti. Oxford Journals vuole addebitare $ 38 per un giorno di accesso a qualcosa che non è più protetto da copyright. Se non hai accesso istituzionale a uno dei luoghi che forniscono l'accesso, potresti non essere fortunato con questo.]

[3]: Cox, N. J. (2010),
"Speaking Stata: The limits of sample skewness and kurtosis",
The Stata Journal , 10 , Number 3, pp. 482–495 (disponibile online qui)

[4]: ​​Thiele, TN (1889),
Forlæsinger over Almindelig Iagttagelseslære: Sandsynlighedsregning og Mindste Kvadraters Methode ,
Copenhagen: CA Reitzel. [Fuori copyright. C'è una traduzione inglese - vedere il riferimento a Thiele in [3].]

[5]: Miller, Jeff; et al., (accesso effettuato il 16 agosto 2014),
I primi usi noti di alcune parole di matematica ,
Vedi qui

Vari commenti storici sono sparsi in tutto il mio articolo, Cox, N.J. 2010. I limiti dell'asimmetria e della curtosi del campione. _Stata Journal_ 10: 482-495 accessibile a tutti su http://www.stata-journal.com/sjpdf.html?articlenum=st0204 @Glen_b ha ragione sul fatto che c'è una storia prima di Karl Pearson, che era meno che gentile e meno che sincero, riconoscendo il lavoro precedente di TN Thiele.
_Biometrika_ è accessibile tramite www.jstor.org se hai accesso a quello.
(mean $ - $ median) / SD ha la proprietà interessante ea prima vista sorprendente di trovarsi in $ [- 1,1] $, qualcosa che viene periodicamente riscoperto. Sebbene necessariamente nessuna singola misura possa catturare tutto ciò che si potrebbe desiderare, merita un po 'più di utilizzo come misura descrittiva. Occasionalmente avrà il segno "sbagliato", così come qualsiasi misura del genere. I momenti L meritano più uso per descrivere la forma di distribuzione.
@Nick - grazie soprattutto per la menzione di Thiele; il tuo articolo merita di essere letto, anzi inserirò un link nella mia risposta. Ho avuto occasione di consultare il lavoro di Lauritzen molti anni fa quando stavo scrivendo un piccolo articolo in parte sul lavoro di Thiele su una forma (leggermente) più elementare di quello che ora chiamiamo filtro di Kalman, ma potevo avere il libro solo per un paio di ore e concentrato solo sulle sezioni di cui avevo bisogno; Ovviamente ho perso molta importanza. Thiele era - e continua ad essere - terribilmente sottovalutata.
Infatti: il libro di Lauritzen su Thiele contiene materiale affascinante. Vedi http://ukcatalogue.oup.com/product/9780198509721.do ma tieni presente che è costoso.
Grazie per la correzione @NickCox: è quello che ottengo per essere pigro e copiare il riferimento senza guardare abbastanza attentamente.Conosco Phil.Trans.Roy.Soc.ma non ha individuato la trasposizione nel riferimento.
Grazie mille a tutti per tutte le vostre meravigliose risposte e spiegazioni, e Yeh, intendevo il terzo momento.Quello che voglio dire è che perché l'asimmetria è definita come Terzo momento centrale e non Quinto o qualsiasi altro numero?Qual è la logica dietro.L'unica spiegazione che ho scoperto è stata che poiché la media è il centro dei dati e aumentarla alla potenza dispari annullerebbe il termine e la risposta finale sarà zero se la distribuzione dei dati è simmetrica e non zero se non è simmetrica.È vero?
Ho risposto in una modifica alla mia risposta.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...