Domanda:
Una frase di spiegazione dell'AIC per i tipi non tecnici
rosser
2012-03-05 17:23:29 UTC
view on stackexchange narkive permalink

Ho bisogno di una spiegazione di una frase sull'uso dell'AIC nella costruzione di modelli. Finora ho detto "In poche parole, l'AIC è una misura relativa della quantità di variazione osservata rappresentata da diversi modelli e consente la correzione della complessità del modello."

Qualsiasi consiglio molto apprezzato.

R

Sette risposte:
Peter Flom
2012-03-05 18:13:57 UTC
view on stackexchange narkive permalink

AIC è un numero utile per confrontare i modelli in quanto include misure sia di quanto il modello si adatta ai dati sia di quanto sia complesso il modello.

gung - Reinstate Monica
2012-03-05 22:49:04 UTC
view on stackexchange narkive permalink

Quale sarebbe la spiegazione migliore dipende da cosa si intende esattamente per "tipi non tecnici". Mi piacciono le affermazioni che sono state offerte finora, ma ho un cavillo: tendono a usare il termine "complesso", e ciò che precisamente questo si intende potrebbe variare. Consentitemi di offrire questa variazione:

L'AIC è una misura di quanto bene un modello si adatta a un set di dati, mentre si adatta alla capacità di quel modello di adattarsi a qualsiasi set di dati sia o non è correlato.

+1. Penso che questa sia la chiave: quando è * più * flessibile * troppo * flessibile? Forse "aggiustare per" potrebbe essere riformulato "penalizzante"? Quindi è qualcosa come "L'AIC è una misura di quanto bene un modello si adatta a un set di dati, penalizzando i modelli che sono così flessibili da adattarsi anche a set di dati non correlati".
Sono d'accordo che dipende da cosa si intende per "tipi non tecnici". La maggior parte delle persone con cui lavoro sono dottorandi in scienze sociali, mediche o comportamentali; sono istruiti, ma non conoscono le statistiche. Ma non sono sicuro che mi piacciano le ultime parole nella tua definizione, poiché non è chiaro cosa significhi "correlato" qui. Forse nella mia definizione, potrei sostituire "numero di variabili indipendenti" con "complesso". Penso che molte persone sappiano cos'è una flebo ... Domanda interessante!
@PeterFlom, hai ragione: stiamo scambiando una possibile confusione con un'altra. Di persona, quando sai con chi stai parlando, dubito che nessuno di noi avrebbe problemi. Anche il requisito di una frase è piuttosto stretto; dammi un paio di cifre e 5 minuti e posso portare chiunque a bordo. E giusto per essere chiari, non era una critica, mi è piaciuta la tua risposta e l'ho votata positivamente.
Dimitriy V. Masterov
2012-03-06 03:53:23 UTC
view on stackexchange narkive permalink

Ecco una definizione che colloca l'AIC nel serraglio delle tecniche utilizzate per la selezione del modello. L'AIC è solo uno dei tanti modi ragionevoli per catturare il compromesso tra la bontà dell'adattamento (che viene migliorato aggiungendo la complessità del modello sotto forma di variabili esplicative extra, o aggiungendo avvertenze come "ma solo giovedì, quando piove" ) e parsimonia (più semplice == migliore) nel confrontare modelli non annidati. Ecco la stampa fine:

  1. Credo che la definizione dell'OP si applichi solo ai modelli lineari. Per cose come i probit, gli AIC sono generalmente definiti in termini di probabilità logaritmica.
  2. Alcuni altri criteri sono aggiustati $ R ^ {2} $ (che ha il minimo aggiustamento per variabili esplicative extra), Kullback- Leibler IC, BIC / SC e anche quelli più esotici, come il criterio di predizione di Amemiya, raramente visti nei luoghi selvaggi del lavoro applicato. Questi criteri differiscono in base a quanto fortemente penalizzano la complessità del modello. Alcuni hanno sostenuto che l'AIC tende a selezionare modelli che sono troppo parametrizzati, perché la penalità per la dimensione del modello è piuttosto bassa. Il BIC / SC aumenta anche la penalità all'aumentare della dimensione del campione, il che sembra una caratteristica pratica e dandy.
  3. Un bel modo per eludere la partecipazione al Criterio di informazione superiore americano, è ammettere che questi criteri sono arbitrari e per derivarle sono implicate approssimazioni considerevoli, specialmente nel caso non lineare. In pratica, la scelta di un modello da un insieme di modelli dovrebbe probabilmente dipendere dall'uso previsto di quel modello. Se lo scopo è spiegare le caratteristiche principali di un problema complesso, la parsimonia dovrebbe valere il suo peso in oro. Se la predizione è il nome del gioco, la parsimonia dovrebbe essere meno cara. Alcuni aggiungerebbero anche che anche la teoria / conoscenza del dominio dovrebbe svolgere un ruolo più importante. In ogni caso, ciò che intendi fare con il modello dovrebbe determinare quale criterio potresti utilizzare.
  4. Per i modelli nidificati , il test di ipotesi standard che limita i parametri a zero dovrebbe essere sufficiente.
sparc_spread
2012-03-05 17:35:42 UTC
view on stackexchange narkive permalink

Che ne dici di:

AIC ti aiuta a trovare il modello più adatto che utilizza il minor numero di variabili.

Se questo è troppo lontano nel non -direzione tecnica, fammelo sapere nei commenti e ne inventerò un'altra.

AIC implementa il rasoio di Occam?
@Dilip - finora oltre la linea, non puoi nemmeno più vedere la linea - lol, grazie. Penso che userò qualcosa tra quello di Peter e il mio.
John
2012-03-05 19:41:30 UTC
view on stackexchange narkive permalink

L'AIC è una misura della precisione con cui i dati vengono spiegati dal modello corretto per quanto è complesso il modello.

Wayne
2012-03-06 00:13:51 UTC
view on stackexchange narkive permalink

Il rovescio della medaglia dell'eccellente risposta di @ gung:

L'AIC è un numero che misura quanto bene un modello si adatta a un set di dati, su una scala mobile che richiede modelli più elaborati per essere significativamente più preciso al fine di valutare più in alto.

EDIT:

L'AIC è un numero che misura quanto bene un modello si adatta a un set di dati, su una scala mobile che richiede modelli che sono significativamente più elaborati o flessibili per essere anche molto più accurati.

+1, questo va bene, ma ad essere sincero mi piace di più il tuo suggerimento "penalizzante". Posso immaginare persone che non capirebbero cosa intendi per "elaborato".
@gung: Sono d'accordo che questo non lo fa proprio, ma stavo cercando di colmare il divario tra "modelli" e "spiegazioni", dove le persone possono forse immaginare che una spiegazione più elaborata dovrebbe essere più accurata per giustificare il parole in più.
Jean-Victor Côté
2012-03-06 02:22:07 UTC
view on stackexchange narkive permalink

Sia k il numero di parametri di un modello e MaxL il valore della funzione di verosimiglianza al suo massimo. Quindi l'Akaike Information Criterion è definito come $ AIC = 2k-2 \ ln \ left (MaxL \ right) $. L'obiettivo è trovare un modello che minimizzi l'AIC.

Data questa definizione, l'AIC è un criterio utilizzato per scegliere il modello che fornisce il miglior compromesso tra la scarsità del numero di parametri e la massima probabilità la stima di questi parametri.



Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...