Domanda:
Se utilizzare EFA o PCA per valutare la dimensionalità di un insieme di elementi Likert
giovanna
2011-06-08 17:57:46 UTC
view on stackexchange narkive permalink

Questo fa seguito alla mia domanda precedente sulla valutazione dell'affidabilità.

Ho progettato un questionario (sei elementi Likert a 5 punti) per valutare l'atteggiamento di un gruppo di utenti nei confronti un prodotto. Vorrei stimare l'attendibilità del questionario per esempio calcolando l'alfa o lambda6 di Cronbach. Quindi, devo controllare la dimensionalità della mia scala. Ho visto che alcune persone usano la PCA per scoprire il numero di dimensioni (ad esempio i componenti principali), altre persone preferiscono usare l'EFA.

  • Qual è l'approccio più adatto?
  • Inoltre, se trovo più di un componente principale o più di un fattore latente significa che ne sto misurando più di uno costruire o più aspetti dello stesso costrutto?
Quanti soggetti sono disponibili? Hai osservato effetti soffitto / pavimento sui tuoi articoli (distribuzione delle risposte spostata verso valori alti o bassi) o eventuali risposte incoerenti?
Tre risposte:
#1
+11
Jeromy Anglim
2011-09-29 11:16:26 UTC
view on stackexchange narkive permalink

EFA contro PCA

In una domanda precedente sulle differenze tra EFA e PCA, dichiaro:

  • L'analisi dei componenti principali implica l'estrazione composizioni lineari di variabili osservate.
  • L'analisi fattoriale si basa su un modello formale che prevede variabili osservate da fattori teorici latenti.

Trovo che tipicamente nel contesto dello sviluppo l'analisi fattoriale delle scale è teoricamente più appropriata. Spesso si presume che i fattori latenti causino le variabili osservate.

Valutazione della dimensionalità della scala

Determinare la dimensionalità alla base di un insieme di elementi likert non è solo una questione di EFA rispetto a PCA. Esistono più tecniche. William Revelle ha del software in R per implementare diverse tecniche ( vedi questa discussione).

In generale raramente c'è una risposta definitiva su quanti fattori sono richiesti per modellare un insieme di articoli. Se estrai più fattori, puoi spiegare più varianza negli elementi. Ovviamente, solo per caso potresti spiegare qualche varianza, quindi alcuni approcci cercano di escludere il caso (ad esempio, il test parallelo). Tuttavia, anche con campioni molto grandi, in cui la probabilità diventa meno spiegazione, mi aspetto di vedere aumenti sistematici ma piccoli della varianza spiegati dall'estrazione di più fattori. Quindi, ti resta il problema di quanta varianza deve essere spiegata dal primo fattore rispetto agli altri per concludere che la scala è sufficientemente unidimensionale per il tuo scopo. Tali problemi sono strettamente legati all'applicazione e questioni più ampie di validità.

Potresti trovare utile leggere il seguente articolo, per una discussione più ampia delle definizioni e degli approcci per quantificare l'unidimensionalità:

Hattie , J. (1985). Revisione metodologica: valutazione dell'unidimensionalità di test e oggetti. Misurazione psicologica applicata , 9 (2): 139.

Ecco una presentazione web che esamina alcune regole decisionali diverse per definire l'unidimensionalità

#2
+7
richiemorrisroe
2011-09-29 14:31:39 UTC
view on stackexchange narkive permalink

In primo luogo, né PCA né EFA ti forniranno una stima della dimensione della scala. Entrambe sono essenzialmente tecniche di riduzione dei dati. Detto questo, EFA è probabilmente migliore per questo scopo in quanto ti dice quanta parte della varianza in ciascuna domanda è rappresentata nel modello (la comunità).

Per stimare la dimensione, è necessario utilizzare un'altra tecnica. I migliori tendono ad essere l'analisi parallela, il criterio parziale medio minimo e l'esame del diagramma del ghiaione. Gli autovalori maggiori di uno tendono a non funzionare bene in questa situazione.

Se hai una grande quantità di dati, ti suggerisco di prenderne 2/3 e costruire modelli. Quindi, adatta i modelli che hai sviluppato all'ultimo terzo dei tuoi dati. Ciò ridurrà le possibilità di un adattamento eccessivo dei dati (ad es. Rumore di modellazione). Questa è una forma di convalida incrociata ed è estremamente importante quando si utilizzano tecniche come l'analisi fattoriale e l'analisi delle componenti principali, poiché ci sono molte decisioni soggettive (fattori, rotazioni, ecc.) Che devono essere prese come parte del processo.

Un utente ha suggerito di apportare una modifica al secondo paragrafo per indicare che la dimensione non è "determinata" ma è stimata: il valore "migliore" per essa (in un certo senso) è stato trovato. Penso che il suggerimento abbia valore, ma non mi sono sentito a mio agio nell'approvare la modifica perché la tua opinione in merito non è del tutto chiara qui. Forse, per risolvere questo problema, potresti voler chiarire questo punto?
@whuber - ho cambiato il mio secondo paragrafo, era una parola scelta male.
#3
+4
Peter Flom
2011-09-29 15:42:47 UTC
view on stackexchange narkive permalink

Due cose non menzionate finora: Una: con solo 6 elementi, avrai difficoltà a trovare molte dimensioni. Due: se esegui l'EFA, invece di guardare i grafici di ghiaia o gli autovalori o qualche altro test numerico, esamina diverse soluzioni e vedi quale ha senso. Idealmente, sarai in grado di seguire @richiemorrisroe e avere una formazione e un campione di prova, soprattutto con così pochi elementi.

sono d'accordo con l'approccio vedi cosa ha senso, ma trovo (almeno) che i test numerici possano indicare una gamma di possibili soluzioni da esaminare, che possono poi essere verificate sia con mezzi numerici che con la loro coerenza con la misura e gli obiettivi di lo studio.
Sono d'accordo. Ma trovo che molte persone sembrano desiderare che i test numerici "rispondano" alla domanda piuttosto che fornire una gamma di possibilità


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...