Analisis faktor merupakan metode analisis multivariat yang didasarkan pada hubungan antar variabel. Analisis faktor termasuk salah satu teknik statistika yang sanggup dipakai untuk memperlihatkan deskripsi yang relatif sederhana melalui reduksi jumlah variabel yang disebut faktor.
Analisis faktor dipergunakan untuk mereduksi data atau meringkas, dari variabel usang yang banyak diubah menjadi sedikit variabel gres yang disebut faktor, dan masih memuat sebagian besar gosip yang terkandung dalam variabel orisinil (Supranto, 2004).
Daftar Isi
Pengertian Analisis Faktor

Variabel latent atau variabel untuk data-data kualitatif harus melalui pengujian kelayakan dan keabsahan terlebih dahulu (validitas dan realibilitas) sebelum dikelompokkan menjadi variabel yang akan di analisis faktor.
Baca:
Analisis faktor dalam analisis multivariate tergolong analisis interdependensi (interdependence technique) dimana seluruh set hubungan yang interdependen diteliti.Variabel yang berada dalam satu kelompok akan mempunyai hubungan yang tinggi sedangkan variabel yang berbeda kelompok akan mempunyai hubungan yang rendah.
Dalam goresan pena Supranto, dikatakan bahwa analisis faktor dipakai untuk mereduksi data/variabel. Analisis faktor dipergunakan dalam kondisi sebagai berikut :
- Mengenali atau mengidentifikasi dimensi yang mendasari (underlying dimensions) atau faktor, yang menjelaskan hubungan antara suatu set variabel.
- Mengenali atau mengidentifikasi suatu set variabel gres yang tidak berkorelasi (independent) yang lebih sedikit jumlahnya untuk
- menggantikan suatu set variabel orisinil yang saling berkorelasi di dalam analisis multivariat selanjutnya.
- Mengenali atau mengidentifikasi suatu set variabel yang penting dari suatu set variabel yang lebih banyak jumlahnya untuk dipergunakan dalam analisis multivariat selanjutnya.
Jika vektor acak (random vector) \(X=X_{1},X_{2},X_{3},…X_{p}\) mempunyai vektor rata-rata µ dan matriks ragam peragam Σ , secara linear bergantung pada sejumlah faktor yang tidak teramati \(F_{1},F_{2},F_{3},…F_{m}\) yang disebut faktor umum (common factor) dan \(\varepsilon_{1},\varepsilon_{2},\varepsilon_{3},…\varepsilon_{p}\) yang disebut faktor khusus (specific factors).
Maka model dari analisis faktor adalah:
\(X_{1}-\mu_1=l_{11}F_{1}+l_{12}F_{2}+…+l_{1m}F_m+\varepsilon_1\)
\(X_{2}-\mu_2=l_{21}F_{1}+l_{22}F_{2}+…+l_{2m}F_m+\varepsilon_1\)
\(\vdots\)
\(X_{p}-\mu_p=l_{p1}F_{1}+l_{p2}F_{2}+…+l_{pm}F_m+\varepsilon_p\)
Dan kalau kita akan menuliskannya kedalam notasi matriks, bentuknya sebagai berikut:
\(X_{(p\times1)}-\mu=L_{(p\times m)}F_{(m\times1)}+\varepsilon_p\)
Keterangan:
X = vektor variabel asal
µ = vektor rata-rata variabel asal
L = matrik loading factor
F = vektor faktor bersama
\(\varepsilon\) = vektor faktor spesifik
Pembentukan model di atas dilakukan menurut asumsi-asumsi berikut:
1. \(E(F) = 0_{(m\times1)}\)
2. \(Cov(F) = E (FF^{‘}) =I_{(m\times m)}\)
3. \(E(\varepsilon) = 0_{(p\times1)}\)
4. \(Cov (\varepsilon) = E (\varepsilon \varepsilon^{‘}) =\Psi_{(p\times p)}=\begin{bmatrix} \Psi_{1} & 0 & \cdots & 0\\ 0 & \Psi_{1} & \cdots & 0\\ 0 & 0& \ddots & \vdots\\ 0 & 0& \cdots & \Psi_{p}\\ \end{bmatrix}\)
5. \(Cov(\varepsilon, F) = E (\varepsilon F^{‘}) = 0_{(p\times m)}\)
Adapun struktur kovarian untuk model faktor orthogonal adalah:
1. \(Cov (X) = LL^{‘}+\Psi\) ; atau
\(Var (X_{i}) =l_{i1}^{2} + l_{i2}^{2} + … + l_{im}^{2}+\Psi_i\)
\(Cov (X_{i},X_{j}) = l_{i1}l_{j1} +l_{i2}l_{j2}+…+l_{im}l_{jm}\)
2. \(Cov (X, F)= L\) ; atau
\(Cov (X_i,F_j) =l_{ij}\)
Model \((X−\mu) =LF+\varepsilon\) adalah linear dalam faktor umum. Bagian dari Var \(X_{i}\) yang sanggup diterangkan oleh m faktor umum disebut communality ke-i, sedangkan bagian-bagian dari Var \(X_{i}\) yang merupakan faktor spesifik disebut uniqueness atau keragaman spesifik (spesific varians) ke-i.
Maka variansya sanggup ditulis sebagai berikut:
\(\sigma_{ii}=l_{i1}^{2}+l_{i2}^{2}+l_{i3}^{2}+\cdots+l_{im}^{2}+\psi_i=h_{i}^{2}+\psi_i\)
Keterangan:
\(l_{ij}=\) loading factor
\(l_{i}^{2}=\) Communality ke-i
\(\psi_{i}=\) keragaman spesifik ke-i
Nilai loading memperlihatkan hubungan antara faktor umum yang terbentuk dengan variabel asal, semakin besar nilai loading maka semakin erat hubungan diantara keduanya.
Hair (1998) dalam tulisannya menyatakan bahwa nilai minimal loading yang digunakan ialah lebih besar dari ± 0.30; loading ± 0.40 dianggap penting; dan loading ± 0.50 atau lebih besar dinyatakan signifikan.
Metode Analisis Faktor
Terdapat dua cara yang sanggup dipergunakan dalam melaksanakan analisis faktor khususnya koefisien skor faktor, yaitu Principal component analysis (PCA) dan Common factor analysis (CFA).
1. Principal component
Jumlah varian yang terdapat dalam gugus data harus dipertimbangkan. Diagonal matrik hubungan terdiri dari angka satu dan full variance dibawa dalam matriks faktor. Principal component direkomendasikan kalau hal yang pokok ialah menentukan bahwa banyaknya faktor harus minimum dengan memperhitungkan varians maksimum dalam data untuk dipergunakan di dalam analysis multivariate lebih lanjut.
2. Common factor analysis
Faktor yang diestimasi hanya didasarkan pada common variance dan communalities yang dimasukkan dalam matrik korelasi. Metode ini dianggap sangat sempurna kalau tujuan utamanya ialah untuk mengenali/mengidentifikasi dimensi yang mendasari dan common variance yang menarik perhatian.
Langkah-langkah Melakukan Analisis Faktor
Supranto (2004) mengemukakan bahwa langkah-langkah dalam menentukan analisis faktor ialah pertama merumuskan dilema dan mengidentifikasi variabel orisinil yang akan dianalisis faktor. Kemudian suatu matriks hubungan dari variabel dibuat dan metode analisis faktor dipilih. Peneliti menentukan banyaknya faktor yang akan dipilih (extracted) dari variabel yang banyak tersebut dan metode rotasi akan dipergunakan. Selanjutnya menginterpretasikan faktor hasil rotasi.
Berikutnya tergantung pada tujuan penelitian, menghitung skor faktor ataukah menentukan surrogate variable, untuk mewakili faktor yang akan dipakai untuk analisis multivariat selanjutnya. Dengan mengacu pada teori diatas, secara singkat, proses analisis faktor sanggup dilakukan tahapan sebagai berikut:
- Mengelompokan variabel-variabel yang akan dianalisis faktor dalam suatu permasalahan dan menyusun matriks korelasinya.
- Melakukan Ekstraksi faktor.
- Merotasi faktor.
- Menghitung skor faktor
– Interpretasikan Faktor
– Pembuatan factor scores.
– Pilih variabel surrogate atau tentukan summated scale.
1. Pemeriksaan matriks korelasi
Seperti dijelaskan sebelumnya bahwa analisis faktor didasari oleh hubungan antara variabel-variabel yang digunakan. Variabel awal yang dipakai merupakan variabel yang saling berkorelasi diperlukan sesudah dilakukan analisis faktor akan terbentuk set variabel gres yang lebih sedikit dan tidak berkorelasi.
Oleh sebab itu, langkah pertama perlu dicek apakah terdapat hubungan antar variabel yang diteliti, sebab kalau tidak terdapat hubungan maka analisis faktor yang dipakai menjadi tidak berguna.
Pemeriksaan matriks hubungan sanggup dilakukan dengan tiga cara yaitu;
- Uji Bartlett
- Uji KMO
- Uji MSA
Uji Bartlett (Bartlett Test of Sphericity)
Pengujian ini dipakai untuk melihat apakah matriks hubungan bukan merupakan matriks identitas. Tujuan dari melihat apakah matriks hubungan merupakan matriks identitas atau bukan ialah supaya penyusutan dimensi peubah menjadi lebih sederhana dan bermanfaat tanpa banyak kehilangan gosip sebelumnya.
Apabila dari uji Bartlett kesudahannya significant, maka matriks hubungan bukan matriks identitas. Maka penyusutan dimensi peubah tersebut bermakna untuk dilakukan analisis komponen utama. Dengan kata lain, pengurangan peubah akan mempunyai arti dan kegunaan.
Tahapan dari pengujian ini ialah sebagai berikut:
\({\color{Red}\star}\) Hipotesis
\(H_0\): Matriks hubungan merupakan matriks identitas
\(H_1\): Matriks hubungan bukan merupakan matriks identitas
\({\color{Red}\star}\) Statistik Uji
\(\chi_{obs}^{2}=-[(N-1)-\frac{(2p+5)}{6}]ln|R|\)
Keterangan:
N = jumlah observasi
p = jumlah peubah
|R| = determinasi dari matriks korelasi
\({\color{Red}\star}\) Pengambilan Keputusan
Keputusan tolak \(H_0\) apabila nilai \(\chi_{obs}^{2}>\chi_{\alpha,p(p-1)/2}^{2}\) Setelah dilakukan pengujian terhadap matriks korelasi, perlu diketahui apakah data layak untuk dianalisis lebih lanjut memakai analisis faktor.
Untuk menguji kelayakan tersebut dipakai uji KMO (Kaiser Meyer Olkin).
Uji KMO (Kaiser Meyer Olkin)
KMO dipakai untuk mengukur kecukupan sampling (sampling adequacy). Nilai ini membandingkan besarnya koefisien hubungan terobservasi dengan koefisien hubungan parsial. Nilai KMO yang kecil memperlihatkan bahwa korelasi antar pasangan variabel tidak sanggup diterangkan oleh variabel lainnya dan analisis faktor mungkin tidak tepat.
Rumusnya adalah:
\(KMO=\frac{\sum_i \sum_{i\neq j}r_{ij}^{2}}{\sum_i \sum_{i\neq j}r_{ij}^{2}+\sum_i \sum_{i\neq j}\alpha_{ij}^{2}};i=1,2,..,p ;j=1,2,…,p\)
Keterangan:
\(r_{ij}\) = koefisien hubungan sederhana antara peubah i dan j
\(alpha_{ij}\) = koefisien hubungan parsial antara peubah i dan j
Menurut Kaiser (1970) dalam Widarjono (2010) evaluasi uji KMO ialah sebagai berikut :
Rentang Nilai KMO | Kategori Penilaian |
0,9≤KMO≤1,0 | data sangat baik (marvelous) untuk analisis faktor |
0,8≤KMO<0,9 | data baik (meritorious) untuk analisis faktor |
0,7≤KMO<0,8 | data cukup (middling) untuk analisis faktor |
0,6≤KMO<0,7 | data kurang (mediocre) untuk analisis faktor |
0,5≤KMO<0,6 | data jelek (miserable) untuk analisis faktor |
KMO≤0,5 | data tidak sanggup diterima (unacceptable) untuk analisis faktor |
[otw_shortcode_info_box border_type=”bordered” border_color_class=”otw-aqua-border” border_style=”dashed” background_pattern=”otw-pattern-1″]Kriteria diatas sanggup anda jadikan pola penentuan evaluasi pada output SPSS[/otw_shortcode_info_box]
Pengujian dengan MSA
Selanjutnya untuk menilai kelayakan setiap variabel untuk dianaisis faktor dipakai kriteria Measure of Sampling Adequacy (MSA).
Hair dan Anderson (1998) menyatakan bahwa MSA merupakan ukuran lain yang dipakai untuk mengukur interkorelasi antar variabel dan kesesuaian dari analisis faktor.
Santosa (2002) mengemukakan kriteria MSA yang dipakai adalah:
Rentang Nilai MSA | Kriteria Kategori Penilaian |
MSA = 1 | variabel sanggup diprediksi tanpa kesalahan oleh variabel lain |
MSA ≥ 0,5 | variabel masih sanggup diprediksi dan dianalisis lebih lanjut |
MSA < 0,5 | variabel sanggup dieliminasi untuk tidak disertakan dalam analisis faktor |
[otw_shortcode_info_box border_type=”bordered” border_color_class=”otw-aqua-border” border_style=”dashed” background_pattern=”otw-pattern-1″]Kriteria diatas sanggup anda jadikan pola penentuan evaluasi pada output SPSS[/otw_shortcode_info_box]
Hair (1998) menyatakan bahwa kenaikan nilai MSA ditentukan oleh: 1) kenaikan ukuran sampel, 2) kenaikan hubungan rata-rata, 3) kenaikan jumlah variabel, atau 4) penurunan jumlah faktor.
2. Ekstraksi faktor
Ekstraksi faktor ialah proses mereduksi sejumlah variabel menjadi sejumlah set variabel gres atau faktor yang jumlahnya lebih sedikit. Misal terdapat p variabel asal, sesudah diekstraksi akan menjadi m faktor dimana m<p. metode ekstraksi faktor berkaitan dengan penentuan jumlah faktor yang menggambarkan struktur data. Supranto (2004) menyatakan bahwa terdapat 2 metode yang sanggup dipergunakan dalam analisis faktor, khususnya untuk menghitung timbangan atau koefisisen skor faktor, yaitu Pricipal Component Analysis dan Common Factor Analysis.
Dalam Principal Component Analysis, jumlah varian dalam data dipertimbangkan. Jika tujuan dari penggunaan analisis faktor ialah untuk mereduksi data dan mendapat jumlah faktor minimum yang dibutuhkan untuk merepresentasikan data asal, maka direkomendasikan menggunakan Pricipal Component Analysis.
Di dalam Common Factor Analysis faktor diestimasi menurut common variance, communalities dimasukkan dalam matriks korelasi. Metode ini dianggap sempurna kalau tujuan utama penggunaan analisis faktor ialah untuk mengidentifikasi secara teoritis dimensi yang bermakna. Metode ini juga dikenal sebagai principal axis factoring.
Hair dan Anderson (1998) menyatakan bahwa terdapat beberapa kriteria dalam menentukan sejumlah faktor yang terbentuk, yakni:
a. Kriteria akar ciri
Teknik yang paling sering dipakai ialah dengan melihat akar ciri. Alasan penggunaan akar ciri ialah sebab setiap variabel mempunyai bantuan nilai 1 terhadap total akar ciri. Sehingga faktor dengan nilai akar ciri ≥1 yang dianggap signifikan, sedangkan untuk faktor yang nilai akar cirinya < 1 dianggap tidak signifikan dan harus dikeluarkan dari model.
b. Kriteria persentase keragaman
Penentuan jumlah faktor dilihat dari nilai spesifik dari persentase kumulatif keragaman yang sanggup dijelaskan oleh faktor yang terbentuk. Dalam penelitian ilmiah ekstraksi faktor tidak akan dilarang sebelum mencapai total keragaman 95%, namun dalam ilmu sosial batas total keragaman yang dipakai hanya 60%.
c. Kriteria scree test
Teknik ini dilakukan dengan menciptakan plot antara jumlah faktor yang terbentuk (sumbu horizontal) dengan akar ciri (sumbu vertikal). Dengan melihat bentuk dari kurva yang telah diplotkan ditentukan jumlah faktor yang akan digunakan. Semakin melandai kurva maka ekstraksi faktor dihentikan.
Setelah menetukan jumlah faktor yang terbentuk, tahap selanjutnya ialah melaksanakan estimasi nilai loading untuk tetapkan variabel yang menyusun faktor. Johnson dan Wichern (2002) menuliskan 2 estimasi nilai loading, yaitu metode komponen utama (principal component analysis) dan metode maximum likelihood. Metode yang paling sering dipakai ialah metode komponen utama
karena metode maximum likelihood digunakan dikala faktor umum F dan faktor khusus ɛ diasumsikan berdistribusi normal. Metode komponen utama memanfaatkan dekomposisi spektral dari matriks covariance Σ untuk mengestimasi nilai loading. Jika matriks covariance sampel S mempunyai pasangan akar ciri dan vektor ciri (\(\hat{\lambda}_i,\hat{e}_i\)) dengan \(\hat{\lambda}_1\) ≥\(\hat{\lambda}_1\)≥…≥\(\hat{\lambda}_p\)≥0, maka;
\(s=\sqrt{\hat{\lambda_1}\hat{e_1}}\sqrt{\hat{\lambda_2}\hat{e_2}}\cdots \sqrt{\hat{\lambda_p}\hat{e_m}}\begin{bmatrix} \sqrt{\hat{\lambda_1}\hat{e^{‘}}_1}\\ \sqrt{\hat{\lambda_2}\hat{e^{‘}}_2}\\ \vdots \\ \sqrt{\hat{\lambda_p}\hat{e^{‘}}_m} \end{bmatrix} +\begin{bmatrix} \hat{\psi _1} &0 &\cdots & 0\\ 0& \hat{\psi _2} & \cdots &\vdots \\ \vdots &\vdots & \ddots & \\ 0& 0& \cdots & \hat{\psi _m} \end{bmatrix}\)
\(s=\tilde{L}\tilde{L}^{‘}+\tilde{\psi }\)
dimana, \(\psi _i=s_{ii}-\sum_{j=1}^{m}\tilde{l}_{ij}^{2};i=1,2,..,p\)
Maka estimasi matriks loadingnya ialah :\(\hat{L}=\sqrt{\hat{\lambda_1}\hat{e}_1}\sqrt{\hat{\lambda_2}\hat{e}_2}\cdots \sqrt{\hat{\lambda_p}\hat{e}_m}\)
Dalam kasus dimana peubah mempunyai satuan yang berbeda-beda, maka perlu dilakukan standarisasi dengan cara :
\(Z_j=\begin{bmatrix} \frac{x_{j1}-\bar{x}_2}{\sqrt{s_{22}}}\\ \frac{x_{j1}-\bar{x}_1}{\sqrt{s_{11}}}\\ \vdots \\ \frac{x_{j1}-\bar{x}_p}{\sqrt{s_{pp}}} \end{bmatrix} ; j=1,2,…,n\)
sehingga matriks covariance yang dipakai ialah matriks hubungan R dari observasi x1, x2, …, xn. Standarisasi berkhasiat untuk menghindari dilema peubah dengan variasi besar yang memengaruhi nilai loading factors.
3. Rotasi faktor
Interpretasi hasil analisis yang dilakukan seringkali menyusahkan. Langkah penting dalam interpretasi faktor ialah rotasi faktor (Hair, 1998) Rotasi dilakukan hingga struktur yang lebih sederhana diperoleh. Dua jenis metode untuk rotasi faktor ialah Orthogonal dan Oblique (Rummel, 1970).
Rotasi orthogonal mengasumsikan bahwa faktor-faktor terbentuk ialah independent, proses rotasinya dengan mempertimbangkan sudut 900 antar sumbu kedua faktor umum. Sedangkan rotasi oblique tidak mengharuskan bahwa sudut yang dipakai ialah 900.
Beberapa andal menyarankan untuk memakai rotasi orthogonal yakni varimax (variance of maximum) sebab menghasilkan struktur faktor yang sederhana dengan memaksimumkan jumlah varians dari faktor yang memuat nilai loading kuadrat (Johnson dan Wichern, 2002).
Menurut Wijaya (2010) dengan metode varimax banyak variabel sanggup mempunyai loading tinggi atau mendekati tinggi pada faktor yang sama sebab fokus tekniknya untuk menyederhanakan baris, sehingga kecenderungan mempunyai loading tinggi dan beberapa loading mendekati 0 (nol) pada setiap kolom matrik. Oleh sebab itu, pada beberapa penelitian, kedua metode rotasi yang dipakai ialah rotasi orthogonal dengan varimax.
Rotasi Varimax ialah rotasi yang memaksimalkan faktor pembobot dan menjadikan hubungan peubah-peubah dengan suatu faktor mendekati satu serta hubungan dengan faktor lainnya mendekati nol sehingga gampang diinterpretasikan. Rotasi tersebut menghasilkan matriks loading baru \(L^{*}\) yaitu:
\(L^{*}_{(p\times q)}=L_{(p\times q)}.T_{(q\times q)}\)
Dimana T= matriks transformasi yang dipilih sehingga T’T=TT’ = I
Matriks tranformasi T ditentukan sedemikian rupa sehingga total keragaman kuadrat loading L menjadi maksimum.
Rotasi merupakan suatu upaya untuk menghasilkan faktor penimbang gres yang lebih gampang diinterpretasikan. Yaitu dengan mengalikan faktor penimbang awal dengan matriks transformasi yang bersifat orthogonal, sehingga matriks korelasinya tidak akan berubah. Dari merotasi matriks loading menyebabkan setiap peubah asal mempunyai hubungan yang tinggi terhadap faktor tertentu saja sedangkan faktor lain mempunyai hubungan relatif sehingga setiap faktor akan lebih gampang diinterpretasikan.
4. Menghitung skor faktor
Skor faktor merupakan ukuran komposit dari masing-masing variabel asal pada masing-masing faktor yang diekstraksi dalam analisis faktor (Hair, 1998). Skor faktor merupakan skor komposit yang diestimasi untuk setiap responden pada faktor turunan (derived factors) (Supranto, 2004).
Skor faktor biasanya dihitung kalau hasil dari analisis faktor akan dipakai untuk analisis lanjutan, sebab bahu-membahu tanpa menghitung skor faktor hasil dari analisis ini sudah bermanfaat yaitu kalau tujuannya hanya ingin mereduksi variabel. Penghitungan skor faktor dalam beberapa penelitian dipakai untuk mencari nilai penimbang dalam penyusunan indeks komposit.
Dalam penghitungan skor faktor terdapat beberapa metode estimasi yang sering dipakai yaitu metode weight least square dan regresi. Metode weight least square digunakan kalau dalam mengestimasi nilai loading dipakai metode maximum likelihood (Johnson dan Wichern, 2002). Oleh sebab dalam penelitian ini estimasi nilai loading dilakukan dengan metode komponen utama maka dalam mengestimasi skor faktor dipakai metode regresi. Estimasi skor faktor dengan metode regresi sanggup diperoleh dengan cara berikut :
\(\hat{f}_{(n\times m)}=(x_j-\bar{x})_{(n \times p)} S^{-1}_{(p\times p)}\hat{L}_{(p \times m)}\) dimana, j=1, 2, … n
Keterangan:
\(\hat{f}\) : skor faktor
S : matriks kovarian sampel
\(\hat{L}\) : estimasi nilai loading
Atau kalau dengan matriks hubungan estimasi skor faktornya menjadi :
\(\hat{f}_{(n \times p)}=z_{(n \times p)}R^{-1}_{(p\times p)}\hat{L}_{z(p \times m)}\) dimana, j=1, 2, … n
Keterangan:
R : matriks hubungan sampel
\(z_{(n \times p)}=(x_j-\bar{x})_{(n\times p)}D^{-1/2}_{(p\times p)}\)
dimana;
\(D^{-1/2}_{(p\times p)}=\begin{bmatrix} \frac{1}{\sqrt{S_{11}}} & 0 & \cdots & 0\\ 0& \frac{1}{\sqrt{S_{22}}} &\cdots & 0\\ \vdots & \vdots & \ddots & \vdots\\ 0& 0 & \cdots & \frac{1}{\sqrt{S_{pp}}} \end{bmatrix}\)
Skor faktor yang telah diperoleh pada analisis faktor ini selanjutnya dipakai keperluan analisis dan inferensia sesuai kebutuhan penelitian anda.
Apakah Artikel ini membantu anda?Mohon beri kan evaluasi dengan memberi bintang.
Sumber https://statmat.id