31 Januari 2021

Langkah Analisis Diskriminan Dengan SPSS

Analisis Diskriminan merupakan metode untuk menentukan skor komposit dari variabel-variabel yang dihitung dan melekat pada anggota sampel. Yang mana dari hasil skor komposit ini,  kemudian dapat dikelompokkan tiap anggota sampel ke dalam grup/kelompok tertentu. 

Contoh Kasus

Sebuah tempat pariwisata, yang banyak dikunjungi wisatawan akan melakukan survei pada para pengunjung. Variabel penelitian antara lain informasi tempat wisata, sikap/persepsi, jumlah keluarga, umur kepala keluarga dan pendapatan responden. Informasi tempat wisata dibagi menjadi 2 kelompok yaitu kelompok 1 yang mendapatkan informasi dari promosi dan kelompok ke 2 yang tidak mendapatkan informasi promosi. Pihak manjemen ingin mengetahui faktor-faktor apa yang mempengaruhi pada masing-masing kelompok? dan apakah ada perbedaan yang signfikan antara kelompok 1 dan kelompok 2? Data yang diperoleh sebagai berikut:

Keterangan :

  1. Informasi : 1 = Mendapatkan promosi, 0= tidak ada promosi
  2. Sikap : Skala 1-5 (tidak baik- sangat baik)
  3. Jumlah anggota keluarga
  4. Umur Kepala Keluarga
  5. Pendapatan keluarga

Langkah-langkah analisis dengan SPSS

  1. Pilih Analyze >Classify >Discriminant
  2. Pindahkan variabe Informasi ke kolom Grouping Varibael, Klik Define Range. Masukan angka 0 ke kotak minum dan 1 ke kotak maximum.
  3. Pindahkan variabel sikap, jumlah keluarga, umur KK, dan pendapatan ke kolom independent
  4. Pilih Statistics dan pilih Univariate's Anova dan Box's M kemudian Continue
  5. Klik OK

Hasil Output Analisis Diskriminan

Tabel group statistics menerangkan bahwa kasus yang dianalisis ada 30 responden. Ada 15 responden yang mendapatkan informasi promosi dan 15 responden lainnya tidak mendapatkan informasi promosi.
 

Tabel test of equality of group means di atas adalah hasil analisis untuk menguji kesamaan rata-rata variabel. Uji ini menggunakan wilk's lambda dan nilai signifikansi. Jika angka wilk's lambda mendekati angka 0 maka cenderung ada perbedaan dalam kelompok. Kriteria nilai signifikansi jika nilai signifikansi > 0.05 maka ada perbedaan dalam kelompok. 

Untuk variabel Sikap nilai wilk's lambda 0.978 dengan signifikansi 0.435, karena nilai signifikansi 0.435 > 0.05 maka kesimpulan tidak ada perbedaan untuk sikap dalam kelompok. Demikian juga untuk Umur KK memiliki nilai signifikansi 0.257 > 0.05 artinya tidak ada perbedaan dalam kelompok. Hanya variabel Jumlah keluarga dan Pendapatan yang memiliki perbedaan dalam kelompok tersebut karena nilai signifikansi < 0.05. Dengan demikian jumlah keluarga dan pendapatan merupakan faktor pembeda dalam mencari informasi promosi wisata. Artinya bahwa jumlah keluarga yang sedikit dan banyak akan mempengaruhi kelompok untuk mencari informasi promosi wisata. demikian juga halnya dengan variabel pendapatan yang kecil dan besar akan mempengaruhi kelompok dalam mencari informasi wisata.

Untuk menguji kesamaan varian digunakan angka Box's M dengan ketentuan jika nilai signifikansi > 0.05 maka H0 diterima yang artinya bahwa kedua kelompok data adalah identik/homogen. Dari tabel Box's M diketahui bahwa nilai yang didapat sebesar 16,133 dengan signifkansi sebesar 0.192. Karena nilai signifikansi 0.192 > 0.05 maka terima H0 yang artinya bahwa kedua kelompok data adalah homogen.

NB. Jika tidak terpenuhi asumsi ini dapat dilakukan eksplorasi data untuk melihat kemungkinan ada tidaknya outlier data.

Pada tabel eigenvalues terdapat nilai canonical correlation. Nilai canonical correlation digunakan untuk mengukur derajat hubungan antara hasil diskriminan atau besarnya variabilitas yang mampu diterangkan oleh variabel independen terhadap variabel dependennya.

Diketahui bahwa nilai caninical correlation sebesar 0.795 jika dikuadratkan menjadi (0.795 x 0.795) = 0.632, artinya bahwa 63.2% varians dari variabel independen (kelompok) dapat dijelaskan oleh model diskriminan yang terbentuk.

Pada tabel wilk's lambda diketahui memperoleh nilai 0.368,  chi-square 26.013 dan signifikansi sebesar 0.000 lebih kecil dari 0.05 yang artinya bahwa ada perbedaan yang signifikan antara kedua kelompok responden yang didasarkan pada keempat variabel bebas.

Tabel structure matrix menunjukkan urutan karakteristik yang paling membedakan perilaku dua kelompok wisatawan, dapat dilihat pada nilai function. Karakteristik pendapatan paling tinggi perbedaannya kemudian jumlah keluarga, umur KK dan terakhir ada Sikap.

Berdasarkan angka tabel di atas, terdapat dua kelompok yang berbeda yaitu kelompok tidak ada promosi dengan centroid (rata-rata kelompok) negatif dan kelompok promosi dengan centorid (rata-rata kelompok) positif.

Setelah mengetahui hasil analisis diskriminan di atas, selanjutnya dilakukan pengujian signifikansi perbedaan antara dua kelompok  dan mencari faktor pembeda yang mempengaruhi terbentuknya klasifikasi dua kelompok tersebut.

Langkah analisis diskriminan dengan SPSS

  1. Pilih Analyze > Classify > Discriminant
  2. Pindahkan variabel informasi ke kolom Grouping variable
  3. Define range : isikan 0 pada minimum dan 1 pada maximum
  4. Pindahkan variabel sikap, jumlah keluarga, umur KK dan pendapatan ke kolom independent
  5. AKtifkan pilihan "use stepwise methode"
  6. Pilih statistics: Pada descriptives, pilih means dan functions coeficient pada pilihan Fishers's dan unstandardized, kemudian Continue.
  7. Pilih Methode : alktifkan pilihan Mahalanobis distance dan aktifkan pilihan use probability of F tanpa emngubah angka 0.05. Tekan Continue.
  8. Pada classify : aktifkan casewise result dan leave one out classification. Tekan Continue
  9. Tekan OK

Hasil output SPSS 

Tabel di atas berisi data statistik deskripsi, seperti rata-rata untuk variabel bebas yang digunakan untuk kelompok pertama dan kelompok kedua. Sebagai contoh pada kelompok yang memperoleh promosi, paada variabel sikap nilai rata-rata 4,00 sedangkan yang tidak memperoleh promosi sebesar 3,60. Artinya bahwa rata-rata sikap terhadap tempat wisata pada kelompok 1 lebih tinggi dibandingkan pada kelompok ke 2.

 
Pada tabel di atas dapat dilihat bahwa hanya terdapat variabel pendapatan dan jumlah keluarga, karena hanya dua variabel tersebut yang memenuhi persyaratan. Metode yang dilakukan menggunakan metode "stepwise", yaitu memasukkan variabel satu per satu tidak secara sekaligus seperti pada analisis sebelumnya. Variabel pendapatan, dipeoleh nilai F sebesar 33,796 dengan nilai p-value statistik 3,027E-6 (atau 0,00000303). sedangkan variabel jumlah keluarga diperoleh nilai F sebesar 21,616 dengan nilai p-value 2,484E-6 ( atau 0,000002484).
Pada tabel variable in analysis di bawah ini, menunjukkan kondisi urutan variabel-variabel yang dianalisis. Tahapan pemasukan variabel ditentukan oleh besar kecilnya angka signifikan of F to remove dimana nilai terkecil yang didahulukan. Variabel pendapatan mempunyai signifikansi sebesar 0.000, oleh karena itu variabel ini dimasukkan terlebih dahulu. Selanjutnya jumlah keluarga dengan nilai signifikansi 0,037.
 

Angka signifikansi untuk dua variabel sebesar 0.000 dengan nilai F sebesar 33.796 pada tahap 1 dan pada tahap 2 nilai signifikansi sebesar 0.000 dengan nilai F sebesar 21.616. Karena nilai signifikansi 0.000 < 0.05 maka variabel masing-masing kelompok mempunyai perbedaan yang signifikan.

Nilai korelasi kanonikal menunjukkan hubungan antara nilai diskriminan dengan kelompok. Nilai 0.785 berarti hubungan sangat tinggi karena mendekati angka 1 (besarnya korelasi antara 0 -1).

Tabel structure matrix menunjukkan adanya korelasi antara variabel-variabel bebas dengan fungsi diskriminan yang terbentuk. Variabel pendapatan mempunyai korelasi yang paling tinggi dengan nilai korelasi sebesar 0.868. Variabel jumlag keluarga nilai korelasi sebesar 0.571. Sedangkan umur KK -0,033 dan sikap 0,001 tidak dimasukkan dalam proses analisis diskriminan, karena kedua variabel tidak signifikan dibedakan antara kedua kelompok. Hal ini dapat diketahui dengan tanda "a" pada kedua variabel tersebut.

Tabel di atas menunjukkan fungsi diskriminan dengan persamaan sebagai berikut :

Zscore = -6,433 (konstan) + 0.454 (jumlah keluarga) + 0.00 pendapatan. Fungsi ini berguna untuk menganalisis kasus atau responden yang diteliti akan masuk ke kelompok mana yaitu kelompok pertama atau kelompok kedua.

Tabel function at group centroids di atas menerangkan bahwa terdapat dua kelompok diskriminan, yaitu kelompok yang tidak mendapatkan promosi dengan rata-rata kelompok (centroid) negatif dan kelompok yang memperoleh promosi dengan rata-rata kelompok (centroid) positif.

Pada tabel classification processing summary memberikan petunjuk bahwa dari 30 responden, semua data diproses semua, jadi tidak ada data responden yang hilang (missing).

Pada tabel prior probabilities for groups memberikan deskripsi bahwa kelompok yang tidak ada promosi sebanyak 15 responden sedangkan kelompok yang mendapatkan promosi sebanyak 15 responden.

Pada bagian ini sama seerti bagian canonical discriminat function coefficient di atas yang sudah dibahas. Persamaan yang terbentuk sebagai berikut :

  1. Untuk kelompok tidak ada promosi, Nilai = -14,404(konstan) + 1,952(jumlah keluarga) + 0.00005238(pendapatan).
  2. Untuk kelompok tidak ada promosi, Nilai = -30,132(konstan) + 3.062(jumlah keluarga) + 0.00007536(pendapatan).

Selisih antara kedua kelompok :

Nilai Z = 15,728 (kosntan) + 5,014 (jumlah keluarga) + 0,00012916 (pendapatan).

Tabel di atas pada kolom original baris " Tidak ada promosi" sebanyak 14 responden atau 93,3% sedangkan 1 responden atau 6,7% berpindah ke kelompok "Promosi". Sementara itu, 12 responden (80%) yang berada di kelompok "Promosi", sedangkan 3 responden (20%) berpindah ke kelompok yang " Tidak ada promosi". Sehingga ketepatan fungsi diskriminan dapat dihitung dengan cara : 14 + (12/30) = 0.866 atau 86.6%. 

Kesimpulan :

  1. Terdapat perbedaan yang signifikan antara kelompok responden yang memperoleh promosi wisata dengan kelompok responden yang tidak ada promosi wisata.
  2. Faktor-faktor yang membuat berbeda adalah variabel jumlah keluarga dan pendapatan.
  3. Ketepatan fungsi diskriminan adalah sebesar 86.6%. Ketepatan ini tinggi karena mendekati 100%.
  4. Persamaan fungsi diskriminan : 
          Nilai Z = 15,728(konstan) + 5,014(jumlah keluarga + 0.00012916(pendapatan)



30 Januari 2021

Cara Analisis K-Mean Cluster

Analisis K-Mean Kluster bertujuan untuk mengelompokkan obyek berdasarkan ciri-ciri yang dimiliki atau karekateristik yang dimiliki. Pengelompokkan obyek ini bisa berdasarkan ciri-ciri pada responden atau produk dan entitas lainnya, sehingga obyek tersebut memiliki kemiripan yang sama dalam satu kluster. Hasil analisis kluster dari sebuah obyek akan memiliki kesamaan (homogenitas) yang tinggi dalam 1 kluster yang sama dan memiliki ketidaksamaan (heterogenitas) dengan kluster yang lain.

Contoh kasus 

Sebuah pusat pembelanjaan  melakukan riset untuk mengtahui apa saja yang mendorong konsumen/pembeli berbelanja di Swalayan tersebut. variabel-variabel pertanyaan yang diajukan ke konsumen yaitu : lokasi toko, harga produk, kebersihan, pelayanan kasir, fasilitas dan keindahan interior swalayan. Untuk itu setiap responden diberi 6 pertanyaan dan didapat 20 responden sebagai sampel. Data yang diperoleh sebagai berikut :

Dari data tersebut pertama dilakukan nilai standarkan terlebih dahulu dengan membuat nilai z-score, dengan cara:

  1. Klik Analyze >Descriptive statistics > Descriptives
  2. Pindahkan variabel-variabel tersebut ke kolom variable (s)
  3. Aktifkan Save standardized values as variables
  4. Klik OK

 

 

Perhatikan  bahwa nilai deskriptif pada tabel di atas berguna dalam membantu pengelompokan kluster nantinya. Nilai mean/rata-rata penilaian responden terhadap faktor-faktor pada swalayan tertinggi pada faktor keindahan interior sebesar 4.35, kemudian harga produk dan pelayanan kasir masing-masing 4.10, kebersihan 3.95, lokasi toko 3.85 dan terendah pada fasilitas hanya 3.45.

 

Hasil nilai z-score terlihat pada tabel dengan awalan Z, nilai ini yang nantinya sebagai data input yang akan dianalisis.

Kemudian langkah analisis K-Mean Cluster dalam SPSS:

  1. Pilih Analyze > Classify > K-Mean Cluster
  2. Pindahkan variabel z-core yang berawalan "z" ke kolom variable (s)
  3. Tentukan jumlah kluster dengan mengisikan angka 3 pada Number of Clusters
  4. Pilih Save dan aktifkan Cluster Membership dan distance from cluster centre, kemudian Continue
  5. Pilih Option, aktifkan Initial Cluster dan Anova Table
  6. Tekan OK.

 Hasil Ouput K-Mean Cluster dari SPSS

 

Pada tabel Initial cluster Centers menunjukan hasil proses sementara pengelompokan data yang dilakukan. Karena proses ini baru awal maka perlu dilakukan proses selanjutnya.

Pada tabel Iteration history. metode K-Mean Cluster akan menguji dan realokasi kluster yang ada. Proses tersebut dinamakan iteration yang memuat perubahan pada initial cluster (change in cluster). Proses ini pengelompokan diulang dengan ketepatan yang lebih akurat.

Pada cluster mebership memberikan petunjuk bahwa tiap responden masuk ke dalam masing-masing cluster yang dibentuk. Seperti responden 1 masuk kluster 3, responden 2 masuk kluster 2 dan responden 4 masuk kluster 1. Namun pengelompokan ini masih tahap awal, perlu dianalisis lebih lanjut.

Tabel final clster centers menunjukan hasil analisisnya untuk masing-masing variabel dan kluster yang dibentuk. Pedoman untuk menafsirkan tabel hasil analisis dengan ketentuan sebagai berikut :

  1. Jika hasil perhitungan ditemukan hasil negatif berarti kluster yang bersangkutan ada di bawah rata-rata total.
  2. Jika hasil perhitungan ditemukan hasil positif berarti kluster yang bersangkutan ada di atas rata-rata total.

Contoh perhitungan untuk angka skor variabel lokasi toko pada kluster 1, 2 dan 3.

Dimana : 

X = rata-rata sampel/data/variabel dalam kluster tertentu 

= rata-rata populasi

= standard deviasi

 

Perhitungan manual di atas hanya sebagai gambaran/contoh, untuk variabel 1 (lokasi toko). Untuk variabel yang lain dapat dilakukan perhitungan sesuai dengan rumus di atas.

Penafsiran untuk variabel 1 (lokasi toko) adalah :

  1. Kluster 1 nilai rata-rata 3,50009 lebih kecil/rendah dari rata-rata populasi 3,85, hal ini berarti responden tidak menyukai lokasi swalayan.
  2. Kluster 2 nilai rata-rata 1,667175 lebih rendah dari rata-rata populasi 3,85, hal ini berarti responden tidak menyukai lokasi swalayan.
  3. Kluster 3 nilai rata-rata 5,7405481 lebih tinggi dari rata-rata populasi 3,85, hal ini berarti responden menyukai lokasi swalayan.

Namun secara cepat hasilnya dapat diketahui dari nilai tiap variabel (tanda - dan +) pada tabel final cluster centers. Dengan memperhatikan tanda tersebut dapat diketahui tiap variabel masuk ke dalam kluster mana?. Sesuai dengan pedoman penafsiran tabel analisis di atas. Variabel 1 (lokasi toko) masuk Kluster 3, variabel 2 (harga produk)  masuk Kluster 1, variabel 3 (kebersihan) masuk Kluster 4, variabel 4 (pelayanan kasir) masuk Kluster 1, variabel 5 (fasilitas) masuk Kluster 2 dan variabel 6 (keindahan interior)masuk Kluster 1.

Tabel Distances between final cluster centers menunjukkan jarak antar kluster, semakin besar nilai/angka maka semakin besar/lebar jarak antar kluster. Kluster 1 berjarak dengan kluster 2 sebesar 3,563 dan dengan kluster 3 sebesar 3,473. Jarak kluster 2 dengan kluster 1 sebesar 3,563 dan dengan kluster 3 sebesar 3,679. Jarak kluster 3 dengan kluster 1 sebesar 3,473 dan dengan kluster 2 sebesar 3,679. 

Sekarang kita akan menguji apakah masing-masing kluster berbeda secara signifikan. Pengujian dilakukan dengan melihat nilai F dan signifikansinya pada tabel Anova. Untuk mempermudah kita menggunakan p-value signifikansi. Pengujian hipotesisnya sebagai berikut :

H0 = Ketiga kluster tidak ada perbedaan yang signifikan

H1 = Ketiga kluster ada perbedaan yang signfikan

Tolak hipotesis nol (H0) jika nilai p-value <0.05 

Pada tabel Anova di atas menunjukan nilai p-value pada keenam variabel lokasi toko sebesar 0.000, harga produk 0.000, kebersihan 0.000, pelayanan kasir 0.000, fasilitas 0.000, fasilitas 0.000 dan keindahan interior sebesar 0.000. Sehingga dapat disimpulkan bahwa keenam variabel tersebut ada perbedaan yang signifikan karena nilai p-value yang didapat <0.05.

Tabel Number of caes in each cluster, memberikan gambaran jumlah responden yang masuk ke dalam tiap-tiap kluster. Kluster 1 ada 6 responden, kluster 2 ada 6 responden dan kluster 3 ada 8 responden.

Hasil secara keseluruhan analisis k-mean cluster dapat dirangkum dalam bentuk tabel excel di bawah ini.

24 Januari 2021

Cara Seting Metode Algorithm di WarpPLS

WarpPLS pertama kali dikembangkan tahun 2009 dan diperkenalkan oleh Profesor Ned Kock dari Texas A&M International University pada Tahun 2010. Program WarpPLS dibuat oleh Script Warp system Loredo, Texas Amerika Serikat. WarpPLS versi 1.0 merupakan versi awal yang dibuat dan diperkenalkan. Kemudian setiap ada perubahan dan penambahan pada fitur-fitur software dikeluarkan dengan versi yang lebih tinggi atau baru lagi dengan warpPLS 2.0 ditahun 2011, WarpPLS 3.0 di tahun 2012, WarpPLS 4.0 tahun 2013, WarpPLS 5.0 di tahun 2015, WarpPLS 6.0 di tahun 2019 dan saat ini WarpPLS versi 7.0 dikeluarkan bulan Agustus 2020. Di WarpPLS 7.0, terdapat 2 seting atau pengaturan yang harus dilakukan oleh peneliti sebelum dilakukan analisis pada software yaitu pengaturan outer model dan inner model.


Pada Outer model, tersedia sebelas (11) pilihan algorithm yang dapat digunakan yaitu Factor Based PLS Type CFM, Factor Based PLS Type REG, Factor Based PLS Type PTH, PLS Regression, PLS Model M, PLS Mode M Basic, PLS Model A, PLS Mode A Basic, PLS Mode B, PLS Mode B Basic, Robust Path Analysis. Semua Jenis algorithm mempunyai karakteristik yang hampir mirip yaiut menghitung skor variabel laten dengan kombinasi linier dari indikator.

 

  1. Factor Based PLS Type CFM ada 3 jenis yaitu Type CFM1, Type CFM2, Type CFM3. Algorithm yang dihasilkan dengan estimasi dari kedua komposit awal dan faktor dalam 2 tahap, yang dihitung dari nilai eror. Seperti halnya algorithm covarian based SEM, Algorithm tersebut sepenuhnya selaras dengan asumsi umum pada model faktor. termasuk asumsi semua eror indikator yang tidak saling berkorelasi. Pada langkah pertama algorithm menghasilkan nilai baru dari composite estimasi sub algorithm. Di mana estimasi komposit berdasarkan persamaan matematis yang mengacu langsung dari model faktor secara umum.
  2. Factor Based PLS Type REG ada 2 jenis yaitu Type REG1 dan Type REG2. Pertama algorithm mengestimasi komposit melalui PLS regression dan kemudian mengeastimasi faktor dengan variasi secara bersama. Diantara faktor-faktor tersebut yang digunakan dalam software ini, Faktor Baesd PLS Type REG1 dan REG2 yang paling mendekati design PLS dari Wold's. Algorithm pada Factor Based PLS Type REG2 menggunakan reliabilitas dari Dijkstra's teknik konsistensi PLS yang mengestimasi ukuran kesalahan (eror) dan bobot awal komposit. Factor Based PLS Type REG1 algorithm menggunakan koefisien cronbach's alpha.
  3. Factor Based PLS Type PTH ada 2 jenis yaitu Type PTH1 dan PTH2. Pertama algorithm di estimasi secara komposit melalui Robus Path Analysis dan kemudian estimasi faktor menggunakan variasi secara bersama. Factor Based PLS Type PTH1, algorithm menggunakan koefisien cronbach's alpha untuk mengestimasi bobotnya. Factor Based PLS Type PTH2 algorithm menggunakan relaibilitas dari Dijkstra teknik konsitensi PLS yang mengestimasi pengukuran eror dan bobot kompositnya.
  4. PLS Regression : merupakan default outer model algorithm. Pilihan ini melakukan iterasi dengan 2 kondisi : pertama, weight dihubungkan dengan skor variabel laten dan inidkator-indikator distandardized dari koefisien regresi parsial yang dihitung dengan indikator-indikator laten eksogen dan endogen. Kedua, dari skor indikator-indikator. Didalam PLS regression algorithm algorithm, inner model tidak berpengaruh terhadap outer model. Jadi, weight tidak berpengaruh dari hubungan jalur antar variabel laten yang dibuat. Salah satu keuntungan dari penggunaan PLS regression yaitu dapat menghandel data yang mengalami problem collinearity.
  5. PLS Model M : sering disebut sebagai MIMIC atau mode mixed dimana indikator variabel laten dioperasionalisasikan berbentuk refleksif dan formatif. Di dalamnya inner model akan berpengaruh terhadap outer model antara path koefisien dan korelasi. Outer model diestimasi dari faktor ke indikator-indikator atau dari indikator-indikator ke faktor dalam kausalitas, tergantung apakah latent variabel sebagai formatif atau reflektif.
  6. PLS mode M basic : merupakan variasi dari PLS mode M dimana inner model berpengaruh terhadap outer model dari korelasi antar variabel laten. Pilihan ini sebagai “basic scheme” atau sering di
  7. PLS mode A : sering disebut mode “reflective”, merupakan outer model algorithm yang dapat digunakan untuk variabel laten berbentuk refleksif dan formatif. Perlu dicatat bahwa, algorithm ini bukan berarti dapat membuat variabel laten berbentuk formatif menjadi refleksif. Didalam mode ini outer model weight dihitung dari least square regression dimana skor variabel endigen (criteria)sebut “centroid scheme”.
  8. PLS mode A basic : merupakan variasi dari PLS mode A dimana inner model berpengaruh terhadap outer model dari korelasi antar variabel laten.
  9. PLS mode B : sering disebut mode “formative”. Merupakan outer model algorithm yang dapat digunakan untuk variabel laten berbentuk refleksif dan formatif. Dengan kata lain, bahwa algorithm ini bukan berarti dapat membuat variabel laten berbentuk refleksif menjadi formatif. Bagaimanapun PLS mode B sering kurang stabil dibandingkan dengan PLS mode A dan cenderung signifikan jika terdapat masalah collinearity antara variabel laten. Didalam mode ini, outer model weight dihitung dari least square regression dimana indikator-indikator dari prediktor dan skor variabel laten dari konstruk endogen (criterion).
  10. PLS mode B basic : yang merupakan variasi dari PLS mode B dimana inner model berpengaruh terhadap outer model dari korelasi antar variabel laten.
  11. Robust path analysis : Dalam mode ini merupakan algorithm yang sederhana,yang mana skor dari variabel laten dihitung dari rata-rata skor indikator-indikator yang berhubungan dengan variabel laten. Jadi, dalam algorithm ini weight tidak diestimasi seperti halnya pada PLS regression. Algorithm ini disebut “robust” path analysis, karena standar path analysis (dimana semua variabel laten diukur seperti indikator tunggal) dan P-value dapat dihitung dari non-parametrik metoda resampling yang ada pada software WarpPLS ini. Jika semua variabel laten diukur dengan indikator tunggal, robust path analysis algorithm akan menghasilkan skor variabel dan outer model weight yang identik dengan yang dihasilkan oleh algorithm yang lain, tetapi dengan perhitungan yang lebih efisien.

Setelah mengatur outer model algorithma, selanjutnya mengatur inner model algorithma. Semua jenis  algorithma mempunyai jenis karakteristik yang hampir sama yaitu menghitung path koefisien dengan least square regression algorithm berdasarkan pada skor variabel laten yang dihitung dari analisis outer model. Pada program WarpPLS 7.0 ini, terdapat lima pilihan inner model algorithm yang dapat digunakan yaitu :

  1. Linear, ini merupakan pilihan ketika menganalisis model linier dan tidak akan menghasilkan U-curve antar variabel laten.
  2. Warp2, algorithm ini mencoba untuk mengidentifikasi hubungan non-linear (U-curve) antar variabel laten. Pilihan ini hanya dapat digunakan ketika kita menganalisis model dengan efek interaksi.
  3. Warp2 basic, algorithm ini merupakan variasi dari Warp2 algorithm yang dapat digunakan untuk mengurangi jumlah dari sympson’s paradox dalam hasil akhir. menjelaskan sympson’s paradox merupakan kesalahan model kausalitas sehingga model perlu untuk dibalik (reversal). Ini terjadi karena di dalam versi “basic” tanda dari path koefisien awal menentukan tanda dari korelasi tanpa wrapping.
  4. Warp3, algorithm merupakan default inner model algorithm yang digunakan software ini. Algorithm ini mencoba untuk mengidentifikasi hubungan antar variabel laten yang didefinisikan dari fungsi derivative U-curve. Tipe hubungan ini lebih dikenal dengan sebutan S-curve yaitu merupakan kombinasi dari dua hubungan U-curve.
  5. Warp3 basic, algorithm merupakan variasi dari Warp3 algorithm yang dapat digunakan untuk mengurangi jumlah dari Sympson’s paradox di dalam hasil akhir. Kecuali untuk linear algorithm, semua pilihan inner model algorithm melakukan transformasi non-linear prediktor skor variabel laten sebelumnya untuk menghitung path koefisien.

Setelah peneliti menentukan metoda analisis algorithm untuk outer dan inner model, langkah selanjutnya yang harus dilakukan adalah menentukan beberapa jumlah sampel yang harus dipenuhi dalam membuat model. Seperti yang kita diketahui bahwa PLS-SEM tidak menuntut jumlah sampel besar. Meskipun demikian, kecukupan jumlah sampel untuk estimasi model PLS juga harus diperhatikan walaupun PLS dapat digunakan pada sampel yang kecil. Hal ini konsisten dengan yang dinyatakan bahwa estimasi model PLS harus tetap mengacu pada prinsip consistent at large agar hasil true value. Beberapa literature yang diperoleh bahwa dalam PLS kemudian menyatakan rule of thumb jumlah sampel minimal yang harus dipenuhi untuk estimasi model PLS yaitu 10 kali jumlah lajur path/predictor dalam model.

 

Referensi :

Ghozali,I  dan Latan, H. 2012. Partial Least Squares “Konsep, Metode  dan Aplikasi Menggunakan Program WarpPLS 4.0 Edisi 2. Semarang. Universitas Diponegoro.

Nec Kock. 2020. WarpPLS user Manual 7.0. Texas, ScriptWarp System