Kamis, 18 Oktober 2018

Konsekuensi Pelanggaran Uji Asumsi Klasik dan Cara Mendeteksinya

statistik
Konsekuensi Pelanggaran Uji Asumsi Klasik dan Cara Mendeteksinya

Salam Statistika !
Setelah kemarin kita membahas beberapa hal menyangkut eksplorasi data, kali ini kita akan sedikit menyinggung ke dalam tentang pelanggaran uji asumsi. Kira-kira konseuensi apa sih yang akan timbul apabila uji asumsi model tidak terpenuhi atau terlanggar? Perlu kita ketahui, urutan uji asumsi model statistik, yaitu uji Normalitas, uji Homoskedastisitas, uji Non-Autocorrelation, dan uji Non-Multikolinearitas.

Ingat !, yang diuji adalah error model, ya…bukan variabelnya. Tetapi, di awal melihat perilaku data variabelnya juga perlu sih, untuk melihat gambaran umum saja, misalnya melihat apakah data kita terdapat data pencilan atau outlier atau tidak.

Uji Normalitas Terlanggar

Telah kita ketahui bersama, bahwa segala bentuk distribusi statistik yang ada awalnya diturunkan dari distribusi normal dengan rata-rata 0 (nol) dan varians (keragaman) sebesar sigma kuadrat. Sehingga jika error dari model yang dihasilkan dari penelitian tidak mengikuti distribusi normal, maka kurang mampu dijadikan instrumen analisis lebih lanjut. Varians yang tidak mengikuti distribusi normal berarti ia inkonsisten untuk setiap amatan atau setiap waktunya. Sebenarnya pelanggaran ini sangat erat kaitannya dengan ada tidaknya pelanggaran uji Homoskedastisitas nantinya. Akibatnya, model yang terbentuk kurang mampu menaksir parameter dari populasi sebenarnya. Oleh karena itu, untuk menghindari terlanggarnya uji asumsi ini adalah dengan metode eksplorasi data atau dengan transformasi variabel.

Eksplorasi data, seperti ulasan sebelumnya kita akan mampu melihat data awal yang kita gunakan sebagai bahan baku pembentuk model penelitian. Kita akan mampu menemukan perilaku data kita sekaligus keganjalan yang terkandung dalam data kita. Apakah terdapat pencilan ? apakag terdapat angka yang inkonsisten akibat kesalahan input data ? atau apakah terdapat angka yang salah image ketika proses pengambilannya di lapangan ?, misal seharusnya 67 menjadi 97 atau 87 atau di data lapangan 167 pada saat input menjadi 67 saja. Selain itu, kita juga mampu melihat apakah data menyebar merata atau tidak, apakah rentang atau range data terlalu besar atau tidak. Ini semua dapat kita cakup dalam proses eksplorasi data.

Transformasi Data
Transformasi data, hal inilah yang biasanya banyak menjadi pertanyaan dalam penelitian, terutama bagi peneliti pemula. Sebenarnya transformasi hanyalah akal-akalan saja supaya asumi kenormalan terpenuhi, namun metode ini sangat jitu dan sering digunakan dalam penelitian. Transformasi banyak macamnya, namun pada ulasan kali ini beberapa bentuk bisa menjadi alternatif pilihan.

Transformasi ln (baca: len). Transformasi ini banyak digunakan dalam penelitian di bidang ekonomi untuk mencapai asumsi kenormalan. Perlu diketahui bahwa transformasi ln berbeda dengan transformasi log, transformasi ln adalah transformasi berbasis logaritma natural dengan e = 2,71828… sekian itu. Kalau transformasi log itu basisnya adalah 10. Jadi perlu kita bedakan antara ln 2 dan log 2. Sebab nilai ln 2 jauh lebih kecil daripada log 2. Namun, beberapa literatur penelitian biasanya menulis ln itu dalam bentuk log, ada dalam beberapa buku. 

Bisa juga dengan menggunakan transformasi bentuk yang lainnya seperti transformasi normal Z atau bisa juga dengan transformasi Box-Cox yang dapat dicari dengan menggunakan paket program (software). Semua bentuk tersebut bisa digunakan tetapi dengan catatan pada saat model yang berhasil Anda pilih (model terbaik), Anda harus mengembalikan model Anda ke bentuk semula untuk mendapatkan nilai yang sebenarnya sebagai bahan intepretasi hasil.

Bagaimana cara melihat adanya pelanggaran asumsi kenormalan ?

Untuk melihatnya, Anda bisa menggunakan uji-uji statistik yang telah tersedia atau bisa juga Anda melihat deskripsi dari Normal Probability Plot (NPP) dalam software SPSS, yaitu dengan memplot antara error yang sudah diurutkan dengan nilai harapan dari error setiap amatan. Jika titik-titiknya berada tak jauh dari garis linier maka asumsi kenormalan model telah terpenuhi.

Catatan: Box-Cox adalah bentuk transformasi yang sangat terkenal sebab tujuannya untuk menghomogenkan varians.

Uji Homoskedastisitas Terlanggar

Uji Homoskedastistas adalah salah satu uji yang utama dalam pemodelan statistik, terlebih pada pemodelan regresi linier, entah sederhana entah berganda. Perlu diketahui dahulu bahwa regresi linier sederhana hanya memasukkan satu variabel bebas dalam model, sementara regresi linier berganda memasukkan lebih dari satu variabel bebas dalam model.

Oh, iya…perlu diketahui juga bahwa pelanggaran asumsi homoskedastisitas banyak terjadi pada tipe data cross section (data yang diambil/diperoleh pada satu waktu saja). Misalnya penelitian mengenai Faktor-Faktor yang Memengaruhi Produktivitas Industri Kasur di Sidoarjo tahun 2014. Namun, Anda tidak perlu pusing jika error model Anda terganggu heteroskedastisitas ini, sebab Anda bisa menghindarnya selain dengan transformasi variabel, jika penelitian Anda menggunakan data primer (hasil mencacah di lapangan, mandiri), maka Anda dapat menambah jumlah sampel Anda sehingga menjadi lebih besar.

Jika asumsi homoskedastisitas terlanggar maka secara otomatis akan menyebabkan hal-hal berikut:
Penaksir Ordinary Least Square (OLS) tidak efisien baik dalam sampel kecil maupun sampel besar. Jika tetap Anda gunakan, maka akan berdampak pada varians penaksir parameter koefisien regresi akan underestimate (terlampau kurang dari parameter) atau overestimate (terlampau lebih besar daripada parameter).

Adanya heteroskedastisitas menyebabkan estimator yang Anda peroleh dari model memang tidak bias, tetapi karena standar errordari parameter Anda yang bias (variansnya bisa lebih kecil sekali atau sangat besar). Oleh karena itulah, terlanggarnya asumsi homoskedasitisitas mengakibatkan uji F signifikan tetapi pada saat Anda periksa uji t model Anda, tidak ada variabel Anda yang signifikan(uji t tidak menentu). Jadi jangan kaget jika model Anda uji F nya signifikan tetapi tidak ada satupun variabel Anda yang signifikan.

Menurut Greene (2004), cara yang juga bisa digunakan untuk mengatasi adanya heteroskedastisitas adalah memakai metode Weighted Least Square (WLS) yang penaksirannya memberikan pembobot bersifat Least Square atau disebut juga Generalized Least Square (GLS).

Tidak hanya dengan uji-uji statistik, dalam mendeteksi adanya gangguan heteroskadastisitas, Anda bisa juga menggunakan deskriptif dengan cara memplotkan antara error setiap amatan dengan nilai variabel tententu yang bersesuaian dengan error setiap amatan tersebut. Jika hasilnya tidak membentuk pola atau acak (menyebar)[plot antara unstandardized residual dan unstandardized predicted residual], maka asumsi homoskedastisitas telah terpenuhi.

Uji Non-Autocorrelation Terlanggar

Perlu diketahui gejala terlanggarnya asumsi non-autocorrelation biasanya terdapat dalam model-model penelitian Anda yang memakai data runtun waktu atau time series sebab kondisi saat ini bisa dipengaruhi oleh kondisi waktu yang lalu (lampau), misalnya jika Anda ingin mengamati inflasi bulan Juli 2014 ini kira-kira berapa, tentu inflasi ini terkait erat dengan Fisher effect yang mengaitkan adanya spekulasi masyarakat atau produsen terhadap naiknya harga bahan pokok saat Ramadhan dan menjelang Hari Raya Idul Fitri, atau mengenai tinggi badan siswa yang dicatat dari waktu ke waktu.

Dampak yang diakibatkan jika error model Anda terjangkit autocorrelation adalah:


  • Estimator masih tidak bias dan masih konsisten, dan masih mengikuti sebaran normal asimtotik, tetapi estimator tersebut sudah tidak lagi efisien sebab variansnya tidak minimum lagi, dengan kata lain tidak memenuhi kaidah Best Linear Unbiased Estimator (BLUE). Hasil estimasi variansnya biasanya underestimate daripada varians sebenarnya.
  • Adanya gangguan asumsi ini, nilai R square tidak lagi memiliki makna yang berarti dalam menjelaskan proporsi keragaman dari variabel terikat (dependen)nya. Selain itu, karena estimator varians sampelnya (Mean Square Error)sudah tidak lagi BLUE maka varians dan standar error hasil peramalan juga tidak efisien.
Sebagai langkah awal mendeteksi adanya gejala autocorrelation sebelum Anda memastikan dengan uji statistik (uji Durbin-Watson), Anda bisa mengamati terlebih dahulu dengan cara memplotkan antara error setiap waktunya dengan waktu itu sendiri. Jika membentuk pola yang teratur, maka asumsi non-autocorrelation model Anda tidak terpenuhi.

Catatan: Salah satu cara untuk menghindar dari ancaman autocorrelation adalah dengan mendifference-kan data runtun waktu.

Uji Non-Multikolinearitas Terlanggar

Yang terakhir adalah gejala Multikolinearitas. Untuk pengertiannya bisa dibaca pada artikel sebelumnya. Lalu bagaimana jika asumsi ini tidak terpenuhi atau terlanggar ? Nah, beberapa hal yang menjadi konsekuensi bila error model Anda tidak memenuhi asumsi ini adalah:

  • Penaksir OLS (estimator) bisa didapatkan namun standar error (SE) tendensi semakin membesar seiring dengan meningkatkan korelasi antar variabel bebas (yang seharusnya independen).
  • Karena SE nya semakin membesar maka mengakibatkan selang kepercayaan akan semakin melebar.
  • Kesalahan tipe II meningkat (apa itu kesalahan tipe II ? tunggu artikel episode selanjutnya).
  • Jika terjadi multikolinearitas yang tidak sempurna maka estimator dan SE akan sangat sensitif terhadap perubahan data. Oleh karena itu, sedikit saja ada data yang berubah nilainya maka estimator dan SE nya juga berubah.
  • Jika terjadi multikolinearitas yang kurang sempurna juga mengakibatkan nilai R square (koefisien determinasi) yang tinggi namun semua variabel bebas tidak signifikan secara statistik.
  • Jika error model Anda terjangkit multikolinearitas, maka akan terdapat adanya kesalahan tanda pada koefisien regresi sehingga model statistik yang Anda bangun cenderung berlawanan dengan teori-teori yang ada (hasil penelitian pada umumnya, inkonsisten).
Cara untuk mendeteksi adanya gejala multikolinearitas adalah:

  • Melihat pada matriks korelasi antar variabel bebas, apakah terdapat nilai korelasi yang tinggi atau tidak.
  • Mengamati kesesuaian tanda koefisien model dengan teori hasil penelitian empiris yang telah dilakukan.
  • Melihat nilai VIF (sudah diulas pada artikel sebelumnya).
  • Nilai R square tinggi tetapi semua variabel bebas tidak signifikan secara statistik.
  • Koefisien model parsial tetap konsisten (apakah pada saat ditambah atau dikurangi variabel bebar yang lain, tandanya masih sama atai tidak ? jika tidak, maka bisa saja ini gejala multikolinearitas).
Cara yang biasa digunakan untuk mengatasi adanya gejala multikolinearitas adalah:

  • Mengubah variabel bebas tersebut menjadi Dummy variable (penjelasannya tunggu saja artikel berikutnya).
  • Menggunakan regresi ridge.
  • Menggunakan informasi yang apriori, tetapi tetap berdasarkan teori yang ada.
  • Menggunakan data panel (gabungan data runtun waktu dan cross section).
  • Mengeliminasi salah satu variabel bebas yang saling berkorelasi tinggi atau menggabungkan dua atau lebih variabel bebas menjadi satu kelompok dengan beberapa metode, yaitu Analisis Komponen Utama (AKU), Analisis Faktor (AF), Stepwise Regression (regresi transformasi variabel), atau Analisis Klaster (AK).
Catatan: pembahasan megenai Analisis Komponen Utama (AKU), Analisis Faktor (AF), Stepwise Regression (regresi transformasi variabel), atau Analisis Klaster (AK) akan dibahas pada artikel selanjutnya.

Sebenarnya ada satu lagi uji asumsi error, tetapi pada beberapa karya ilmiah yang saya temui, uji ini jarang dipakai. Ada kemungkinan besar bahwa uji ini sebenarnya sudah tercakup dalam keempat uji asumsi yang telah kita ulas bersama, yaitu uji Linieritas.

Beberapa karya ilmiah ada yang memakai uji ini (model linier), ada juga yang tidak membubuhkan uji ini. Esensi dari uji linieritas adalah apakah terdapat hubungan linier antara error setiap amatan dalam model dan nilai setiap amatan dalam variabel atau tidak. Jika tidak berpola atau acak, maka asumsi ini telah terpenuhi.

Perlu diingat !, bahwa yang diplotkan itu antara unstandardized residual dengan variabel bebas.
Demikian sekelumit ulasan mengenai pelanggaran terhadap uji asumsi. Salam Statistika !