Jumat, 28 Juli 2017

Uji Kenormalan Model, Siapa yang Diuji?

Episode berikut ini, setelah saya menerangkan mengenai beberapa hal tentang sampling penelitian, saya tertarik untuk membahas secara substansial atau teoritis mengenai beberapa uji asumsi dalam proses pemodelan statistik, kali ini saya akan membahas terlebih dahulu tentang uji kenormalan sebuah model penelitian (model statistik). Untuk uji yang lainnya akan lebih lanjut saya bahas pada artikel berikutnya.

Kenormalan. Mungkin sudah banyak masyarakat yang mengerti tentang kenormalan. Normal adalah sebuah kata sifat yang berarti sudah biasa (umum), kondisi stabil, atau kondisi mendasar, bisa juga diartikan kondisi standar baku, dan mungkin banyak lagi maknanya.

Dalam statistika, uji kenormalan sebuah model hasil penelitian biasanya digunakan untuk melihat apakah model sudah memenuhi kriteri standar/kenormalan atau belum. Apa yang harus dinormalkan ?, nah, kebanyakan banyak peneliti salah kaprah dalam menguji mengenai kenormalan. Yang mereka uji adalah datanya, kalau datanya normal maka pasti model yang dibentuk normal. Ini kesimpulan yang kurang tepat. Justru yang dilihat atau diuji apakah normal atau tidak itu adalah variabel error model statistik. Selain itu, pengujian kenormalan model ada juga yang dengan menguji ekspektasi atau nilai harapan dari variabel terikat dari model, ini juga sebenarnya kurang tepat, sebab antara variabel terikat dan variabel bebas itu diasumsikan dependen sehingga di dalamnya mengandung komponen interaksi dan itu semua terkacup dalam variabel error model. Hal ini sesuai dengan teori yang terdapat dalam berjudul Applied Regression Anlysis third edition karya Draper Smith halaman 60-61 yang menyatakan,

Now in performing the regression analysis we have made certain assumptions about the errors; the usual assumptions are that the errors are independent, have zero mean, have constant variance, and follow normal a distribution. The last assumptions is required for making F-tests

Hal yang sama juga terdapat dalam buku Hill dan Lim serta Berenson cetakan 2011 yang berjudul Principal of Econometrics fourth edition.

Lalu, kenapa sih error harus normal ? kenapa harus normal ?

Sebab, dalam statistika segala bentuk distribusi, entah itu distribusi Chi-square, entah itu distribusi F entah itu distribusi t atau yang lain, itu diperoleh dari penurunan distribusi normal yang memiliki rata-rata nol (0) dan varians konstan. Namun, perlu diinga bahwa asumsi kenormalan hanya berlaku untuk analisis statistik parametrik, berbeda dengan non-parametrik, dia biasanya tidak harus lolos uji kenormalan.

Apa saja uji yang berguna untuk kenormalan ?

Anda bisa memakai uji Kolmogorov-Smirnof (K-S) dan Liliefors (biasanya di paket program SPSS), Chi-Square, Saphiro-Wilks, Anderson-Darling serta Ryan-Joiner (sama dengan Shapiro-Wilks) (biasanya di paket program Minitab), Jarque-Bera (biasanya di paket program Eviews), dan yang paling sederhana bisa menggunakan Kurtosis(keruncingan data) dan Skewness(kemencengan data). Ada banyak uji yang bisa Anda digunakan dan secara teoritis bisa dipilih karena tujuannya sama, yaitu untuk menguji kenormalanerror. Namun, perlu Anda ketahui bahwa ketersediaan semua alat uji kenormalan tersebut memiliki formula perhitungan dan asumsi tersendiri. Sejauh pengamatan saya, uji yang paling lemah dalam mengukur kenormalan adalah uji Kolmogorov-Smirnof, tidak seperti uji Liliefors, uji K-S ini dilihat dari segi asumsi nilai parameter populasi diketahui, sementara uji Liliefors yakni dengan faktor koreksi terhadap uji K-S dengan mengasumsikan parameter populasi belum diketahui sehingga diestimasi atau diperkirakan dari sampel.

Tapi jika Anda memakai uji K-S, ya sah-sah saja toh ada teorinya, tetapi akan lebih baik minimal Anda menggunakan uji Liliefors dalam menguji kenormalanerror model statistik Anda.