http://uniba.ac.id/home/
supawi-pawenang.blogspot.com
BAB V
UJI ASUMSI KLASIK
Di awak telah tertulis,dalam regresi
linier sederhana maupun dalam regresi linier berganda bahwa dalam kedua regresi
linier tersebut perlu memenuhi asumsi-asumsi seperti yang sudah diuraikan dalam
kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut
mengandung arti bahwa rumus regresi diturunkan dari suatu asumsi tertentu
,maksudnya tidak semua data dapat diperlakukan dengan regresi. Jika data
diregresi tidak memenusi asumsi yang telah memenuhi asumsi regresi maka nilai
estimasi yang terperoleh akan bersifat BLUE (Best,Liniear,Unbiased,Estimator)
BEST
Dimaksudkan sebagai terbaik,untuk
kembali kesadaran kita bahwa regresi linier digunakan untuk menggambarkan
sebaran data dalam bentuk regresi.
Linear
Mewakili linear dalam model atau
parameter. Linear dalam model yang digunakan dalam analisis regresi telah
sesuai dengan model OLS dimana variable penduganya hanya berpangkat satu,
sedangkan liniar dalam parameter menjelaskan bahwa dihasilkan merupakan fungsi
linear dari sample. Jelas bula diukur dengan nilai rata-rata
Unbiased
Ataubisa dikatakan tidak bias,
Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama
dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata
b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator
Yang efisien dapat ditemukan
apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang
efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah
dituliskan dalam bahasan OLS yaitu asumsi yang dikembangkan oleh Gauss dan
Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov
Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10
asumsi yang menjadi syarat penerapan OLS,18 yaitu:
·
Asumsi 1 :
Linear regression Model. Model regresi
merupakan hubungan linear dalam parameter.
Y = a + bX +e
Untuk model
regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan,
ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih
dapat diterapkan.
·
Asumsi 2 :
Nilai X adalah tetap dalam sampling yang
diulang-ulang (X fixed in repeated sampling).
Tepatnya bahwa
nilai X adalah nonstochastic (tidak random).
·
Asumsi 3 :
Variabel pengganggu e memiliki rata-rata
nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu
berada tepat di tengah.
·
Asumsi 4 :
Homoskedastisitas, atau variabel pengganggu
e memiliki variance yang sama sepanjang observasi dari berbagai nilai X.
·
Asumsi 5 :
Tidak ada otokorelasi antara variabel e
pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·
Asumsi 6 :
Variabel X dan disturbance e tidak
berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e
atas Y.
·
Asumsi 7 :
Jumlah observasi atau besar sampel (n)
harus diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n
harus cukup besar
·
Asumsi 8 :
Variabel X harus memiliki variabilitas.
Jikanilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·
Asumsi 9 :
Model regresi secara benar telah
terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah
terekomendasi atau sesuai dengan teori.
·
Asumsi 10 :
Tidak ada multikolinearitas antara variabel
penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau
tinggi.
Penyimpangan masing-masing asumsi
tidak mempunyai impak yang sama terhadap regresi.
Sebagai contoh : adanya penyimpangan
atau tidak terpenuhinya asumsi multikolinearitas tidak berarti mengganggu,
sepanjang uji t sudah signifikan.
Untuk memenuhi asumsi-asumsi tersebut
maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan,
seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun
multikolinearitas.
Secara teoretis model OLS akan
menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi
asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas.
Apabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
A. Uji Autokorelasi
A.1.
Pengertian autokorelasi
Dalam asumsi klasik telah
dijelaskan model OLS harus telah terbebas dari autokorelasi atau serial
korelasi.
Autokorelasi yaitu keadaan dimana
variable gangguan pada periode tertentu berkorelasi dengan variable gangguan
pada periode lain, bersifat mucul bila terdapat korelasi antara data yang
diteliti baik itu data jenis runtut waktu maupun data kerat silang. Masalah
autokorelasi lebih sering muncul pada data time series, karena sifat data time
series ini terdiri lekat dengan kontiyuitas dan adanya sifat ketergantungan
antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai
rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan
menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada
observasi lain.
A.2.
Sebab-sebab Autokorelasi
Banyak faktor yang dapat menyebabkan timbulnya masalah
autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor
saja antara lain:
1.
Kesalahan dalam pembentukan model, artinya,
model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori
yang relevan dan mendukung.
2.
Tidak memasukkan variabel yang penting.Variabel
penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.
3. Manipulasi
data. Misalnya dalam penelitian kitaingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Menggunakan data yang tidak empiris.
A.3.
Akibat Autokorelasi
Meskipun ada autokorelasi, nilai
parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias
dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak
minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t
hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau
bersifat tidak pasti (misleading).
A.4.
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan
untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila
kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi.
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara
populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh
ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk
mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang
dituliskan sebagai berikut:
atau dapat pula ditulis dalam
rumus sebagai berikut:
2. Menggunakan metode LaGrange Multiplier(LM).
LM sendiri merupakan teknik
regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang
dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari
variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Variabel Yt-1 merupakan variabel
lag 1 dari Y.
Variabel Yt-2 merupakan variabel
lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y
dimasukkan dalam model ini bertujuan untuk mengetahui pada lag berapa problem
otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan
adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu
2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan,
tahunan. Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan
2 hari dan seterusnya.
Terdapat beberapa alat uji lain
untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji
Statistik Q: Box-Pierce dan Ljung Box, dan lainlain, namun uji-uji tersebut
tidak dibahas di sini, mengingat tulisan ini masih berlingkup atau bersifat
pengantar.
B.
Uji Normalitas
Bertujuan untuk menguji apakah
variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian
normalitas data dapat dilakukan sebelum atau setelah tahapan analisis regresi.
Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi
terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya
ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat
dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana
nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data,
sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang
lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal.
C.
Uji Heteroskedastisitas
C.1.
Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan
dalam salah satu asumsi yang harus ditaati pada model regresi linier, adalah
residual harus homoskedastis, artinya, variance residual harus memiliki
variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama.
Karena jika variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh
dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki
variabel yang konstan. Apabila terjadi varian e tidak konstan, maka kondisi
tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas
(Setiaji, 2004: 17
Sedangkan data time series, antara
observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang
cenderung sama. Sehingga variance residualnya juga cenderung sama. Tidak
seperti data cross section yang cenderung menghasilkan variance residual yang
berbeda pula.
C.2.
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap
kesalahan bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari
garis yang paling tepat muncul serta random sesuai dengan besarnya variabel
independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance
residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing
observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya,
jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah
sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh
dari hasil regresi akan menjadi bias.
Jika nilai Sb mengecil, maka nilai
t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya
tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan.
Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
C.3.
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21
Pengujian heteroskedastisitas
menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran 21
Ditunjukkan pula oleh Gozali, 2001. antara nilai prediksi variabel terikat
dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran
data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini
sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga
tetap mempertimbangkan valid dan tidaknya hasil pengujian.
D.
Uji Multikolinieritas
D.1.
Pengertian Multikolinearitas
Multikolinieritas yaitu terjadi
korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang
dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas
dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear
dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit
sifat-sifat yang sama.
Apabila antara variabel penjelas
memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat
lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat
dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika
antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Sebagai gambaran
penjelas, dapat dilihat pada gambar berikut ini:
D.2. Konsekuensi Multikolinearitas
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan
kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji,
2004: 26).
Logikanya adalah seperti
ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data
menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan
hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,
b1 =
|
0
|
0
|
akan
menghasilkan bilangan pembagian,
sehingga
nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error
Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara
untuk menguji multikolinearitas, diantaranya dengan :
Menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation,
melakukan regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara
mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan
apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Pengujian
multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada
tidaknya multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang
mengatakan bahwa apabila korelasi antara dua variabel bebas lebih tinggi
dibanding korelasi salah satu atau kedua variabel bebas tersebut dengan
variabel terikat.
Dalam kaitan adanya kolinear
yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari
masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross
section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi,
hasil regresi dapat ditolerir, sepanjang nilai t signifikan.
ESSAI !
A Apa itu
asumsi klasik?
Asumsi klasik adalah syarat-syarat yang
harus dipenuhi pada model regresi linier (OLS) agar model tersebut menjadi
valid sebagai alat penduga.
B Apa saja
asumsi-asumsi yang ditetapkan?
1. Linier Regresion Model. Model regresi merupakan hubungan
linier dalam parameter.
2. Nilai X adalah tetap dalam sampling yang diulang-ulang (X
fixed in repeated sampling).
3. Variabel penggangu e memiliki rata-rata nol (zero mean of
disturbance).
4. Homoskedastisitas, atau variabel penggangu e memiliki variance yang
sama sepanjang obsevasi dari berbagai nilai X.
5. Tidak ada autokorelasi antara variabel e pada setap nilai xi dan ji ( no autocorrelation
between the disturbance).
6. Variabel X dan disturbance e tidak berkorelasi.
7. Jumlah observasi atau besar sample (n) harus lebih besar dari jumlah
parameter yang diestimasi.
8. Variabel X harus memiliki variabilitas.
9. Model regresi secara benar telah terspesifikasi.
10. Tidak ada multikolinearitas antara variabel penjelas.
C Coba
jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Sebagai contoh, adanya penyimpangan atau
tidak terpenuhinnya asumsi multikolinearitas (asumsi 10) tidak berarti
mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh
membesarnya standar error pada kasus multikolinearitas, sehingga nilai t,b,Sb,
menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas
tidak perlu diatasi.
D Jelaskan apa yang
dimaksud dengan autokorelasi!
keadaan dimana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode lain.
E Jelaskan
kenapa autokorelasi timbul!
Telah jelas bagi kita bahwa autokorelasi
akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang
secara otomatis mempengaruhi data berikutnya.
F Bagaimana cara mendeteksi masalah
autokorelasi?
Terdapat beberapa cara untuk mendeteksi
ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
2. Menggunakan metode
LaGrange Multiplier (LM).
G Apa
konsekuensi dari adanya masalah autokorelasi dalam model?
Konsekuensinya adalah nilai parameter
estimator (b1, b2,...,bn) model regresi tetap linear dan tidak bias dalam
memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum
dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan
menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b
(t=b/Sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat
tidak pasti (misleading).
H Jelaskan apa yang dimaksud dengan
heterokedastisitas!
Adalah Variance residual
harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang
lebih sama.
I Jelaskan kenapa heterokedastisitas
timbul!
Masalah heteroskedastisitas lebih sering
muncul dalam data cross section dari pada data time series (Kuncoro, 2001: 112;
Setiaji, 2004: 17). Karena dalam data cross section menunjukkan obyek yang
berbeda dan waktu yang berbeda pula.
J Bagaimana
cara mendeteksi masalah heterokedastisitas?
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21.
K Apa konsekuensi dari adanya masalah
heterokedastisitas dalam model?
kesalahan dalam model yang dapat
mengakibatkan nilai b meskipun tetap
linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
L Jelskan
apa yang dimaksud dengan multikolinearitas!
adalah suatu keadaan dimana terjadi
korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang
dimasukkan ke dalam model.
M Jelaskan kenapa multikolinearitas timbul!
Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat
kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya
mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas
memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat
membedakan lahi tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat
dikatakan serius, atau perfect, atau sempurna. Sedangkan tidak berkolinear jika
antara variabel penjelas tidak mempunyaisama sekali kesamaan.
N Bagaimana cara mendeteksi masalah
multikolinearitas?
Dengan menghitung nilai korelasi antar
variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila
data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval
atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini
lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.
O Apa konsekuensi dari adanya masalah
multikolinearitas dalam model?
Apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti
tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula
terhadap nilai t (Setiaji, 2004: 26).
P Jelaskan apa yang dimaksud dengan
normalitas!
Adalah sebuah uji yang bertujuan untuk
menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.
Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan
analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas
yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
Q Jelaskan kenapa normalitas timbul!
Jika bias pada nilai t hitung dan nilai F
hitung, karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y
atau e berdistribusi normal.
R Bagaimana cara mendeteksi masalah normalitas?
1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara
nilai median dengan nilai mean. Data dikatakan normal (simetris) jika
perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama.
Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol.
Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41)
2. Menggunakan formula Jarque Bera (JB test)
S Apa konsekuensi dari adanya masalah
normalitas dalam model?
Apabila data telah berdistribusi normal
maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001:
110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti:
memotong data yang out liers, memperbesar sampel, atau melakukan transformasi
data.
T Bagaimana cara menangani jika data ternyata tidak normal?
Dengan cara mentransformasi data sebagai
upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan
nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke bentuk
logaritma akan memperkecil error sehingga kemungkinan timbulnya masalah
heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).
Supawi Pawenang ,2017 ,Modul Ekonometrika ,Fakultas Ekonomi ,UNIBA Surakarta.
Tidak ada komentar:
Posting Komentar