Senin, 10 Juli 2017

UJI ASUMSI KLASIK


http://uniba.ac.id/home/

supawi-pawenang.blogspot.com


BAB V
UJI ASUMSI KLASIK

Di awak telah tertulis,dalam regresi linier sederhana maupun dalam regresi linier berganda bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang sudah diuraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa rumus regresi diturunkan dari suatu asumsi tertentu ,maksudnya tidak semua data dapat diperlakukan dengan regresi. Jika data diregresi tidak memenusi asumsi yang telah memenuhi asumsi regresi maka nilai estimasi yang terperoleh akan bersifat BLUE (Best,Liniear,Unbiased,Estimator)
BEST
Dimaksudkan sebagai terbaik,untuk kembali kesadaran kita bahwa regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk regresi.
Linear
Mewakili linear dalam model atau parameter. Linear dalam model yang digunakan dalam analisis regresi telah sesuai dengan model OLS dimana variable penduganya hanya berpangkat satu, sedangkan liniar dalam parameter menjelaskan bahwa dihasilkan merupakan fungsi linear dari sample. Jelas bula diukur dengan nilai rata-rata
Unbiased
Ataubisa dikatakan tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator
Yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.

Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS yaitu asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,18 yaitu:




·         Asumsi 1 :
Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.
·         Asumsi 2 :
Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·         Asumsi 3 :
Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
·         Asumsi 4 :
Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X.
·         Asumsi 5 :
Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6 :
Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y.
·         Asumsi 7 :
Jumlah observasi atau besar sampel (n) harus diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar
·         Asumsi 8 :
Variabel X harus memiliki variabilitas. Jikanilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9 :
Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10 :
Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.


Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi.
Sebagai contoh : adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas tidak berarti mengganggu, sepanjang uji t sudah signifikan.
Untuk memenuhi asumsi-asumsi tersebut maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.
Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

A. Uji Autokorelasi
A.1. Pengertian autokorelasi
Dalam asumsi klasik telah dijelaskan model OLS harus telah terbebas dari autokorelasi atau serial korelasi.
Autokorelasi yaitu keadaan dimana variable gangguan pada periode tertentu berkorelasi dengan variable gangguan pada periode lain, bersifat mucul bila terdapat korelasi antara data yang diteliti baik itu data jenis runtut waktu maupun data kerat silang. Masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini terdiri lekat dengan kontiyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.

A.2. Sebab-sebab Autokorelasi
Banyak faktor  yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:
1.       Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.       Tidak memasukkan variabel yang penting.Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3.       Manipulasi data. Misalnya dalam penelitian kitaingin menggunakan data bulanan, namun data tersebut tidak tersedia. Menggunakan data yang tidak empiris.
A.3. Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

A.4. Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut:









atau dapat pula ditulis dalam rumus sebagai berikut:







2. Menggunakan metode LaGrange Multiplier(LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:




Variabel Yt-1 merupakan variabel lag 1 dari Y.
Variabel Yt-2 merupakan variabel lag 2 dari Y.

Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan. Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya.
Terdapat beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan lainlain, namun uji-uji tersebut tidak dibahas di sini, mengingat tulisan ini masih berlingkup atau bersifat pengantar.

B. Uji Normalitas
Bertujuan untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum atau setelah tahapan analisis regresi. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier, adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan. Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17
Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama. Tidak seperti data cross section yang cenderung menghasilkan variance residual yang berbeda pula.

C.2. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.

C.3. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran 21 Ditunjukkan pula oleh Gozali, 2001. antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.

D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas yaitu terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Sebagai gambaran penjelas, dapat dilihat pada gambar berikut ini:




















D.2. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,







b1 =
0
0
akan menghasilkan bilangan pembagian,   


sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.

D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, diantaranya dengan :
Menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua variabel bebas lebih tinggi dibanding korelasi salah satu atau kedua variabel bebas tersebut dengan variabel terikat.
Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.




ESSAI !

A  Apa itu asumsi klasik?
Asumsi klasik adalah syarat-syarat yang harus dipenuhi pada model regresi linier (OLS) agar model tersebut menjadi valid sebagai alat penduga.

B  Apa saja asumsi-asumsi yang ditetapkan?
1.      Linier Regresion Model. Model regresi merupakan hubungan linier dalam parameter.
2.       Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
3.      Variabel penggangu e memiliki rata-rata nol (zero mean of disturbance).
4.      Homoskedastisitas, atau variabel penggangu e memiliki variance yang sama sepanjang obsevasi dari berbagai nilai X.
5.      Tidak ada autokorelasi antara variabel e pada setap nilai xi dan ji ( no autocorrelation between the disturbance).
6.      Variabel X dan disturbance e tidak berkorelasi.
7.      Jumlah observasi atau besar sample (n) harus lebih besar dari jumlah parameter yang diestimasi.
8.      Variabel X harus memiliki variabilitas.
9.      Model regresi secara benar telah terspesifikasi.
10.  Tidak ada multikolinearitas antara variabel penjelas.

C  Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Sebagai contoh, adanya penyimpangan atau tidak terpenuhinnya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t,b,Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi.

D Jelaskan apa yang dimaksud dengan autokorelasi!
keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain.

E  Jelaskan kenapa autokorelasi timbul!
Telah jelas bagi kita bahwa autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.

F   Bagaimana cara mendeteksi masalah autokorelasi?
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1.      Uji Durbin-Watson (DW Test).
2.      Menggunakan metode LaGrange Multiplier (LM).

  G Apa konsekuensi dari adanya masalah autokorelasi dalam model?
Konsekuensinya adalah nilai parameter estimator (b1, b2,...,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t=b/Sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

H   Jelaskan apa yang dimaksud dengan heterokedastisitas!
Adalah Variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama.

I   Jelaskan kenapa heterokedastisitas timbul!
Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001: 112; Setiaji, 2004: 17). Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula.

J   Bagaimana cara mendeteksi masalah heterokedastisitas?
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21.

K   Apa konsekuensi dari adanya masalah heterokedastisitas dalam model?
kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap
linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

L   Jelskan apa yang dimaksud dengan multikolinearitas!
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

M   Jelaskan kenapa multikolinearitas timbul!
Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat membedakan lahi tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan tidak berkolinear jika antara variabel penjelas tidak mempunyaisama sekali kesamaan.

N   Bagaimana cara mendeteksi masalah multikolinearitas?
Dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.

O   Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).

P   Jelaskan apa yang dimaksud dengan normalitas!
Adalah sebuah uji yang bertujuan untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.

Q   Jelaskan kenapa normalitas timbul!
Jika bias pada nilai t hitung dan nilai F hitung, karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

R   Bagaimana cara mendeteksi masalah normalitas?
1.      Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41)
2.      Menggunakan formula Jarque Bera (JB test)
S   Apa konsekuensi dari adanya masalah normalitas dalam model?
Apabila data telah berdistribusi normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

T  Bagaimana cara menangani jika data ternyata tidak normal?
Dengan cara mentransformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).




Supawi Pawenang ,2017 ,Modul Ekonometrika ,Fakultas Ekonomi ,UNIBA Surakarta.

REGRESI LINIER BERGANDA


http://uniba.ac.id/home/



BAB IV
REGRESI LINIER BERGANDA

Regresi linier berganda sudah dibahas tentang regresi linier dengan dua variable yaitu x dan y disebut juga singgle linier regresion. Pada bab ini jumlah varableyang digunakan akan bertambah banyak,yaitu satu variable y dan jumlah variable x nyalebih dari satu ,artinya variable x bisa berjumlah 2 atau lebih.

Jumlah x yang leih dari sattu tersebut disebut juga dengan istilah regresi linier berganda atau multiple linier regresion.Bertambahnya x lebih dari satu sangat memungkinkan,karena semua faktor-faktor saling berkaitan satu sama lain Sebagaimana dalam teori inflasi dapat digolongkan sebagai inflasi karena tarikan permintaan dan inflasi desakan biaya Inflasi tarikan permintaan terjadi apabila masyarakat banyak memegang uang.Tentu secara singkat dapat diartikan bahwa terdapat jumlah kelebihan jumlah uang beredar yang ada di masyarakat.  Selain itu dapat pula disebabkan ekspektasi masyarakat akibatadanya perubahan nilai tukar uang.

Terjadinya inflasi desakan biaya karena perubahan pada sisi supply, sedang inflasi tarikan permintaan disebabkan perubahan pada sisi demand. Berbagai alasan yang dijelaskan di atas, maka untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba menambah satu variabel penduga yaitu Kurs, yang menggambarkan nilai tukar IDR terhadap USD, pada kurun waktu yang sama dengan data sebelumnya yaitu antara Januari 2001 sampai Oktober 2002. Karena jumlah variabel X tidak lagi satu melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi linier berganda. Dengan bertambahnya variabel Kurs sebagai variabel penduga, maka data yang dianalisis pun bertambah hingga menjadi sebagai berikut :

X1
Y
X2
(Budep)
(Inflasi)
(Kurs)
13.06
8.28
9433.25
13.81
9.14
9633.78
13.97
10.62
10204.7
13.79
10.51
11074.75
14.03
10.82
11291.19
14.14
12.11
11294.3
14.39
13.04
10883.57
14.97
12.23
8956.59
15.67
13.01
9288.05
15.91
12.47
10097.91
16.02
12.91
10554.86
16.21
12.55
10269.42
16.19
14.42
10393.82
15.88
15.13
10237.42
15.76
14.08
9914.26
15.55
13.3
9485.82
15.16
12.93
9115.05
14.85
11.48
8688.65
324.22
10.05
8964.7
13.93
10.6
8928.41
13.58
260.49
8954.43
13.13
10.33
9151.73
14.22
10.48
216816.7

Model Regresi Linier Berganda
Regresi linier berganda merupakan pengembangan dari model regresi linier tunggal ,dapat dibedakan hanya terdapat dari jumlah variable x nya saja, Dalam regresi linier tunggal hanya mempunyai satu variable x tetapi dalam regresi linier berganda variable x lebih dari satu .Dapat dicontohkan sebagai berikut:

Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+BnXn + e
Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn+ e
Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e

Akan tetapi yang tpenulisan model sangat beragam,alan tetapi dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai penulisan teknik anotasi untuk mempermudah interpeksi
Notasi model tentu berbeda dengan notasi model Yale16. Apabila kita ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi seperti berikut:

Populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e

Penghitungan Nilai Parameter
Penggunaan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui.Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Yˆ . Secara matematis, fungsi minimalisasi sum of square ditunjukkan dalam rumus:



Koefisien Determinasi (R2)

Selain menguji signifikasi dari masing-masing variable kita dapat pula menguji determinasi seluruh variable yang ada dalam model regresi Pengujian ini biasanya disimbolkan dengan koefisien regresi yang biasa disimbolkan dengan R2. Uraian tentang koefisien determinasi sedikit banyak telah disinggung pada single linier regression. Pada sub bahasan ini hanya menambah penjelasan-penjelasan agar menjadi lebih lengkap saja.

Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square atau total variasi Y terhadap explained sum of square. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Rumus tersebut adalah sebagai berikut:
R2=
ESS
TTS



Uji F

Setelah itu  dalam regresi linier berganda variabel penjelasnya selalu berjumlah lebih dari satu. Untuk itu, maka pengujian tingkat signifikansi variabel tidak hanya dilakukan secara individual saja tetapi dapat pula dilakukan pengujian signifikansi semua variabel penjelas secara serentak atau bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik  ANOVA melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel disebut pula dengan uji F.

ESSAY !
A   Regresi linear berganda adalah jumlah X yang lebih dari satu tersebut terkenal dengan istilah multiple linier regression. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan sosial semua faktor-faktor atau variabel-variabel saling berkaitan satu dengan lainnya. inflasi dapat digolongkan sebagai inflasi karena tarikan permintaan dan inflasi desakan biaya.

B  Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja, model
regresi linier umumnya dituliskan sebagai berikut:
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b2X2 + b3X3 + ………+ bnXn + e
Atau Y = b0 + b1X1 + b2X2 + b3X3 + ………+ bnXn + e
Penulisan model sangat beragam, karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi.

C  Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi. Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale16. Apabila kita ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi
seperti berikut:
Populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e

D  Konstanta
Konstanta atau yang disimbolkan dengan huruf  a merupakan sikap dasar dari variabel dependen yang disimbolkan dengan symbol Y’. Menjelaskan tentang seberapa besar faktor-faktor yang bersifat tetap dari variabel dependen.

E   Koefisien Regresi
Koefisien Regresi Bersimbol (b) adalah kontribusi besarnya perubahan nilai variabel bebas, semakin besar nilai koefisien regresi maka kontribusi perubahan semakin besar, demikian pula sebaliknya akan semakin kecil . Kontribusi perubahan variabel bebas (X) juga ditentukan oleh koefisien regresi positif atau negatif.

F       Perbedaan model regresi linier sederhana dengan model regresi linier berganda
·         Model regresi linier sederhana :
Disebut single linier apabila variabel bebas hanya berjumlah satu dengan batasan pangkat satu.
·         Model regresi linier berganda :
1)jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi penambahan.
2) rumus penghitungan nilai b mengalami perubahan.
3) jumlah degree of freedom dalam menentukan nilai t juga berubah.

G  Beda rumus mencari nilai b
Perbedaan ini muncul karna jumlah variabel penjelasnya bertambah. Semakin banya variabel X maka kemungkinan-kemungkinan yang menjelaskan model juga mengalami perubahan. Dalam single linier kemungkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier itu terjadi.

H. Pencarian nilai t mengalami perubahan atau tidak
Pencarian nilai t mempunyai kesamaan dengan model regresi linier sederhana, hanya saja pencarian Sb nya yang berbeda. Setelah diketahui semua nilai standar error (Sb0,Sb1,Sb2) melalui penggunaan rumus-rumus maka nlai t untuk masing-masing parameter dapat diperoleh, karena nilai t merupakan hasil bagi antara b dengan Sb.

      Nilai t yang signifikan
Yaitu dengan diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk mengetahui signifikan tidaknya nilai variabel penjelas dalam mempengaruhi variabel terikat. Untuk mengetahui apakah signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut tidak signifikan.


I Kegunaan nilai f
Pengujian signifikansi semua variabel penjelas secara serentak atau bersama-samatersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan.

J    Menentukan nilai f yang signifikan
Menghitung rasio antara variansi means (variance between means) yang dibandingkan dengan variansi di dalam kelompok variabel (variance between group). Hasil pembandingan keduanya itu (rasio antara variance between means terhadap variance between group) menghasilkan nilai F hitung, yang kemudian dibandingkan dengan nilai F tabel. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
Atau secara ringkas dapat dituliskan sebagai berikut:
£ Fa;(k-1);(n-k)à berarti tidak signifikan à atau H0 diterima
> Fa;(k-1);(n-k)à berarti signifikan à atau H0 ditolak
H0 diterima atau ditolak, adalah merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F.

K  Jelaskan apakah rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana! Kenapa?
Dalam pencarian koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana, hanya saja di regresi linier berganda lebih lengkap misalnya koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi. Hasil hitungan Y cap individual maupun total, beserta ekstensinya diperlukan untuk menyesuaikan dengan rumus mencari R2.

M .  Jelaskan bagaimana variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan  Y? 

     Variabel penjelas prediktor terbaik yaitu sekiranya mewakili atau signifikan terhadap Y sehingga diperlukan adanya penelitian. Maka dari itu perlu adanya pengkajian terlebih dahulu sebelum adanya penelitian.



Supawi Pawenang ,2017 ,Modul Ekonometrika ,Fakultas Ekonomi ,UNIBA Surakarta.