Pendahuluan
Analisis model
regresi linear memerlukan dipenuhinya berbagai asumsi agar model dapat
digunakan sebagai alat prediksi yang baik. Namun tidak jarang seorang peneliti
menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam
analisis regresi adalah multikolinearitas, Heteroskedastisitas dan
Autokorelasi. Pada makalah ini, penulis akan membahas mengenai salah satu
penyimpangan asumsi dari regresi linear ialah multikolinearitas.
Pengertian
Multikolinearitas
Multikolinearitas
berarti antara variabel bebas yang satu dengan variabel bebas yang lain dalam
model regresi saling berkorelasi linear yang dimana pada umumnya korelasinya
mendekati sempurna atau sempurna (koefisien korelasinya tinggi atau bahkan
satu) (M.Iqbal, page 292).
Untuk hubungan yang terdiri atas sejumlah
k variabel bebas X termasuk
di mana k=p+1, dan p = jumlah varibel bebas
(
,
,
, . . . ,
). Hubungan linier yang sempurna
atau eksak akan terjadi kalau berlaku hubungan seperti:
*
+
*
+ . . . +
*
= 0
Di
mana:
,
, . . . ,
apabila bilangan konstan yang tidak
seluruhnya sama dengan nol atau paling tidak ada satu yang bernikai tidak sama
dengan nol.
Sebagai ilustrasi, terdapat kesulitan
dalam memisahkan antara pengaruh kekayaan dan pendapatan terhadap konsumsi yang
dimana dapat ditulis dengan persamaan:
Konsumsi = B1 + B2 pendapatan + B3 kekayaan + ε
atau dapat ditulis
Konsumsi = B1 + B2 X2i + B3 X3i + εi
Dalam
contoh di atas bisa terjadi bahwa antara kekayaan dan pendapatan mempunyai koefisien
korelasi yang mendekati satu (unity) sebab orang kaya bisa pendapatanya tinggi.
Secara logika antara kekayaan dan pendapatan berpengaruh sendiri-sendiri terhadap
konsumsi, dalam kenyataannya sulit dibedakan atau dipisahkan.
Penyebab
Multikolinearitas
Adapun
penyebabnya ialah karena sifat-sifat yang terkandung dalam kebanyakan variabel
data berubah bersama-sama sepanjang waktu dan besaran-besaran variabel
dipengaruhi factor-faktor yang sama (Dr.Suliyanto.ppt, page 19).
Dampak
Multikoliearitas
Akibat adanya
multikolinearitas ialah sebagai berikut:
1.
Pengaruh masing-masing
variabel bebas tidak dapat dideteksi atau sulit dibedakan.
2.
Variansi besar (dan
taksiran OLS).
3.
Interval kepercayaan lebar (variansi besar SE
besar Interval
kepercayaan lebar).
4.
t rasio tidak signifikan.
5.
tinggi tetapi tidak
banyak variabel yang signifikan dari uji t.
6.
Kesalahan standar
estimasi cenderung meningkat dengan makin bertambahnya variabel bebas.
7.
Probabilitas untuk
menerima hipotesis yang salah (kesalahan β) semakin besar.
Ciri-ciri
Multikolinearitas
Cara mengetahui
adanya multikolinearitas dalam regresi adalah sebagai berikut:
1.
Menganalisis koefisien
korelasi antara variabel bebas
Misalkan, antara dua
variabel bebas memiliki koefisien korelasi spesifik, misalnya koefisien
korelasi yang tinggi antara variabel bebas tersebut atau tanda koefisien
korelasi variabel bebas yang berbeda dengan tanda koefisien regresinya. Dalam
model regresi yang bersangkutan terdapat multikolinearittas.
2.
Membuat persamaan
regresi antarvariabel bebas
Jika persamaan regresi
tersebut pada koefisien regresinya signifikan, maka model regresi yang
bersangkutan mengandung multikolinearitas.
3.
Menganalisis nilai
, F ratio, dan
(t hitung)
Misalkan nilai
dan nilai F ratio tinggi, sedangkan nilai
sangat rendah, berarti sebagian besar atau
bahkan seluruh koefisien regresi tidak signifikan da nada kemungkinan dalam
model regresi yang bersangkutan mengandung multikolinearitas.
4.
Pada software SPSS dengan
melihat koefesien korelasi antar variabel
bebas yang dimana jika koefesien korelasi antar variabel bebas ≥ 0,7 maka terjadi multikolinier dan dengan
melihat nilai VIF (Varian Infloating Factor): Jika nilai VIF≤10 maka
tidak terjadi multikolinier.
Cara
Mengatasi Multikolinearitas
Adapun cara
mengatasi multikolinearitas yaitu :
1.
Melihat informasi
sejenis yang ada
Konsumsi = σ0
≠ σ1,
Pendapatan ≠ σ2
Kekayaan ≠ u
Misalnya : σ2
= 0,25 σ1
2.
Tidak mengikutsertakan salah satu variabel yang kolinier
Dengan
menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas
pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification
bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel
yang sangat penting.
3.
Mentransforinasikan variabel
Yt = β1
+ β2X2t
+ β3X3t
+ ut
Yt-1 = β1
+ β2X2t-1
+ β3X3t-1
+ ut-1
(Yt – Yt-1) = β2
(X2t – X2t-1) + β3
(X3t – X3t-1) + (ut – ut-1)
Yt* = β2X2t*
+ β3X3t*
+ ut*
4.
Mencari data tambahan
Dengan
tambahan data, kolineritas dapat berkurang, tetapi dalam praktek tidak mudah
untuk mencari tambahan data.
5.
Cara-cara lainnya transformasi eksponensial dan logaritma.
6.
Menghindari pengunaan data berkala (time series) jika ada beberapa
variabel bebas yang diukur dengan menggunakan harga mutlak
Misalkan terdapat inflasi yang tinggi, maka data yang berhubungan dengan
harga jangan digunakan, karena akan muncul korelasi yang tinggi. Akan lebih
baik menggunakan harga riil pada keadaan seperti itu.
7.
Menghindari penggunaan
beberapa indikator yang digunakan untuk satu konsep yang sama
Misalkan studi tentang
“tingkat kemajuan desa” suatu daerah pertanian. Variabel yang digunakan
(variabel bebas) dapat berupa presentase tenaga kerja di sector pertanian (X1)
atau presentase pendapatan kotor daerah di sekitar sector pertanian (X2). Jika
kedua variabel itu digunakan secara bersamaan untuk mengukur konsep yang sama
(tingkat kemajuan desa) maka akan muncul multikolinearitas.
8.
Menambahkan data
pengamatan (variabel bebas) yang baru
Cara ini berguna jika
dipastikan bahwa munculnya multikolinearitas dalam regresi disebabkan kesalahan
dalam penentuan atau pengambilan sampel.
9.
Menghilangkan satu atau
beberapa variabel bebas yang dianggap memiliki korelasi tinggi dari model
regresi. Terdapat kelemahan dalam cara ini yaitu menghilangkan variabel-variabel
yang dapat menimbulkan kesalahan spesifik.
10. Mentransformasikan
variabel.
11. Mengeluarkan
salah satu variabel independent yang berkorelasi tinggi dengan variabel independent
yang lain. Pengeluaran variabel ini dapat dilakukan secara manual ataupun
otomatis melalui metode stepwise.
12. Ridge Regression.
=
X 'Y , 0<k<1.
13. Principal
Component Regression, tahapan dari metode ini
adalah :
a. Melakukan
pembakuan data :
b. Membangkitkan
variabel baru yang saling independent
…
atau
wi
=a’ix, nilai a’I adalah eigen-vector dari eigen-value ke-i
dari matriks korelasi antar variabel independent
c.
Melakukan regresi y
dengan w dan menyatakan model regresi y dengan w ke dalam model y dengan x.
Daftar Pustaka
Hasan,
M.Iqbal. 2006. Statistika Inferensia.
Jakarta : Erlangga.
NN.
2013. Analisis Regresi Lineer : Uji
Asumsi Klasik.pdf. Diakses tanggal 23 November 2013 pukul 14.45 dari http://ssantoso.umpo.ac.id
untuk materi lengkap semua tentang SI II bisa di:
download here
Selamat belajar!!
SALAM TEKNIK
*kiss* *hug*