17/01/16

materi TEKNIK TENAGA LISTRIK, Teknik Industri

Motor induksi merupakan motor arus bolak balik (ac) yang paling luas penggunaannya. Penamaannya berasal dari kenyataan bahwa arus rotor motor ini bukan diperoleh dari sumber tertentu, tetapi merupakan arus yang terinduksi sebagai akibat adanya perbedaan relative antara putaran rotor dengan medan putar (rotating magnetic field) yang dihasilkan oleh arus stator.

Belitan stator yang dihubungkan dengan suatu sumber tegangan tiga fasa akan menghasilkan medan magnet yang berputar dengan kecepatan sinkron (ns = 120f/2p). Medan putar pada stator tersebut akan memotong konduktor-konduktor pada rotor, sehingga terinduksi arus; dan sesuai dengan Hukum Lentz, rotor pun akan ikut berputar mengikuti medan putar stator.

Perbedaan putaran relative antara stator dan rotor disebut slip. Bertambahnya beban, akan memperbesar kopel motor, yang oleh karenanya akan memperbesar pula arus induksi pada rotor, sehingga slip antara medan putar stator dan putaran rotor pun akan bertambah besar. Jadi , bila beban motor bertambah, putaran rotor cenderung menurun. Dikenal dua tipe motor induksi yaitu motor induksi dengan rotor belitan dan rotor sangkar.

Slip = jika arus bolak balik dikenakan pada belitan stator dari sebuah motor induksi, sebuah medan putar timbul. Medan putar ini memotong batang rotor dan menginduksikan arus kepada rotor. Arah aliran arus ini dapat ditentukan dengan menggunakan aturan tangan kiri untuk generator.


untuk materi lengkap semua tentang TTL bisa di:
download here

Selamat belajar!!
SALAM TEKNIK

*kiss* *hug*

materi STATISTIK INDUSTRI II, Teknik Industri

Pendahuluan
Analisis model regresi linear memerlukan dipenuhinya berbagai asumsi agar model dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang seorang peneliti menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam analisis regresi adalah multikolinearitas, Heteroskedastisitas dan Autokorelasi. Pada makalah ini, penulis akan membahas mengenai salah satu penyimpangan asumsi dari regresi linear ialah multikolinearitas.

Pengertian Multikolinearitas
Multikolinearitas berarti antara variabel bebas yang satu dengan variabel bebas yang lain dalam model regresi saling berkorelasi linear yang dimana pada umumnya korelasinya mendekati sempurna atau sempurna (koefisien korelasinya tinggi atau bahkan satu) (M.Iqbal, page 292).
Untuk hubungan yang terdiri atas sejumlah k variabel bebas X termasuk  di mana k=p+1, dan p = jumlah varibel bebas  ( , , , . . . , ). Hubungan linier yang sempurna atau eksak akan terjadi kalau berlaku hubungan seperti:
 *  +  *   + . . . +  *  = 0
Di mana:
, , . . . ,   apabila bilangan konstan yang tidak seluruhnya sama dengan nol atau paling tidak ada satu yang bernikai tidak sama dengan nol.
Sebagai ilustrasi, terdapat kesulitan dalam memisahkan antara pengaruh kekayaan dan pendapatan terhadap konsumsi yang dimana dapat ditulis dengan persamaan:
Konsumsi = B1 + B2 pendapatan + B3 kekayaan + ε
atau dapat ditulis
Konsumsi = B1 + B2 X2i + B3 X3i + εi
Dalam contoh di atas bisa terjadi bahwa antara kekayaan dan pendapatan mempunyai koefisien korelasi yang mendekati satu (unity) sebab orang kaya bisa pendapatanya tinggi. Secara logika antara kekayaan dan pendapatan berpengaruh sendiri-sendiri terhadap konsumsi, dalam kenyataannya sulit dibedakan atau dipisahkan.
  
Penyebab Multikolinearitas
Adapun penyebabnya ialah karena sifat-sifat yang terkandung dalam kebanyakan variabel data berubah bersama-sama sepanjang waktu dan besaran-besaran variabel dipengaruhi factor-faktor yang sama (Dr.Suliyanto.ppt, page 19).

Dampak Multikoliearitas
Akibat adanya multikolinearitas ialah sebagai berikut:
1.        Pengaruh masing-masing variabel bebas tidak dapat dideteksi atau sulit dibedakan.
2.        Variansi besar (dan taksiran OLS).
3.        Interval kepercayaan lebar (variansi besar  SE besar Interval kepercayaan lebar).
4.         t rasio tidak signifikan.
5.         tinggi tetapi tidak banyak variabel yang signifikan dari uji t.
6.        Kesalahan standar estimasi cenderung meningkat dengan makin bertambahnya variabel bebas.
7.        Probabilitas untuk menerima hipotesis yang salah (kesalahan β) semakin besar.

Ciri-ciri Multikolinearitas
Cara mengetahui adanya multikolinearitas dalam regresi adalah sebagai berikut:
1.        Menganalisis koefisien korelasi antara variabel bebas
Misalkan, antara dua variabel bebas memiliki koefisien korelasi spesifik, misalnya koefisien korelasi yang tinggi antara variabel bebas tersebut atau tanda koefisien korelasi variabel bebas yang berbeda dengan tanda koefisien regresinya. Dalam model regresi yang bersangkutan terdapat multikolinearittas.
2.        Membuat persamaan regresi antarvariabel bebas
Jika persamaan regresi tersebut pada koefisien regresinya signifikan, maka model regresi yang bersangkutan mengandung multikolinearitas.
3.        Menganalisis nilai , F ratio, dan (t hitung)
Misalkan nilai  dan nilai F ratio tinggi, sedangkan nilai  sangat rendah, berarti sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan da nada kemungkinan dalam model regresi yang bersangkutan mengandung multikolinearitas.
4.        Pada software SPSS dengan melihat koefesien korelasi antar    variabel bebas yang dimana jika koefesien korelasi antar variabel bebas ≥ 0,7 maka terjadi multikolinier dan dengan melihat nilai VIF (Varian Infloating Factor): Jika nilai VIF≤10 maka tidak terjadi multikolinier.

Cara Mengatasi Multikolinearitas
Adapun cara mengatasi multikolinearitas yaitu :
1.        Melihat informasi sejenis yang ada
Konsumsi = σ0 σ1, Pendapatan σ2 Kekayaan  u
Misalnya : σ2 = 0,25 σ1
2.        Tidak mengikutsertakan salah satu variabel yang kolinier
Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting.
3.        Mentransforinasikan variabel
Yt = β1 + β2X2t + β3X3t + ut
Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1
(Yt – Yt-1) = β2 (X2t – X2t-1) + β3 (X3t – X3t-1) + (ut – ut-1)
Yt* = β2X2t* + β3X3t* + ut*
4.        Mencari data tambahan
Dengan tambahan data, kolineritas dapat berkurang, tetapi dalam praktek tidak mudah untuk mencari tambahan data.
5.        Cara-cara lainnya transformasi eksponensial dan logaritma.
6.        Menghindari pengunaan data berkala (time series) jika ada beberapa variabel bebas yang diukur dengan menggunakan harga mutlak
Misalkan terdapat inflasi yang tinggi, maka data yang berhubungan dengan harga jangan digunakan, karena akan muncul korelasi yang tinggi. Akan lebih baik menggunakan harga riil pada keadaan seperti itu.
7.        Menghindari penggunaan beberapa indikator yang digunakan untuk satu konsep yang sama
Misalkan studi tentang “tingkat kemajuan desa” suatu daerah pertanian. Variabel yang digunakan (variabel bebas) dapat berupa presentase tenaga kerja di sector pertanian (X1) atau presentase pendapatan kotor daerah di sekitar sector pertanian (X2). Jika kedua variabel itu digunakan secara bersamaan untuk mengukur konsep yang sama (tingkat kemajuan desa) maka akan muncul multikolinearitas.
8.        Menambahkan data pengamatan (variabel bebas) yang baru
Cara ini berguna jika dipastikan bahwa munculnya multikolinearitas dalam regresi disebabkan kesalahan dalam penentuan atau pengambilan sampel.
9.        Menghilangkan satu atau beberapa variabel bebas yang dianggap memiliki korelasi tinggi dari model regresi. Terdapat kelemahan dalam cara ini yaitu menghilangkan variabel-variabel yang dapat menimbulkan kesalahan spesifik.
10.    Mentransformasikan variabel.
11.    Mengeluarkan salah satu variabel independent yang berkorelasi tinggi dengan variabel independent yang lain. Pengeluaran variabel ini dapat dilakukan secara manual ataupun otomatis melalui metode stepwise.
12.     Ridge Regression.  =  X 'Y , 0<k<1.
13.    Principal Component Regression, tahapan dari metode ini adalah :
a.       Melakukan pembakuan data :
b.      Membangkitkan variabel baru yang saling independent
atau
wi =a’ix, nilai a’I adalah eigen-vector dari eigen-value ke-i dari matriks korelasi antar variabel independent
c.       Melakukan regresi y dengan w dan menyatakan model regresi y dengan w ke dalam model y dengan x.


Daftar Pustaka

Hasan, M.Iqbal. 2006. Statistika Inferensia. Jakarta : Erlangga.
NN. 2013. Masalah dalam Analisis Regresi.pdf. Diakses dari http://www.pdffactory.com tanggal 23 November 2013 pukul 14.00.
NN. 2013. Analisis Regresi Lineer : Uji Asumsi Klasik.pdf. Diakses tanggal 23 November 2013 pukul 14.45 dari http://ssantoso.umpo.ac.id
Suliyanto. 2013. Uji Asumsi Klasik.ppt. Diakses dari http://management-unsoed.ac.id tanggal 23 November 2013 pukul 14.30.





untuk materi lengkap semua tentang SI II bisa di:
download here

Selamat belajar!!
SALAM TEKNIK

*kiss* *hug*