Jawab :

Tidak ada masalah apakah hasil uji mengarah positif atau negatif ketika membahas uji perbedaan. Uji perbedaan berfokus pada selisih rerata antar dua karakteristik yang berbeda yang bisa diformulasikan pada dua cara 1) A – B atau 2) B – A. Jika A > B maka selisih pada cara 1 menghasilkan nilai positif sedangkan cara 2 menghasilkan arah negarif. Kalau sebelumnya anda memasukkan Pegawai sebagai kelompok 1 dan Wiraswasta sebagai kelompok 2 maka cobalah membaliknya : Pegawai sebagai kelompok 2 dan sebaliknya wiraswasta sebagai kelompok 1. Uji t akan menghasilkan nilai t yang besarnya sama dan signifikansi yang sama, namun arah nilai t berubah dari positif menjadi negatif. Kedua analisis akan menghasilkan kesimpulan yang sama bahwa tidak ada beda antar kedua kelompok tersebut p=0,146 (p>0,05).


2. Bagaimana cara menganalisis peranan variabel mediator ?

Jawab :

Saya sudah menulis cara analisis melalui SPSS di artikel ini (klik di sini untuk mendownload). Jangan lupa mendownload file ini (klik di sini) kemudian letakkan di folder SPSS misalnya Ctonguerogram FilesSPSSScripts


3. Apakah Marlowe-Crowne Social Desirability Inventory itu (MCSDI)? (Thomas – Jakarta)

MCSDI adalah instrumen yang dikembangkan oleh Marlowe dan Crowne untuk mendeteksi tingkat social desirability individu. Biasanya dalam penelitian survei melalui self report atau inventori, skala ini disisipkan untuk melihat apakah respon individu terhadap instrumen survei cenderung jujur atau mengarah pada social desirability. Dengan kata lain, skala ini berfungsi mirip seperti item dalam MMPI yang mendeteksi konsistensi respon individu. Bedanya skala ini dipakai untuk mendeteksi respon yang bias (cq. tidak jujur).


4. Pengkategorian Data

Salam kenal. Saya Denny mahasiswa S1 program studi Statistika Undip yang sedang menulis skripsi. Saya tertarik dengan artikel yang bapak buat dalam bentuk pdf mengenai “pengkategorian data”, yaitu bagaimana membuat skala baru dari sekelompok item2 pertanyaan yang dijumlahkan. Boleh saya tahu referensi/buku yang menjadi acuan Bapak untuk menulis artikel tersebut? (nama buku, tahun penerbit, judul). Sebelumnya saya ucapkan banyak terima kasih.

Jawab :

Prosedur pengkategorian tersebut saya dapatkan dari buku Saifuddin Azwar yang judulnya Pengembangan Skala Psikologi. Prosedur itu dibuat untuk memudahkan kita dalam membuat kategori secara sederhana dari instrumen pengukuran psikologi yang telah baku dan sudah banyak dipakai dalam banyak strata di populasi. Mean hipotetik (hypothetical mean) yang dimaksud di sana bukanlah hasil dari estimasi parameter melalui prosedur statistika yang kompleks, melainkan dari judgement saja. Berikut saya berikan contoh jurnal yang memakai prosedur ini. |  RAR |


4. Reliabilitas Antar Sub Skala

Saya Ajeng Vina mahasiswa angkatan 2002 sedang mengerjakan analisis data untuk skripsi saya di bawah bimbingan bu Tina. Saya ingin bertanya kalau item saya lebih dari 100 (skala 1 saya berjumlah 136 item dan skala 2 saya berjumlah 150 item) bagaimana cara mengetahui nilai reabilitasnya dengan benar? apakah bisa hanya dengan membagi skala menjadi 2 kemudian nilai alphanya ditambah dan dibagi 2?…saya bingung harus tanya ke siapa?boleh tidak kalau saya bertemu langsung untuk bertanya dengan pak wahyu dikampus? trimakasih.balasan email pak wahyu saya nantikan.

Jawab :

Pada konteks tersebut anda bisa menggunakan reliabilitas skor komposit, misalnya Alpha Berstrata. Saya sudah membuat tulisan mengenai hal itu di portal “download” di website ini.


5. Banyak yang bertanya kepada saya. Untuk melihat uji linearitas di dalam SPSS, kolom output manakah yang kita lihat? LINEARITY ataukah DEVIATION FROM LINEARITY nya?

Verifikasi asumsi linieritas (atau terkadang dinamakan uji asumsi) banyak dilakukan peneliti di psikologi sebelum mereka menguji menggunakan korelasi linier antar variabel (misalnya product moment/pearson, atau regresi). Cara yang biasanya dipakai adalah melihat signifikansi LINIERITY dulu sebelum menggunakan Korelasi Pearson. Prosedur ini menurut saya sangat aneh, karena hasil uji LINIERITY setara dengan hasil dari Korelasi Pearson. Kalau di hasil di LINIERITY signifikan, maka hasil di Korelasi Pearson pun signifikan. Ibaratnya, untuk menguji apakah orang tersebut cakep atau tidak dengan Instrumen A kita dahului dengan menguji apakah orang tersebut cakep atau tidak dengan Instrumen B, padahala instrumen A dan B itu sama. Aneh bukan?

Menurut saya, setiap hubungan antar dua variabel memiliki banyak pola (model) hubungan. Ada yang Linier, kuadratik atau Kuartik. Korelasi Pearson tepat dikenakan ketika model hubungan kedua variabel tersebut lebih tepat model linier, dibanding dengan model kuadratik atau lainnya. Nah, untuk melihat hubungan antar variabel yang kita uji mengikuti model yang mana, kita dapat melihat melalui menu CURVE ESTIMATION pada SPSS. Di situ akan muncul hasil pengujian model dari hubungan variabel yang akan kita uji. Model yang memiliki sumbangan terbesar menunjukkan model hubungan variabel yang akan kita uji lebih tepat ke model tersebut. Misalnya hasil sumbangan efektif model linier 50%, model kuadratik 30% dan model compound 29%, maka model kita lebih mengarah pada model linier sehingga uji korelasi linier dapat kita lakukan.

DEVIATION FROM LINEARITY pada SPSS menunjukkan seberapa jauh model kita menyimpang dari model linier. Kalau hasilnya tidak signifikan (p>0,05) maka model kita dapat dikatakan linier. Prosedur ini memang tidak sedetail prosedur yang saya tulis di atas, karena hanya menguji linieritasnya saja.

Beberapa analisis menunjukkan bahwa hasil DEVIATION FROM LINEARITY tidak signifikan (berarti tidak linier) akan tetapi kok liniernya signifikan (berarti linier) ? Hal ini dikarenakan model yang tepat untuk hubungan variabel yang akan kita uji adalah model NON LINIER akan tetapi model LINIER masih mampu menjelaskan varian dengan baik. Misalnya melalui CURVE ESTIMATION di SPSS di dapatkan MODEL KUADRATIK (non linier) sebesar 60% sedangkan MODEL LINIER 50%. Terlihat bahwa model yang paling cocok dengan data kita adalah model KUADRATIK karena sumbangannya terbesar, namun model data kita dapat juga cocok jika dilihat sebagai model linier karena sumbangannya cukup besar yaitu 50%. Kesimpulannya, meski DEVIATION FROM LINIERITY tidak signifikan akan tetapi LINIERITY nya signifikan, maka data kita dapat kita asumsikan linier. Untuk komunikasi lebih lanjut ayo diskusi di sini


6. Pak saya ingin bertanya tentang analsis faktor eksploratori, bisa jelaskan perbedaannya dengan analisis faktor konfirmatori terutama dalam hal variabel dan definisi variabel penelitian (Wiwiek).

Tuk Mbak Wiwiek. Analisis Faktor Eksploratori (EFA) dan Analisis Faktor Eksploratori (CFA) sama-sama mengeksplorasi faktor di dalam struktur data kita. Bedanya, mungkin seperti ini.

1. Kalau EFA kita tidak memiliki hipotesis mengenai jumlah faktor dan item-item di dalam faktor tersebut. Jadi pertanyaannya adalah berapa jumlah faktor dalam data saya? Item-item apa saja yang masuk ke dalam faktor-faktor tersebut? Untuk menjawabnya kita dapat menganalisis melalui SPSS. Pendekatan ini kadang dinamakan dengan bottom-up.

2. Kalau CFA kita sudah memiliki dugaan mengenai struktur faktor beserta item-item di dalam faktor tersebut. Misalnya yang kita ujikan adalah ‘blue print’ alat ukur kita yang di dalamnya ada aspek dan item-itemnya. Pertanyaan yang diajukan adalah : Apakah struktur ‘blue print’ saya sesuai dengan data yang didapatkan? Kita menganalisisnya melalui pendekatan SEM melalui Program AMOS atau LISREL. Pendekatan ini kadang dinamakan pendekatan top-down, karene menguji teori atau validitas konstrak pengukuran.


7. Saya maun nanya soal uji distribusi normalitas untuk regresi. Yang diharuskan berdistribusi normal, apakah prediktor dan kriterianya ataukah hanya kriterianya saja.

Yang diharuskan normal adalah kriterianya saja atau (variabel dependennya saja). Prediktor tidak diharuskan normal untuk menguji dengan menggunakan regresi. Selain itu, sebenarnya eror di sekitar garis prediksi Y ^ harus terdistribusi normal yang bisa dilihat melalui dengan plot normal dari residu. Eror ini juga harus memiliki varians yang konstan. Anda dapat memeriksanya dengan prediksi oleh residual plot. Plot residu seharusnya tidak memiliki pola. Referensi mengenai ini dapat anda lihat di sini. Klik


8. Prosedur Seleksi Item

1. Menghitung reliabilitas
Estimasi reliabilitas sangat bergantung kepada jenis sampel (invariance)sehingga kedua sub-skala tersebut harus dihitung dengan reliabilitas secara terpisah, ibu sendiri dan ayah sendiri. Misalnya masing-masing skala menggunakan teknik alpha. Nah, untuk menggabungkan dua nilai alpha tersebut gunakan teknik reliabilitas alpha berstrata. Bisa dihitung melalui program analisis bantu di website saya http//:widhiarso.staff.ugm.ac.id

2. Menyeleksi Item
Yang utama dalam menunjukkan kualitas alat ukur adalah validitas dan reliabilitas. Reliabilitas ditunjukkan dengan nilai alpha atau alpha berstrata. Validitas bisa ditunjukkan dengan item yang mengukur atribut ukur, analisis faktor, MTMM, atau lainnya. Sedangkan seleksi item hanyalah pendukung keduanya. Oleh karena itu kadang item yang memiliki korelasi item-total dibawah 0,3 masih bisa dipakai karena item tersebut sangat pas dalam mengukur atribut ukur. Atau jika item tersebut gugur maka validitas isi alat ukur menjadi pincang, maka item tersebut tidak perlu digugurkan meski korelasinya di bawah 0,3.

Dalam menyeleksi item dari kedua sumber (ayah-ibu) tersebut, maka gugurkan item jika nilai korelasi item-total dari kedua sumber sama-sama rendah. Pertimbangkan untuk tetap memakai item jika salah satu korelasi item total, baik dari ayah maupun dari ibu ada yang tinggi, meski yang satunya rendah. Misalnya contoh dibawah ini.

Item r-it (ayah) r-it(ibu)
1 0.38 0.45 lolos
2 0.21 0.47 lolos (dengan pertimbangan*)
3 0.19 0.15 gugur

*) Maksudnya dengan pertimbangan adalah lihat target item yang akan kita gunakan untuk skala penelitian. Jika dari uji coba item kita banyak yang lolos (r-it baik ayah dan ibu sama2 tinggi) dan melebihi target, maka item ini gugurkan saja. Akan tetapi jika item lolos masih dibawah target maka item ini kita pakai saja sampai item target terpenuhi. Hal ini bertujuan agar validitas isi skala ini tetap terjaga. Sekian penjelasan dari saya. Semoga bermanfaat.


9. Korelasi Antar Dua Sampel yang berbeda. Apakah bisa menggunakan korelasi.

Ini adalah contoh penelitian Brandon (1957) yang mengkorelasikan antara kecerdasan ibu dan anak ,14. Ketika perkiraan ini dibuat untuk ayah, nilai korelasi antara orang tua dan anak juga dilaporkan. Ada korelasi yang rendah antara ibu ‘kecerdasan dan bahwa anak-anaknya. Kecerdasan anak-anak menunjukkan regresi terhadap mean dan variasi yang lebih besar daripada ibu mereka.

Brandon, M. W. G. (1957). The Intellectual and Social Status of Children of Mental Defectives. Journal of Mental Science, 103(433), 725-738. LINKFULLTEXT


10. Berapa ukuran sampel minimal dalam Analisis SEM ?

Studi simulasi yang dilakukan oleh Mei dan Lomax (2005) yang menyelidiki kekokohan (robustness) model persamaan struktural berdasarkan derajat ketidaknormalan yang berbeda dengan 2 jenis teknik estimasi (generalized least squares dan maximum likelihood), dan 4 jenis ukuran sampel (N=100, 250, 500, dan 1.000). Selain kekokohan model, peneliti juga mengidentifikasi Bias dan kesalahan standar estimasi standar parameter yang dianalisis. Analisis varians dilakukan untuk menyelidiki efek dari 3 faktor di beberapa indeks ketepatan model. Studi tersebut menemukan bahwa eror standar estimasi parameter tidak terpengaruh oleh metode dan estimasi ketidaknormalam. Eror standar menurun pada ukuran sampel yang lebih besar. Estimasi parameter lebih peka terhadap ketidaknormalan daripada ukuran sampel dan metode estimasi. Kai-kuadrat adalah model yang paling kuat dibandingkan dengan indeks lainnya, yaitu Normed Fit Index, Nonnormed Fit Index, dan Comparative Fit Index. Penelitian ini menganjurkan untuk menggunakan ukuran sampel minimal 100 atau lebih untuk estimasi parameter secara stabil dan akurat.

Lei, M., & Lomax, R. G. (2005). The Effect of Varying Degrees of Nonnormality in Structural Equation Modeling. Structural Equation Modeling: A Multidisciplinary Journal, 12(1), 1 – 27.


11. Mau nanya ttg perbedaan transformasi linear dan non linear dalam norma tes , aplikasinya dan kenapa harus memakai linear atau non linear (Tia, Depok)

#. Perbedaan Model Linier dan Non Linier.
Model linier menunjukkan hubungan antara dua variabel mengikuti garis lurus. Sedangkan non linier mengikuti garis yang tidak lurus, misalnya kuadratik (garisnya melengkung ke atas lalu turun ke bawah). Ada banyak model non linier. Lihat aja di menu curve estimation di SPSS. Di sana ada banyak model dijelaskan..

#. Mengapa Menggunakan Model Linier ?

Saya tidak mengetahui tentang transformasi non linier dalam penormaan skor tes. Yang saya tahu adalah prosedur transformasi linier. Mengubah skor mentah ke skor standar Z atau T adalah contoh penggunaan prosedur ini. Alasan mengapa kita menggunakan linier adalah karena hubungan antara skor dengan abilitas individu mengikuti linier. Semakin tinggi skor semakin menunjukkan abilitas individu. Ini sesuai adalah model hubungan linier yang mengatakan peningkatan satu variabel diikuti peningkatan variabel lainnya menurut garis lurus. Menurut saya agak aneh seandainya hubungan antara skor dengan abilitas tidak menunjukkan hubungan linier. Misalkan kita pakai model non linier kuadratik. Menunjukkan bahwa individu yang skornya 50 memiliki abilitas lebih tinggi dibanding yang skornya 80 dan 20. Transformasi non-linier biasa dipakai dalam pemodelan IRT yang menjelaskan probabilitas tingkat abilitas dalam memperoleh skor tinggi. Pemodelan ini menggunakan model non linier (kurva ogive). Tapi setahu saya, pemodelan ini tidak untuk mengembangkan norma.

#. Aplikasinya
Aplikasinya bermacam-macam cara. Ada penormaan berbasis kriteria ada yang berbasis norma sampel. 1) Kalau berbasis kriteria, caranya adalah kita yang menetapkan individu masuk kategori rendah atau tinggi. Dasar yang dipakai bisa menggunakan teori atau kebutuhan. 2) Yang berbasis kategori adalah mentransformasi ke skor standar kemudian kita lakukan penormaan. (prosedur melalui SPSS sudah saya pasang di portal download di website ini). Kelompok tinggi biasanya yang di atas +1SD.

Semoga literatur berikut bisa membantu : Overview Of Norm-Referenced Test Score Interpretation


12. Saya mempunyai masalah mengenai multicollinerity dalam SEM (structural equation modeling). Bagaimana caranya untuk mendeteksinya? apakah tergantung modelnya? jika terdapat variabel a dan variabel b (disebut sebagai variabel eksogen) mempengaruhi variabel c (variabel endogen), tentunya mendeteksi adanya multico adalah apakah korelasi variabel a dan variabel b tinggi atau tidak. benar? nah yang menjadi masalah adalah jika varaibel a mempengaruhi variabel c dan variabel b. kemudian variabel b mempengaruhi variabel C. lalu uji multico-nya bagaimana? kemudian apakah dalam SEM perlu ada uji linearity? bagaimana caranya? selanjutnya, masalah terakhir adalah dalam program AMOS terdapat OUTPUT modification indices (MI) dimana tool tersebut adalah untuk menurunkan nilai chi square dengan cara mengkorelasikan error dari dua indikator. Nah masalahnya adalah bagaimana justifikasi teorinya? punya contohnya? demikian pertanyaan dari saya. Atas perhatiannya, saya ucapkan terima kasih (Inno, Jakarta)

#Pengertian. Multikolinieritas adalah adanya kolinieritas antar prediktor dalam menjelaskan/memprediksi sebuah kriteria atau variabel dependen. Kolinieritas dapat ditunjukkan dengan korelasi yang sangat tinggi antar prediktor. Artinya antar prediktor tersebut mengukur sesuatu yang sama (overlap). Jadi pengujian multikolinieritas dilakukan pada variabel-variabel yang memprediksi variabel dependen yang sama.

Cara Mendeteksi. Ada banyak cara untuk mengetahui adanya multikol. Saya mengirimkan jurnal yang menjelaskan masalah ini. Untuk regresi dalam SPSS kita dapat menggunakan nilai VIF, akan tetapi kalau dalam AMOS, saya biasa menggunakan kriteria korelasi antar variabel eksogen yang kurang dari 0.8. Hal ini didukung oleh jurnal tersebut melalui studi monte carlo bahwa batas korelasi untuk menentukan multikol adalah 0.8. Consistent with the findings of Mason and Perreault (1991), in the first experiment the highest correlation between Eta-1 and Eta-2 was 0.95, and it was in this condition that the inaccuracy in the estimates of the path coefficients and standard errors was most pronounced. In the second experiment, in which the highest correlation between Eta-1 and Eta-2 was “only” 0.80, multicollinearity, although still an important influence on the accuracy of the estimation results, generally played a less pronounced role (Grewal dkk., 2004).

#Linieritas. Ya, sebelum menguji melalui AMOS, peneliti perlu menguji dulu melalui SPSS. Anda bisa menggunakan scatter plot, linerity test atau curve estimation di SPSS. Saya sudah menulis masalah ini di web saya pada portal tanya jawab. A standard practice is to visualize the coordinate pairs of data pointsof continuous variables by plotting the data in a scatterplot. These bivariate plots depict whether the data are linearly increasing ordecreasing. The presence of curvilinear data reduces the magnitude of the Pearson correlation coefficient, even resulting in the presenceof zero correlation. Recall that the Pearson correlation value indicatesthe magnitude and the direction of the linear relationships betweenpairs of data. Figure 2.1 shows the importance of visually displaying thebivariate data scatterplot (Schumacker dkk., 2004).

#Modification Indices. Modifikasi biasa dilakukan dalam pemodelan. Gunanya adalah untuk meningkat ketepatan model dengan data. Yang jadi catatan adalah asalkan modifikasi tersebut didukung oleh teori yang mendasari maka modifikasi bisa dilakukan. AMOS hanyalah alat, ia memberikan saran-saran melalui indeks modifikasi akan tetapi mana saran yang bisa kita ikuti tergantung pada kita. Ada banyak penelitian yang melakukan modifikasi berdasarkan modification indices, mereka mengemukakan dasar teori yang mereka gunakan untuk mengikuti beberapa modifikasi yang disarankan software. If a parameter has no substantive meaning to the applied researcher, then it should never be included in a model. Substantive interest must be the guiding force in a specification search; otherwise, the resultant model will not have practical value or importance…In LISREL-SIMPLIS, the researcher will most likely be guided by the modification indices with their associated change (decrease) in chisquare when respecifying a model. (Schumacker dkk., 2004).

Sumber.

Schumacker, R. E. & Lomax, R.G. (2004). A Beginner’s Guide To Structural Equation Modeling. Mahwah, NJ : Lawrence Erlbaum Associates, Publishers

Grewal, R., Cote, J.A., & Baumgartner, H. (2004) Multicollinearity and Measurement Error in Structural Equation Models: Implications for Theory Testing. Marketing Science, Vol. 23, No. 4 (Fall, 2004), pp. 519-529


13. Salam kenal, Saya yaya, mahasiswa yang sedang dalam kuliah di Bangkok di bidang Environmental Toxicology. Dan sekarang, sedang dalam tahap analisis data,pastinya menyangkut uji statistik. Saya dapat alamat email anda dari “mbah google” ketika saya sedang mencari cara untuk mengerti uji normalitas-homogenitas. Saya menemukan tulisan anda dengan judul: “BAB II UJI HIPOTESIS KOMPARATIF” Alhamdulillah, membantu banget! tapi, saya masih ada pertanyaan sebagai berikut ( mohon maaf, di email pertama sudah menyusahkan dengan pertanyaan-pertanyaan,,,)1. kalau data saya ternyata normal, tetapi tidak homogen, apakah saya harus memakai uji statistik non parametrik?

Mbak Yaya,

Karena yang dibandingkan lebih dari dua kelompok/sampel, maka anova lebih direkomendasikan. Memang anova mensyaratkan normalitas dan homogenitas. Tetapi studi yang dilakukan oleh Box menunjukkan bahwa anova itu tahan alias sakti alias robust terhadap ketidakhomogenan, sehingga meski tidak homogen, anda dapat menggunakan anova. Berikut kutipannya …However, ANOVA is robust for small and even moderate departures from homogeneity of variance (Box, 1954). Bisa dibaca di link ini.  Klik

Untuk desain anda, saya sarankan menggunakan anova mixed design, karena di dalam desain anda ada unsur between subject (antar kondisi air) dan ada unsur within subject (antar hari pengamatan). Karena ada dua variabel dependen (panjang dan berat) mbak dapat menggunakan model anova mixed design multivariate kalau panjang dan berat dilihat sebagai satu kesatuan. Tapi kalau dilihat satu persatu dapat menggunakan anova mixed design univariat.


14. Saya tertarik dengan beberapa artikel bapak, khususunya yang berhubungan dengan IRT. kalau asumsi dalam IRT undimensional ada yang tidak terpenuhi ( ex independensi lokal) kita kan bisa menggunakan model yang multidimensional atau yang lebih dikenal MIRT. nach, kira-kira contoh permalahannya seperti apa ya pak model MIRT itu sendiri??? saya masih belum paham. mohon penjelasannya. makasih pak sebelumnya.

Saya belum menguasai tentang MIRT, disamping karena rumit, softwarenya juga masih sedikit yang tersedia. Saya biasanya menggunakan secara terpisah berdasarkan dimensi yang ada. Jadi kalau teridentifikasi multidimensional, IRT saya aplikasikan pada masing-masing dimensi yang ada. Contoh kasusnya adalah dalam tes TOEFL misalnya, kalau semuanya skor dipakai, maka data yang didapatkan bersifat multidimensi, karena di dalamnya ada dimensi listening, structure dan reading comprehension. Dalam kasus ini saya menganalisis listening, structure dan reading comprehension secara terpisah. Kalau kita merangkum ketiga dimensi TOEFL tersebut, maka kita dapat menggunakan MIRT.


15. Saya ingin menggunakan Multidimensional Scalling dan Multinomial regresion Logistic untuk analisis skripsi saya. Bisakah bapak membeantu saya untuk mendapatkan referensi mengenai metode tersebut?terima kasih

Multidimensional Scaling (MDS) jarang dibahas di buku statistik karena termasuk statistika multivariat. Untuk menemukannya anda dapat mencari pada buku statistik multivariate. Untuk prosedur analisisnya via SPSS,
beberapa buku dalam Bahasa Indonesia telah memuat MDS dalam chapter khususnya buku SPSS untuk Analisis Multivariat. Untuk regresi logistik, saya mempelajarinya dari buku-buku statistik khusus yang membahas masalah
Regresi.Banyak ebook bisa ditemukan di internet yang membahas masalah ini.


16. apa yang dimaksud dengan fenomena data? apakah fenomena data mempengaruhi metode (regresi atau deret waktu) yang kita pakai dalam peramalan? Jika kita punya data sebanyak 30 buah dan kita memakai metode regresi non linear apakah perlu asumsi normal seperti di regresi linear? Adakah alasan ilmiah yang mendasari kita melakukan peramalan selama jangka waktu tertentu?

1. Tentang fenomena data. Saya belum mengetahui apa yang dimaksud dengan fenomena data. Mungkin yang dimaksud dengan fenomena data adalah karakteristik data jenis data. Karakteristik dan jenis data memang mempengaruhi statistik apa yang kita terapkan. Misalnya jenis data ordinal menggerakkan kita menggunakan statistik non parametrik. Data memiliki variasi yang rendah perlu ditransformasi terlebih dahulu untuk menunjukkan distribusi tertentu. Data yang bersifat pengukuran berulang (repeated measure) lebih tepat menggunakan within subject daripada between subject. Amatan ulang adalah bentuk sederhana dari time series. Dan sebagainya….

2. Yup. Tetap menggunakan asumsi normal. Sebenarnya asumsi normal itu pada sebaran eror yang mengikuti kurva normal bukan pada skor tampak hasil amatan (X). Ini adalah link referensi yang menjelaskan bahwa transformasi perlu dilakukan jika data kita tidak linier dalam kasus regresi non linier…
http://books.google.com/books?id=YBYlCpBNo_cC&pg=PA16&lpg=PA16&dq=non+linear+regression+%22normal+assumption%22&source=bl&ots=u9mnafrrqi&sig=uTPdKB0-6Dm2v919ZqG14LdhE28&hl=en&ei=EmeUS4udJci_rAe306iaCw&sa=X&oi=book_result&ct=result&resnum=6&ved=0CB8Q6AEwBQ#v=onepage&q=&f=false

3. Statistik tidak membahas banyak mengenai berapa pengamatan minimal, yang dapat dipakai untuk memprediksi, karena setiap variabel memiliki karakteristik yang berbeda-beda. Ada variabel yang memiliki nilainya relatif stabil sedangkan variabel lainnya nilainya mudah berfluktuasi. Untuk variabel yang yang relatif stabil, jumlah pengamatan yang dibutuhkan untuk peramalam relatif sedikit dibanding yang relatif befluktuasi. Secara metodologis, tergantung pada karakteristik variabelnya, sedangkan secara statistik tergantung pada Power Statistics yang dihasilkan. Jumlah pengamatan yang banyak (>30) akan menghasilkan Power Statistik yang besar.


17. Saya mau tanya jika dalam Power Test/ Speed Test dimana bentuk soalnya adalah pilihan ganda, bagaimana cara kita menentukan kriteria distraktor (pilihan jawaban)
agar tetap mempunyai daya diskriminasi tinggi dan tidak bias. Demikian pertanyaan saya..Atas tanggapannya saya ucapkan terima kasih.

Halo Kang Rince…Tentu dong masih ingat ama kang rince yang jadi rujukan anak2 skripsi untuk analisis data…he he he. Intinya dalam membuat tes, kunci adalah jawaban TERBAIK dari alternatif jawaban2 yang disediakan. Distraktor adalah informasi/konsep yang salah dan memiliki kaitan yang lebih jauh dibanding dengan informasi/konsep yang dijadikan kunci. Misalnya :

1. Apa yang terjadi ketika kita melepas bola di area dengan gravitasi positif?
a) bolah itu akan jatuh (benar)
b) itu akan mempertahankan massanya (benar tapi tidak berhubungan)
c) bola akan naik (konsep salah tetapi memiliki kaitan)
d) bentuknya akan berubah (konsep salah dan tidak memiliki kaitan)

Kalau orientasi kita membuat aitem dengan konsep bahwa kunci adalah jawaban terbaik dari jawaban2 lainnya maka kita akan mudah membuat distraktor yang baik. Misalnya…
Manakah yang memiliki kaitan dengan asosiasi ini, meja : kayu::
b) kain : benang
c) kertas : pulp
d) ban : karet
e) buku : kertas

Semua jawaban mirip, karena sama2 membentuk hubungan bahan dan produk olahnya. Tapi jawabannya adalah d karena lebih dekat dengan hubungan meja : kayu, karena keduanya ada unsur benda dari alam secara langsung, yaitu kayu yang identik karet. So, intine distraktor yang baik adalah konsep yang memiliki kaitan yang lebih jauh dibanding dengan konsep kunci.


18. Recently I read your interesting article on the estimation on reliability and I would like to ask the following: if there are other coefficiences of reliability`s estimation except
Cronbach`s Alpha why it is commonly used? Is it some kind of fashion or there are no valuable programs for other coefficiences?

Its nice to contact with you. There are over 20 reliability estimator that psychometrician develop to estimate reliability. Each estimators are only fit for measurement models that they assumed. For example, Alpha Cronbach was suitable for tau equivalent measurement models and unidimensional measures but worse (underestimation) if use to another measurement models (congeneric, multidimensional). As I search psychometrician discussion, there are some reason why alpha coefficient was popular among another estimators, for example (a) its simple to compute, (b) its avilable in almost all statistical packages (c) its consistent to measure reliability in underestimation, because true reliability was higher than alpha estimation. This link is report simulation study, through data generation (monte carlo). There are three models was developed by author and its conclude that alpha was suitable for tau equivalent measurement models. www.ssc.wisc.edu/~jfreese/soc750/parallelmeasures.pdf You can use EXCEL to generate aitems and comparing true reliability with some estimator. I have ever asked Prof. Tenko Raykov who concern on reliability study, about which is reliability coefficient should we use. This is his answer. “In the classical framework, there’s only one reliability–the ratio of to observed score, or the squared correlatin of observed with true score. As long as an empirical setting allows a true score to be defined as in the classical test theory, this is what reliability is. In that circumstance, an estimator of reliability is only good if it is unbiased, consistent, and with smallest possible variance. The estimator derived within the latent variable modeling approach, or structural equation modeling, is such. Further, if an estimator already at the population level can be different from the reliability coefficient, like coefficient alpha is, does not fulfil this property. That is, three’s a ‘true’ coefficient–the population reliability coefficient. Any estimator that unbiasedly estimates it, converges to it with increasing sample size, and has smaller variance than other estimators, can be considered best in this sense. If it is also normally distributed (at least with large samples), it makes our choice. Hope the above helps. ”

Semoga Bermanfaat,
Wahyu Widhiarso