Kategorik Veri Analizi 10.Sunum Yrd. Doç. Dr. Sedat ŞEN 1 ANALİZ TÜRLERİ Bağımlı Değ. Bağımsız Değ. Analiz Sürekli İki kategorili t-testi, Wilcoxon testi Sürekli Kategorik ANOVA, linear regresyon Sürekli Sürekli Korelasyon, doğrusal regresyon İki kategorili Sürekli Lojistic regresyon İki kategorili İki kategorili Ki-Kare testi, lojistic regresyon Yrd. Doç. Dr. Sedat ŞEN 2 Bu sunumda • Önceki sunumlarda yaş, ders çalışma saati, sınav puanı gibi sürekli değişkenlerin bağımlı değişken olduğu durumlarda yapılacak analizlere bakmıştık. O analizlerde bağımsız değişkenler bazen sürekli bazen süreksiz (kategorik: cinsiyet ve medeni durum gibi) olabiliyordu. • Bu sunumda daha çok bağımlı değişkenin kategorik ya da iki kategorili olduğu durumlarda yapılabilecek analizleri anlatmaya çalışacağız. Genel olarak: • Ki-kare testi • Lojistik regresyon yöntemlerinden bahsedilecektir. Yrd. Doç. Dr. Sedat ŞEN 3 Kategorik Veri Analizi • Eğer verimizde kategorik değişken varsa daha önceki analizlerde olduğu gibi aritmetik ortalamaları kullanamayız. Eğer kategorik bir değişkenin aritmetik ortalamasını hesaplamaya çalışırsanız mantıksız bir şey yapmış olursunuz. Kategorik değişkenlerin analizleri genelde frekanslar üzerinden yapılır. Hatırlatma: Frekans bir değişkendeki kategorilerin (elemanların) gözlem sayısıdır. Yrd. Doç. Dr. Sedat ŞEN 4 Frekans Tabloları Puan 40 50 60 70 90 Cinsiyet K E • Diyelim ki bir sınavdan alınan puanların 3 listesi: 2 • 40,40,40,50,50,60,60,60,70,90,90,90,90,90 3 1 • Bu puanları alan öğrencilerin cinsiyet bilgisi 5 listesi: K,E,E,K,K,E,K,K,E,K,K,E,K,K olsun. • şeklinde olsun. Bu durumda puan ve Frekans cinsiyet değişkenleri için frekans tablosu 9 oluşturmak istersek yandaki tabloları elde 5 ederiz. Frekans Yrd. Doç. Dr. Sedat ŞEN 5 Çaprazlık Tablosu • Eğer iki tane kategorik değişkenimiz varsa 1.Sunumda gösterdiğimiz gibi çaprazlık tabloları (2x2, 3x3 vb.) oluşturarak analizleri yapabiliriz. Örneğin A ve B partisine oy veren kişilerin Cinsiyetlerine göre dağılımını merak ettiğimiz bir araştırma sorusunda 4 farklı durum ortaya çıkabilir (A-Kadın, A-Erkek, B-Kadın, ve B-Erkek ). Bu durumların hepsini aşağıdaki çaprazlık tablosu ile gösterebiliriz: A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 Yrd. Doç. Dr. Sedat ŞEN 6 Pearson Ki-kare Testi • Eğer iki kategorik değişken arasında ilişki olup olmadığını merak ediyorsak kullanacağımız istatistik yöntemi Pearson Ki-Kare testi olacaktır. Örneğin: • Seçmenlerin cinsiyetleri ile siyasi parti tercihleri arasında bir ilişki var mıdır? • İnsanların medeni durumları (evli-bekar) ile araba sahibi olup olmamaları (var-yok) arasında bir ilişki var mıdır? gibi soruları cevaplamak için Ki-Kare testi kullanabiliriz. Yrd. Doç. Dr. Sedat ŞEN 7 Pearson Ki-kare Testi • Ki-Kare testi her bir kategori çiftine düşen frekans sayısı ile bu durumlara şansla düşebilecek frekans sayılarının karşılaştırılmasına dayanır. Gözlenen frekans ile beklenen frekans karşılaştırması diyebiliriz. Yrd. Doç. Dr. Sedat ŞEN 8 Pearson Ki-kare Testi A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 • Bu tablodaki frekans değerlerini ve ki-kare formülünü kullanarak ki-kare değerinin hesaplamasını gösterelim daha sonra SPSS kullanarak bulabiliriz. Yrd. Doç. Dr. Sedat ŞEN 9 Pearson Ki-kare Testi A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 Yrd. Doç. Dr. Sedat ŞEN • Önce her bir kategori çifti için beklenen model değerlerini hesaplarız (yan üstte). Daha sonra gözlenen frekansları bu beklenen değerlerden çıkarıp karelerini alarak beklenen değerlere böleriz (yan altta). En sonunda elde ettiğimiz değerleri topladığımızda kikare değerini (25.35) buluruz. 10 Pearson Ki-kare Testi A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 • Yukarıdaki tablo için bulduğumuz 25.35 değeri ki-kare değeridir. Bu değerin anlamlı bir fark doğurup doğurmadığını test edebilmemiz için serbestlik değerine ihtiyacımız vardır. • Ki-kare yönteminde serbestlik derecesi kategorik değişkenlerin kategori sayılarından 1 çıkarıp bu sayıları birbirleriyle çarptığımızda elde edilen değerdir. Burada her iki değişkende (cinsiyet ve parti) iki kategori (kadın-erkek ve A-B partileri) olduğu için serbestlik derecesi = (2-1) x (2-1) hesaplamasından 1 elde edilir. • Daha sonra bu sd ve ki-kare değerlerini alarak istatistik tablolarından bulabileceğimiz kritik değer ile karşılaştırdığımızda ki-kare sonucunun anlamlı bulunup bulunmadığını test edebiliriz. • Eğer bulduğumuz (25.35) değeri 3.84 (istatistik kitaplarındaki tablodan elde edilen) kritik değerinden büyük ise testimizin p değeri 0.05’ten küçüktür yani iki değişken arasında anlamlı bir ilişki vardır Doç. Dr. Sedat ŞEN 11 diyebiliriz. Bunu SPSS bizimYrd. için yapıyor. Pearson Ki-kare Testi • Önceki slaytta elde edilen 25.35 ki-kare değeri ve 1 olan sd değerini internette bir çok web sitesinde bulunan “chi-square calculator” uygulamasını kullanarak p-değerini elde edebiliriz. • http://www.socscistatistics.com/pvalues/chidistribution.aspx Eğer p-değeri 0.05’ten küçük bulunursa cinsiyet ile parti tercihi arasında bir ilişki vardır şeklinde belirtebiliriz. Yrd. Doç. Dr. Sedat ŞEN 12 Fisher’s Exact Test (Fisher Kesin Olasılık Testi ) • Önceki slaytta tanıttığımız ki-kare testi ki-kare dağılımının yaklaşımına dayalı olduğu için büyük örneklemlerde çok iyi yaklaşıma sahipken bu yaklaşım düzeyi küçük örneklemlerde daha uzak olabilmekte ve anlamlı bulunan sonuçların yanlış çıkmasına neden olmaktadır. • Özellikle ki-kare testi yapabilmek için çaprazlık tablosundaki her hücrede 5’ten küçük frekans değerleri bulunmamalıdır. Bu da ki-karenin küçük örneklemlerde tercih edilmemesine neden olmuştur. • Alternatif olarak küçük örneklemler için ki-kareye göre daha doğru sonuçlar sunan Fisher Kesin Olasılık Testi geliştirilmiştir. Bu istatistik özellikle küçük örneklemlerden elde edilen 2x2 tabloları için kullanılsa da büyük örneklemlerden elde edilen diğer büyük boyuttaki tablolar için de kullanılabilir (analizler daha fazla zaman alabilir). Yrd. Doç. Dr. Sedat ŞEN 13 En Çok Olabilirlik Oranı (Likelihood Ratio) • Ki-kare testinin bir başka alternatifi de maksimum olabilirlik yöntemine dayanan en çok olabilirlik oranı istatistiğidir. Yrd. Doç. Dr. Sedat ŞEN 14 En Çok Olabilirlik Oranı (Likelihood Ratio: LR) A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 • Yukarıdaki tablo için LR değeri aşağıdaki gibi hesaplanabilir: • Ki-kare gibi LR değeri de aynı sd değerine sahip ve ki-kare dağılımı göstermektedir. Buradaki LR değeri de 3.84 (p = .05) kritik değerinden büyük olduğu için aynı yorumu yapabiliriz. LR istatistiği küçük örneklemlerde tercih edilir. Yrd. Doç. Dr. Sedat ŞEN 15 Yates Düzeltmesi (Yates’s Correction) • 2x2 çaprazlık tablolarında Pearson ki-kare değeri küçük p değerleri sunarak anlamlı değerler üretmeye eğilimlidir. Bu da I.Tür hata yapılma şansını artırır. Bu sorunu çözmek için Yates bir düzeltme önermiştir. Aşağıdaki formülün Pearson ki-kareden tek farkı pay kısmındaki gözlenen ile model farklarından 0.5 çıkarılmasıdır. Yrd. Doç. Dr. Sedat ŞEN 16 Yates Düzeltmesi (Yates’s Correction) A Partisi B Partisi Toplam Kadın 28 48 76 Erkek 10 114 124 Toplam 38 162 200 • Yukarıdaki tabloya göre Yates düzeltmesi aşağıdaki gibi hesaplanabilir: • Buradaki bulunan değer de Pearson ki-kare değeri gibi yorumlanabilir (p<0.05). Yrd. Doç. Dr. Sedat ŞEN 17 Ki-Kare Testinin Varsayımları • Verilerin bağımsızlığı: Verilerin toplandığı kişiler çaprazlık tablosunun sadece bir hücresine girilebilir. Örneğin bir kişi hem A hem de B partisine oy veren kısımlarda yer almamalıdır. • Çaprazlık tablosundaki her hücresi değer 5’ten büyük frekansa sahip olmalı. Büyük çaprazlık tablolarında 5’ten küçük hücreler çok problem oluşturmasa da çok büyük tablolarda bu değerin 1’den küçük olmaması istenir. Genel görüş tablodaki her hücrede 1’den küçük hiç değer olmaması ve 5’ten küçük frekansa sahip hücrelerin verinin %20’sini geçmemesi. Eğer 5’ten küçük frekansa sahip hücreleriniz varsa Fisher Kesin Olasılık Testi kullanılabilir. Yrd. Doç. Dr. Sedat ŞEN 18 SPSS Uygulamaları • Önceki slaytlarda verilen Pearson Ki-kare, Fisher Kesin Olasılık Testi , en çok olabilirlik oranı ve Yates düzeltmesi değerleri SPSS’te verimizi açtıktan sonra Analyze>Descriptive Stat>Crosstabs kısmına tıklayarak elde edilebilir. Yrd. Doç. Dr. Sedat ŞEN 19 SPSS Uygulamaları:1 Veri 2 Görünüm • SPSS’te kategorik veri ile analiz yaparken 2 türlü veri girişi yapabiliriz. Aşağıda iki veri türü de gösterilmiştir. Soldaki tüm katılımcılara ait bilgilerin olduğu dosyayı sağdaki ise bu kişilerin bilgilerinden oluşan frekanslarla üretilen 2x2 çaprazlık tablosudur. Önce soldaki veriyle sonra da sağdaki tabloyla ki-kare ve diğer değerleri nasıl elde edeceğimizi göstereceğiz. Yrd. Doç. Dr. Sedat ŞEN 20 SPSS Uygulamaları:Veri1 Analizi • Bu veri ile ki-kare ve diğer değerleri elde etmek istiyorsak SPSS’te Analyze>Descriptive Stat>Crosstabs kısmına tıkladığımızda açılan aşağıdaki ekranda öncelikle değişkenleri tablonun satır ve sütun kısımlarına eklememiz gerekmektedir. Yrd. Doç. Dr. Sedat ŞEN 21 SPSS Uygulamaları:Analiz • Statistics ekranında elde etmek istediğimiz istatistikleri seçebiliriz. Şimdilik sadece chi-square (kikare vd.) elde etmek için Chisquare seçeneğini işaretliyoruz. Yrd. Doç. Dr. Sedat ŞEN 22 SPSS Uygulamaları: Çıktı • Yrd. Doç. Dr. Sedat ŞEN 2x2 çaprazlık tablosuna sahip verimizin ki-kare analizi sonucunda karşımıza yandaki 3 tablo çıkmaktadır. Birinci tabloda etkileşim değişkenine (AxB) ait betimleyici bilgiler sunulmaktadır. İkinci tablo değişkenleri her bir kombinasyonu için sahip olduğu frekanslarını gösteren bir çaprazlık tablosudur. En önemli tablo en sonda verilen kikare ve diğer istatistik değerlerimizin yer aldığı 23 tablodur. SPSS Uygulamaları: Çıktı ve Yorum • Aşağıdaki tabloda sırasıyla Pearson ki-kare, Yates düzeltmesi, en çok olabilirlik oranı ve Fisher Kesin Olasılık Testi değerleri ve anlamlılık durumları verilmektedir. Bu sayılar daha önce hesaplayarak bulduğumuz değerlere eştir. Aynı yorumu burada dayapabiliriz: • p-değeri 0.05’ten küçük bulunduğu için cinsiyet ile parti tercihi arasında bir anlamlı bir ilişki vardır diyebiliriz ( = 25.36, p<0.05 ). Yrd. Doç. Dr. Sedat ŞEN 24 1 3 SPSS Uygulamaları:Veri2 2 • Sol üstteki gibi bir 2x2 çaprazlık tablosunu SPSS’e girerek aynı analizleri yapabiliriz. Burada Analyze>Descripti ve Stat>Crosstabs kısmına tıklamadan önce Data>Weight Cases kısmına tıklayarak Frekans verisi üzerinden analizlerin yapılacağını belirtmemiz gerekmektedir. Yrd. Doç. Dr. Sedat ŞEN 25 SPSS Uygulamaları:Analiz • Daha sonra Analyze>Descri ptive Stat>Crosstabs kısmına tıkladığımızda yanda açılan ekranda değişkenleri sağ tarafa ekliyoruz. Yrd. Doç. Dr. Sedat ŞEN 26 SPSS Uygulamaları:Analiz • Statistics ekranında elde etmek istediğimiz istatistikleri seçebiliriz. Şimdilik sadece chi-square (kikare vd.) elde etmek için Chisquare seçeneğini işaretliyoruz. Yrd. Doç. Dr. Sedat ŞEN 27 SPSS Uygulamaları: Çıktı • Yrd. Doç. Dr. Sedat ŞEN 2x2 çaprazlık tablosuna sahip verimizin ki-kare analizi sonucunda karşımıza yandaki 3 tablo çıkmaktadır. Birinci tabloda etkileşim değişkenine (AxB) ait betimleyici bilgiler sunulmaktadır. İkinci tablo değişkenleri her bir kombinasyonu için sahip olduğu frekanslarını gösteren bir çaprazlık tablosudur. En önemli tablo en sonda verilen kikare ve diğer istatistik değerlerimizin yer aldığı tablodur. 28 SPSS Uygulamaları: Çıktı • p-değeri 0.05’ten küçük bulunduğu için cinsiyet ile parti tercihi arasında bir anlamlı bir ilişki vardır diyebiliriz ( = 25.36, p<0.05 ). Yrd. Doç. Dr. Sedat ŞEN 29 Etki Büyüklüğü • Cramer’s V ve risk oranı (odds ratio) ki-kare istatistiği için kullanılan etki büyüklüğü değerleridir. • Risk oranı değeri 2x2 tabloları için çok kullanışlıdır. • Risk oranı iki oranın birbirine bölümüyle elde edilir. Bizim örneğimizde A partisi için kadın ve erkeğin birbirine oranın B partisindeki kadın ver erkeğin birbirine oranının bölünmesiyle elde edilir. Yrd. Doç. Dr. Sedat ŞEN 30 Etki Büyüklüğü: Risk Oranı • A=28/10=2.8 • B=48/114=0.421 • A/B=2.8/0.421=6.65 • Buradaki etki büyüklüğü yorumu daha önceki etki büyüklüklerininkinden farklıdır. Burada çıkan 6.65 değerini şöyle yorumlayabiliriz: Kadın olmanın A partisini seçme oranı B partisini seçme oranından 6.65 kat daha fazladır. Yrd. Doç. Dr. Sedat ŞEN 31 Etki Büyüklüğü: Cramer’s V • Eğer Etki Büyüklüğü olarak Cramer’s V değerini elde etmek istiyorsak ki-kare değerini seçtiğimiz yerde Cramer’s V seçeneğini de işaretleyek Cramer’s V elde edebiliriz. Yrd. Doç. Dr. Sedat ŞEN 32 Etki Büyüklüğü: Cramer’s V • Cramer’s V değeri ANOVA ve regresyondaki etki büyüklüğü değerleri gibi 0 ile 1 arasında değişmektedir. Aşağıdaki tabloya göre bizim verimize ait etki büyüklüğü değeri 0.356 çıkmıştır. Yrd. Doç. Dr. Sedat ŞEN 33 Frekans Küçüklüğüne Çözüm Önerileri • Eğer verinizde 5’ten küçük frekansa sahip %20’den fazla durum var ya da 1’den küçük frekans olma durumu varsa aşağıdaki çözümleri deneyebilirsiniz: • (1) Verideki değişkenlerden birini çıkarın • (2) Sorunlu olan değişkenin kategorisini çıkarın • (3) Daha fazla veri toplayın • (4) Güç kaybını kabul edin Yrd. Doç. Dr. Sedat ŞEN 34 Ki-Kare vd. • Buraya kadar bahsedilen kategorik veri analizi istatistikleri 2 kategorik değişken içeren durumlar için kullanılmaktadır. Bu 2 değişkenin kategori sayısına göre tablolarımız 2x2, 2x3, 3x3 vb… şeklinde adlandırılmaktadır. İki kategorik değişkenin olsuğu durumlarda önceki slaytlarda gösterilen menülerden kikare ve diğer istatistikler hesaplanabilir. • Eğer verimizde ikiden fazla kategorik değişken varsa loglinear (log-doğrusal) modeller kullanılabilir. Logdoğrusal modeller iki kategorik değişkenin olduğu veriler için de kullanılabilir. Yrd. Doç. Dr. Sedat ŞEN 35 Log-Doğrusal Model • Log-doğrusal model ANOVA ve Regresyon gibi model eşitliği şeklinde ifade edilebilir. Burada da ana etki değişkenleri ve bu ana etkilerin etkileşimleri modele bağımsız değişken olarak girmektedir. Burada frekanslar üzerinden analizler yapıldığı için logaritma alınarak analizler gerçekleştirilmektedir. Yrd. Doç. Dr. Sedat ŞEN 36 Log-Doğrusal Model Elemanları • 4 yönlü etkileşim • 3 yönlü etkileşimler • 2 yönlü etkileşimler • Ana etkiler • İlişki yok Yrd. Doç. Dr. Sedat ŞEN 37 Log-doğrusal Model Varsayımları • Ki-karenin bir uzantısı olan log-doğrusal modeller de ki-karede olduğu gibi frekans sayıları üzerinde bazı şartları gerektirir. Çaprazlık tablosunun her hücresi 5’ten büyük frekansa sahip olmalı. Log-doğrusal modellerin güvenilir sonuçlar vermesi açısından tablodaki her hücrede 1’den küçük hiç değer olmaması ve 5’ten küçük frekansa sahip hücrelerin verinin %20’sini geçmemesi gerekir. Yrd. Doç. Dr. Sedat ŞEN 38 Log-Doğrusal Model 2x2 • Log doğrusal model analizlerini gerçekleştirebilmek için nitel verileri sayısallaştırmamız gerekmektedir. Kadın erkek yerine 1 ve 2 kullanmalıyız. Ayriyeten bir sütunda frekans verileri oluşturmalıyız. Yrd. Doç. Dr. Sedat ŞEN 39 Varsayımların Kontrolü • Varsayımları kontrol etmek için SPSS’te Analyze>Descriptive Stat>Crosstabs Kısmından çaprazlık tablosu oluşturarak frekansların 5’ten ve 1’den küçük olup olmadığına bakılır. Yrd. Doç. Dr. Sedat ŞEN 40 Log-Doğrusal Model 2x2 • Log doğrusal modelleri SPSS’te elde edebilmek için Analyze>Loglinear> Model Selection kısmını seçmeliyiz. Yrd. Doç. Dr. Sedat ŞEN 41 Log-Doğrusal Model 2x2 • Açılan ekranda her analizde olduğu gibi soldaki değişkenleri sağ tarafa atmalıyız. Alt kısımda daha önce “weight cases” de tanımlama yapmadıysak Frekans değişkenini Cell weights kısmına girmeliyiz. Bu ekranda soru işaretlerini düzeltmek için her değişken için kaç kategori varsa Define range seçeneğini tıklayarak onu tanımlamamız lazım. Yrd. Doç. Dr. Sedat ŞEN 42 Log-Doğrusal Model 2x2 • Her değişken için kaç kategori varsa Define range seçeneğini tıklayarak minimum ve maksimum değerleri tanımlamamız lazım. Yrd. Doç. Dr. Sedat ŞEN 43 Log-Doğrusal Model 2x2 • Aynı şekilde diğer değişkende (cinsiyet) yaptığımızı bu değişken (parti) için de yapmalıyız. Yrd. Doç. Dr. Sedat ŞEN 44 Log-Doğrusal Model 2x2 • Options kısmında elde etmek istediğimiz çıktıları yandaki gibi seçebiliriz. Yrd. Doç. Dr. Sedat ŞEN 45 Log-Doğrusal Model 2x2 • Aşağıdaki tabloda her kategori çiftinin frekanslarını (0.5 eklenmiş halini) görebilirsiniz. Yrd. Doç. Dr. Sedat ŞEN 46 Log-Doğrusal Model 2x2 • Aşağıdaki tablo regresyonda olduğu gibi en iyi modeli bulmak için full modelden geriye doğru giderek en iyi modeli bulmayı hedeflemektedir. İlk önce en üst düzey etkileşim değişkeni çıkarılır ve modeli çok fazla etkileyip etkilemediğine bakılır daha sonra bir alt düzey etkileşim çıkarılır ve devam edilir. Burada full model ile 2 yönlü etkileşimin çıkarıldığı durumun karşılaştırılması ilk satırda (Step 0) yapılmıştır. Etkileşimin modelde tutulmasına karar verilir (p<0.05). Yrd. Doç. Dr. Sedat ŞEN 47 Log-Doğrusal Model 2x2 • Aşağıdaki tabloda uyum iyiliği değerlerini bulabilirsiniz. Bu testler gözlenen frekanslarla modelden tahmin edilen frekansların aynı olup olmadığını test ediyor. Burada pdeğeri hesaplanamamasının sebebi modelin mükemmel bir uyuma sahip olduğunu gösterir. Bu değerlerin anlamlı çıkması model ile gözlenen frekanslar arası fark olduğunu anlamsız çıkması ise model ile gözlenen değerler arasında anlamlı bir fark olmadığını gösterir. Yrd. Doç. Dr. Sedat ŞEN 48 Log-Doğrusal Model 2x2 • Aşağıdaki tablo bize modeldeki hangi kategorilerin kaldırılabileceğini söyler. Burada 1 ve 2 sayılarından 1 ana etki değişkenlerini 2 de etkileşim değişkenlerini (AxB) temsil etmektedir. Karşılarındaki sig. değeri anlamlı çıkarsa bu birimleri modelden çıkarırsak modelimiz olumsuz etkilenir (yani çıkarmamalıyız). Eğer ana etki ya da etkileşim değişkenleri anlamlı çıkmasaydı (p>0.05) bunları modelden çıkarmamız uygun olacaktı. Yrd. Doç. Dr. Sedat ŞEN 49 Log-Doğrusal Model 2x2 • Bu tablo bize ki-kare ve en çok olabilirlik değerlerini de sunmaktadır. Daha önce bulduğumuz değerler ile bu değerler aynı çıkmıştır. Yrd. Doç. Dr. Sedat ŞEN 50 Log-Doğrusal Model 2x2 • Önceki tabloda 2 yönlü etkileşim ve ana etki değişkenlerinin kaldırılmasının modelimizi etkileyeceğini görmüştük. Ama hangi ana etki değişkenini (A ve B) kaldırmak sorun teşkil eder onu söyleyemiyorduk. Aşağıdaki 2 tabloda da bunu görebiliriz. Birinci tablo hangi değişkenlerin anlamlı bulunduğunu gösterirken ikinci tabloda standart Z puanı hesaplayarak her bir değişkenin önem derecesini göstermektedir. Yrd. Doç. Dr. Sedat ŞEN 51 Log-Doğrusal Model 2x2 • Aşağıdaki grafiğe bakarak ek yorumlar yapılabilir. Yrd. Doç. Dr. Sedat ŞEN 52 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 53 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 54 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 55 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 56 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 57 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 58 Log-Doğrusal Model 2x2x2 Yrd. Doç. Dr. Sedat ŞEN 59 Lojistik Regresyon • Eğer bağımlı değişkenimiz kategorik bir değişken (örneğin iki kategorili (1-0)) bir değişken ise çoklu doğrusal regresyon yerine lojistik regresyon kullanmamız gerekir. • Çoklu regresyon sürekli olan bağımlı değişken için tercih edilir. • Lojistik regresyonda da 1’den fazla bağımsız değişkeni modele aynı anda girebiliriz. • Daha çok alınan kararların (evet/hayır, geçti/kaldı) veya ikiden fazla kategoriye sahip olan bağımlı değişkenlerin hangi değişkenler tarafından etkilendiğini öğrenmek istediğimiz durumlarda lojistik regresyonu tercih edebiliriz. • Kısaca verilen bağımsız değişkenlere göre bir kişinin iki kategoriden hangisine girme olasılığı olduğunu yordamaya çalışırız. Yrd. Doç. Dr. Sedat ŞEN 60 Lojistik Regresyon • Katılımcıların iki kategoriden birine girip girmediğini yordamaya çalışıyorsak iki sonuçlu (binary) lojistik regresyon, • Eğer katılımcıların ikiden fazla kategoriden birine girip girmediğini yordamaya çalışıyorsak çok sonuçlu (multinomial) lojistik regresyon kullanırız. Yrd. Doç. Dr. Sedat ŞEN 61 Lojistik Regresyon Basit regresyonda eşitliği yan tarafta yazdığımızı hatırlayalım. Birden fazla bağımsız değişkenin olduğu çoklu regreyonda yandaki ikinci eşitliği yazabiliyor ve bu iki durumda da bağımsız değişkenlerden bağımlı değişkenin alabileceği değerleri yordayabiliyorduk. Bir bağımsız değişkenin olduğu durumda lojistik regresyonu üçüncü eşitlikteki gibi yazıyor ve birden fazla bağımsız değişken değişkenin olduğu lojistik regresyon eşitliğini de son eşitlikteki gibi yazabiliyoruz. Lojistik regresyonun normal regresyondan farkı burada bağımlı değişkenin yerine bağımlı değişkenin kategorilerinde olma olasılığını yorduyor olmamızdır. Yrd. Doç. Dr. Sedat ŞEN 62 Lojistik Regresyon • Kategorik bağımlı değişkenlerde lojistik regresyon uygulayamamızın sebebi normal regresyon yönteminin bağımlı değişken ile bağımsız değişken arasındaki doğrusallık varsayımının ihlal edilmesidir. Bağımlı değişken kategorik olduğu zaman bağımlı değişken ile bağımsız değişken arasındaki ilişki doğrusal olmamaktadır. Bu sorunu aşmak için bağımlı değişkenin logaritmik dönüşümünün yapılması gerekir. Normal regresyonun logaritmik bir formu olduğu için bu regresyon türüne logistic (lojistic) regresyon demekteyiz. Yrd. Doç. Dr. Sedat ŞEN 63 Odds Ratio (risk oranı) • Risk oranı lojistik regresyonu yorumlarken çok önemlidir. • Bağımsız değişkendeki bir birimlik değişimden kaynaklanan olasılık değişimini gösterir. • Normal regresyondaki eğim (b) katsayısına benzer. • Bir olayın risk oranı değeri o olayın gerçekleşme olasılığının gerçekleşmeme olasılığına bölünmesiyle elde edilir. Örneğin sigara kullanıp kullanmamanın (0-1) hasta olup olmamaya (0-1) etkisine baktığımızda risk oranını kullanarak yorum yapabiliriz. Bu durumda önce sigara kullananların hasta olma olasılığını sonra da sigara kullanmayanların hasta olma olasılığını bulup bulunan değerler arasındaki oransal farka bakabiliriz. Örneğin sigara kullananların hasta olma olasılığı 0.8 kullanmayanların ki 0.2 ise 0.8/0.2=4. Yani sigara kullananların hasta olma olasılığı kullanmayanlara göre 4 kat daha fazladır diyebiliriz. Yrd. Doç. Dr. Sedat ŞEN 64 Lojistik Regresyon • Normal regresyonda olduğu gibi forced entry (zorla giriş) yaparak ya da adımsal (stepwise) metodunu kullanarak lojistik regresyon modelimize karar verebiliriz. Yrd. Doç. Dr. Sedat ŞEN 65 Varsayımlar • Doğrusallık: Normal regresyonda bağımsız ve bağımlı değişken arası doğrusal bir ilişki varsayılıyordu. Lojistik regresyonda da bağımsız değişken ile bağımlı değişkenin logaritmik değeri arasında doğrusal bir ilişki olduğu varsayılmaktadır. • Hataların bağımsızlığı: Aynı normal regresyonda olduğu gibi veri değerlerinin birbirinden bağımsız olmaları dolayısıyla hata değerlerinin bağımsız olması varsayılır. • Bağımsız değişkenin kategorik olması. • Çoklu bağlantı: Varsayımdan çok problem şeklinde bahsedebiliriz. Eğer bağımsız değişkenler birbirleriyle çok yüksek korelasyona sahipse lojistik regresyon sonuçlarını olumsuz yönde etkiler. Yrd. Doç. Dr. Sedat ŞEN 66 Lojistik Regresyon: Veri • Lojistik regresyon analizimizde yandaki veriyi kullanacağız. Bu veride katılımcıların tedavi sürecinde kemoterapi alıp (1) almadıkları (0) ve kaç gün tedavi sürecinde bulunduklarının iyileşip iyileşmeye olan etkisini inceleyeceğiz. Yrd. Doç. Dr. Sedat ŞEN 67 Lojistik Regresyon: Veri • Bağımlı değişken: İyileşme • Bağımsız değişkenler: tedavi ve süre • Tedavi değişkeni ve iyileşme değişkenleri kategorik olduğu için aşağıdaki gibi SPSS’e kategorik olarka girmemiz gerekmektedir. Yrd. Doç. Dr. Sedat ŞEN 68 Lojistik Regresyon: Analiz SPSS’te yandaki menüleri takip ederek iki sonuçlu lojistik regresyon analizini yapabilirsiniz. Yrd. Doç. Dr. Sedat ŞEN 69 Lojistik Regresyon: Analiz Bir önceki slayttaki menüleri seçtiğimizde karşımıza yandaki ekran çıkacaktır. Yrd. Doç. Dr. Sedat ŞEN 70 Lojistik Regresyon: Analiz Bu ekranda bağımlı ve bağımsız değişkenleri eklememiz gerekmektedir. Ayrıca bağımsız değişkenlerin etkileşimini de (tercihen) eklemeliyiz. Burada tüm elemanları (ana etki ve etkileşim) eklememizin sebebi SPSS’in bizim için en iyi modeli seçmesini sağlamaktır. Alternatif olarak biz de istediğimiz elemanları modele entry (giriş) yapabiliriz. Yrd. Doç. Dr. Sedat ŞEN 71 Lojistik Regresyon: Analiz Normal regresyonda kategorik bağımsız değişkenleri yapay kodlama yaparak analize ekliyorduk. Lojistik regresyonda eğer kategorik bağımsız değişkenimiz varsa bu değişkeni SPSS otomatik olarak yapay kodlayacaktır. Bunu yapabilmek için önceki slayttaki ekranın sağ üst köşesindeki categorical seçeneğini tıklayıp yandaki ekranı elde etmemiz gerekmektedir. Burada kategorik olan değişkeni sağ tarafa atıp alt taraftan indicator seçeneğini seçmeliyiz. Referans kategoriyi de last (1) yerine first (0) seçiyoruz. Yrd. Doç. Dr. Sedat ŞEN 72 Lojistik Regresyon: Analiz Save menüsüne tıkladığımızda aynen normal regresyonda olduğu gibi regresyon tanılayıcıları ve artık değerleri elde etmemiz mümkündür. Yrd. Doç. Dr. Sedat ŞEN 73 Lojistik Regresyon: Analiz Options manüsünü tıkladığımızda yanda açılan ekran karşımıza gelecektir. Burada işimize yarayacak çeşitli istatistikler elde etmemiz mümkündür. Hosmer-Lemeshow goodnes of fit dğeri burada önemli değerler arasında yer alır. Yrd. Doç. Dr. Sedat ŞEN 74 Lojistik Regresyon: Sonuç • ‘Forward: Wald’ metodu seçerek yaptığımız analizlerin sonucu ilerleyen slaytlarda sunulacaktır. Yani SPSS ekranına girmiş olduğumuz ana etki ve etkileşim değişkenlerini kullanarak Wald testine (t-testi yerine kullanılır) göre anlamlı bulunan elemanların tutulacağı modele karar vereceğiz. Yani SPSS bizim yerimize karar verecek:) Yrd. Doç. Dr. Sedat ŞEN 75 Lojistik Regresyon: Sonuç Yan taraftaki ekranda veriye ve bağımlı değişken kategorilerine ait betimleyici bilgiler sunulmaktadır. Yrd. Doç. Dr. Sedat ŞEN 76 Lojistik Regresyon: Sonuç Yandaki tabloda -2LL değerini ve sınıflama tablosunu görebilirsiniz. Bu tabloda iyileşen hastaların sayısını ve SPSS’in yordama/sınıflama (predict) sayılarını görebilirsiniz. Verimize göre 65 hasta iyileşmiş ve 48 hasta iyileşememiş gözükmekte iken SPSS iyileşemeyen hastaları %0 tahmin ederken iyileşen hastaların %100’ünü tahmin etmiştir. Ortalama doğru tahmin yüzdesi 57.5 çıkmıştır. Etkileşim değişkenimiz varken bu tabloyu yorumlamak doğru olmaz. Asıl analiz sonuçlarına bakacağız (ilerleyen slaytlarda). Yrd. Doç. Dr. Sedat ŞEN 77 Lojistik Regresyon: Sonuç Yandaki tabloda modelde sadece sabit değer olduğundaki sonuçları göstermektedir. Sabit değerimiz (0.303) ve anlamlılığı görülmektedir. Burada t-testi yerine Wald testi kullanılmaktadır. Aşağıdaki tabloda da ki-kare değerimizib 9.827 çıktığı ve anlamlı bulunduğu (p=0.020) gözlenmektedir. Bu değerin anlamlı çıkması modele girilmeyen değişkenlerin bağımlı değişkeni yordama gücünü anlamlı bir şekilde artıracağını söylemektedir. Yrd. Doç. Dr. Sedat ŞEN 78 Lojistik Regresyon: Sonuç Yandaki tabloda sabit değerin yanına tedavi değişkeninin de eklenerek elde edildiği modele ait ki-kare değeri (9.926) ve anlamlılığı verilmektedir. Bu modele ait -2LL, Cox-Snell R-Kare ve Nagelkerke R-Kare değerleri (pseudo R2) verilmektedir. Buradaki R-Kare değerlerini etki büyüklüğü değeri olarak kullanabiliriz. Bağımlı değişkenin içindeki varyasyonun yüzde 11.3’ünün bağımsız değişken tarafından açıklandığını göstermektedir. Daha önceki modelde -2LL değeri 154 iken bu modelde 144’e düşmüştür. Bu değerin küçük olması modelin daha iyi yordama yaptığı anlamına gelir. Burada tedavi değişkenini eklememiz modelimiz geliştirmiştir. Yrd. Doç. Dr. Sedat ŞEN 79 Lojistik Regresyon: Sonuç Hosmer and Lemeshow Testi gözlenen frekans değerleri ile modelden tahmin edilen frekans değerlerini karşılaştırarak modelin veriye ne kadar uygun olduğunu göstermek için kullanılır. Örneklem büyüklüklerinden çok faza etkilendiği için anlamlı çıkan modeli anlamsız, anlamsız olması gerek modeli anlamlı çıkarabilmektedir. Bu testin anlamlı bulunmaması (p>0.05) modelin veriye iyi uyum gösterdiği (good fit) anlamına gelir. Burada da mükemmel uyum olduğu için p değeri hesaplanamamıştır. Yrd. Doç. Dr. Sedat ŞEN 80 Lojistik Regresyon: Sonuç Lojistik regresyon bir durumun olma olasılığı modele göre 0.5’ten büyük ise olacağını (1); 0.5’tan küçükse olmayacağını (0 olarak) belirtir şekilde sınıflama yapar. Bu sonuçlar Classification Table’da yer almaktadır. Yukarıdaki tabloda görüldüğü üzere modelimiz iyileşemeyen hastaların 32’sini doğru sınıflandırırken 16’sını yanlış (iyileşti şeklinde) sınıflandırmıştır. İyileşebilen hastaların 41’ini doğru sınıflandırırken 24’ünü yanlış sınıflandırmaktadır. Doğru tahmin etme yüzdesi bu modelde %64.6 çıkmıştır. Önceki modelde %57.5 idi. Tahmin yüzdesinin büyük olması modelin iyi çalıştığı anlamına gelir. Yrd. Doç. Dr. Sedat ŞEN 81 Lojistik Regresyon: Sonuç SPSS outputtaki en önemli tablomuz lojistik regresyonumuzun sonuçlarının verildiği aşağıdaki tablodur. Bu tablodaki katsayılar normal regresyondaki gibi yorumlanabilmektedir. Bu tabloda bağımsız değişkenlerin bağımlı değişkeni yordamada ne kadar etkili olduğu çıkarımı yapılabilir. Görüldüğü üzere sabit değişkenimizin değeri -2.88 çıkmış ve anlamlı bulunmamıştır. Tedavi değişkenimizin katsayısı 1.229 çıkmış ve anlamlı bulunmuştur. Lojistik regresyonda bağımlı değişkenin logaritmik formu kullanıldığından aşağıdaki katsayıları yorumlayabilmek için risk oranı (Exp(B)) değerlerini kullanmamız gerekmektedir. Yrd. Doç. Dr. Sedat ŞEN 82 Lojistik Regresyon: Sonuç Bu tablodaki değerlere göre lojistik regresyon eşitliğimizi şu şekilde yazabiliriz: log(p/1-p) = -0.288 + 1.229*tedavi Burada tedavi değişkeninin bir birim arttığında iyileşme değişkeninin logaritmik formunun 1.229 arttığı söylenebilir. Lojistik regresyonda bağımlı değişkenin logaritmik formu kullanıldığı için yorumlamak zordur. Aşağıdaki katsayıları daha anlaşılır yorumlayabilmek için risk oranı değerlerini hesaplamamız gerekmektedir. Bu tabloda risk oranını göreceğimiz yer en sağ taraftaki Exp(B) sütununda verilen değerdir. Sonraki slaytta bu değerin nasıl hesaplandığını ve yorumlandığını görebilirsiniz. Yrd. Doç. Dr. Sedat ŞEN 83 Lojistik Regresyon: Sonuç • Risk oranını hesaplayabilmek için iyileşme değişkeninin olasılığını hem tedavi olanlar hem de tedavi olamyanlar için hesaplamamız gerekmektedir. İlk olarak X1 değerini 0 olarak alacağız ve eşitlikte bulunan katsayıları yerine koyacağız. Yrd. Doç. Dr. Sedat ŞEN 84 Lojistik Regresyon: Sonuç • İlk olarak X1 değerini 1 olarak alacağız ve eşitlikte bulunan katsayıları yerine koyacağız. Yrd. Doç. Dr. Sedat ŞEN 85 Lojistik Regresyon: Sonuç • Buradaki sonucu şu şekilde yorumlayabiliriz: “tedavi gören hastalar tedavi görmeyen hastalara göre 3.41 kat daha iyileşme olasılığına sahiptir”. Bu değer SPSS output tablosunda Exp sütununda yer almaktadır. Yani elle hesaplamamıza gerek yoktur. Yrd. Doç. Dr. Sedat ŞEN 86 Lojistik Regresyon: Sonuç • Risk oranı değerini elle hesaplamak yerine SPSS’te Analyze>Descriptive Statistics>Crosstabs kısmından yandaki ekranı açarak Statistics kısmına tıklayarak elde edebiliriz. Yrd. Doç. Dr. Sedat ŞEN 87 Lojistik Regresyon: Sonuç • Statistics ekranında Risk kutucuğunu işaretleyerek Risk oranı değerini elde edebiliriz. Yrd. Doç. Dr. Sedat ŞEN 88 Lojistik Regresyon: Sonuç • Yan tarafta SPSS’ten elde edilen değer ile daha önce hesapladığımız değerin aynı çıktığı görülmektedir. Yrd. Doç. Dr. Sedat ŞEN 89 Regresyon Tanılayıcıları • Lojistik regresyonumuzu etkileyen değerlere göz atmakta fayda vardır: • Standartlaştırılmış artık değerlere bakmamız lazım. -+2’den büyük değerlerin %5’den fazla olmaması gerekir. -+3’ten büyük değerler uç değer olarak görülebilir. • Cook’s D değeri 1’den büyük olan veri noktaları etileyici değerler olarak ele alınmalıdır. • DFBeta değeri -+1’den büyük olmamalıdır. Yrd. Doç. Dr. Sedat ŞEN 90 Lojistik Regresyon • Yanda resmi gösterilen LOJİSTİK.sav isimli veri dosyasını kullanarak bir öğrencinin üniversiteye kabul edilip (1) kabul edilmemesi (0) üzerinde not ortalamasının (notort), ales puanının (ales) ve üniversite sıralamasının (sıralama) etkisini ölçmek istiyoruz. Gördüğünüz gibi KABUL isimli bağımlı değişkeni 0 ve 1’lerden oluştuğu için lojistik regresyon kullanmamız gerekiyor. Yrd. Doç. Dr. Sedat ŞEN 91 Lojistik Regresyon Yrd. Doç. Dr. Sedat ŞEN 92 Lojistik Regresyon • Bağımlı değişkeni Dependent kısmına bağımsız değişkenleri de Coavariates kısmına ekledikten sonra OK tuşuna basmanız yeterlidir. Yrd. Doç. Dr. Sedat ŞEN 93 Lojistik Regresyon • Aşağıdaki tabloda modelde sadece sabit değer olduğundaki sonuçları göstermektedir. Sabit değerimiz (-0.765) ve anlamlılığı görülmektedir. Burada t-testi yerine Wald testi kullanılmaktadır. Aşağıdaki tabloda da kikare değerimizib 40.160 çıktığı ve anlamlı bulunduğu (p<0.05) gözlenmektedir. Bu değerin anlamlı çıkması modele girilmeyen değişkenlerin bağımlı değişkeni yordama gücünü anlamlı bir şekilde artıracağını söylemektedir. Yani modele ek bağımsız değişkenler eklememiz gerekiyor. Yrd. Doç. Dr. Sedat ŞEN 94 Lojistik Regresyon • Sadece sabit değer ekli modele göre yapılan sınfılama tahmini ve doğru tahmin yüzdesi (68.2) aşağıda verilmektedir. Yrd. Doç. Dr. Sedat ŞEN 95 Lojistik Regresyon • Ki-kare değeri 41.459 çıkmış ve anlamlı bulunmuştur. Yrd. Doç. Dr. Sedat ŞEN 96 Lojistik Regresyon • Bağımsız değişkenler Nagelkerke R-Kare bağımlı değişkenin %13.8’ini açıklamaktadır. Yrd. Doç. Dr. Sedat ŞEN 97 Lojistik Regresyon • H-L Testi anlamlı bulunmadığı (p>0.05) için bu modelin veriye uygun olduğunu/iyi uyum sağladığını söyleyebiliriz. Yrd. Doç. Dr. Sedat ŞEN 98 Lojistik Regresyon • Doğru tahmin yüzdemiz 71 olarak bulunmuştur. Yrd. Doç. Dr. Sedat ŞEN 99 Lojistik Regresyon • log(p/1-p)= -5.541 + 1.551*x1 + .876*x2 + .211*x3 + .002*x4 + .804*x5. Yrd. Doç. Dr. Sedat ŞEN 100 Lojistik Regresyon • ALES değişkenindeki her 1 birim değişiklik log KABUL’u .002 artırır. • NOT ORT değişkenindeki her 1 birim artış üniversiteye kabul edilmenin log odd’u nu 0.804 artırır. Yrd. Doç. Dr. Sedat ŞEN 101 Lojistik Regresyon • ALES • NOTORT ve • SIRALAMA (1) değişkenleri 0.05 seviyesinde anlamlı bulunmuştur (yani 0.05’ten küçük sig. değerlerine sahiptirler.) • Sıralama değişkeni kategorik bir değişken olduğu için yorumu diğer değişkenlerden farklıdır. Nitel değişkenler analizlere girerken kategorilerden bir tanesi referans olarak seçilir ve diğerleri analize girer. Burada 4. kategori referans seçildiği için ilk 3 kategoriye ait sonuçları görüyoruz. Sonuçları yorumlarken de her bir kategoriyi referans kategori (4) ile karşılaştırıyoruz. Örneğin sıralama değişkeninin 1. kategorisine ait katsayı değeri 4.718 bulunmuştur. Birinci kategoridenin seçilme olasılığı referans olan dördüncü kategoriden 4.72 kat daha fazladır diyebiliriz. Yrd. Doç. Dr. Sedat ŞEN 102 Lojistik Regresyon • Burada sıralama(1) değerinin 1,551 olması 4.kategori ile karşılaştırıldığında birinci kategoridekiler daha fazla kabul edilme şansına sahiptirler log(KABUL) değerini 1,551 daha çok artırıyorlar. Yrd. Doç. Dr. Sedat ŞEN 103 Çok kategorili (Multinomial) Regresyon • Eğer bağımlı değişken kategorik ise ve 2’den fazla kategoriye sahip ise binary lojistik regresyon yerine multinomial regresyon kullanılır. Bu yöntemi SPSS’te Analyze>Regression>Multinomial kısmından uygulayabiliriz • Sonraki slaytta örnek olsun diye daha önce lojistik regresyonla analiz ettiğimiz iki kategorili bağımlı değişkene sahip veriyi analiz edeceğiz. Aynı şekilde çok kategorili bir veriyi de gösterilen menüler yardımıyla analiz edebilirsiniz. Yrd. Doç. Dr. Sedat ŞEN 104 Çok kategorili (Multinomial) Regresyon Yrd. Doç. Dr. Sedat ŞEN 105 Çok kategorili (Multinomial) Regresyon Yrd. Doç. Dr. Sedat ŞEN 106 Çok kategorili (Multinomial) Regresyon Yrd. Doç. Dr. Sedat ŞEN 107 Çok kategorili (Multinomial) Regresyon Yrd. Doç. Dr. Sedat ŞEN 108