Cohen'in kappa katsayısı iki değerleyici arasındaki karşılaştırmalı uyuşmanın güvenirliğini ölçen bir istatistik yöntemidir. Cohen'in kappa ölçüsü her biri N tane maddeyi C tane birbirinden karşılıklı hariç olan kategoriye ayıran iki değerleyicinin arasında bulunan uyuşmayı ölçer. Ortaya çıkan kategorik değişken olduğu için bir parametrik olmayan istatistik türüdür. Cohen'in kappa ölçüsü bu uyuşmanın bir şans eseri olabileceğini de ele aldığı için basit yüzde orantı olarak bulunan uyuşmadan daha güçlü bir sonuç verdiği kabul edilir.
Ancak Cohen'in kappa ölçüsü sadece iki tane değerleyiciyi ele alır. Eğer değerleyici sayısı ikiden çoksa Fleiss'in Kappa'ya benzer Fleiss'in kappa katsayısı kullanılmalıdır.
Formül
Eğer Pr(a) iki değerleyici için gözümlenen uyuşmaların toplama orantısı ise ve Pr(e) ise bu uyuşmanin şans eseri ortaya çıkma olasılığı ise, Cohen'in kappa katsayısı bulunması için kullanılacak formül şu olur:
Kappa için şu değerler hemen yorumlanır:
- κ=1 : İki değerleyici tümüyle birbirine uyuşmaktadırlar.
- κ=0 : İki değerleyici için uyuşma sadece şansa ile belirlenmiştir ve diğer hallerde hiçbir uyuşma yoktur.
Örnek problem
İşletmeler yatırım yapmak için proje kredisi almak için bir bankaya başvurdukları zaman işletme yetkilileri tarafından hazırlanan proje iki değerleyici tarafından incelenip değerlendirilmektedir. Her değerleyici bir proje için ya "Kabul" veya "Ret" olarak değerleme sağlamaktadır. 50 tane projenin bu iki değerleyici tarafından incelenmesi sonunda elde edilen sonuçlar değerleyici A için satırlarda ve değerleyici B için sütunlarda verilmiş olarak şu tabloda gösterilir:
Kabul | Ret | |
Kabul | 20 | 5 |
Ret | 10 | 15 |
Veri olarak alinan 50 proje basvurusunun 20si hem A hem de B değerlendirici tarafından "Kabul" edilmesi tavsiye edilmiştir ve 15 proje basvurusu hem A hem de B tarafından ret edilmesi tavsiye edilmiştir. Boylece her iki dergerleyicinin uzerinde anlastiklari proje basvuru sayisi (20+15=)35 olur ve boylece gozlenen anlasma orantisi Pr(a)=(20+15)/50 = 0,70 olur.
Rastgele olarak anlaşma olasılığını, yani Pr(e) değerini, bulmak için şunlari ele alırız:
- Değerleyici A 25 başvuru için "Kabul" ve 25 basvuru için "Ret" değerlemesi yapmıştır. Böylece değerleyici A %50 defa "'Kabul değerlemesi yapmıştır.
- Değerleyici B 30 başvuru için "Kabul" ve 20 basvuru icin "Ret" degerlendirmesi yapmıştır. Boylece değerleyici B %60 defa "'Kabul değerlemesi yapmıştır.
Bundan dolayı her iki degerleyicinin rastgele olarak Kabul" degerlendirmesi yapma olasiligi 0,50 * 0,60 = 0,30 olur ve her iki değerleyicinin rastgele olarak Ret değerlendirmesi yapma olasılığı ise 0,50 * 0.40 = 0,20 olarak bulunur. Tümüyle rastgele anlaşma olasılığı bu nedenle Pr("e") = 0,30 + 0,20 = 0,50 olur.
Bunlar Cohen'in Kappa katsayisi formulune konulursa su sonuc elde edilir:
Celişkili sonuçlar
Cohen'in Kappa katsayısının en büyük tenkiti bazen sezi ile beklenenden değişik sonuçlar vermesidir. Örneğin, aşağıda verilen iki örnek veriye göre değerleyici A ile değerleyici B arasında eşit anlaşma olması beklenmektedir (çünkü her iki örnekte de 100 başvurudan 60'ında anlaşma vardır.) Cohen'in Kappa katsayısının bunu yansıtması beklenir. Hâlbuki her iki örnek için Cohen'in Kappa katsayısı hesaplanırsa şu beklenmedik sonuçlar bulunur:
Kabul | Ret | |
Kabul | 45 | 15 |
Ret | 25 | 15 |
Kabul | Ret | |
Kabul | 25 | 35 |
Ret | 5 | 35 |
Cohen'in kappa katsayılarına göre, birinci örneğe nazaran, ikinci örnekte A ile B daha benzer birbirleriyle anlaşır şekilde değerlendirme yapmışlardır.
Sonuç yorumlaması
Landis ve Koch (1977) elde edilen değerlerini yorumlamak için şu tabloyu sunmuşlardır.
Yorum | |
---|---|
< 0 | Hiç uyuşma olmamasi |
0.0 — 0.20 | Önemsiz uyuşma olması |
0.21 — 0.40 | Orta derecede uyuşma olması |
0.41 — 0.60 | Ekseriyetle uyuşma olması |
0.61 — 0.80 | Önemli derecede uyuşma olması |
0.81 — 1.00 | Neredeyse mükemmel uyuşma olması |
Ancak bu tabloda verilen yorumlar ve hatta verilen aralıklar hakkında istatistikçiler arasında anlaşmazlık vardır. Landis ve Koch yazılarında verdikleri aralıklar ve yorumlar için teorik delil vermemişlerdir ve bu ifadeler ancak birer şahsi inanç olarak kabul edilebilir. Bazı istatistikçilere göre bu aralıklar ve yorumlar araştırmacılara zararlı olabilir. . Bu aralıklar ve yorumlar araştırıcılara Kappa değerinin değişken kategori sayısından da (yani Cden) etkilendiği gerçeğini unutturabilir. Bilinmektedir ki kategori sayısı ne kadar küçük olursa kappa değeri de büyük olamaktadır.
Ayrıca bakınız
Dipnotlar
- ^ Jacob Cohen (1960), A coefficient of agreement for nominal scales, Educational and Psychological Measurement Vol.20, No.1, pp.37-46
- ^ Fleiss, J. L. (1971) "Measuring nominal scale agreement among many raters." Psychological Bulletin, Vol. 76, No. 5 pp. 378--382
- ^ Gwet, K. (2010). Handbook of Inter-Rater Reliability (2.Ed.) (İngilizce)
- ^ Landis, J. R. ve Koch, G. G. (1977) "The measurement of observer agreement for categorical data", Biometrics. Cilt. 33, say. 159-174
- ^ Gwet, K. (2001) Statistical Tables for Inter-Rater Agreement. (Gaithersburg : StatAxis Publishing)
- ^ Sim, J. and Wright, C. C. (2005) "The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements" in Physical Therapy. Cilt. 85, say. 257--268
Dış bağlantılar
- İngilizce Wikipedia "Cohen's kappa" maddesi 15 Nisan 2010 tarihinde Wayback Machine sitesinde arşivlendi. (İngilizce) (Erişme:8.5.2008).
- (İngilizce) (Erişme:8.5.2008).
- (İngilizce) (Erişme:8.5.2008).
- (İngilizce) (Erişme:8.5.2008).
- (İngilizce) (Erişme:8.5.2008).
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Cohen in kappa katsayisi iki degerleyici arasindaki karsilastirmali uyusmanin guvenirligini olcen bir istatistik yontemidir Cohen in kappa olcusu her biri N tane maddeyi C tane birbirinden karsilikli haric olan kategoriye ayiran iki degerleyicinin arasinda bulunan uyusmayi olcer Ortaya cikan kategorik degisken oldugu icin bir parametrik olmayan istatistik turudur Cohen in kappa olcusu bu uyusmanin bir sans eseri olabilecegini de ele aldigi icin basit yuzde oranti olarak bulunan uyusmadan daha guclu bir sonuc verdigi kabul edilir Ancak Cohen in kappa olcusu sadece iki tane degerleyiciyi ele alir Eger degerleyici sayisi ikiden coksa Fleiss in Kappa ya benzer Fleiss in kappa katsayisi kullanilmalidir FormulEger Pr a iki degerleyici icin gozumlenen uyusmalarin toplama orantisi ise ve Pr e ise bu uyusmanin sans eseri ortaya cikma olasiligi ise Cohen in kappa katsayisi bulunmasi icin kullanilacak formul su olur k Pr a Pr e 1 Pr e displaystyle kappa frac Pr a Pr e 1 Pr e Kappa icin su degerler hemen yorumlanir k 1 Iki degerleyici tumuyle birbirine uyusmaktadirlar k 0 Iki degerleyici icin uyusma sadece sansa ile belirlenmistir ve diger hallerde hicbir uyusma yoktur Ornek problemIsletmeler yatirim yapmak icin proje kredisi almak icin bir bankaya basvurduklari zaman isletme yetkilileri tarafindan hazirlanan proje iki degerleyici tarafindan incelenip degerlendirilmektedir Her degerleyici bir proje icin ya Kabul veya Ret olarak degerleme saglamaktadir 50 tane projenin bu iki degerleyici tarafindan incelenmesi sonunda elde edilen sonuclar degerleyici A icin satirlarda ve degerleyici B icin sutunlarda verilmis olarak su tabloda gosterilir Kabul RetKabul 20 5Ret 10 15 Veri olarak alinan 50 proje basvurusunun 20si hem A hem de B degerlendirici tarafindan Kabul edilmesi tavsiye edilmistir ve 15 proje basvurusu hem A hem de B tarafindan ret edilmesi tavsiye edilmistir Boylece her iki dergerleyicinin uzerinde anlastiklari proje basvuru sayisi 20 15 35 olur ve boylece gozlenen anlasma orantisi Pr a 20 15 50 0 70 olur Rastgele olarak anlasma olasiligini yani Pr e degerini bulmak icin sunlari ele aliriz Degerleyici A 25 basvuru icin Kabul ve 25 basvuru icin Ret degerlemesi yapmistir Boylece degerleyici A 50 defa Kabuldegerlemesi yapmistir Degerleyici B 30 basvuru icin Kabul ve 20 basvuru icin Ret degerlendirmesi yapmistir Boylece degerleyici B 60 defa Kabuldegerlemesi yapmistir Bundan dolayi her iki degerleyicinin rastgele olarak Kabul degerlendirmesi yapma olasiligi 0 50 0 60 0 30 olur ve her iki degerleyicinin rastgele olarakRetdegerlendirmesi yapma olasiligi ise 0 50 0 40 0 20 olarak bulunur Tumuyle rastgele anlasma olasiligi bu nedenle Pr e 0 30 0 20 0 50 olur Bunlar Cohen in Kappa katsayisi formulune konulursa su sonuc elde edilir k Pr a Pr e 1 Pr e 0 70 0 501 0 50 0 40 displaystyle kappa frac Pr a Pr e 1 Pr e frac 0 70 0 50 1 0 50 0 40 Celiskili sonuclarCohen in Kappa katsayisinin en buyuk tenkiti bazen sezi ile beklenenden degisik sonuclar vermesidir Ornegin asagida verilen iki ornek veriye gore degerleyici A ile degerleyici B arasinda esit anlasma olmasi beklenmektedir cunku her iki ornekte de 100 basvurudan 60 inda anlasma vardir Cohen in Kappa katsayisinin bunu yansitmasi beklenir Halbuki her iki ornek icin Cohen in Kappa katsayisi hesaplanirsa su beklenmedik sonuclar bulunur Kabul RetKabul 45 15Ret 25 15 k 0 60 0 541 0 54 0 1304 displaystyle kappa frac 0 60 0 54 1 0 54 0 1304 Kabul RetKabul 25 35Ret 5 35 k 0 60 0 461 0 46 0 2593 displaystyle kappa frac 0 60 0 46 1 0 46 0 2593 Cohen in kappa katsayilarina gore birinci ornege nazaran ikinci ornekte A ile B daha benzer birbirleriyle anlasir sekilde degerlendirme yapmislardir Sonuc yorumlamasiLandis ve Koch 1977 elde edilen k displaystyle kappa degerlerini yorumlamak icin su tabloyu sunmuslardir k displaystyle kappa Yorum lt 0 Hic uyusma olmamasi0 0 0 20 Onemsiz uyusma olmasi0 21 0 40 Orta derecede uyusma olmasi0 41 0 60 Ekseriyetle uyusma olmasi0 61 0 80 Onemli derecede uyusma olmasi0 81 1 00 Neredeyse mukemmel uyusma olmasi Ancak bu tabloda verilen yorumlar ve hatta verilen araliklar hakkinda istatistikciler arasinda anlasmazlik vardir Landis ve Koch yazilarinda verdikleri araliklar ve yorumlar icin teorik delil vermemislerdir ve bu ifadeler ancak birer sahsi inanc olarak kabul edilebilir Bazi istatistikcilere gore bu araliklar ve yorumlar arastirmacilara zararli olabilir Bu araliklar ve yorumlar arastiricilara Kappa degerinin degisken kategori sayisindan da yani Cden etkilendigi gercegini unutturabilir Bilinmektedir ki kategori sayisi ne kadar kucuk olursa kappa degeri de buyuk olamaktadir Ayrica bakinizFleiss in kappa katsayisiDipnotlar Jacob Cohen 1960 A coefficient of agreement for nominal scales Educational and Psychological Measurement Vol 20 No 1 pp 37 46 Fleiss J L 1971 Measuring nominal scale agreement among many raters Psychological Bulletin Vol 76 No 5 pp 378 382 Gwet K 2010 Handbook of Inter Rater Reliability 2 Ed ISBN 978 0 9708062 2 2 Ingilizce Landis J R ve Koch G G 1977 The measurement of observer agreement for categorical data Biometrics Cilt 33 say 159 174 Gwet K 2001 Statistical Tables for Inter Rater Agreement Gaithersburg StatAxis Publishing Sim J and Wright C C 2005 The Kappa Statistic in Reliability Studies Use Interpretation and Sample Size Requirements in Physical Therapy Cilt 85 say 257 268Dis baglantilarIngilizce Wikipedia Cohen s kappa maddesi 15 Nisan 2010 tarihinde Wayback Machine sitesinde arsivlendi Ingilizce Erisme 8 5 2008 Ingilizce Erisme 8 5 2008 Ingilizce Erisme 8 5 2008 Ingilizce Erisme 8 5 2008 Ingilizce Erisme 8 5 2008