Comparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Study

dc.contributor.authorKanık, E. Arzu
dc.contributor.authorOrekici Temel, Gülhan
dc.contributor.authorErdoğan, Semra
dc.contributor.authorKaya Ersöz, İrem
dc.date.accessioned2021-12-08T08:42:10Z
dc.date.available2021-12-08T08:42:10Z
dc.date.issued2012
dc.departmentİnönü Üniversitesien_US
dc.description.abstractAbstract:Amaç: Değerlendirici sayısının ve tanı testine ait kategori sayısının iki ve daha fazla olduğu durumda, uyum istatistiklerinin, örneklem büyüklüğünden, değerlendirici sayısından ve kullanılan ölçeğin kategori sayısından etkilenme durumlarını ortaya koymaktır. Gereç ve Yöntem: Değerlendiriciler arasında hiç uyumun olmadığı durumile uyumun 0.90 olduğu durumlara ait AC1 istatistiği, Fleiss Kappa ve Krippendorff Alpha değerleri 1000 simülasyon denemesi için kaydedilmiştir. Bulgular: Değerlendiriciler arasındaki beklenen uyumun 0.90 olduğu durumda; AC1 istatistiği ve Fleiss kappa katsayısı, örneklem büyüklüğü, değerlendirici sayısı ve tanı testine ait kategori sayısı ne olursa olsun tüm kombinasyonlarda benzer sonuçlar vermekte ve beklenen uyum değerine eşit değerler almaktadır. Krippendorff Alpha katsayısı incelendiğinde, örneklem büyüklüğünden etkilenmediği ancak değerlendirici sayısından ve tanı testine ait kategori sayısından etkilenmektedir. Sonuç: Prevelans değeri biliniyor ve çalışma için önem taşıyorsa, Gwet'in AC1 istatistiğinin, eğer çalışmada eksik verilerin varlığı söz konusu ise Krippendorff Alpha katsayısının, bu sözü edilen durumlar dışında Fleiss kappa katsayısının kullanılması önerilmektedir.en_US
dc.description.abstractAbstract:Aim: When the number of raters and the number of categories of diagnostic tests are two or more, put forward agreement statistics' conditions of being affected by the sample size, the number of raters and the number of categories of scale used. Material and Methods: AC1 statistic, Fleiss Kappa and Krippendorff's Alpha values belonging to state where there was no agreement between raters and states where agreement was 0.90 for those combinations were recorded for 1000 simulation study. Results: The expected agreement between raters is 0.90, AC1 statistic and Fleiss Kappa coefficient offer similar results and take equivalent values, to the expected value of agreement in all combinations. When Krippendorff's Alpha coefficient examined, it is not affected by sample size but affected by the number of raters and the number of categories pertaining to diagnostic test. Conclusion: If prevalence value is known and a bear significant for study, use of AC1 statistic is recommended among agreement statistics, if the existence of missing data is the case in study, Krippendorff's Alpha coefficient is the most appropriate agreement statistic, except these cases mentioned, use of Fleiss Kappa coefficient is recommended.en_US
dc.identifier.citationKANIK E. A,TEMEL G. O,ERDOĞAN S,KAYA İ. E (2012). Comparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Study. İnönü Üniversitesi Turgut Özal Tıp Merkezi Dergisi, 19(4), 220 - 227.en_US
dc.identifier.urihttps://app.trdizin.gov.tr/makale/TVRrNU56UXpNdz09/comparison-of-agreement-statistics-in-case-of-multiple-raters-and-diagnostic-test-being-categorical-a-simulation-study
dc.identifier.urihttps://hdl.handle.net/11616/44109
dc.language.isoenen_US
dc.relation.ispartofİnönü Üniversitesi Turgut Özal Tıp Merkezi Dergisien_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.titleComparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Studyen_US
dc.typeArticleen_US

Dosyalar

Orijinal paket
Listeleniyor 1 - 1 / 1
Yükleniyor...
Küçük Resim
İsim:
3d43541d-0e61-41bc-9408-72ca72a62c0e.pdf
Boyut:
508.19 KB
Biçim:
Adobe Portable Document Format
Açıklama:
Lisans paketi
Listeleniyor 1 - 1 / 1
Küçük Resim Yok
İsim:
license.txt
Boyut:
1.71 KB
Biçim:
Item-specific license agreed upon to submission
Açıklama: