Comparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Study
dc.contributor.author | Kanık, E. Arzu | |
dc.contributor.author | Orekici Temel, Gülhan | |
dc.contributor.author | Erdoğan, Semra | |
dc.contributor.author | Kaya Ersöz, İrem | |
dc.date.accessioned | 2021-12-08T08:42:10Z | |
dc.date.available | 2021-12-08T08:42:10Z | |
dc.date.issued | 2012 | |
dc.department | İnönü Üniversitesi | en_US |
dc.description.abstract | Abstract:Amaç: Değerlendirici sayısının ve tanı testine ait kategori sayısının iki ve daha fazla olduğu durumda, uyum istatistiklerinin, örneklem büyüklüğünden, değerlendirici sayısından ve kullanılan ölçeğin kategori sayısından etkilenme durumlarını ortaya koymaktır. Gereç ve Yöntem: Değerlendiriciler arasında hiç uyumun olmadığı durumile uyumun 0.90 olduğu durumlara ait AC1 istatistiği, Fleiss Kappa ve Krippendorff Alpha değerleri 1000 simülasyon denemesi için kaydedilmiştir. Bulgular: Değerlendiriciler arasındaki beklenen uyumun 0.90 olduğu durumda; AC1 istatistiği ve Fleiss kappa katsayısı, örneklem büyüklüğü, değerlendirici sayısı ve tanı testine ait kategori sayısı ne olursa olsun tüm kombinasyonlarda benzer sonuçlar vermekte ve beklenen uyum değerine eşit değerler almaktadır. Krippendorff Alpha katsayısı incelendiğinde, örneklem büyüklüğünden etkilenmediği ancak değerlendirici sayısından ve tanı testine ait kategori sayısından etkilenmektedir. Sonuç: Prevelans değeri biliniyor ve çalışma için önem taşıyorsa, Gwet'in AC1 istatistiğinin, eğer çalışmada eksik verilerin varlığı söz konusu ise Krippendorff Alpha katsayısının, bu sözü edilen durumlar dışında Fleiss kappa katsayısının kullanılması önerilmektedir. | en_US |
dc.description.abstract | Abstract:Aim: When the number of raters and the number of categories of diagnostic tests are two or more, put forward agreement statistics' conditions of being affected by the sample size, the number of raters and the number of categories of scale used. Material and Methods: AC1 statistic, Fleiss Kappa and Krippendorff's Alpha values belonging to state where there was no agreement between raters and states where agreement was 0.90 for those combinations were recorded for 1000 simulation study. Results: The expected agreement between raters is 0.90, AC1 statistic and Fleiss Kappa coefficient offer similar results and take equivalent values, to the expected value of agreement in all combinations. When Krippendorff's Alpha coefficient examined, it is not affected by sample size but affected by the number of raters and the number of categories pertaining to diagnostic test. Conclusion: If prevalence value is known and a bear significant for study, use of AC1 statistic is recommended among agreement statistics, if the existence of missing data is the case in study, Krippendorff's Alpha coefficient is the most appropriate agreement statistic, except these cases mentioned, use of Fleiss Kappa coefficient is recommended. | en_US |
dc.identifier.citation | KANIK E. A,TEMEL G. O,ERDOĞAN S,KAYA İ. E (2012). Comparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Study. İnönü Üniversitesi Turgut Özal Tıp Merkezi Dergisi, 19(4), 220 - 227. | en_US |
dc.identifier.uri | https://app.trdizin.gov.tr/makale/TVRrNU56UXpNdz09/comparison-of-agreement-statistics-in-case-of-multiple-raters-and-diagnostic-test-being-categorical-a-simulation-study | |
dc.identifier.uri | https://hdl.handle.net/11616/44109 | |
dc.language.iso | en | en_US |
dc.relation.ispartof | İnönü Üniversitesi Turgut Özal Tıp Merkezi Dergisi | en_US |
dc.rights | info:eu-repo/semantics/openAccess | en_US |
dc.title | Comparison of Agreement Statistics in Case of Multiple-Raters and Diagnostic Test Being Categorical: A Simulation Study | en_US |
dc.type | Article | en_US |