Inter-rater reliability
释义 Definition
评定者间信度 / 评分者一致性:指不同评定者(观察者、评分者)在对同一对象进行分类、评分或测量时,结果一致的程度。常用于心理测量、医学诊断、内容分析与教育评估等领域。(注:在不同量表类型下,常用指标包括 Cohen’s kappa、ICC 等。)
发音 Pronunciation (IPA)
/ˌɪntərˈreɪtər rɪˌlaɪəˈbɪləti/
例句 Examples
The inter-rater reliability was high after the training.
培训后,评定者间信度很高。
To ensure inter-rater reliability, the researchers used a detailed coding manual and calculated Cohen’s kappa across three independent coders.
为确保评定者间信度,研究者使用了详细的编码手册,并在三名独立编码者之间计算了科恩κ系数。
词源 Etymology
inter- 源自拉丁语,意为“在……之间”;rater 来自 rate(评定、评分),表示“评分者/评定者”;reliability 源自 rely(依赖、可信赖),在测量学语境中指“结果的稳定性与一致性”。合起来强调:不同评分者之间的一致程度。
相关词 Related Words
文学与学术作品 Literary & Notable Works
- Psychometric Theory(Lee J. Cronbach 等;心理与教育测量经典教材中讨论信度概念与相关方法)
- Measurement in Medicine: A Practical Guide(Pauline M. F. Bossuyt 等;涉及医学测量中的一致性与信度评估)
- Health Measurement Scales: A practical guide to their development and use(David L. Streiner, Geoffrey R. Norman;常见量表信度/一致性指标与应用场景)
- Cohen, J. (1960). “A coefficient of agreement for nominal scales.” Educational and Psychological Measurement(提出 Cohen’s kappa,常用于评定者一致性/信度讨论)
- Shrout, P. E., & Fleiss, J. L. (1979). “Intraclass correlations: uses in assessing rater reliability.” Psychological Bulletin(ICC 在评定者信度评估中的经典来源)