V2EX  ›  英汉词典

Inter-rater reliability

释义 Definition

评定者间信度 / 评分者一致性:指不同评定者(观察者、评分者)在对同一对象进行分类、评分或测量时,结果一致的程度。常用于心理测量、医学诊断、内容分析与教育评估等领域。(注:在不同量表类型下,常用指标包括 Cohen’s kappaICC 等。)

发音 Pronunciation (IPA)

/ˌɪntərˈreɪtər rɪˌlaɪəˈbɪləti/

例句 Examples

The inter-rater reliability was high after the training.
培训后,评定者间信度很高。

To ensure inter-rater reliability, the researchers used a detailed coding manual and calculated Cohen’s kappa across three independent coders.
为确保评定者间信度,研究者使用了详细的编码手册,并在三名独立编码者之间计算了科恩κ系数。

词源 Etymology

inter- 源自拉丁语,意为“在……之间”;rater 来自 rate(评定、评分),表示“评分者/评定者”;reliability 源自 rely(依赖、可信赖),在测量学语境中指“结果的稳定性与一致性”。合起来强调:不同评分者之间的一致程度

相关词 Related Words

文学与学术作品 Literary & Notable Works

  • Psychometric Theory(Lee J. Cronbach 等;心理与教育测量经典教材中讨论信度概念与相关方法)
  • Measurement in Medicine: A Practical Guide(Pauline M. F. Bossuyt 等;涉及医学测量中的一致性与信度评估)
  • Health Measurement Scales: A practical guide to their development and use(David L. Streiner, Geoffrey R. Norman;常见量表信度/一致性指标与应用场景)
  • Cohen, J. (1960). “A coefficient of agreement for nominal scales.” Educational and Psychological Measurement(提出 Cohen’s kappa,常用于评定者一致性/信度讨论)
  • Shrout, P. E., & Fleiss, J. L. (1979). “Intraclass correlations: uses in assessing rater reliability.” Psychological Bulletin(ICC 在评定者信度评估中的经典来源)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3288 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 13ms · UTC 13:10 · PVG 21:10 · LAX 06:10 · JFK 09:10
♥ Do have faith in what you're doing.