โมเดลการให้คะแนนบางส่วนแบบหลายองค์ประกอบของราสช์และการปรับประสิทธิผลระดับคะแนนสำหรับรูบริก: แนวคิดและตัวอย่างการวิเคราะห์
Main Article Content
บทคัดย่อ
การพัฒนารูบริกผ่านการวิเคราะห์ด้วยโมเดลการให้คะแนนบางส่วนแบบหลายองค์ประกอบของราสช์และการปรับประสิทธิผลระดับคะแนน มีประโยชน์ในการช่วยตัดสินใจจำนวนระดับคะแนนของเกณฑ์การประเมินที่เหมาะสมในกระบวนการพัฒนารูบริกได้ การพัฒนารูบริกผ่านการวิเคราะห์ด้วยโมเดลนี้ สามารถตรวจสอบความตรงและความเที่ยงผ่านการวิเคราะห์ฟาเซตที่เกี่ยวข้องกับการประเมินได้มากกว่า 2 ฟาเซต ซึ่งเหมาะสมกับการประเมินภาคปฏิบัติที่มีผู้ประเมินเข้ามาเกี่ยวข้องในการให้ผลการประเมิน บทความวิชาการนี้เขียนขึ้นเพื่อให้ความรู้และความเข้าใจกับครูหรือนักการศึกษาโดยทั่วไปเกี่ยวกับแนวคิดของการวิเคราะห์การปรับประสิทธิผลระดับคะแนนและให้ตัวอย่างการวิเคราะห์และแปลผลโดยมีเป้าหมายในการให้ผู้อ่านสามารถนำไปประยุกต์ใช้ในการพัฒนารูบริกในบริบทโรงเรียนหรือสถานศึกษาได้ การพัฒนารูบริกช่วยให้ครูเตรียมพร้อมสำหรับการจัดการเรียนรู้ฐานสมรรถนะที่จะประเมินผู้เรียนผ่านการปฏิบัติหรือผลงานที่สะท้อนความรู้ เจตคติ และทักษะของผู้เรียน และอาจารย์ระดับมหาวิทยาลัยที่ต้องจัดการเรียนรู้ให้สอดคล้องกับมาตรฐานการประเมินการเรียนรู้ในระดับอุดมศึกษาที่เน้นการพัฒนาผู้เรียนให้บรรลุเป้าหมายการเรียนรู้ที่คาดหวัง ผ่านการประเมินโดยใช้รูบริกและการให้ข้อมูลย้อนกลับ
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
เจ้าของบทความมิได้คัดลอก หรือละเมิดลิขสิทธิ์ของผู้ใด หากเกิดการละเมิดลิขสิทธิ์ ไม่ว่าวิธีใด หรือการฟ้องร้องไม่ว่ากรณีใด ๆ ที่อาจเกิดขึ้นได้ กองบรรณาธิการวารสารศึกษาศาสตร์ ไม่มีส่วนเกี่ยวข้องทั้งสิ้น ให้เป็นสิทธิ์ของเจ้าของบทความที่จะดำเนินการ
เอกสารอ้างอิง
Adams, R. J., Wu, M. L., & Wilson, M. (2012). The Rasch rating model and the disordered threshold controversy. Educational and Psychological Measurement, 72(4), 547-573. DOI: 10.1177/0013164411432166
ASEAN University Network. (2020). ASEAN University network quality assurance: Guide to AUN-QA assessment at programme level version 4.0. ASEAN University Network.
Bond, T. G., Yan, Z., & Heene, M. (2021). Applying the Rasch model: Fundamental measurement in the human sciences (4th ed.). Routledge.
Boone, W. J., Staver, J. R., & Yale, M. S. (2014). Rasch analysis in the human sciences. Springer.
Brookhart, S. M., & Chen, F. (2015). The quality and effectiveness of descriptive rubrics. Educational Review, 67(3), 43–368. DOI:10.1080/00131911.2014.929565
Brookhart, S. M. (2018). Appropriate criteria: Key to effective rubrics. Frontiers in Education, 3, Article 22. DOI: 10.3389/feduc.2018.00022
Chapman, M., Chuang, P., Bitterman, T., & Elliott, H. (2024). Development of a new WIDA writing scoring rubric for grades 1-12 (Report No. TR-2024-2). Wisconsin Center for Education Research.
Clarkson, B., & Luca, J. (2001). Improving assessment: Rubrics in a tertiary multimedia course. Association for the Advancement of Computing in Education.
Edwards, K. E., Edwards, A. S., & Wesolowski, B. C. (2019). The psychometric evaluation of a wind band performance rubric using the multifaceted Rasch partial credit measurement model. Research Studies in Music Education, 41(3), 343-367. DOI: 10.1177/1321103X18773103
Eckes, T. (2009). Introduction to many-facet Rasch measurement. Peter Lang Edition.
Eckes, T. (2019). Many-facet Rasch measurement: Implications for rater mediated language assessment. In V. Aryadoust & M. Raquel (Eds.), Quantitative data analysis for language assessment volume I: Fundamental techniques (pp. 153-176). Routledge.
Furtak, E. M. (2022). Formative assessment. Routledge. DOI: 10.4324/9781138609877-REE62-1
Gervis, J. (2016). The operational definition of competency-based education. The Journal of Competency-Based Education, 1(2), 98-106. DOI: 10.1002/cbe2.1011
George, D., & Mallery, P. (2019). IBM SPSS Statistics 26 Step by Step (16th ed.). Routledge.
Griffith, W. I., & Lim, H. (2012). Performance-based assessment: Rubrics, web 2.0 tools and language competencies. MEXTESOL Journal, 36(1), 1-12.
Harris, L. R., & Brown, G. T. L. (2022). Self-assessment. Routledge. DOI: 10.4324/9781138609877-REE1-1
Hodges, T. S., Wright, K. L., Wind, S. A., Matthews, S. D., Zimmer, W. K., & McTigue, E. (2019). Developing and examining validity evidence for the Writing Rubric to Inform Teacher Educators (WRITE). Assessing Writing, 40, 1-13. DOI: 10.1016/j.asw.2019.03.001
Hughes, S., McMullen, C., Jackson, L., McNamara, G. Matthews, L., Camaradou, J., & Walker, A. (2022). Development and validation of the symptom burden questionnaire for long covid (SBQ-LC): Rasch analysis. BMJ, 377, Article e070230. DOI: 10.1136/bmj-2022-070230
Janssen, G., Meier, V., & Trace, J. (2015). Building a better rubric: Mixed methods rubric revision. Assessing Writing, 26, 51-66. DOI: 10.1016/j.asw.2015.07.002
Johnson, R. L., Penny, J. A., & Gordon, B. (2009). Assessing performance: Designing, scoring and validating performance tasks. The Guilford Press.
Jonsson, A., & Svingby, G. (2007). The use of scoring rubrics: Reliability, validity and educational consequences. Educational Research Review, 2(2), 130-144. DOI: 10.1016/j.edurev.2007.05.002
Jonsson, A., & Panadero, E. (2017). The use and design of rubrics to support assessment for learning. In D. Carless, S. M. Bridges, C. K. Y. Chan & R. Glofcheski (Eds.), Scaling up assessment for learning in higher education (pp. 99–111). Springer.
Jönsson, A. (2022). Scoring rubrics. Routledge DOI: 10.4324/9781138609877-REE2-1
Klimovski, D. (2013). Does a well-defined scoring rubric lead to an improvement in student results? Proceedings of the 2013 AAEE Conference, Australia.
Lallmamode, S. P., Daud, N. M., & Kassim, N. L. A. (2016). Development and initial argument-based validation of a scoring rubric used in the assessment of L2 writing electronic portfolios. Assessing Writing, 30, 44-62. DOI: 10.1016/j.asw.2016.06.001
Linacre, J. M. (1994a). Many-faceted Rasch measurement. MESA Press.
Linacre, J. M. (1994b). Sample size and item calibration stability. Rasch Measurement Transactions, 7(4), 328.
Linacre, J. M. (2002). Understanding Rasch measurement: Optimizing rating scale category effectiveness. Journal of Applied Measurement, 3(1), 85-106.
Linacre, J. M. (2003). Rasch power analysis: Size vs. significance: Standardized Chi-Square fit statistic. Rasch Measurement Transactions, 17(1), 918–919.
Linacre, J. M. (2023). A User Guide to FACETS (Version 3.87.0) [Computer software]. https://www.winsteps.com/a/Facets-Manual.pdf
Linacre, J. M. (2024). A User Guide to WINSTEPS (Version 5.8.1) [Computer software]. https://www.winsteps.com/a/Winsteps-Manual.pdf
Maydeu-Olivares, A., & Montaño, R. (2013). How should we assess the fit of Rasch-type models? Approximating the power of goodness-of-fit statistics in categorical data analysis. Psychometrika, 78(1), 116-133. DOI: 10.1007/S11336-012-9293-1
Morke, A. M., Dornan, T., & Eika, B. (2012). Outcome (competency) based education: An exploration of its origins, theoretical basis, and empirical evidence. Advances in Health Sciences Education, 18, 851-863. DOI: 10.1007/s10459-012-9405-9
Moskal, B. M. (2000). Scoring rubrics: What, when and how? Practical Assessment, Research, and Evaluation, 7(7), 1–5. DOI: 10.7275/a5vq-7q66
Myford, C. M., & Wolfe, E. W. (2004). Detecting and measuring rater effects using Many-facet Rasch measurement: Part II. Journal of Applied Measurement, 5(2), 189-227.
Office of the Education Council. (2020). Active competency-based learning. 21 Century Print.
Panadero, E., & Jonsson, A. (2013). The use of scoring rubrics for formative assessment purposes revisited: A review. Educational Research Review, 9, 129-144. DOI: 10.1016/j.edurev.2013.01.002
Pancorbo, G., Primi, R., John, O. P., Santos, D., & De Fruyt, F. (2021). Formative assessment of social-emotional skills using rubrics: A review of knowns and unknowns. Frontiers in Education, 6, Article 687661. DOI: 10.3389/feduc.2021.687661
Popham, W. J. (1997). What's wrong - and what's right - with rubrics. Educational Leadership, 55(2), 72-75.
Raykov, T., & DiStefano, C. (2021). Evaluating restrictive models in educational and behavioral research: Local misfit overrides model tenability. Educational and Psychological Measurement, 81(5), 980-995. DOI: 10.1177/0013164420944566.
Reddy, M. Y. (2011). Design and development of rubrics to improve assessment outcomes: A pilot study in a Master's level business program in India. Quality Assurance in Education, 19(1), 84-104. DOI: 10.1108/09684881111107771
Stevens, S. D., & Levi, A. J. (2012). Introduction to rubrics: An assessment tool to save grading time, convey effective feedback, and promote student learning (2nd ed.). Routledge.
Thao, N. H. (2023). End-of-term speaking assessment rubric for grade 6 English teachers teaching new English textbooks in Vietnam. International Journal of Education and Pedagogy, 5(1), 127-144.
Thepsathit, P., & Tangdhanakanond, K. (2024). Many-facet Rasch measurement model: Concepts and necessary statistic for performance assessment. Journal of Education and Innovation, 26(1), 435-448.
Van der Linden, W. J. (2017, 31 January). IRT-van-der-Linden-2. https://www.rasch.org/audio/IRT-van-der-Linden-2.mp3
Wilson, M. (2013). Seeking a balance between the statistical and scientific elements in psychometrics. Psychometrika, 78(2), 211-236. DOI: 10.1007/S11336-013-9327-3
Wright, B. D., & Linacre, J. M. (1994). Reasonable mean-square fit values. Rasch Measurement Transactions, 8, 370-371.
Yuen, B. P. L., & Sawatdeenarunat, S. (2020). Applying a rubric development cycle for assessment in higher education: An evidence-based case study of a science communication module. Asian Journal of the Scholarship of Teaching and Learning, 10(1), 53-68.