Mapeo científico como técnica de investigación: puntos de corte en pruebas de evaluación educativa referidas a criterios como campo de conocimiento
- Melissa Villalobos García
- José María Marbán Prieto
- Rocío Anguita
ISSN: 2254-5883
Año de publicación: 2021
Volumen: 10
Páginas: 1-18
Tipo: Artículo
Otras publicaciones en: ReiDoCrea: Revista electrónica de investigación y docencia creativa
Resumen
A través de una estrategia de revisión creativa de la literatura conocida como mapeo científico o Science Mapping, se lleva a cabo una caracterización de la configuración intelectual del campo de conocimiento del establecimiento de puntos de corte en pruebas de evaluación referidas a criterios. Partiendo del análisis de 601 artículos científicos se identifican las tendencias de evolución del campo de conocimiento y sus principales líneas de publicación a partir de los autores, citas y la interacción entre éstas. Además, a partir de la identificación de nodos, se observa que es un tema desarrollado desde hace varias décadas con mayor crecimiento en volumen de producción científica a partir del año 2000. Este campo de conocimiento muestra una progresión desde aspectos vinculados a metodología hacia la especificación en campos de evaluación de conocimiento como el de educación y el de la salud
Referencias bibliográficas
- American Educational Research Association [AERA]. (1999). Standards for educational and psychological testing. Washington, DC: American Psychological Association.
- Anderson, J., Corbett, A. Koedinger, K. & Pelletier, R. (1995). Cognitive Tutors: Lessons Learned. Journal of the Learning Sciences, 4(2), 167-207.
- Angarita, L. (2014). Estudio bibliométrico sobre uso de métodos y técnicas cualitativas en investigación publicada en bases de datos de uso común entre el 2011-2013. Revista Iberoamericana de Psicología: Ciencia y Tecnología, 7(2), 67-76.
- Angoff, W. (1971). Scales, norms, and equivalent scores. In R. L. Thorndike (Ed.), Educational measurement (pp. 508–600).
- Washington, DC: American Council on Education.
- Angoff, W. (1984). Scales, norms, and equivalent scores. Princeton, New Jersey: Educational Testing Service.
- Aranguren, M. y Hoszowski, A. (2017). Aprender 2016. Serie de documentos técnicos 5: Bookmark, Establecimiento de puntos de corte. Ministerio de Educación y Deportes: Buenos Aires.
- Aria, M. & Cuccurullo, C. (2017). Bibliometrix: An R-tool for comprehensive science mapping analysis. Journal of Informetrics, 11(4), 959-975.
- Barbosa, J., Barbosa J. y Rodríguez, M. (2013). Revisión y análisis documental para estado del arte: Una propuesta metodológica desde el contexto de la sistematización de experiencias educativas. Investigación Bibliotecológica, 27(61), 83-105.
- Barrios, M. y Cosculluela, A. (2013). Fiabilidad. En J. Meneses, M. Barrios, A. Bonillo, A. Cosculluela, L. Lozano, J. Turbany y S. Valero (Eds.). Psicometría (pp. 75-141). Barcelona: OUC.
- Berk, R. (1986). A consumer’s guide to setting performance standards on criterion referenced tests. Review of Educational Research, 56, 137–172.
- Bernal, D., Martínez, L., Parra, A. y Jiménez, J. (2015). Investigación documental sobre calidad de la educación en instituciones educativas del contexto Iberoamericano. Revista Entramados Educación y Sociedad, 2(2), 107- 124.
- Beuk, C. (1984). A method for reaching a compromise between absolute and relative standards in examinations. Journal of Educational Measurement, 21, 147–152.
- Buckendahl, Ch., Smith, R., Impara, J. & Plake, B. (2002). A comparison of Angoff and Bookmark Standard Setting Methods. Journal of Educational Measurement, 34(3), 253-263.
- Capella, J., Smith, S. Philp, A., Putnam, T., Gilbert, C., Fry, W., Harvey, E., Wright, A., Henderson, K., Baker, D., Ranson, S. & Remine, S. (2010). Teamwork training improves the clinical care of trauma patients. Journal of Surgical Education, 67(6), 439-443.
- Cetin, S. & Gelbal, S. (2013). A comparison of Bookmark and Angoff Standard Setting Methods. Educational Sciences: Theory & Practice, 13(4), 2169-2175.
- Chen, Ch. (2017). Science Mapping: A Systematic Review of the Literature. Journal of Data and Information Science, 2(2), 1–40.
- Chen, Ch. (2018). How to Use CiteSpace. Lean Publishing.
- Cizek, G. & Bunch, M. (2007). Standard setting: A guide to establish and evaluating performance standards on tests. California: Sage Publications.
- Cizek, G., Bunch, M. & Koons, H. (2004). Setting performance standards: Contemporary methods. Educational Measurement: Issues and Practice, 23(4), 31-49.
- Cizek, G. & Bunch, M. (2007). Standard setting: A guide to establish and evaluating performance standards on tests. California: Sage Publications.
- Cortés, J. (2008). Web of Science: Termómetro de la producción internacional de conocimiento: Ventajas y limitaciones. Culcyt, 5(29), 5-15.
- Díaz-Iglesias, S., Blanco-González, A. y Orden-Cruz, C. (2019). Science mapping analysis of change management. Espacios, 40(32), 17-29.
- García, P., Abad, F., Olea, J. y Aguado, D. (2012). Un nuevo método de standard setting basado en la TRI: aplicación a eCat-Listening. Informe de investigación eCAT 12-01. Madrid: Universidad Autónoma de Madrid.
- Hamme, C. & Shulz, M. (2011). Reliability and validity of Bookmarkbased methods for standard setting: Comparisons to Angoff-based methods in the national assessment of Educational Progress. Educational Measurement: Issues and Practice, 30(2), 3–14.
- Hart, C. (1998). Doing a literature review: Releasing the social science research imagination. London: Sage Publications.
- Heller, P. & Hollabaugh, M. (1992). Teaching problem-solving through cooperative grouping. Designing problems and structuring groups. American Journal of Physics, 60(7), 637-644.
- Hofstee, B. (1983). The case for compromise in educational selection and grading. In S. B. Anderson & J. S. Helmick (Eds.), on Educational testing (pp. 109–127). San Francisco: Jossey-Bass.
- Hoyos, C. (2010). Un modelo para la investigación documental. Guía teórico-práctica sobre construcción de Estados del Arte con importantes reflexiones sobre la investigación. Medellín: Señal Editora.
- Jornet, J. y Gonzales, J. (2009). Evaluación criterial: determinación de estándares de interpretación (EE) para pruebas de rendimiento educativo. Estudios sobre Educación, 16, 103-123.
- Kaufman, D., Mann, K., Muijtjens, A. & Van der Vleuten, C. (2000). A comparison of standard-setting procedures for an OSCE in undergraduate medical education. Academic Medicine, 75(3), 267- 271.
- Margolis, M. & Clauser, E. (2014). The impact of examinee performance information on judges’ cut scores in modified Angoff standard-setting exercises. Educational Measurement: Issues and Practice, 33(1), 15–22.
- Montero, I. y León, O. (2007). A guide for naming research studies in Psychology. International Journal of Clinical and Health Psychology, 7(3), 847-862.
- Moss, P. (1992). Shifting Conceptions of Validity in Educational Measurement: Implications for Performance Assessment. Review of Educational Research, 62(3), 229-258.
- Muñiz, J. (2018). Introducción a la Psicometría: Teoría Clásica y TRI. Madrid: Pirámide.
- Nedelsky, L. (1954). Absolute grading standards for objective tests. Educational and Psychological Measurement, 14, 3–19.
- Norcini, J. (2003). Setting standards on educational tests. Medical Education, 37(5), 464-469.
- Popham, J. (1983). Evaluación basada en criterios. Madrid: Magisterio Español.
- R Core Team (2018). R: A language and environment for statistical computing. Vienna: R Foundation for Statistical Computing.
- Reckase, M. (2006). A conceptual framework for a psychometric theory for standard setting with examples of its use for evaluating the functioning of two standard setting methods. Educational Measurement: Issues and Practice, 5(2), 4-18.
- Rethans, J., Norcini, J., Baron-Maldonado, M., Blackmore, D., Jolly, B., LaDuca, T., Lew, S., Page, G., Southgate, L. (2002). The relationship between competence and performance: implications for assessing practice performance. Medical Education, 36(10), 901- 909.
- Rodríguez, M., Alcaide, L. & Cobo, J. (2018). Analyzing the scientific evolution and impact of e-Participation research in JCR journals using science mapping. International Journal of Information Management, 40, 111–119.
- Ruoyu, Z., Patrick, P., Poorang, W., Hannah, Y., Yan, L. & Han, Y. (2019). A science mapping approach based review of construction safety research. Safety Science, 113, 285-297.
- Sanju, G., Sayeed, H. & Femi, O. (2006). Standard setting: Comparison of two methods. BMC Medical Education, 6(46), 1-6.
- Scharnhorst, A., Börner, K. & Van den Besselaar, P. (2012). Models of science dynamics: Encounters between complexity theory and information sciences. Dordrecht: Springer.
- Sireci, S., Hambleton, R. y Pitoniak, M. (2004). Setting passing scores on licensure examinations using direct consensus. CLEAR Exam Review, 15(1), 21-25.
- Tiffin-Richards, S. & Anand-Pant, H. (2013). Setting standards for English foreign language assessment: Methodology, validation, and a degree of arbitrariness. Educational Measurement: Issues and Practice, 32(2), 15–25.
- Van Eck, N. & Waltman, L. (2018). Manual for VOSviewer version 1.6.7. Nettherlands: Universiteit Leiden.
- Van Niljen, D. & Janssen, R. (2008). Modeling judgments in the Angoff and contrasting-groups method of standard setting. Journal of Educational Measurement, 45(1), 45-63.
- Vargas-Quesada, B., Chinchilla-Rodriguez, Z. & PerianesRodríguez, A. (2018). Science mapping artificial intelligence. En Conferencia de la Asociación Española para la Inteligencia Artificial (CAEPIA), I Workshop en Ciencia de Datos en Redes Sociales, Granada, 23-26 de octubre de 2018.
- Zieky, M. & Livingston, S. (1977). Manual for setting standards on the basic skills assessment tests. Princeton, NJ: Educational Testing Service.