Impacto de diferentes modalidades de evaluación en el promedio de notas de estudiantes de Medicina: un estudio de intervención no aleatorizado
Contenido principal del artículo
Resumen
Introducción: en el proceso de enseñanza-aprendizaje existen múltiples conflictos al momento de seleccionar el tipo de evaluación que debería aplicarse a estudiantes de Medicina. Nuestro objetivo es comparar diferencias en la media de notas de tres modalidades de examen (oral, escrito para desarrollar y preguntas de opción múltiple) para así determinar cómo estas podrían afectar el desempeño de los estudiantes de Medicina en el campo de la Farmacología. Material y métodos: estudio cuasi experimental con una intervención no aleatorizada en una muestra por conveniencia de estudiantes de Medicina. A fin de evaluar diferencias en la media de notas se hizo un análisis ANOVA para muestras pareadas y luego los correspondientes tests de T para muestras pareadas. Resultados: enrolamos inicialmente a 36 estudiantes; 7 fueron excluidos (4 por ausencia y 3 por abandono), y se obtuvieron 29 participantes. La media de notas del examen oral y la de preguntas de opción múltiple fueron ambas significativamente superiores a la del examen escrito para desarrollar (oral vs. escrito: diferencia 1,8 puntos; IC 95% 0,8 a 2,7; p < 0,01; opción múltiple vs. escrito: diferencia 2,1 puntos; IC 95% 1,4 a 2,9; p < 0,01). No hubo diferencias estadísticamente significativas entre las notas medias del examen oral y del examen de preguntas de opción múltiple (p = 0,37). Conclusión: los estudiantes de Medicina obtienen peores notas en el examen escrito para desarrollar en Farmacología, en relación con los exámenes oral y de preguntas de opción múltiple. Esto posiblemente se asocie al hecho de que aquella modalidad es menos frecuentemente empleada en la carrera de Medicina
Downloads
Detalles del artículo
Sección

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
Cómo citar
Referencias
Swanwick T. Understanding Medical Education: Evidence, Theory and Practice. 2nd edition. Oxford: Wiley-Blackwell; 2013. DOI: https://doi.org/10.1002/9781118472361
Huxham M, Campbell F, Westwood J. Oral versus written assessments: a test of student performance and attitudes, Assessment & Evaluation in Higher Education, 2012; 37:1,125-36 DOI: https://doi.org/10.1080/02602938.2010.515012
Ventouras E, Triantis, D, Tsiakas, et al. Comparison of examination methods based on multiple-choice questions and constructed-response questions using personal computers. Comput Educ. 2010; 54(2): 455-61. DOI: https://doi.org/10.1016/j.compedu.2009.08.028
Golda SD. A case study on multiple-choice testing in anatomical sciences. Anat Sci Educ. 2011;4(1):44-8. DOI: https://doi.org/10.1002/ase.197
Washburn S, Herman J, Stewart R. Evaluation of performance and perceptions of electronic vs. paper multiple-choice exams. Adv Physiol Educ. 2017; 41(4):548-55. DOI: https://doi.org/10.1152/advan.00138.2016
McTighe J, Wiggins G. Essential questions: opening doors to student understanding. Alexandria: ASCD; 2013.
Van der Vleuten C, Sluijsmans D, Joosten-ten Brinke D. Competence Assessment as Learner Support in Education. In: Mulder M. Competence-based Vocational and Professional Education. Switzerland: Springer International Publishing; 2017. p. 607-30. DOI: https://doi.org/10.1007/978-3-319-41713-4_28
Harrison CJ, Könings KD, Schuwirth L, et al. Barriers to the uptake and use of feedback in the context of summative assessment. Adv Health Sci Educ Theory Pract. 2015; 20(1):229-45. DOI: https://doi.org/10.1007/s10459-014-9524-6
Raymond MR, Stevens C, Bucak SD. The optimal number of options for multiple-choice questions on high-stakes tests: application of a revised index for detecting nonfunctional distractors. Adv Health Sci Educ Theory Pract. 2019; 24(1):141-50. DOI: https://doi.org/10.1007/s10459-018-9855-9
Miller GE. The assessment of clinical skills/competence/performance. Acad Med.1990; 65(9 Suppl):S63-7. DOI: https://doi.org/10.1097/00001888-199009000-00045