Ponderación diferencial de reactivos para mejorar la validez de una prueba de ingreso a la universidad

Autores

  • Eduardo Backhoff Escudero Instituto de Investigación y Desarrollo Educativo Universidad Autónoma de Baja California
  • Felipe Tirado Segura Escuela Nacional de Estudios Profesionales, campus Iztacala Universidad Nacional Autónoma de México
  • Norma Larrazolo Reyna Instituto de Investigación y Desarrollo Educativo Universidad Autónoma de Baja California

Palabras clave:

Ponderación de ítems, calificación ponderada, métodos de evaluación, validez predictiva, exámenes de admisión.

Resumen

Este trabajo evalúa diversas formas para incrementar la validez criterial de las pruebas de admisión a la universidad, a través de otorgar distintos pesos a los reactivos que componen las pruebas. Se compararon cuatro métodos para ponderar los reactivos de opción múltiple del Examen de Habilidades y Conocimientos Básicos (EXHCOBA): (1) castigando las respuestas incorrectas con un factor constante; (2) ponderando el castigo de las respuestas incorrectas, considerando los niveles de error; (3) ponderando los aciertos según la dificultad del ítem, basándose en la Teoría clásica de la medida y (4) ponderar los aciertos según la dificultad del ítem, basándose en la Teoría de respuestas al ítem. Los resultados muestran que ninguno de estos métodos mejoró la validez predictiva del instrumento, aunque sí mejoraron su validez concurrente. Se concluye que es conveniente calificar la prueba sumando simplemente el número de respuestas correctas.

Descargas

Los datos de descargas todavía no están disponibles.

Referencias

Backhoff, E., Ibarra, M. A. y Rosas, M. (1995). Sistema Computarizado de Exámenes (SICODEX). Revista Mexicana de Psicología, 12 (1), 55-62.

Backhoff, E. y Tirado, F. (1992). Desarrollo del Examen de Habilidades y Conocimientos Básicos. Revista de la Educación Superior, 83, 95-118.

Bravin, J. (1983). Bright idea: Hard courses should carry more weight than easy courses. Executive Educator, 5 (1), 40-30.

Budescu, D. V. (1979). Differential weighting of multiple choice items. Princeton: Educational Testing Service.

Cronbach, L. J. (1971). Test validation. En R. L. Thorndike (Ed.), Educational measurement (2a. ed.). Washington: Consejo Americano en Educación.

Donnelly, M. B. y otros (1983). Simple Adding versus Differential Weighting of MCAT Subtest Scores. Journal of Medical Education, 58 (7), 581-83.

Govindarajulu, Z. (1988). Alternative methods for combining several test scores. Educational and Psychological Measurement, 48 (1), 53-60.

Mislevy, R. y Bock, R. D. (1982). Bilog: Maximum likelihood item analysis and test scoring with logistic models. Mooresville: Scientific Software.

Muñiz, J. (1997). Introducción a la Teoría de Respuestas a los Ítems. Madrid: Pirámide.

Nemecek, P. M. (1994). Constructing weighted grading systems. Clearing House, 67 (6), 325-326.

Nunnally, J. C. y Bernstein, I. H. (1994). Psychometric Theory. New York: Mc Graw-Hill.

Razel, M., y Eylon, B. S. (1987, abril). Validating alternative modes of scoring for coloured progressive matrices. Trabajo presentado en la Reunión Anual de la American Educational Research Association, Washington.

Siegel, J. y Anderson, C. S. (1991). Considerations in calculating high school GPA and rank in class. NASSP Bulletin, 75 (537), 96-109.

Sympson, J. B. y Haladyna, T. M. (1988, abril). An evaluation of "polyweighting" in domain referenced testing. Trabajo presentado en la Reunión Anual de la American Educational Research Association, New Orleans.

Talley, N. R. y Mohr, J. I. (1993). The case for a national standard of grade weighting. Journal of College Admission, 139, 9-13.

Talley, N. R. y Mohr, J. I. (1991). Weighted averages, computer screening, and college admission in public colleges and universities. Journal of College Admission, 132, 9-11.

Trent, J. W. y Leland, L. M. (1968). Beyond high school: A psychological study of 10,000 high school graduates. San Francisco: Jossey-Bass.

Tristán, A. y Vidal, R. (2000). Análisis de la práctica de asignar pesos a los reactivos y su efecto en el diseño y calificación de pruebas. Memorias del IV Foro de Evaluación Educativa. México: Centro de Evaluación de la Educación Superior.

Willis, J. A. (1993, abril). Chapter 1 Eligibility Factors and Weights: Using probit analysis to determine eligibility criteria. Trabajo presentado en la Reunión Anual de la American Educational Research Association, Atlanta.

Descargas

Visitas a la página del resumen del artículo: 1494

Publicado

2001-05-01
Loading...