Nuevo - Diplomado en Medición y Evaluación en Ciencias Sociales

El curso está dirigido a académicos y profesionales que buscan aprender cómo desarrollar y analizar instrumentos medición (por ejemplo pruebas de conocimiento o cuestionarios de actitudes) y aplicarlos en diseños de evaluación de intervenciones o programas sociales.


Descripción

El diplomado en Medición y Evaluación en Ciencias Sociales tiene como propósito formar a académicos y profesionales en el diseño y análisis de instrumentos y la evaluación de programas sociales. Quienes participen de este programa aprenderán sobre las etapas involucradas en la construcción de instrumentos incluyendo la elección de modelos de análisis para la interpretación de puntajes desde la Teoría de Respuesta al Ítem. Además, aprenderán cómo elaborar diseños de evaluación de programas en los cuales se utilicen instrumentos de medición, desde marcos de inferencia causal. 

El desarrollo de conocimientos para la identificación cuantitativa de estados de conocimiento y/o actitudes permitirá a los estudiantes llevar a cabo diagnósticos en base a la evaluación de programas en contextos sociales.

Este diplomado se estructura a partir de cuatro cursos: Medición I - Introducción a la Medición en Ciencias Sociales; Construcción de Instrumentos para Evaluación a Gran Escala; Medición II - Modelos de Análisis Avanzados para Instrumentos de Medición; y Evaluación de Programas. Desde una orientación teórico-práctica, la metodología a utilizar en los cursos contempla actividades de aplicación pertinentes a los contenidos abordados en cada caso, por ejemplo, talleres de análisis de datos utilizando el programa RStudio en Medición II.

Dirigido a

Académicos de las ciencias sociales y profesionales interesados en diseños de instrumentos y la evaluación de programas sociales (psicólogos, sociólogos, trabajadores sociales, economistas, profesores).

Prerrequisitos

Para la postulación a este Programa se requiere presentar al menos uno de los siguientes antecedentes: grado de licenciatura, título profesional universitario o técnico.

Para este Diplomado es importante un dominio de la lectura en inglés para la accesibilidad a las lecturas y material de apoyo de los cursos.

Se sugiere contar con conocimiento previo en el uso de software para el análisis de datos (ejemplo, programa Rstudio) y tener formación en estadística básica. 

Objetivo de aprendizaje

•    Identificar aspectos centrales del proceso de desarrollo de instrumentos de medición en ciencias sociales
•    Aplicar análisis psicometricos apropiados para examinar la calidad de un instrumento de medición
•    Diseñar una evaluación de programas que es útil, factible, metodológicamente adecuada y ética.

Desglose de cursos

Nombre del curso: Medición I: Introducción a la Medición en Ciencias Sociales
Nombre en inglés: Measurement I: Introduction to Measurement in Social Sciences
Horas cronológicas: 44
Horas pedagógicas: NA
Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:
1.    Comparar los principales modelos y teorías en medición.
2.    Identificar y aplicar las normas técnicas y éticas que rigen la medición psicológica y educacional.
3.    Reconocer y analizar las implicancias técnicas de las principales etapas y procesos involucrados en el desarrollo de instrumentos de medición.
4.    Seleccionar y aplicar las principales técnicas para estudiar las propiedades métricas de preguntas e instrumentos de medición.

Contenidos:
-    Introducción a la medición
-    Principios éticos que regulan la medición en psicología y educación
-    Fundamentos de la teoría clásica de los test (TCT)
-    Fundamentos de la teoría de respuesta al ítem (TRI)
-    Fundamentos del enfoque edumétrico
-    Etapas del desarrollo de instrumentos de medición
-    Análisis de ítemes
-    Análisis factorial exploratorio y confirmatorio de ítemes puntuados en 2 o más categorías
-    Estimación de la confiabilidad: teoría clásica y teoría de la generalizabilidad
-    Evaluación de la validez

Metodología de enseñanza y aprendizaje:
-    Clases expositivas a cargo de los docentes del curso
-    Desarrollo de un trabajo individual de análisis.
-    Talleres de aplicación de análisis: durante el curso se emplearán programas estadísticos generales y especializados para el análisis de las propiedades métricas de preguntas e instrumentos.

Evaluación de los Aprendizajes:
-    2 pruebas individuales (50%)
-    Trabajo de aplicación (50%)

o    Recursos adionales: Durante el curso se emplearán programas estadísticos generales y especializados para el análisis de las propiedades métricas de preguntas e instrumentos.

Nombre del curso: Medición II: Modelos de Análisis Avanzados para Instrumentos de Medición
Nombre en inglés: Measurement II: Advanced Analysis Models for Measurement Instruments
Horas cronológicas: 44
Horas pedagógicas: NA
Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:
-    Discutir los conceptos, modelos y técnicas asociados a tópicos avanzados en medición educacional: determinación de puntajes, establecimiento de estándares, sesgo de medición, comparabilidad de puntajes y valor agregado.
-    Hacer uso de software que permite implementar las técnicas revisadas.
-    Debatir en torno al rol de la medición en las políticas de responsabilización educacional.

Contenidos:
-    Determinación de puntajes
-    Establecimiento de estándares
-    Sesgo de medición
-    Sesgo de tests
-    Sesgo de preguntas
-    Comparabilidad de puntajes
-    Diseños para la comparabilidad
-    Técnicas de comparabilidad para diseños con grupos equivalentes y no equivalentes.
-    Escalamiento vertical
-    Modelos de Valor Agregado en la medición educacional.
-    Medición y políticas de responsabilziación educacional.

Metodología de enseñanza y aprendizaje:
-    Clases expositivas a cargo de los docentes del curso
-    Desarrollo de un trabajo individual de análisis.
-    Talleres de aplicación de análisis: durante el curso se emplearán programas estadísticos generales y especializados para el análisis de las propiedades métricas de preguntas e instrumentos.

Evaluación de los Aprendizajes:

-    1 prueba individual (30%)
-    Informe final del proyecto (40%)
-    3 talleres (30%)

Nombre del curso: Evaluación I: Introduccion a la Evaluación de Programas Sociales
Nombre en inglés: Evaluation I: Introduction to the Evaluation of Social Programs
Horas cronológicas: 44
Horas pedagógicas: NA
Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:
-    Distinguir la evaluación de programas de otros ámbitos como el monitoreo, la investigación etc., reconociendo sus características, oportunidades y desafíos.
-    Meta-evaluar la calidad de una evaluación de programas en base de criterios y estándares
-    Diferenciar teorías y enfoques de evaluación de programas, sus principales propósitos, fortalezas y debilidades.

Contenidos:
-    Modelos y distinciones en la evaluación de programas
-    Definiciones y distinciones
-    Ejemplo de una investigación de una política educacional
-    Categorizando teorías y modelos de evaluación de programas
-    Enfoques seleccionados I (p. Ej. evaluación basado en la teoría subyacente del programa).
-    Enfoques seleccionados II (p. Ej. evaluación participativa y enfocada en su uso)
-    Enfoques seleccionados III (p. Ej. evaluación de impacto con diseño (cuasi-) experimental)
-    Diseño e implementación de evaluaciones de programa
-    Ejemplos de casos de evaluaciones de programas
-    Analizando el contexto de programas y de la evaluación
-    Formulando preguntas y criterios de evaluación
-    Eligiendo diseños, métodos, instrumentos de evaluación
-    Analizando e interpretando los datos recolectados por la evaluación
-    Reportando e utilizando procesos y resultados de la evaluación
-    Investigación acerca de la evaluación de programas

Metodología de enseñanza y aprendizaje:
-    Clases teóricas y discusión de textos

Evaluación de los Aprendizajes:
-    2 Pruebas (50%)
-    Tareas (50%)

Nombre del curso: Evaluación II: Modelos Cuantitativos para la Evaluación de Programas Sociales
Nombre en inglés: Evaluation II: Quantitative Models for Evaluation of Social Programs
Horas cronológicas: 44
Horas pedagógicas: NA
Créditos: 5

Resultados de Aprendizaje
Al finalizar este curso los/las estudiantes debieran ser capaces de:
-    Identificar el concepto de causalidad en el marco de la evaluación de programas.
-    Reconocer los requerimientos, fortalezas y debilidades de diversos diseños cuantitativos.
-    Evaluar críticamente artículos en el que se presentan resultados de evaluaciones de programas.
-    Generar diseños de evaluación cuantitativos de programas útiles, factible, metodológicamente adecuada y ética.

Contenidos:
-    Problema de endogeniedad en las estimaciones, auto-selección, contrafactual e inferencia causal.
-    Modelos de evaluación experimentales
-    Modelo contrafactual de inferencia causal
-    Evaluaciones usando experimentos aleatorizados
-    Modelos de evaluación cuasi-experimentales
-    Evaluaciones utilizando regresión discontinua
-    Evaluaciones utilizando series de tiempo interrumpida
-    Evaluaciones usando variables instrumentales
-    Modelos de evaluación observacionales
-    Evaluaciones utilizando propensity score matching

Metodología de enseñanza y aprendizaje:
-    Clases expositivas a cargo de los docentes del curso
-    Talleres de aplicación de análisis: durante el curso se emplearán programas estadísticos para el análisis de datos de diseños de evaluación. 

Evaluación de los Aprendizajes:
-    2 Pruebas (50%)
-    Tareas (50%)

Equipo Docente

JEFE DE PROGRAMA
David Torres Irribarra
Psicólogo UC y Ph.D. de la Universidad de California, Berkeley. Profesor Asistente, Escuela de Psicología, Facultad de Ciencias Sociales UC.

EQUIPO DOCENTE
Diego Carrasco
Psicólogo UC y Ph.D. de la Universidad de Sussex, Reino Unido. Investigador del Centro de Medición MIDE UC.

Jorge González B.
Estadístico y Magíster en Estadística UC, y Ph.D de la Universidad Católica de Lovaina, Bélgica. Profesor Asociado, Departamento de Estadística, Facultad de Matemática UC.

Martha Kluttig
Economista UC y Ph.D. de la Universidad de Columbia, Estados Unidos. Investigadora del Centro de Medición MIDE UC.

Jorge Manzi A.
Psicólogo UC y Ph.D. de la Universidad de California, Los Ángeles. Profesor Titular, Escuela de Psicología, Facultad de Ciencias Sociales UC. Director del Centro de Medición MIDE UC.

Ernesto San Martín G.
Ingeniero Civil Matemático de la Universidad de Chile y Ph.D de la Universidad Católica de Lovaina, Bélgica. Profesor Titular, Departamento de Estadística, Facultad de Matemática UC.

David Torres I.
Psicólogo UC y Ph.D. de la Universidad de California, Berkeley. Profesor Asistente, Escuela de Psicología, Facultad de Ciencias Sociales UC.

Requisitos de aprobación

Curso: Medición I: Introducción a la Medición en Ciencias Sociales (25%)
Curso: Evaluación I: Introduccion a la Evaluación de Programas Sociales (25%)
Curso: Medición II: Modelos de Análisis Avanzados para Instrumentos de Medición (25%)
Curso: Evaluación II: Modelos Cuantitativos de Evaluación de Programas Sociales (25%)

Los alumnos deberán ser aprobados de acuerdo los criterios que establezca la unidad académica:

a)     Calificación mínima de todos los cursos 4.0 en su promedio ponderado y
b)     75% de asistencia o cifra superior a las sesiones presenciales.

En el caso de los programas en modalidad en línea, los estudiantes tendrán que cumplir con la calificación mínima de 4.0 y con los requisitos establecidos para cada programa.

*En los programas con evaluaciones sumativas (con calificación), solo se puede entregar certificado de aprobación.

Para aprobar los programas de diplomados se requiere la aprobación de todos los cursos que lo conforman y en el caso que corresponda, de la evaluación final integrativa.

Los alumnos que aprueben las exigencias del programa recibirán un certificado de aprobación otorgado por la Pontificia Universidad Católica de Chile.

El alumno que no cumpla con una de estas exigencias reprueba automáticamente sin posibilidad de ningún tipo de certificación.

Bibliografía

Lecturas mínimas:

Alkin, M. (2011). Evaluation Essentials. New York: Guilford Press.
American Educational Research Association, American Psychological Association, & National Council on Measurement in Education. (1999). The Standards for Educational and Psychological Testing. Washington, D.C.: Autor
Angrist, J. D. & Pischke, J. (2009). Mostly harmless econometrics. Princeton University Press
Brennan, R. (2006). Educational measurement. Westport, CT: Praeger.
Crocker, L. & Algina, J. (1986). Introduction to classical and modern test theory. Fort Worth, FL: Harcourt Brace Jovanovich.
Embretson, S. & Reise, S. (2000). Item response theory for psychologist. Mahwah, New Jersey: Lawrence Erlbaum.
Hambleton, R. & Swaminathan, H. (1985). Item response theory: Principles and applications. Boston, MA: Kluwer Nijhoff Publishing.
Shadish, W., Cook, T. & Campbell, D. (2002). Experimental and Quasi-experimental Designs for Generalized Causal Inference. Boston: Houghton Mifflin.
Thissen, D. & Wainer, H. (2001). Test scoring. Mahwah, NJ: Lawrence Erlbaum Assoc.

Lecturas complementarias:

Algina, J., & Penfield, R. (2009). Classical test theory. En R. Millsap & A. Maydeu-Olivares, A. (Eds). Quantitative methods in Psychology. Los Angeles, CA: Sage.
Alkin, M. (2004). Evaluation Roots: Tracing Theorists’ Views and Influences. Thousand Oaks, CA: Sage.
Angrist, J. Imbens, G. W., & Rubin, D. (1996). Identification of causal effects using instrumental variables. Journal of the American Statistical Association, 91(434), 444–455.
Angrist, J. & Pischke, J. (2010). The credibility revolution in empirical economics: how better research design is taking the con out of econometrics. Journal of Economic Perspectives, 24(2), 3–30.
Athey, S., & Imbens, G. W. (2017). The state of applied econometrics: Causality and policy evaluation. Journal of Economic Perspectives, 31(2), 3–32.
Baker, F. & Kim, S. (2004). Item Response Theory: Parameter estimation techniques. 2nd Edition. New York: Marcel Dekker Inc.
Bechger, T., Maris, G., Verstralen, H. & Bégin, A. (2003). Using Classical Test Theory in Combination with Item Response Theory. Applied Psychological Measurement, 27, 319-334.
Boomsma, A., van Duijn, M. & Snijders, T. (2001). Essays on Item Response Theory. Lecture Notes in Statistics 157. New York: Springer.
Brennan, R. (2001). Some problems, pitfalls, and paradoxes in educational measurement. Educational Measurement: Issues and Practices, 20, 6-18.
Brennan, R. (2001). Generalizability theory. New York: Springer.
Camilli, G. (2006). Test fairness. En Brennan, R. (Ed.). Educational measurement. Westport, CT: Praeger.
Camilli, G. & Shepard, L. (1994). Methods for identifying biased test items. Thousand Oaks, CA: Sage.
Cizek, G. & Cizek, G. (2001). Setting performance standards: Concepts, methods and perspectives. Mahwah, NJ: Lawrence Erlbaum Assoc.
Cizek, G., & Bunch, M. (2007). Standard Setting: A guide to establishing and evaluating performance standards on tests. Thousand Oaks, CA: Sage.
Dawis, R. (2000). Scale construction and psychometric considerations. En H. Tinsley y S. Brown (Eds.). Handbook of applied multivariate statistics and mathematical modeling. San Diego, CA: Academic Press.
Dobbie, W., & Fryer, R. (2011). Are high-quality schools enough to increase achievement among the poor? Evidence from the harlem children’s zone. American Economic Journal: Applied Economics, 3(3), 158–87.
Donaldson, S. (2007). Program Theory-Driven Evaluation Science. New York, NY: Lawrence Erlbaum.
Dorans, (2007). Linking and aligning test scores. New York: Springer.
Downing, S. & Haladyna, T. (2006). Handbook of test development. Mahwah, NJ: Lawrence Erlbaum Assoc.
Dwyer, C. (2005). Measurement and research in the accountability era. Mahwah, New Jersey: Erlbaum.
Embretson, S. (2010). Measuring Psychological Constructs. Washington, DC: American Psychological Association.
Fischer, G. & Molenaar, I. (1995). Rasch models; Foundations, recent developments, and application. New York: Springer.
Fitzpatrick, J., Sanders, J., & Worthen, B. (2003). Program Evaluation: Alternative Approaches and Practical Guidelines, 3rd ed. Englewood Cliffs, NJ: Allyn & Bacon.
Holland, P. W. (1986). Statistics and causal inference. Journal of the American Statistical Association. 81:396 (Dec), 945–960.
Holland, P. & Dorans, N. (2006). Equating. En Brennan, R. (Ed.). Educational measurement. Westport, CT: Praeger.
Hoyle, R. (2000). Confirmatory factor analysys. En H. Tinsley y S. Brown (Eds.), Handbook of applied multivariate statistics and mathematical modeling. San Diego, CA: Academic Press.
Imbens, G. & Lemieux, T. (2008). Regression discontinuity designs: A guide to practice. Journal of Econometrics, 142(2).
Kolen, M. & Brennan, R. (2004). Test equating, scaling and linking: Methods and practices. New York: Springer.
Krueger, Alan (1999). Experimental Estimates of Education Production Functions. Quarterly Journal of Economics, 114(2), 497–532.
Lissitz, R. (2004). Value-added Models in Education: Theory and Applications. Mapple Grove: JAM Press. Lord, F. & Novick, M. (1968). Statistical Theories of Mental Test Scores, New York: Wiley.
Livingston, S. (2006). Item analysis. En S. Downing y T. Haladyna (Eds.). Handbook of test development. Mahwah, NJ: Lawrence Erlbaum Assoc.
Lord, F. & Novick, M. (1968). Statistical Theories of Mental Test Scores, New York: Wiley
Ludwig, J., & Miller, D. (2007). Does head start improve children"s life chances? Evidence from a regression discontinuity design. Quarterly Journal of Economics, 122(1), 159–208.
Martínez, R. (1996). Psicometría: Teoría de los tests psicológicos y educativos. Madrid: Editorial Síntesis.
Mertler, C. (2007). Interpreting standardized test scores. Strategies for data-driven instructional decision making. Thousand Oaks, CA: Sage.
Murnane, R. J., & Willett, J. B. (2010). Methods matter: Improving causal inference in educational and social science research. Oxford University Press.
Nunnally, J. & Bernstein, I. (1994). Psychometric theory. New York: McGraw-Hill
Patton, M. (2008). Utilization-Focused Evaluation, 4th ed. Thousand Oaks, CA: Sage.
Raykov, T. & Marcoulides, G. (2011). Introduction to Psychometric Theory. New York: Routledge
Scrivener, S., & Weiss, M. J. (2009). More guidance, better results? Three-year effects of an enhanced student services program at two community colleges.
Shoukri, M. (2011). Measures of Interobserver Agreement and Reliability. 2nd Edition. Boca Raton, FL: CRC Press.
Stufflebeam, D. & Shinkfield, A. (2007). Evaluation Theory, Models & Applications. San Francisco, CA: Jossey-Bass.
Sudman, S., Bradburn, S. & Schwarz, N. (1996). Thinking about answers: The application of cognitive processes to survey methods. San Francisco: Jossey-Bass Publishers.
The Joint Committee on Standards for Educational Evaluation (2011). The Program Evaluation Standards, 3rd ed. Thousand Oaks, CA: Sage.
Thissen, D., & Steinberg, L. (2009). Item response theory. En R. Millsap & A. Maydeu-Olivares, A. (Eds). Quantitative methods in Psychology. Los Angeles, CA: Sage.
Tinsley, H., & Weiss, D. (2000). Interrater reliability and agreement. En H. Tinsley y S. Brown (Eds.), Handbook of applied multivariate statistics and mathematical modeling. San Diego, CA: Academic Press.
Thissen, D. & Wainer, H. (2001). Test scoring. Mahwah, NJ: Lawrence Erlbaum Assoc.
Van der Linden, W. & Hambleton, R. (1997). Handbook of moder item response theory. New York: Springer.
Von Davier, A. (2011). Statistical models for Test Equating, Scaling, and Linking. New York: Springer.
Wainer, H., Bradlow, E., & Wang, X. (2007). Testlet response theory and its applications. Cambridge: Cambridge University Press.
Young, M. (2006). Vertical scales. En S. Downing y T. Haladyna (Eds.). Handbook of test development. Mahwah, NJ: Lawrence Erlbaum Assoc.

Proceso de Admisión

Las personas interesadas deberán completar la ficha de postulación ubicada al lado derecho de esta página web. Un correo de confirmación solicitará enviar los siguientes documentos a la coordinación a cargo de Manola García al correo magarciap@uc.cl:

-    Currículum vitae actualizado.
-    Copia simple de título o licenciatura (de acuerdo a cada programa).
-    Fotocopia simple del carnet de identidad por ambos lados.

Luego será contactado, para asistir a una entrevista personal (si corresponde). Las postulaciones son entre octubre 2018 hasta enero 2019, o hasta completar las vacantes.

VACANTES: 30
“No se tramitarán postulaciones incompletas”.

- En caso que el postulante presente alguna discapacidad de origen: visual, auditiva, movilidad reducida, u otra, deberá informar previamente a la coordinación del programa mediante un email, con el objetivo de brindar las condiciones de infraestructura necesaria al inicio de clases y entregar una asistencia adecuada
- El postular no asegura el cupo, una vez inscrito o aceptado en el programa se debe cancelar el valor para estar matriculado.

Importante- Sobre retiros y suspensiones-
• La coordinación del programa se reserva el derecho de suspender o reprogramar la realización de la actividad si no cuenta con el mínimo de alumnos requeridos o por motivos de fuerza mayor. En tal caso se devuelve a los alumnos matriculados la totalidad del dinero a la brevedad posible con un máximo de 10 días hábiles. La devolución se efectuará con depósito en la cuenta (corriente o vista) que indique el alumno o a través de un vale vista que deberá ser retirado en cualquier sucursal del Banco Santander.
• A las personas matriculadas que se retiren de la actividad antes de la fecha de inicio, se les devolverá el total pagado menos el 10% del valor del programa.* A las personas que se retiren una vez iniciada la actividad, se les cobrará las horas o clases cursadas o asistidas y materiales entregados a la fecha de la entrega de solicitud formal de retiro más el 10% del valor del programa*
La solicitud de retiro debe realizarse a la coordinación a cargo y hasta antes de que el 50% de la actividad se haya desarrollado (Reglamento de alumno de Educación Continua).  
En ambos casos la devolución, demorará cómo máximo 15 días hábiles y se efectuará con depósito en la cuenta (corriente o vista) que indique el alumno o a través de un vale vista que deberá ser retirado en cualquier sucursal del Banco Santander. *El 10% corresponde al uso de vacante y se calcula en base al precio publicado, no el valor final pagado.

imagen
SOLICITAR MÁS INFORMACIÓN
POSTULA AQUÍ


Otros programas que pueden ser de su interés

Diplomado en Psicoanálisis Relacional: Teoría y Clínica

Diplomado en Intervenciones en depresión y otros trastornos del ánimo: conceptualización y estrategias de intervención

Diplomado en Intervenciones psicoanalíticas en instituciones de salud
IMPORTANTE : Politicas de privacidad

El sitio de educación continua UC utiliza cookies.

Las cookies son pequeños archivos que son transferidos a su dispositivo (Computadora o móvil) y que permanecen ahí por una duración de tiempo limitada, para ayudar a personalizar la experiencia de uso del sitio web y la publicidad que verá de los productos que este ofrece.
Educación continua UC utiliza tanto cookies propias como de terceros.

Particularmente el sitio utiliza cookies para habilitar las funcionalidades de remarketing de Google AdWords y retargeting de Facebook Exchange, para así realizar campañas personalizadas de anuncios en línea, para aquellas personas que han visitado el sitio web. Por tanto si navega por nuestro sitio web, es probable que luego vea anuncios de nuestra empresa en otros sitios que visite.

Si no desea que se muestren esos anuncios o que se almacenen datos sobre su actividad en nuestro sitio web, puede configurar su navegador, para dejar de aceptar cookies o para que le avise antes de aceptar una cookie de los sitios web que visite. Adicionalmente para el caso particular de Adwords, puede inhabilitar el uso de estas cookies mediante el Administrador de Preferencias de Anuncios de Google.