Rahmenprogramm des BMBF zur Förderung der empirischen Bildungsforschung

Literaturdatenbank

Vollanzeige

    Pfeil auf den Link... Verfügbarkeit 
Autoren Kopf, Julia  
Titel Model-based recursive partitioning meets item response theory. New statistical methods for the detection of differential item functioning and appropriate anchor selection. 1. Aufl.  
URL http://edoc.ub.uni-muenchen.de/16434/  
Erscheinungsjahr 2013  
Seitenzahl III, 187 S.  
Verlag München: Hut  
ISBN 978-3-8439-1333-1; 3-8439-1333-1  
Dokumenttyp Monographie; gedruckt  
Beigaben grafische Darstellungen; Tabellen; Literaturangaben S. 175-187  
Sprache englisch  
Forschungsschwerpunkt Promotionsförderung für Nachwuchswissenschaftler/-innen - Kompetenzdiagnostik  
Schlagwörter Rasch-Modell; Bildungsforschung; Empirische Forschung; Methodologie; Soziometrie; Persönlichkeitsmerkmal; Psychologische Statistik; Itemanalyse; Psychometrie; Testtheorie; Testverfahren; Statistik; Hochschulschrift; Prüfverfahren; Statistische Methode  
Abstract The aim of this thesis is to develop new statistical methods for the evaluation of assumptions that are crucial for reliably assessing group-differences in complex studies in the field of psychological and educational testing. The framework of item response theory (IRT) includes a variety of psychometric models for scaling latent traits such as the widely-used Rasch model. The Rasch model ensures objective measures and fair comparisons between groups of subjects. However, this important property holds only if the underlying assumptions are met. One essential assumption is the invariance property. Its violation is extensively discussed in the literature and termed "differential item functioning" (DIF). This thesis focuses on the methodology of DIF detection. Existing methods for DIF detection are briefly discussed and new statistical methods for DIF detection are introduced together with new anchor methods. The methods introduced in this thesis allow to classify items with and without DIF more accurately and, thus, to improve the evaluation of the invariance assumption in the Rasch model. This thesis, thereby, provides a contribution to the construction of objective and fair tests in psychology and educational testing. (Orig.) Ziel dieser Arbeit ist die Entwicklung neuer statistischer Methoden zur Überprüfung von Annahmen, die maßgeblich für die Analyse von Gruppenunterschieden in komplexen Studien aus dem Bereich der Psychologie und der empirischen Bildungsforschung sind. Die Item Response Theory (IRT) umfasst eine Vielzahl psychometrischer Modelle zur Skalierung latenter Personeneigenschaften, wie das weit verbreitete Rasch Modell. Das Rasch Modell gewährleistet objektive Messungen und erlaubt dadurch auch faire Vergleiche zwischen Personengruppen. Allerdings gilt diese wichtige Eigenschaft des Rasch Modells nur, solange die zugrundeliegenden Modellannahmen erfüllt sind. Eine zentrale Annahme des Modells ist die der Invarianz, die konstante Aufgabenparameter über Personengruppen hinweg fordert. Ihre Verletzung ist Gegenstand zahlreicher wissenschaftlicher Abhandlungen und wird als Differential Item Functioning (DIF) bezeichnet. Die Methodologie zur Prüfung von DIF steht im Vordergrund dieser Arbeit. Bereits vorgeschlagene Verfahren zur DIF Prüfung werden kurz diskutiert und neue statistische Verfahren zur Analyse von DIF werden entwickelt. Einen Schwerpunkt bilden die jüngst vorgeschlagenen Rasch-Bäume, die das Modell-basierte rekursive Partitionieren einsetzen, um Gruppen mit unterschiedlichen Aufgabenparametern im Rasch Modell aufzudecken. [...] Diese Arbeit leistet damit einen Beitrag zur Konstruktion objektiver und fairer Tests in der Psychologie und der empirischen Bildungsforschung. (Orig.)  
Hochschulschrift Zugl.: München, Univ., Diss., 2013.  
Projekt Heterogenität in IRT-Modellen
 
Förderkennzeichen 01JG1060