Programme for International Student Assessment - International Plus 2003, 2004 (PISA-I-Plus 2003, 2004)

 

Inhaltsverzeichnis

Übersicht

Projektbeschreibung

Literatur

Leerdatensätze

Dokumentation

Hinweise zur Nutzung der Daten

Erhebungszeitraum

2003-2004
verfügbar seit 12/2013
Testpopulation Schülerinnen und Schüler der Jahrgangsstufen 9 und 10, die einen mittleren Schulabschluss anstreben
Stichprobe Schülerinnen und Schüler (N=6.020)
Lehrer (N=1.939)
Schulen (N=216)
Erfasste Kompetenzen Mathematik, Naturwissenschaften
Kontextfragebögen für Schülerinnen und Schüler
Region Bundesweit
Federführung Prof. Dr. Manfred Prenzel (PISA Konsortium, IPN Kiel)
Auftraggeber Kultusministerkonferenz (KMK), Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD)
Zitationsvorschlag Prenzel, M., Baumert, J., Blum, W., Lehmann, R., Leutner, D., Neubrand, M., Pekrun, R., Rost, J. & Schiefele, U. (2013). Programme for International Student Assessment - International Plus 2003, 2004 (PISA-I-Plus 2003, 2004) (Version 1) [Datensatz]. Berlin: IQB – Institut zur Qualitätsentwicklung im Bildungswesen. http://doi.org/10.5159/IQB_PISA_I_Plus_v1
Zugangshinweise Kognitive Grundfähigkeiten dürfen nicht als abhängige Variable in den Analysen verwendet werden.

 

> Scientific Use Files beantragen

 

Logo PISA 2003

Projektbeschreibung

PISA-I-Plus ist eine nationale Erhebung in Erweiterung der internationalen PISA-2003-Studie. Dabei wurde das querschnittliche Untersuchungsdesign von PISA mit einem zweiten Messzeitpunkt nach einem Jahr um eine längsschnittliche Komponente erweitert. PISA-I-Plus knüpft direkt an die deutsche Stichprobe des internationalen Vergleichs (PISA-2003-I) an. Im Rahmen der PISA-I-Plus-Studie wurden alle Schülerinnen und Schüler aus den ehemals 9. Klassen in einer zweiten Erhebung 2004 wiederholt getestet. Ziel war es, Veränderungen und Entwicklungen in den mathematischen und naturwissenschaftlichen Kompetenzen im Verlauf eines Schuljahres darzustellen. Außerdem sollte der Einfluss individueller Merkmale sowie Bedingungen des familiären Hintergrunds und der Schul- und Unterrichtsgestaltung auf die Kompetenzentwicklung der Schülerinnen und Schüler beleuchtet werden. Im Gegensatz zu PISA-2003 wurden in PISA-I-Plus keine Hauptschulen gezogen, da diese in den meisten Ländern Deutschlands nur neun Jahrgangsstufen umfassen. PISA-I-Plus wurde von der Ständigen Konferenz der Kultusminister der Länder (KMK) in Auftrag gegeben und unter Federführung des nationalen PISA Konsortiums durchgeführt und ausgewertet.

 zurück zur Übersicht

PISA-03 Bücherbild

 

Literatur

Eine Auswahl an Publikationen finden Sie in dieser PDF Literaturliste (Stand: 07.11.2019)

 zurück zur Übersicht

Leerdatensatz

Um Ihnen einen ersten Überblick der Datensätze zu vermitteln, haben Sie hier die Möglichkeit, Leerdatensätze herunterzuladen.

 zurück zur Übersicht

Dokumentation

Für PISA-I-Plus 2003-4 existiert keine separate Skalendokumentation. Im Schülerfragebogen kamen die gleichen Skalen wie in der PISA 2003-Studie zum Einsatz, so dass die dazugehörige Dokumentation herangezogen werden kann. Nähere Informationen finden Sie auf unserer Seite zur PISA 2003-Studie und hier auf der Seite des IPN-Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik.

Unter dem folgenden Link können Sie mit freundlicher Genehmigung des Waxmann-Verlages Auszüge aus dem genannten Buch einsehen:

Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann.

zurück zur Übersicht

Hinweise zur Nutzung der Daten

Auf welchen Ebenen wurden die Deutschland-PISA Daten erfasst?

In den deutschen PISA-Studien liegen lediglich Informationen auf Bundeslandebene vor. Bitte beachten Sie, dass bei der Analyse von Bundesland-Daten besondere Nutzungsbedingungen eingehalten werden müssen. Diese können Sie hier nachlesen:

Wie hoch ist die Anzahl der gezogenen Klassen pro Schule in PISA Erhebungen?

Informationen zur Stichprobenziehung in den Studien finden Sie in den Ergebnisberichten bzw. Skalenhandbüchern.
Hier eine kurze Zusammenfassung zur Stichprobenziehung in PISA:

  • PISA 2000: Zufällige Auswahl von 28 15-Jährigen sowie 10 nicht 15-Jährigen Neuntklässlern pro Schule; es wurden also nicht vollständige Klassen gezogen, Analysen können nur auf Schulebene durchgeführt werden
  • PISA 2003: Zufällige Auswahl von 15-Jährigen pro Schule; zusätzlich wurden für die nationale Erweiterung zwei komplette 9. Klassen pro Schule gezogen (siehe Datensatz im Ordner PISA 2003/I/PISA2003-I_Datensatz_SchuelerInnen_9Kl_SUF_1806-20a.dta; hier gibt es eine Klassen-ID: [idclass_FDZ]); in den PISA-E-Daten wurde allerdings keine klassenbasierte Stichprobenziehung realisiert.
  • PISA 2006: schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15-Jährigen pro Schule, an den Schulen der internationalen Stichprobe (PISA_I) wurden zusätzlich Schülerinnen und Schüler aus zwei kompletten 9. Klassen getestet (siehe Datensatz im Ordner PISA2006/PISA2006_I/PISA2006-I_Datensatz_SchuelerInnen_9Kl_SUF_1806-20a.dta; hier gibt es eine Klassen-ID: [idklasse_FDZ])
  • PISA 2009: schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen getestet

Lassen sich Lehrkräfte- und Schüler*innendaten in PISA verknüpfen?

Leider ist diese Verknüpfung ziemlich herausfordernd und nur für die Teildatensätze der 9. Klässler*innen möglich (die Datensätze der 15-Jährigen umfassen schulübergreifende Stichproben). Die Herausforderung besteht darin, dass in den meisten PISA-Wellen zwei 9. Klassen gezogen wurden, aber in den Teildatensätzen häufig eine eindeutige Klassen-ID fehlt.

Hier eine Übersicht in Stichpunkten zu den einzelnen PISA-Wellen:

  • PISA 2000: hier wurde kein Lehrkräfte-Fragebogen eingesetzt
  • PISA 2003: Teildatensatz "PISA-I-9.Klasse": Lehrkräfte-Fragebögen beinhalten Fragen auf Schulebene, nicht auf Klassenebene; eine Verknüpfung über die Variable [idclass_FDZ] ist möglich, aber im Lehrkräftedatensatz gibt es auf dieser Variable einen hohen Anteil fehlender Werte (vermutlich, da viele Lehrkräfte pro Schule befragt wurden); Teildatensatz "PISA-E": keine Lehrkräftefragebogen vorhanden
  • PISA Plus 2003-2004: eine Verknüpfung ist prinzipiell möglich, aber Lehrkräftedaten müssten aus PISA-2003-Daten herangespielt werden und liegen nur zum ersten Messzeitpunkt vor
  • PISA 2006: Teildatensatz "PISA-E": kein Lehrkräftedatensatz für 9.Klassen vorhanden, Verknüpfung nur auf Schulebene möglich; Teildatensatz "PISA-I": keine eindeutige Verknüpfung möglich, da im Lehrkräftedatensatz keine Klassen-ID enthalten ist
  • PISA 2009: ebenfalls keine Klassen-ID im Lehrkräftedatensatz, aber Verknüpfung über idsch und Variable [LF39M01] (Deutsch in PISA Klasse unterrichtet: ja vs. nein) teilweise möglich; es wurden allerdings pro Schule zwei 9. Klassen gezogen
  • PISA 2012: Verknüpfung ist prinzipiell über Variablen zur Klassenbezeichnung möglich (Lehrkräfte-Datensatz: klasse_FDZ; Schüler*innendatensatz: ClassName_FDZ) aber praktisch schwierig zu bewerkstelligen, da Metrik der Schul-ID zwischen beiden Teildatensätzen nicht korrespondiert und auf Variablen zur Klassenbezeichnung hoher Anteil fehlender Werte vorliegt (Erfahrungsberichte der PISA-Mitarbeiter*innen interpretiere ich so, dass Verknüpfung in Mehrheit der Fällen nicht gelingt)
  • PISA 2015: Verknüpfung ist nicht direkt möglich, da alle Lehrkräfte der gezogenen Schulen befragt wurden

Für welche PISA Daten liegt ein Messwiederholungsdatensatz vor?

Ein Messwiederholungsdatensatz liegt für PISA-2003 (PISA-Plus 2003, 2004) und PISA-2012 (PISA-Plus 2012, 2013)

Wie wurden die Tests zur naturwissenschaftlichen Kompetenz in PISA entwickelt?

Im Gegensatz zu den IQB-Ländervergleichen sind die naturwissenschaftlichen Tests in PISA nicht curricular verankert bzw. fachspezifisch konzipiert. Deshalb gibt es in PISA keine Subtests für Biologie, Physik und Chemie. Vielmehr wird in PISA eine naturwissenschaftliche Grundbildung (Scientific Literacy, siehe z. B. OECD, 2006) getestet. Dabei handelt es sich um Fähigkeiten, die in Situationen bedeutsam sind, in denen man mit Naturwissenschaften und Technik konfrontiert ist. Diese Situationen beziehen sich auf physikalische Systeme, lebende Systeme, Erd- und Weltraumsysteme und technologische Systeme. Konkret werden die folgenden Kompetenzen getestet:


a) naturwissenschaftliche Fragestellungen erkennen
b) naturwissenschaftliche Phänomene beschreiben, erklären und vorherzusagen
c) naturwissenschaftliche Evidenz nutzen, um Entscheidungen zu treffen

Nähere Informationen zur Konzeption und zum Test (inklusive Beispielaufgaben) finden Sie hier:

Wann fanden die Testungen zum ersten Messzeitpunkt von PISA 2003-4 statt?

Die Testungen zum ersten Messzeitpunkt der PISA I-Plus 2003-4-Studie fanden im Zeitraum vom 20.04. bis 31.05.2003 statt (PDF Referenz). Leider liegen keine Informationen darüber vor, an welchem Tag welche Schule getestet wurde.

Liegen im PISA-I-Plus 2003-4-Datensatz Standardfehler für die Kompetenzschätzer vor?

Für die PISA-I-Plus 2003-4-Studie gibt es im Ergebnisbericht (Prenzel & das deutsche PISA-Konsortium, 2006; Kapitel 4, S. 112) folgende Standardfehlerangaben:

  • Mathematik: t1: SE = 2.2, t2: SE = 2.1, Zuwachs t1-t2: SE = 1.1
  • Nawi: t1: SE = 2.3, t2: SE = 2.5, Zuwachs t1-t2: SE = 1.7
  • Individuelle Standardfehler für die WLE-Schätzer sind leider nicht im Datensatz enthalten.

Gibt es Variablen, die die unterrichteten Fächer beinhalten?

Lehrkräftevariablen sind im PISA-I-Plus 2003-4-Datensatz leider nicht enthalten. Die entsprechenden Angaben können aber für Messzeittpunkt (MZP) 1 aus dem Lehrkräfte-Datensatz der PISA 2003-Studie (Datensatzname: PISA2003-I_Datensatz_Lehrkraft_9Kl) entnommen und über die Variable [idclass_FDZ] an den PISA-I-Plus 2003-4-Datensatz herangespielt werden. Im Lehrkräfte-Datensatz der PISA 2003-Studie liegen allerdings nur Angaben dazu vor,  ob irgendein unterrichtetes Fach Mathematik ([fama_all]), Deutsch ([fadeu_al]), Physik ([faphy_al]), Biologie ([fabio_al]) oder Chemie ([fache_al) ist (1 = ja) unterrichtet wurde.

Wieso bleiben weniger Schüler*innen, aber mehr Schulen und eine weitere Klasse im Datensatz enthalten, wenn ich nur diejenigen Schüler*innen berücksichtige, die der Kernstichprobe angehören (kernstpr=1)?

Die Filtervariable [kla_l] zur Replikation der Stichprobenumfänge auf S. 49 wäre geeignet. Allerdings kommt man dann auf einen Gesamtstichprobenumfang (Schüler*innen) von n = 4550. Diskrepanzen könnte man auch dadurch erklären, dass eventuell für den Bericht noch Schüler*innen ausgeschlossen wurden (z. B. auf Basis der Variablen [klasse], [partbook] oder [test1_2]). Das kann man auf Basis der Daten, die dem FDZ am IQB vefügbar sind, leider nicht nachvollziehen. Das FDZ am IQB hat nicht den Datensatz erhalten, der Grundlage für Kapitel 2 war. Es lassen sich z. B. auch nicht die berichteten Kompetenzstände anhand der am FDZ am IQB verfügbaren Datensätze replizieren. Die gesamte Stichprobengröße auf S. 49 ist aber replizierbar.

Zu welchem Zeitpunkt fand die Erhebung in Klasse 10 statt?

Die Erhebung zum zweiten Messzeitpunkt (MZP2) fand im Frühjahr 2004 statt, ein genaues Datum der Testung wird im Ergebnisbericht (Prenzel et al., 2006) leider nicht genannt.

Wofür stehen Variablen mit der Endung [ _s] und [ _w] und wie sind sie skaliert?

Die Endung „_s“ kann im Datensatz für „Schülerangabe“ und für „Standardfehler“ stehen. Bei den Skalenwerten bezeichnet die Endung „_w“ den WLE-Personenfähigkeitsschätzer und die Endung „_s“ den Standardfehler zu diesem Fähigkeitsschätzer. WLE-Schätzer können so ähnlich wie z-standardisierte Werte interpretiert werden (mit der Ausnahme, dass die Standardabweichung nicht auf 1 festgesetzt wird): Der Wert 0 entspricht einer durchschnittlichen Ausprägung (der Mittelwert der Stichprobe wird meistens auf 0 fixiert), niedrigere Werte (< 0) indizieren geringere Ausprägungen im Merkmal und höhere Werte (> 0) indizieren höhere Ausprägungen im Merkmal. Nähere Informationen zu WLE-Schätzern finden sich im Beitrag von Warm (1989).

Erkenne ich Variablen des 2. Messzeitpunktes im Schüler*innendatensatz anhand der Endung [ _2]?

Ja, im Datensatz indiziert die Endung „_1“ im Variablennamen sowie der Zusatz „(t1)“ im Variablenlabel den ersten Messzeitpunkt und die Endung „_2“ im Variablennamen sowie der Zusatz „(t2)“ im Variablenlabel den zweiten Messzeitpunkt. Im PISA-I-Plus 2003-4-Datensatz liegen keine Lehrkräfteangaben zum MZP2 vor.

Beinhalten die Variablen [selblehr] und [selbklas] Angaben darüber, ob die Klasse und/oder Mathematiklehrkraft gewechselt wurden? Und wie ist die Skalierung (0/1)?

Die Variable [selblehr] gibt an, ob Schüler*innen zu beiden Messzeitpunkten von derselben Lehrkraft unterrichtet wurden (0 = nein; 1 = ja). Die Variable [selbklas] gibt an, ob Schüler*innen zu beiden Messzeitpunkten demselben Klassenverbund angehörten (0 = nein; 1 = ja).

Wofür steht die Variable [schform2]?

Die Variabe [schform2] steht für die besuchte Schulform zum 2. Messzeitpunkt.

Enthält die Variable [tr_ma_04_r] die Mathematiknote in Klasse 10? Und bezieht sich diese auf die letzte Zeugnisnote und somit die Halbjahresnote?

Ja, es handelt sich um Schulnoten aus dem ersten Halbjahr 2004 für alle Schüler*innen, die 2004 untersucht wurden (insofern vollständige Angaben durch die Schulkoordination vorlagen). Diese Informationen sind auch im Variablenlabel dokumentiert [„Mathematiknote_rekodiert (zu T2, 1. Schulhalbjahr 2004)“].

Worüf stehen die Endungen [ _cs] und [ _gt]?

Die Endungen [ _cs] und [ _gt] stehen für die curriculare bzw. Grundbildungskompetenz.

Wofür stehen [t1] und [t2] in den Variablennamen zur Mathematikkompetenz?

[t1] und [t2]  stehen für den  1. bzw. 2. Messzeitpunkt.

Wenn [wle]-Variablen die Personenmesswerte enthalten, wie kommt es dann zu fehlenden oder negativen Werten (z. B: im Falle von [wle_m1t1_cs])?

Fehlende Werte auf den Variablen zu den Personenfähigkeitsschätzern kommen dadurch zustande, dass diese Schüler*innen nicht an der Kompetenztestung teilnahmen oder zu wenige Items bearbeitet haben. Negative Werte können theoretisch vorkommen und indizieren sehr geringe Fähigkeiten; dabei könnte es sich aber auch um Schätzprobleme der Fähigkeiten für diese Schüler*innen handeln (auf der Variable [wle_m1t1_cs] haben nur vier Schüler*innen negative Werte).

In Bezug auf die soziale Herkunft sind im Datensatz Variablen zum ISEI und den EGP-Klassen enthalten. Gibt es einen Unterschied zwischen den Variablen [isei_m] und [m_isei] (Herkunft der Mutter) sowie [isei_v] und [isei_f] (Herkunft Vater)?

Die Variable [isei_m] gibt den ISEI der Mutter an, in der Variable [m_isei] wurden fehlende Angaben des ISEIs der Mutter mit ISEI-Werten des Vaters aufgefüllt.
Die Variable [isei_v] beinhaltet den ISEI des Vaters, die Variable [isei_f] beinhaltet den höchsten ISEI in der Familie. Diese Informationen sind auch in den Variablenlabels hinterlegt.

Worin unterscheiden sich die Variablen [egp_6], [m_egp_6], [egp_f6], [egp_v6] und [egp_m6]?

Hier wurden die gleichen Benennungsregeln angewendet wie bei den ISEI-Variablen.

  • egp_6: EGP-Klasse des Vaters, fehlende Werte aufgefüllt mit Angaben der Mutter, 6-stufig (t1)
  • m_egp_6: EGP-Klasse der Mutter, fehlende Werte aufgefüllt mit Angaben des Vaters, 6-stufig (t1)
  • egp_f6: Höchste EGP-Klasse in der Familie, 6-stufig (t1)
  • egp_v6: EGP-Klasse Vater, 6-stufig (t1)
  • egp_m6: EGP-Klasse Mutter, 6-stufig (t1)
  • egp_m: EGP-Klasse Mutter - korrigierte Angaben (t1)
  • egp_v: EGP-Klasse Vater - korrigierte Angaben (t1)

Was geben die Variablen [sefic_t2] und [intma_t2] an?

Diese Variablen geben die Ausprägung zum Messzeitpunkt (MZP) 2 in Form von WLEs (vergleichbare Interpretation wie bei z-Werten) an. Negative Werte stehen für geringere Ausprägungen, positive Werte für höhere Ausprägungen. Um den Zuwachs/die Verringerung zu bestimmen, benötigt man die Angaben zum MZP1 ([sefic_w] &  [intma_w]).

Gibt es eine Variable für das mathematische Selbstkonzept zum 2. Messzeitpunkt?

Ja, die Variable mit dem WLE-Schätzer heißt [msk_t2], die Items zur Skala heißen msk1_2 - msk2_2.

Gibt es eine Variable für die Globalskala „Interesse an Mathematik“?

Ja, die Variablen heißen [intma_w] (MZP1) und [intma_t2] (MZP2).

Welche Testaufgaben wurden zum 2. Messzeitpunkt in PISA-I-Plus 2003-4 verwendet?

Die Tests, die für den zweiten Messzeitpunkt 2004 beinhalten neue Items in dem generellen Test (n = 23 neue Items) sowie auch in dem Curicullum spezifischen Test (n = 23 neue Items).

Für mehr Information siehe Kapitel 2 (S. 52) und 12 (S. 311ff.) in PDF Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann.

Wie hoch waren die  Reliabilitäten der Kompetenztests in PISA-I-Plus 2003-4?

Die Reliabilitäten (WLE) für die Leistungstests 2004 (S. 314 in PDF Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann) sind:

- Naturwissenschaften:
    - 2003: .77 (63 items)
    - 2004: .61 (28 items)


- Mathematik (general test):
    - 2003: .77 (77 items)
    - 2004: .85 (98 items)


- Mathematik (curriculum sensitive test):
    - 2003: .64 (46 items)
    - 2004: .79 (68 items)

Diskrepanzen zwischen diesen Parametern und den im PISA 2003-Skalenhandbuch angegebenen Parametern könnten mit (a) Unterschieden in der Schüler*innenstichprobe (internationale Stichprobe vs. nationale Erweiterung der 9. Klassen), (b) Unterschieden in der Itemgruppe (internationale Items vs. nationale Items) oder (c) Unterschieden in der Schätzmethode zusammenhängen. Die oben angegebenen Zuverlässigkeitsschätzungen basieren auf: Andrich, D. (1982). An index of person separation in latent trait theory, the traditional KR. 20 index, and the Guttman scale response pattern. Education Research and Perspectives, 9(1), 95-104.

Wo erhalte ich mehr Informationen zur Erfassung der Variable des angestrebten Abschlusses in PISA-I-Plus 2003-4?

Die Dokumentation der Erhebungsinstrumente zur Studie sind in folgender Publikation veröffentlicht (aus urheberrechtlichen Gründen können wir Ihnen dieses Dokument leider nicht elektronisch zur Verfügung stellen):

Ramm, G. C., Adamsen, C., Neubrand, M., & Deutsches PISA-Konsortium. (2006). PISA 2003 : Dokumentation der Erhebungsinstrumente. Münster u. a.: Waxmann.

Darüber hinaus können Sie die Fragebögen zur Studie auf der Seite der PDF OECD und der DaQS-Seite des DIPF recherchieren.

Liegt ein Skalenhandbuch zur PISA-I-Plus 2003-4-Studie vor?

Leider existiert zu dieser Studie kein eigenständiges Skalenhandbuch. Die internationalen Dokumentationen und Berichte zu den Erhebungsinstrumenten können eventuell hilfreich sein:

Steht ein [d] in Variablennamen (z. B. st15q01d) für den nationalen Fragebogen?

Im Skalenhandbuch zur PISA 2003-Studie (Ramm et al., 2006, S. 130) werden die Regeln zur Variablenbezeichnung ausführlicher beschrieben. Das „d“ am Ende der Variablennamen indiziert demnach nationale Zusatzfragen im internationalen Instrument. Das Skalenhandbuch eignet sich in vielen Punkten auch für die Arbeit mit den PISA-I-Plus 2003-4-Daten.

Wie hoch sind die Reliabilitäten der Kompetenzschätzer in der PISA-I-Plus 2003-4-Studie?

Die WLE-Reliabilitäten der Kompetenzschätzer in der PISA-I-Plus 2003-4-Studie werden im Ergebnisbericht "PISA 2003 - Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres" (Prenzel & das deutsche PISA-Konsortium, 2006) in Kapitel 12 (S. 314) präsentiert:

  • Mathematik
    a) Gesamttest: t1 (2003): Rel. = .77; t2 (2004): Rel. = .85
    b) curricular orientierter Test: t1 (2003): Rel. = .64; t2 (2004): Rel. = .79
  • Nawi: t1 (2003): t1 (2003): Rel. = .77; t2 (2004): Rel. = .61

Warum sind Variablen zu den Testitems nicht im Datensatz zur PISA-I-Plus 2003-4-Studie enthalten?

Variablen zu den einzelnen Testaufgaben wurden uns nicht zur Verfügung gestellt, da die Antworten der Schüler*innen zu diesen Testaufgaben schon zu Fähigkeitsschätzern zusammengefasst wurden. Wir empfehlen Ihnen, wenn Sie an der Variable [mverst1t] interessiert sind, für Ihre Analysen die folgenden Schätzer der Personenfähigkeiten zu verwenden:

  • Plausible Values (PVs) der mathematischen Fähigkeiten zum ersten und zweiten Messzeitpunkt:
    pv1m1t1_cs, pv2m1t1_cs, pv3m1t1_cs, pv4m1t1_cs, pv5m1t1_cs, pv1mzws_cs, pv2mzws_cs, pv3mzws_cs, pv4mzws_cs, pv5mzws_cs, pv1m2t1_cs, pv2m2t1_cs, pv3m2t1_cs, pv4m2t1_cs, pv5m2t1_cs, pv1m2t2_cs, pv2m2t2_cs, pv3m2t2_cs, pv4m2t2_cs, pv5m2t2_cs, pv1m1t1_gt, pv2m1t1_gt, pv3m1t1_gt, pv4m1t1_gt, pv5m1t1_gt, pv1mzws_gt, pv2mzws_gt, pv3mzws_gt, pv4mzws_gt, pv5mzws_gt, pv1m2t1_gt, pv2m2t1_gt, pv3m2t1_gt, pv4m2t1_gt, pv5m2t1_gt, pv1m2t2_gt, pv2m2t2_gt, pv3m2t2_gt, pv4m2t2_gt, pv5m2t2_gt
  • Weighted Likelihood Estimates zu den mathematischen Fähigkeiten der Schüler*innen:
    wle_m1t1_cs, wle_zws_cs, wle_m2t1_cs, wle_m2t2_cs, wle_m1t1_gt, wle_zws_gt, wle_m2t1_gt, wle_m2t2_gt
  • Plausible Values (PVs) der naturwissenschaftlichen Fähigkeiten zum ersten und zweiten Messzeitpunkt:
    pv1n1t1, pv2n1t1, pv3n1t1, pv4n1t1, pv5n1t1, pv1nzws, pv2nzws, pv3nzws, pv4nzws, pv5nzws, pv1n2t1, pv2n2t1, pv3n2t1, pv4n2t1, pv5n2t1, pv1n2t2, pv2n2t2, pv3n2t2, pv4n2t2, pv5n2t2
  • Weighted Likelihood Estimates zu den naturwissenschaftlichen Fähigkeiten der Schüler*innen: wle_n1t1, wle_nzws, wle_n2t1, wle_n2t2

Nähere Informationen zur Analyse dieser Fähigkeitsschätzer finden Sie im Ergebnisbericht zu PISA-I-Plus 2003-4 sowie in den folgenden Manuskripten:


zurück zur Übersicht

Kontakt

Monika Lacher
Assistentin der FDZ-Leitung
(030) 2093-46552

fdz@
iqb.hu-berlin.de