Programme for International Student Assessment - International Plus 2003, 2004 (PISA-I-Plus 2003, 2004)

 

Inhaltsverzeichnis

Projektbeschreibung

Leerdatensätze

Dokumentation

Hinweise zur Nutzung der Daten

Literatur

 

> Scientific Use Files beantragen

Datensatz veröffentlicht am 01.12.2013
aktuelle Version verfügbar seit 01.12.2013
Erhebungszeitraum 2004
Stichprobe Schüler*innen der Jahrgangsstufen 9 und 10, die einen mittleren Schulabschluss anstreben (N=6.020); Lehrkräfte (N=1.939); Schulen (N=216)
Erhebungseinheit Schüler*innen
erfasste Kompetenzen Mathematik und Naturwissenschaften
Region deutschlandweit
Leitung Prenzel, Prof. Dr. Manfred
Datengebende Konferenz der Kultusminister (KMK)
Auftraggeber / Mittelgeber Kultusministerkonferenz (KMK), Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD)
Verwandte Studien PISA 2000 (DOI: 10.5159/IQB_PISA_2000_v1), PISA 2003 (DOI: 10.5159/IQB_PISA_2003_v1), PISA 2006 (DOI: 10.5159/IQB_PISA_2006_v1), PISA 2009 (DOI: 10.5159/IQB_PISA_2009_v1), PISA 2012 (DOI: 10.5159/IQB_PISA_2012_v5), PISA 2015 (DOI: 10.5159/IQB_PISA_2015_v3), PISA 2018 (DOI: 10.5159/IQB_PISA_2018_v1), PISA Plus 2012-13 (DOI: 10.5159/IQB_PISA_Plus_2012-13_v2)
Zitationsvorschlag Prenzel, M., Baumert, J., Blum, W., Lehmann, R., Leutner, D., Neubrand, M., Pekrun, R., Rost, J. & Schiefele, U. (2013). Programme for International Student Assessment - International Plus 2003, 2004 (PISA-I-Plus 2003, 2004) (Version 1) [Datensatz]. Berlin: IQB – Institut zur Qualitätsentwicklung im Bildungswesen. http://doi.org/10.5159/IQB_PISA_I_Plus_v1
Datenrestriktion / Zugangshinweise Kognitive Grundfähigkeiten dürfen nicht als abhängige Variable in den Analysen verwendet werden.

 

Projektbeschreibung

PISA-I-Plus ist eine nationale Erhebung in Erweiterung der internationalen PISA-2003-Studie. Dabei wurde das querschnittliche Untersuchungsdesign von PISA mit einem zweiten Messzeitpunkt nach einem Jahr um eine längsschnittliche Komponente erweitert. PISA-I-Plus knüpft direkt an die deutsche Stichprobe des internationalen Vergleichs (PISA-2003-I) an. Im Rahmen der PISA-I-Plus-Studie wurden alle Schüler*innen aus den ehemals 9. Klassen in einer zweiten Erhebung 2004 wiederholt getestet. Ziel war es, Veränderungen und Entwicklungen in den mathematischen und naturwissenschaftlichen Kompetenzen im Verlauf eines Schuljahres darzustellen. Außerdem sollte der Einfluss individueller Merkmale sowie Bedingungen des familiären Hintergrunds und der Schul- und Unterrichtsgestaltung auf die Kompetenzentwicklung der Schüler*innen beleuchtet werden. Im Gegensatz zu PISA-2003 wurden in PISA-I-Plus keine Hauptschulen gezogen, da diese in den meisten Ländern Deutschlands nur neun Jahrgangsstufen umfassen. PISA-I-Plus wurde von der Ständigen Konferenz der Kultusminister der Länder (KMK) in Auftrag gegeben und unter Federführung des nationalen PISA-Konsortiums durchgeführt und ausgewertet. (Projekt/IQB)

zurück zur Übersicht

Leerdatensatz

Um Ihnen einen ersten Überblick der Datensätze zu vermitteln, haben Sie hier die Möglichkeit, Leerdatensätze herunterzuladen.

zurück zur Übersicht

Dokumentation

Für PISA-I-Plus 2003-4 existiert keine separate Skalendokumentation. Im Schülerfragebogen kamen die gleichen Skalen wie in der PISA 2003-Studie zum Einsatz, so dass die dazugehörige Dokumentation herangezogen werden kann. Nähere Informationen finden Sie auf unserer Seite zur PISA 2003-Studie und hier auf der Seite des IPN-Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik.

Unter dem folgenden Link können Sie mit freundlicher Genehmigung des Waxmann-Verlages Auszüge aus dem genannten Buch einsehen:

Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann.

zurück zur Übersicht

Hinweise zur Nutzung der Daten

Sind die Kompetenzschätzer der PISA-, IGLU- und IQB-LV/BT-Studien miteinander vergleichbar?

Prinzipiell korrelieren die Tests aus PISA und den IQB-Ländervergleichen bzw. IQB-Bildungstrends hoch, aber die zugrunde liegenden Kompetenzmodelle unterscheiden sich. Die IQB-Tests sind an den Bildungsstandards der KMK und damit stärker am Curriculum orientiert als die PISA-Tests. Eine Testung der Vergleichbarkeit ist möglich mit IRT-Methoden auf Basis von Studien, in denen sowohl PISA als auch IQB-LV/IQB-BT Items verwendet wurden. Einige Studien zum Vergleich sind z. B.:

Das Ausmaß der Vergleichbarkeit muss für die Lese- und Mathematikkompetenzen sowie für die Sekundarstufe und Grundschule getrennt betrachtet werden. Auch wenn man davon ausgehen kann, dass sich Länderunterschiede mit beiden Maßen gut abbilden lassen, ist die Analyse von absoluten Trends auf einer gemeinsamen Metrik aber leider nicht möglich.

Die Datensätze der Studien PISA 2012 und IQB-Ländervergleich 2012 lassen sich über die ID-Variable [idstud_FDZ] miteinander verknüpfen. Dadurch können Sie Zusammenhänge zwischen den skalierten Testwerten beider Studien miteinander vergleichen.

Beachten Sie bitte zusätzlich:

1.) Anders als in den PISA-Erhebungen werden Lese- und Mathematikkompetenz in den IQB-Studien nur in der Grundschule gemeinsam getestet: Die Lesekompetenzen wurden im IQB-Ländervergleich 2009 (Sekundarstufe I) und im IQB-Ländervergleich 2011 (Grundschule) sowie im IQB-Bildungstrend 2015 (Sekundarstufe I) und im IQB-Bildungstrend 2016 (Grundschule) erfasst. Die Mathematikkompetenzen können Sie dem IQB-Ländervergleich 2012 (Sekundarstufe) und IQB-Ländervergleich 2011 (Grundschule) sowie dem IQB-Bildungstrend 2016 (Grundschule) und dem IQB-Bildungstrend 2018 (Sekundarstufe) entnehmen.

2.) Für die PISA-Erhebungen liegt uns keine Bundeslandvariable vor.

3.) Wenn Sie Analysen durchführen möchten, die unveröffentlichte, neuartige Vergleiche zwischen einzelnen Bundesländern beinhalten, gilt laut unserer Verfahrensordnung ein erweitertes Antragsverfahren mit Reviewprozess.

Gibt es in den IQB-Ländervergleichen/Bildungstrends sowie in PISA die Möglichkeit, eine (tagesgenaue) Erfassung des Alters der Schüler*innen vorzunehmen?

Angaben zum Geburtsjahr und Geburtsalter der Schüler*innen werden standardmäßig in den IQB-Ländervergleichen und PISA-Studien erhoben und stehen für Re- und Sekundäranalysen der Daten zur Verfügung. Tagesgenaue Angaben zum Geburtsdatum wurden aus datenschutzrechtlichen Gründen allerdings nicht erfasst und liegen in den Datensätzen nicht vor. Auch das genaue Testdatum ist in den meisten Datensätzen nicht enthalten (in PISA 2009 liegen diese Angaben vor). Häufig ist in den Datensätzen aber eine Altersvariable enthalten, die unter Verwendung des Geburtsjahrs und -monats in Relation zum Testdatum gebildet wurde (z. B. in den IQB-Ländervergleichen 2011, 2012 sowie in PISA 2012, 2009, 2006).

Welche nationalen PISA-Daten lassen sich mit den IQB-Ländervergleichen/Bildungstrends oder den internationalen PISA-Daten verknüpfen?

Die PISA-2012-Datensätze lassen sich mit den Daten des IQB-Ländervergleichs 2012 kombinieren. Die Schüler*innen-IDs wurden in den am FDZ am IQB verfügbaren Datensätzen schon so rekodiert, dass eine Verknüpfung beider Datenquellen möglich ist. Eine Verknüpfung der anderen PISA-Wellen mit den Daten der IQB-Ländervergleichen/IQB-Bildungstrends ist leider nicht möglich, da sich die ID-Variablen nicht einheitlich rekodieren lassen.

Auf welchen Ebenen wurden die Deutschland-PISA-Daten erfasst?

In den deutschen PISA-Studien liegen lediglich Informationen auf Bundeslandebene vor. Bitte beachten Sie, dass bei der Analyse von Bundesland-Daten besondere Nutzungsbedingungen eingehalten werden müssen. Diese können Sie hier nachlesen:

Wie hoch ist die Anzahl der gezogenen Klassen pro Schule in PISA-Erhebungen?

Informationen zur Stichprobenziehung in den Studien finden Sie in den Ergebnisberichten bzw. Skalenhandbüchern.
Hier eine kurze Zusammenfassung zur Stichprobenziehung in PISA:

PISA 2000:
zufällige Auswahl von 28 15-Jährigen sowie 10 nicht 15-Jährigen Neuntklässlern pro Schule; es wurden also nicht vollständige Klassen gezogen, Analysen können nur auf Schulebene durchgeführt werden

PISA 2003:
zufällige Auswahl von 15-Jährigen pro Schule; zusätzlich wurden für die nationale Erweiterung zwei komplette 9. Klassen pro Schule gezogen; in den PISA-E-Daten wurde allerdings keine klassenbasierte Stichprobenziehung realisiert.

PISA 2006:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15-Jährigen pro Schule, an den Schulen der internationalen Stichprobe (PISA_I) wurden zusätzlich Schüler*innen aus zwei kompletten 9. Klassen getestet

PISA 2009:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet

PISA 2012:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet

PISA 2015:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule

PISA 2018:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule

Wie viele Schüler*innen an Förder- und Berufsschulen sind in den PISA-Daten enthalten?

Die Förder- und Berufsschüler*innen wurden in den genannten PISA-Erhebungen getrennt erfasst. Nachfolgend finden Sie die Stichprobenumfänge für diese Teilgruppen. Sie basieren auf den Angaben in den deutschen PISA-Erweiterungsstichproben (PISA-E) in den Schüler*innen- und Schulleitungsdatensätzen. Gegebenenfalls kann es zu leichten Abweichungen zu den berichteten Stichproben in den Ergebnisberichten kommen.

PISA 2000 E:
- 9. Klasse: n= 11 Schüler*innen an Berufsschulen, n= 22 Schüler*innen an Förderschulen von insgesamt n = 34.754 Schüler*innen
- 15-Jährige: n= 241 Schüler*innen an Berufsschulen, n= 799 Schüler*innen an Förderschulen von insgesamt n= 35.584 Schüler*innen
- Schuldatensatz: n= 18 Berufsschulen,  n= 4 Förderschulen von insgesamt n= 1.342 Schulen

PISA 2003 E (hier keine Differenzierung zwischen Datensätzen für 9. Klasse & 15-Jährige möglich)
- 9. Klasse: n= 654 Schüler*innen an Berufsschulen, n= 1.712 Schüler*innen an Förderschulen von insgesamt n= 46.185 Schüler*innen
- Schuldatensatz: n= 43 Berufsschulen, keine Förderschulen von insgesamt n= 1.411 Schulen

PISA 2006 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz
- 15-Jährige: n= 625 Schüler*innen an Berufsschulen, n= 2.560 Schüler*innen an Förderschulen von insgesamt n= 39.573 Schüler*innen
- Schuldatensatz: n= 42 Berufsschulen, keine Förderschulen von insgesamt n= 1.496 Schulen

PISA 2009 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz von insgesamt n= 9.461
- Schuldatensatz: n= 9 Berufsschulen, n= 13 Förderschulen von insgesamt n= 226 Schulen

PISA 2012 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 153 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 9.998 Schüler*innen
- 15-Jährige: n= 99 Schüler*innen an Berufsschulen, n= 139 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.001 Schüler*innen
- Schuldatensatz: n= 7 Berufsschulen, n= 12 Förderschulen von insgesamt n= 230 Schulen

PISA 2015 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 165 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 4.149 Schüler*innen
- 15-Jährige: n= 160 Schüler*innen an Berufsschulen, n= 134 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 6.504 Schüler*innen
- Schuldatensatz: n= 8 Berufsschulen, n= 12 Förderschulen von insgesamt n= 205 Schulen

PISA 2018 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 115 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 3.567 Schüler*innen
- 15-Jährige: n= 184 Schüler*innen an Berufsschulen, n= 98 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.451 Schüler*innen
- Schuldatensatz: n= 10 Berufsschulen, n= 7 Förderschulen von insgesamt n= 191 Schulen

Lassen sich Lehrkräfte- und Schüler*innendaten in PISA verknüpfen?

Leider ist eine Verknüpfung nur für die Teildatensätze der 9. Klässler*innen möglich (die Datensätze der 15-Jährigen umfassen schulübergreifende Stichproben). In den meisten PISA-Wellen wurden zwei 9. Klassen gezogen, aber in den Teildatensätzen fehlt häufig eine eindeutige Klassen-ID.

Hier eine Übersicht in Stichpunkten zu den einzelnen PISA-Wellen:

PISA 2000:
hier wurde kein Lehrkräfte-Fragebogen eingesetzt

PISA 2003:
Teildatensatz "PISA-I-9.Klasse": Lehrkräfte-Fragebögen beinhalten Fragen auf Schulebene, nicht auf Klassenebene; eine Verknüpfung über die Variable [idclass_FDZ] ist möglich, aber im Lehrkräftedatensatz gibt es auf dieser Variable einen hohen Anteil fehlender Werte (vermutlich, da viele Lehrkräfte pro Schule befragt wurden); Teildatensatz "PISA-E": keine Lehrkräftefragebogen vorhanden

PISA Plus 2003-2004:
eine Verknüpfung ist prinzipiell möglich, aber Lehrkräftedaten müssten aus PISA-2003-Daten herangespielt werden und liegen nur zum ersten Messzeitpunkt vor

PISA 2006:
Teildatensatz "PISA-E": kein Lehrkräftedatensatz für 9.Klassen vorhanden, Verknüpfung nur auf Schulebene möglich; Teildatensatz "PISA-I": keine eindeutige Verknüpfung möglich, da im Lehrkräftedatensatz keine Klassen-ID enthalten ist

PISA 2009:
ebenfalls keine Klassen-ID im Lehrkräftedatensatz, aber Verknüpfung über idsch und Variable [LF39M01] (Deutsch in PISA Klasse unterrichtet: ja vs. nein) teilweise möglich; es wurden allerdings pro Schule zwei 9. Klassen gezogen

PISA 2012:
Verknüpfung ist prinzipiell über Variablen zur Klassenbezeichnung möglich (Lehrkräfte-Datensatz: klasse_FDZ; Schüler*innendatensatz: ClassName_FDZ) aber praktisch schwierig zu bewerkstelligen, da Metrik der Schul-ID zwischen beiden Teildatensätzen nicht korrespondiert und auf Variablen zur Klassenbezeichnung hoher Anteil fehlender Werte vorliegt (Erfahrungsberichte der PISA-Mitarbeiter*innen interpretiere ich so, dass Verknüpfung in Mehrheit der Fällen nicht gelingt)

PISA 2015:
Verknüpfung ist nicht direkt möglich, da alle Lehrkräfte der gezogenen Schulen befragt wurden

PISA 2018:
Eine Zuordnung zwischen Lehrkräften und Schüler*innen über die Variable "TEACHCLASS_ID" ist bis Ende 2022 aufgrund eines Sperrvermerks nicht möglich. Diese Variable beinhaltet aber auch nur die Information, ob die Lehrkraft eine neunte Klasse unterrichtet hat oder nicht. Das liegt daran, dass nahezu alle Lehrkräfte in der gezogenen Schule befragt wurden. Alternativ kann die Variable "TEACHERID" verwenden werden, aber auch diese Variable ermöglicht keine eindeutige Zuordnung zwischen Schüler*innen und dazugehöriger Lehrkraft. 

Für welche PISA-Daten liegt ein Messwiederholungsdatensatz vor?

Ein Messwiederholungsdatensatz liegt für PISA-2003 (PISA-Plus 2003, 2004) und PISA-2012 (PISA-Plus 2012, 2013)

Wie wurden die Tests zur naturwissenschaftlichen Kompetenz in PISA entwickelt?

Im Gegensatz zu den IQB-Ländervergleichen sind die naturwissenschaftlichen Tests in PISA nicht curricular verankert bzw. fachspezifisch konzipiert. Deshalb gibt es in PISA keine Subtests für Biologie, Physik und Chemie. Vielmehr wird in PISA eine naturwissenschaftliche Grundbildung (Scientific Literacy, siehe z. B. OECD, 2006) getestet. Dabei handelt es sich um Fähigkeiten, die in Situationen bedeutsam sind, in denen man mit Naturwissenschaften und Technik konfrontiert ist. Diese Situationen beziehen sich auf physikalische Systeme, lebende Systeme, Erd- und Weltraumsysteme und technologische Systeme. Konkret werden die folgenden Kompetenzen getestet:


a) naturwissenschaftliche Fragestellungen erkennen
b) naturwissenschaftliche Phänomene beschreiben, erklären und vorherzusagen
c) naturwissenschaftliche Evidenz nutzen, um Entscheidungen zu treffen

Nähere Informationen zur Konzeption und zum Test (inklusive Beispielaufgaben) finden Sie hier:

Wann fanden die Testungen zum ersten Messzeitpunkt von PISA 2003-4 statt?

Die Testungen zum ersten Messzeitpunkt der PISA I-Plus 2003-4-Studie fanden im Zeitraum vom 20.04. bis 31.05.2003 statt (PDF Referenz). Leider liegen keine Informationen darüber vor, an welchem Tag welche Schule getestet wurde.

Liegen im PISA-I-Plus 2003-4-Datensatz Standardfehler für die Kompetenzschätzer vor?

Für die PISA-I-Plus 2003-4-Studie gibt es im Ergebnisbericht (Prenzel & das deutsche PISA-Konsortium, 2006; Kapitel 4, S. 112) folgende Standardfehlerangaben:

  • Mathematik: t1: SE = 2.2, t2: SE = 2.1, Zuwachs t1-t2: SE = 1.1
  • Nawi: t1: SE = 2.3, t2: SE = 2.5, Zuwachs t1-t2: SE = 1.7
  • Individuelle Standardfehler für die WLE-Schätzer sind leider nicht im Datensatz enthalten.

Gibt es Variablen, die die unterrichteten Fächer beinhalten?

Lehrkräftevariablen sind im PISA-I-Plus 2003-4-Datensatz leider nicht enthalten. Die entsprechenden Angaben können aber für Messzeittpunkt (MZP) 1 aus dem Lehrkräfte-Datensatz der PISA 2003-Studie (Datensatzname: PISA2003-I_Datensatz_Lehrkraft_9Kl) entnommen und über die Variable [idclass_FDZ] an den PISA-I-Plus 2003-4-Datensatz herangespielt werden. Im Lehrkräfte-Datensatz der PISA 2003-Studie liegen allerdings nur Angaben dazu vor,  ob irgendein unterrichtetes Fach Mathematik ([fama_all]), Deutsch ([fadeu_al]), Physik ([faphy_al]), Biologie ([fabio_al]) oder Chemie ([fache_al) ist (1 = ja) unterrichtet wurde.

Wieso bleiben weniger Schüler*innen, aber mehr Schulen und eine weitere Klasse im Datensatz enthalten, wenn ich nur diejenigen Schüler*innen berücksichtige, die der Kernstichprobe angehören (kernstpr=1)?

Die Filtervariable [kla_l] zur Replikation der Stichprobenumfänge auf S. 49 wäre geeignet. Allerdings kommt man dann auf einen Gesamtstichprobenumfang (Schüler*innen) von n = 4550. Diskrepanzen könnte man auch dadurch erklären, dass eventuell für den Bericht noch Schüler*innen ausgeschlossen wurden (z. B. auf Basis der Variablen [klasse], [partbook] oder [test1_2]). Das kann man auf Basis der Daten, die dem FDZ am IQB vefügbar sind, leider nicht nachvollziehen. Das FDZ am IQB hat nicht den Datensatz erhalten, der Grundlage für Kapitel 2 war. Es lassen sich z. B. auch nicht die berichteten Kompetenzstände anhand der am FDZ am IQB verfügbaren Datensätze replizieren. Die gesamte Stichprobengröße auf S. 49 ist aber replizierbar.

Zu welchem Zeitpunkt fand die Erhebung in Klasse 10 statt?

Die Erhebung zum zweiten Messzeitpunkt (MZP2) fand im Frühjahr 2004 statt, ein genaues Datum der Testung wird im Ergebnisbericht (Prenzel et al., 2006) leider nicht genannt.

Wofür stehen Variablen mit der Endung [ _s] und [ _w] und wie sind sie skaliert?

Die Endung „_s“ kann im Datensatz für „Schülerangabe“ und für „Standardfehler“ stehen. Bei den Skalenwerten bezeichnet die Endung „_w“ den WLE-Personenfähigkeitsschätzer und die Endung „_s“ den Standardfehler zu diesem Fähigkeitsschätzer. WLE-Schätzer können so ähnlich wie z-standardisierte Werte interpretiert werden (mit der Ausnahme, dass die Standardabweichung nicht auf 1 festgesetzt wird): Der Wert 0 entspricht einer durchschnittlichen Ausprägung (der Mittelwert der Stichprobe wird meistens auf 0 fixiert), niedrigere Werte (< 0) indizieren geringere Ausprägungen im Merkmal und höhere Werte (> 0) indizieren höhere Ausprägungen im Merkmal. Nähere Informationen zu WLE-Schätzern finden sich im Beitrag von Warm (1989).

Erkenne ich Variablen des 2. Messzeitpunktes im Schüler*innendatensatz anhand der Endung [ _2]?

Ja, im Datensatz indiziert die Endung „_1“ im Variablennamen sowie der Zusatz „(t1)“ im Variablenlabel den ersten Messzeitpunkt und die Endung „_2“ im Variablennamen sowie der Zusatz „(t2)“ im Variablenlabel den zweiten Messzeitpunkt. Im PISA-I-Plus 2003-4-Datensatz liegen keine Lehrkräfteangaben zum MZP2 vor.

Beinhalten die Variablen [selblehr] und [selbklas] Angaben darüber, ob die Klasse und/oder Mathematiklehrkraft gewechselt wurden? Und wie ist die Skalierung (0/1)?

Die Variable [selblehr] gibt an, ob Schüler*innen zu beiden Messzeitpunkten von derselben Lehrkraft unterrichtet wurden (0 = nein; 1 = ja). Die Variable [selbklas] gibt an, ob Schüler*innen zu beiden Messzeitpunkten demselben Klassenverbund angehörten (0 = nein; 1 = ja).

Wofür steht die Variable [schform2]?

Die Variabe [schform2] steht für die besuchte Schulform zum 2. Messzeitpunkt.

Enthält die Variable [tr_ma_04_r] die Mathematiknote in Klasse 10? Und bezieht sich diese auf die letzte Zeugnisnote und somit die Halbjahresnote?

Ja, es handelt sich um Schulnoten aus dem ersten Halbjahr 2004 für alle Schüler*innen, die 2004 untersucht wurden (insofern vollständige Angaben durch die Schulkoordination vorlagen). Diese Informationen sind auch im Variablenlabel dokumentiert [„Mathematiknote_rekodiert (zu T2, 1. Schulhalbjahr 2004)“].

Worüf stehen die Endungen [ _cs] und [ _gt]?

Die Endungen [ _cs] und [ _gt] stehen für die curriculare bzw. Grundbildungskompetenz.

Wofür stehen [t1] und [t2] in den Variablennamen zur Mathematikkompetenz?

[t1] und [t2]  stehen für den  1. bzw. 2. Messzeitpunkt.

Wenn [wle]-Variablen die Personenmesswerte enthalten, wie kommt es dann zu fehlenden oder negativen Werten (z. B: im Falle von [wle_m1t1_cs])?

Fehlende Werte auf den Variablen zu den Personenfähigkeitsschätzern kommen dadurch zustande, dass diese Schüler*innen nicht an der Kompetenztestung teilnahmen oder zu wenige Items bearbeitet haben. Negative Werte können theoretisch vorkommen und indizieren sehr geringe Fähigkeiten; dabei könnte es sich aber auch um Schätzprobleme der Fähigkeiten für diese Schüler*innen handeln (auf der Variable [wle_m1t1_cs] haben nur vier Schüler*innen negative Werte).

In Bezug auf die soziale Herkunft sind im Datensatz Variablen zum ISEI und den EGP-Klassen enthalten. Gibt es einen Unterschied zwischen den Variablen [isei_m] und [m_isei] (Herkunft der Mutter) sowie [isei_v] und [isei_f] (Herkunft Vater)?

Die Variable [isei_m] gibt den ISEI der Mutter an, in der Variable [m_isei] wurden fehlende Angaben des ISEIs der Mutter mit ISEI-Werten des Vaters aufgefüllt.
Die Variable [isei_v] beinhaltet den ISEI des Vaters, die Variable [isei_f] beinhaltet den höchsten ISEI in der Familie. Diese Informationen sind auch in den Variablenlabels hinterlegt.

Worin unterscheiden sich die Variablen [egp_6], [m_egp_6], [egp_f6], [egp_v6] und [egp_m6]?

Hier wurden die gleichen Benennungsregeln angewendet wie bei den ISEI-Variablen.

  • egp_6: EGP-Klasse des Vaters, fehlende Werte aufgefüllt mit Angaben der Mutter, 6-stufig (t1)
  • m_egp_6: EGP-Klasse der Mutter, fehlende Werte aufgefüllt mit Angaben des Vaters, 6-stufig (t1)
  • egp_f6: Höchste EGP-Klasse in der Familie, 6-stufig (t1)
  • egp_v6: EGP-Klasse Vater, 6-stufig (t1)
  • egp_m6: EGP-Klasse Mutter, 6-stufig (t1)
  • egp_m: EGP-Klasse Mutter - korrigierte Angaben (t1)
  • egp_v: EGP-Klasse Vater - korrigierte Angaben (t1)

Was geben die Variablen [sefic_t2] und [intma_t2] an?

Diese Variablen geben die Ausprägung zum Messzeitpunkt (MZP) 2 in Form von WLEs (vergleichbare Interpretation wie bei z-Werten) an. Negative Werte stehen für geringere Ausprägungen, positive Werte für höhere Ausprägungen. Um den Zuwachs/die Verringerung zu bestimmen, benötigt man die Angaben zum MZP1 ([sefic_w] &  [intma_w]).

Gibt es eine Variable für das mathematische Selbstkonzept zum 2. Messzeitpunkt?

Ja, die Variable mit dem WLE-Schätzer heißt [msk_t2], die Items zur Skala heißen msk1_2 - msk2_2.

Gibt es eine Variable für die Globalskala „Interesse an Mathematik“?

Ja, die Variablen heißen [intma_w] (MZP1) und [intma_t2] (MZP2).

Welche Testaufgaben wurden zum 2. Messzeitpunkt in PISA-I-Plus 2003-4 verwendet?

Die Tests, die für den zweiten Messzeitpunkt 2004 beinhalten neue Items in dem generellen Test (n = 23 neue Items) sowie auch in dem Curicullum spezifischen Test (n = 23 neue Items).

Für mehr Information siehe Kapitel 2 (S. 52) und 12 (S. 311ff.) in PDF Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann.

Wie hoch waren die  Reliabilitäten der Kompetenztests in PISA-I-Plus 2003-4?

Die Reliabilitäten (WLE) für die Leistungstests 2004 (S. 314 in PDF Prenzel, M. und Deutsches PISA-Konsortium (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann) sind:

- Naturwissenschaften:
    - 2003: .77 (63 items)
    - 2004: .61 (28 items)


- Mathematik (general test):
    - 2003: .77 (77 items)
    - 2004: .85 (98 items)


- Mathematik (curriculum sensitive test):
    - 2003: .64 (46 items)
    - 2004: .79 (68 items)

Diskrepanzen zwischen diesen Parametern und den im PISA 2003-Skalenhandbuch angegebenen Parametern könnten mit (a) Unterschieden in der Schüler*innenstichprobe (internationale Stichprobe vs. nationale Erweiterung der 9. Klassen), (b) Unterschieden in der Itemgruppe (internationale Items vs. nationale Items) oder (c) Unterschieden in der Schätzmethode zusammenhängen. Die oben angegebenen Zuverlässigkeitsschätzungen basieren auf: Andrich, D. (1982). An index of person separation in latent trait theory, the traditional KR. 20 index, and the Guttman scale response pattern. Education Research and Perspectives, 9(1), 95-104.

Wo erhalte ich mehr Informationen zur Erfassung der Variable des angestrebten Abschlusses in PISA-I-Plus 2003-4?

Die Dokumentation der Erhebungsinstrumente zur Studie sind in folgender Publikation veröffentlicht (aus urheberrechtlichen Gründen können wir Ihnen dieses Dokument leider nicht elektronisch zur Verfügung stellen):

Ramm, G. C., Adamsen, C., Neubrand, M., & Deutsches PISA-Konsortium. (2006). PISA 2003 : Dokumentation der Erhebungsinstrumente. Münster u. a.: Waxmann.

Darüber hinaus können Sie die Fragebögen zur Studie auf den Seiten der PDF OECD und des Forschungsdatenzentrums Bildung am DIPF recherchieren.

Liegt ein Skalenhandbuch zur PISA-I-Plus 2003-4-Studie vor?

Leider existiert zu dieser Studie kein eigenständiges Skalenhandbuch. Die internationalen Dokumentationen und Berichte zu den Erhebungsinstrumenten können eventuell hilfreich sein:

Steht ein [d] in Variablennamen (z. B. st15q01d) für den nationalen Fragebogen?

Im Skalenhandbuch zur PISA 2003-Studie (Ramm et al., 2006, S. 130) werden die Regeln zur Variablenbezeichnung ausführlicher beschrieben. Das „d“ am Ende der Variablennamen indiziert demnach nationale Zusatzfragen im internationalen Instrument. Das Skalenhandbuch eignet sich in vielen Punkten auch für die Arbeit mit den PISA-I-Plus 2003-4-Daten.

Wie hoch sind die Reliabilitäten der Kompetenzschätzer in der PISA-I-Plus 2003-4-Studie?

Die WLE-Reliabilitäten der Kompetenzschätzer in der PISA-I-Plus 2003-4-Studie werden im Ergebnisbericht "PISA 2003 - Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres" (Prenzel & das deutsche PISA-Konsortium, 2006) in Kapitel 12 (S. 314) präsentiert:

  • Mathematik
    a) Gesamttest: t1 (2003): Rel. = .77; t2 (2004): Rel. = .85
    b) curricular orientierter Test: t1 (2003): Rel. = .64; t2 (2004): Rel. = .79
  • Nawi: t1 (2003): t1 (2003): Rel. = .77; t2 (2004): Rel. = .61

Warum sind Variablen zu den Testitems nicht im Datensatz zur PISA-I-Plus 2003-4-Studie enthalten?

Variablen zu den einzelnen Testaufgaben wurden uns nicht zur Verfügung gestellt, da die Antworten der Schüler*innen zu diesen Testaufgaben schon zu Fähigkeitsschätzern zusammengefasst wurden. Wir empfehlen Ihnen, wenn Sie an der Variable [mverst1t] interessiert sind, für Ihre Analysen die folgenden Schätzer der Personenfähigkeiten zu verwenden:

  • Plausible Values (PVs) der mathematischen Fähigkeiten zum ersten und zweiten Messzeitpunkt:
    pv1m1t1_cs, pv2m1t1_cs, pv3m1t1_cs, pv4m1t1_cs, pv5m1t1_cs, pv1mzws_cs, pv2mzws_cs, pv3mzws_cs, pv4mzws_cs, pv5mzws_cs, pv1m2t1_cs, pv2m2t1_cs, pv3m2t1_cs, pv4m2t1_cs, pv5m2t1_cs, pv1m2t2_cs, pv2m2t2_cs, pv3m2t2_cs, pv4m2t2_cs, pv5m2t2_cs, pv1m1t1_gt, pv2m1t1_gt, pv3m1t1_gt, pv4m1t1_gt, pv5m1t1_gt, pv1mzws_gt, pv2mzws_gt, pv3mzws_gt, pv4mzws_gt, pv5mzws_gt, pv1m2t1_gt, pv2m2t1_gt, pv3m2t1_gt, pv4m2t1_gt, pv5m2t1_gt, pv1m2t2_gt, pv2m2t2_gt, pv3m2t2_gt, pv4m2t2_gt, pv5m2t2_gt
  • Weighted Likelihood Estimates zu den mathematischen Fähigkeiten der Schüler*innen:
    wle_m1t1_cs, wle_zws_cs, wle_m2t1_cs, wle_m2t2_cs, wle_m1t1_gt, wle_zws_gt, wle_m2t1_gt, wle_m2t2_gt
  • Plausible Values (PVs) der naturwissenschaftlichen Fähigkeiten zum ersten und zweiten Messzeitpunkt:
    pv1n1t1, pv2n1t1, pv3n1t1, pv4n1t1, pv5n1t1, pv1nzws, pv2nzws, pv3nzws, pv4nzws, pv5nzws, pv1n2t1, pv2n2t1, pv3n2t1, pv4n2t1, pv5n2t1, pv1n2t2, pv2n2t2, pv3n2t2, pv4n2t2, pv5n2t2
  • Weighted Likelihood Estimates zu den naturwissenschaftlichen Fähigkeiten der Schüler*innen: wle_n1t1, wle_nzws, wle_n2t1, wle_n2t2

Nähere Informationen zur Analyse dieser Fähigkeitsschätzer finden Sie im Ergebnisbericht zu PISA-I-Plus 2003-4 sowie in den folgenden Manuskripten:

zurück zur Übersicht

Literatur

PISA-03 Bücherbild

Eine Auswahl an Publikationen finden Sie in dieser PDF Literaturliste (Stand: 27.07.2021)

2021

Stallasch, S. E., Lüdtke, O., Artelt, C. & Brunner, M. (2021). Multilevel Design Parameters to Plan Cluster-Randomized Intervention Studies on Student Achievement in Elementary and Secondary School. Journal of Research on Educational Effectiveness, 22(10), 1–35. https://doi.org/10.1080/19345747.2020.1823539

2020

Stallasch, S. E., Lüdtke, O., Artelt, C. & Brunner, M. (2020). Multilevel Design Parameters to Plan Cluster-Randomized Intervention Studies on Student Achievement in Elementary and Secondary School. https://doi.org/10.35542/osf.io/f3p7q

2019

Atlay, C. (2019). Teaching quality and educational inequalities: An interdisciplinary inquiry of the relationship between student background and teaching quality - Dissertation. Eberhard-Karls-Universität Tübingen, Tübingen. https://doi.org/10.15496/publikation-30780

Atlay, C., Tieben, N., Hillmert, S. & Fauth, B. (2019). Instructional quality and achievement inequality: How effective is teaching in closing the social achievement gap? Learning and Instruction, 63, 101211. https://doi.org/10.1016/j.learninstruc.2019.05.008

Lazarides, R. & Buchholz, J. (2019). Student-perceived teaching quality: How is it related to different achievement emotions in mathematics classrooms? Learning and Instruction, 61, 45–59. https://doi.org/10.1016/j.learninstruc.2019.01.001

Lazarides, R., Dietrich, J. & Taskinen, P. H. (2019). Stability and change in students' motivational profiles in mathematics classrooms: The role of perceived teaching. Teaching and Teacher Education, 79, 164–175. https://doi.org/10.1016/j.tate.2018.12.016

2018

Göllner, R., Wagner, W., Eccles, J. S. & Trautwein, U. (2018). Students’ idiosyncratic perceptions of teaching quality in mathematics: A result of rater tendency alone or an expression of dyadic effects between students and teachers? Journal of Educational Psychology, 110(5), 709–725. https://doi.org/10.1037/edu0000236

2016

Autorengruppe Bildungsberichterstattung. (2016). Bildung in Deutschland 2016. Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration. Bielefeld: Bertelsmann. https://doi.org/10.3278/6001820ew

Kriegbaum, K. & Spinath, B. (2016). Explaining Social Disparities in Mathematical Achievement: The Role of Motivation. European Journal of Personality, 30(1), 45–63. https://doi.org/10.1002/per.2042

Lorenz, C.-V. (2016). A tree must be bent while it is young? The effect of age at school entrance on school performance in Germany - Unveröffentlichte Bachelorarbeit. Universität Mannheim, Mannheim.

2015

Kriegbaum, K., Jansen, M. & Spinath, B. (2015). Motivation: A predictor of PISA's mathematical competence beyond intelligence and prior test achievement. Learning and Individual Differences, 43, 140–148. https://doi.org/10.1016/j.lindif.2015.08.026

2014

Kriegbaum, K. (2014). Zur Wichtigkeit der Motivation als Prädiktor für die mathematische Kompetenz bei PISA 2003 und 2004 - Unveröffentlichte Masterarbeit. Ruprecht-Karls-Universität Heidelberg, Heidelberg.

2013

Prenzel, M., Baumert, J., Blum, W., Lehmann, R., Leutner, D., Neubrand, M. et al. (2013). Programme for International Student Assessment - International Plus 2003, 2004 (PISA-I-Plus 2003, 2004) (Version 1) [Datensatz]. Berlin: IQB - Institut zur Qualitätsentwicklung im Bildungswesen. https://doi.org/10.5159/IQB_PISA_I_Plus_v1

2006

Prenzel, M. & Deutsches PISA-Konsortium (Hrsg.). (2006). PISA 2003: Untersuchungen zur Kompetenzentwicklung im Verlauf eines Schuljahres. Münster u. a.: Waxmann.

zurück zur Übersicht