Programme for International Student Assessment 2000 (PISA 2000)

 

Inhaltsverzeichnis

Projektbeschreibung

Leerdatensätze

Dokumentation

Weiterführende Informationen

Hinweise zur Nutzung der Daten

Literatur

 

> Scientific Use Files beantragen

Datensatz veröffentlicht am 01.01.2009
aktuelle Version verfügbar seit 01.01.2009
Erhebungszeitraum 2000
Stichprobe Schüler*innen (15-jährig sowie der Jahrgangsstufe 9) (N= ca. 36.000) an allgemeinbildenden Schulen (N=1.480)
Erhebungseinheit Eltern
Schüler*innen
Schulleitung
erfasste Kompetenzen Deutsch - Leseverständnis, Mathematik, Naturwissenschaften
Region deutschlandweit, Baden-Württemberg, Bayern, Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Saarland, Sachsen, Sachsen-Anhalt, Schleswig-Holstein, Thüringen
Leitung Baumert, Prof. Dr. Jürgen
Datengebende Baumert, Prof. Dr. Jürgen
Konferenz der Kultusminister (KMK)
Auftraggeber / Mittelgeber Kultusministerkonferenz (KMK), Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD)
Verwandte Studien PISA 2003 (DOI: 10.5159/IQB_PISA_2003_v1), PISA 2006 (DOI: 10.5159/IQB_PISA_2006_v1), PISA 2009 (DOI: 10.5159/IQB_PISA_2009_v1), PISA 2012 (DOI: 10.5159/IQB_PISA_2012_v5), PISA 2015 (DOI: 10.5159/IQB_PISA_2015_v3), PISA 2018 (DOI: 10.5159/IQB_PISA_2018_v1), PISA-I-Plus 2003-4 (DOI: 10.5159/IQB_PISA_I_Plus_v1), PISA Plus 2012-13 (DOI: 10.5159/IQB_PISA_Plus_2012-13_v2)
Zitationsvorschlag Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Tillmann, K.-J. & Weiß, M. (2009). Programme for International Student Assessment 2000 (PISA 2000) (Version 1) [Datensatz]. Berlin: IQB – Institut zur Qualitätsentwicklung im Bildungswesen. http://doi.org/10.5159/IQB_PISA_2000_v1
Datenrestriktion / Zugangshinweise Kognitive Grundfähigkeiten dürfen nicht als abhängige Variable in den Analysen verwendet werden.

Nutzende des Datensatzes müssen stets folgede Publikationen zitieren:

Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Schümer, G., Stanat, P., Tillmann, K.-J. & Weiß, M. (Hrsg.). (2002). Pisa 2000 - Die Länder der Bundesrepublik Deutschland im Vergleich. Opladen: Leske + Budrich.

Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Tillmann, K.-J. & Weiß, M. (Hrsg.). (2003). Pisa 2000 - Ein differenzierter Blick auf die Länder der Bundesrepublik Deutschland. Opladen: Leske + Budrich.

Baumert, J., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Stanat, P., Tillmann, K.-J. , & Weiß, M. (2001). PISA 2000: Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske + Budrich.

Folgender Standardtext muss in jeder Veröffentlichung, die den deutschen PISA-2000 Datensatz (I oder E) verwendet, erscheinen: "PISA-2000 wurde in Deutschland als nationales Forschungsprogramm konzipiert vom Deutschen PISA-Konsortium (Jürgen Baumert, Eckhard Klieme, Michael Neubrand, Manfred Prenzel, Ulrich Schiefele, Wolfgang Schneider, Klaus-Jürgen Tillmann, Manfred Weiß). Die Federführung lag bei Professor Dr. Jürgen Baumert, Max-Planck-Institut für Bildungsforschung, Berlin. Ergebnisse der Primärforschung sind u. a. publiziert in Baumert et al. (2001, 2002, 2003). Die Erhebungsinstrumente sind dokumentiert in Kunter et al. (2002). Wir danken dem deutschen PISA-Konsortium und dem Forschungsdatenzentrum (FDZ) in Berlin für die Genehmigung und Unterstützung der Sekundäranalyse."

Digitale Dokumentation der Erhebungsinstrumente hier.

 

Projektbeschreibung

Seit dem Jahr 2000 werden bei PISA in dreijährigem Abstand in drei Wellen die Leistungen von 15-jährigen Schüler*innen in den Bereichen Lesen, Mathematik und Naturwissenschaften erhoben. Einbezogen wurden außerdem fachübergreifende Kompetenzen wie zum Beispiel Voraussetzungen selbstregulierten Lernens sowie Aspekte der Kooperations- und Kommunikationsfähigkeit. Den Bezugsrahmen bildet ein international abgestimmtes Konzept der Grundbildung (""Literacy""). Im Mittelpunkt von PISA steht nicht die Überprüfung von Faktenwissen der Schüler*innen, sondern die Erfassung von Basiskompetenzen, die für eine Teilhabe am gesellschaftlichen, wirtschaftlichen und politischen Leben notwendig sind. Es wird geprüft, inwieweit Jugendliche diese Kompetenzen erworben haben und inwieweit soziale Ungleichheiten den Bildungserfolg beeinflussen. Der inhaltliche Schwerpunkt der PISA-Studie 2000 lag auf der Erfassung der Lesekompetenz, daneben wurden aber auch Leistungen in den Bereichen Mathematik und Naturwissenschaften getestet. Die PISA-Studie für den internationalen Vergleich Deutschlands mit anderen Teilnehmerstaaten (PISA-International; PISA-I) wurde im Jahr 2000 um repräsentative Erhebungen auf Länderebene ergänzt (PISA-Ergänzung; PISA-E). PISA 2000 wurde in Deutschland unter der Leitung von Prof. Dr. Jürgen Baumert, Direktor am Max-Planck-Institut für Bildungsforschung Berlin, durchgeführt. (Projekt/IQB)

 zurück zur Übersicht

PISA2000 Bücher

Leerdatensätze

Um Ihnen einen ersten Überblick der Datensätze zu vermitteln, haben Sie hier die Möglichkeit, Leerdatensätze herunterzuladen.

zurück zur Übersicht

Dokumentation

Hier finden Sie weiterführendes Material zur Studie:

zurück zur Übersicht

Zu beachten

Bitte beachten Sie folgende Bedingungen für die Nutzung der PISA-2000-Daten:

1.    Folgender Standardtext muss in jeder Veröffentlichung, die den deutschen PISA-2000 Datensatz (PISA-I oder PISA-E) verwendet, erscheinen: "PISA-2000 wurde in Deutschland als nationales Forschungsprogramm konzipiert vom Deutschen PISA-Konsortium (Jürgen Baumert, Eckhard Klieme, Michael Neubrand, Manfred Prenzel, Ulrich Schiefele, Wolfgang Schneider, Klaus-Jürgen Tillmann, Manfred Weiß).  Die Federführung lag bei Professor Dr. Jürgen Baumert, Max-Planck-Institut für Bildungsforschung, Berlin. Ergebnisse der Primärforschung sind u.a. publiziert in Baumert et al., (2001, 2002, 2003). Die Erhebungsinstrumente sind dokumentiert in Kunter et al., (2002). Wir danken dem deutschen PISA-Konsortium und dem Forschungsdatenzentrum (FDZ) in Berlin für die Genehmigung und Unterstützung der Sekundäranalyse." Die in dieser Fußnote genannten Literaturangaben müssen im Literaturverzeichnis in üblicher Form aufgeführt werden.

2.    In Übereinstimmung mit der Zustimmung der Eltern zur Durchführung der Untersuchung PISA-2000 dürfen die in den Datensätzen enthaltenen Informationen zu kognitiven Grundfähigkeiten (KFT) von Schülerinnen und Schülern ausschließlich als Kovariate, nicht als Zielvariablen verwendet werden. Eine deskriptive Darstellung von Verteilungen, insbesondere die Veröffentlichung von Gruppenvergleichen sowie die Benutzung des KFT-Gesamttests oder von Testteilen als abhängige Variablen sind strikt untersagt. Bei Verletzung dieser Vereinbarung muss die betroffene Veröffentlichung mit Hinweis auf Verletzung des Zustimmungsrechts der beteiligten Personen widerrufen werden.

3.    Aufgrund der vom Auftraggeber und dem Konsortium erteilten Zusage der Anonymität der beteiligten Schulen dürfen keine Analysen veröffentlicht werden, in denen einzelne Schulen identifizierbar sind oder identifizierbar gemacht werden können.

4.    Grundlage der Erteilung des Auftrages durch Bund und Länder an das PISA-2000 Konsortium war die Maßgabe, keine schulformbezogenen Leistungsvergleiche zwischen den Ländern durchzuführen. Diese Vereinbarung gilt auch für alle Sekundäranalysen.

zurück zur Übersicht

Weiterführende Informationen

Allgemeine Informationen, den Technical Report sowie die Daten der internationalen Studie PISA 2000 I finden Sie auf der Homepage der Organisation for Economic Co-Operation and Development (OECD).

zurück zur Übersicht

Hinweise zur Nutzung der Daten

Sind die Kompetenzschätzer der PISA-, IGLU- und IQB-LV/BT-Studien miteinander vergleichbar?

Prinzipiell korrelieren die Tests aus PISA und den IQB-Ländervergleichen bzw. IQB-Bildungstrends hoch, aber die zugrunde liegenden Kompetenzmodelle unterscheiden sich. Die IQB-Tests sind an den Bildungsstandards der KMK und damit stärker am Curriculum orientiert als die PISA-Tests. Eine Testung der Vergleichbarkeit ist möglich mit IRT-Methoden auf Basis von Studien, in denen sowohl PISA als auch IQB-LV/IQB-BT Items verwendet wurden. Einige Studien zum Vergleich sind z. B.:

Das Ausmaß der Vergleichbarkeit muss für die Lese- und Mathematikkompetenzen sowie für die Sekundarstufe und Grundschule getrennt betrachtet werden. Auch wenn man davon ausgehen kann, dass sich Länderunterschiede mit beiden Maßen gut abbilden lassen, ist die Analyse von absoluten Trends auf einer gemeinsamen Metrik aber leider nicht möglich.

Die Datensätze der Studien PISA 2012 und IQB-Ländervergleich 2012 lassen sich über die ID-Variable [idstud_FDZ] miteinander verknüpfen. Dadurch können Sie Zusammenhänge zwischen den skalierten Testwerten beider Studien miteinander vergleichen.

Beachten Sie bitte zusätzlich:

1.) Anders als in den PISA-Erhebungen werden Lese- und Mathematikkompetenz in den IQB-Studien nur in der Grundschule gemeinsam getestet: Die Lesekompetenzen wurden im IQB-Ländervergleich 2009 (Sekundarstufe I) und im IQB-Ländervergleich 2011 (Grundschule) sowie im IQB-Bildungstrend 2015 (Sekundarstufe I) und im IQB-Bildungstrend 2016 (Grundschule) erfasst. Die Mathematikkompetenzen können Sie dem IQB-Ländervergleich 2012 (Sekundarstufe) und IQB-Ländervergleich 2011 (Grundschule) sowie dem IQB-Bildungstrend 2016 (Grundschule) und dem IQB-Bildungstrend 2018 (Sekundarstufe) entnehmen.

2.) Wenn Sie Analysen durchführen möchten, die unveröffentlichte, neuartige Vergleiche zwischen einzelnen Bundesländern beinhalten, gilt laut unserer Verfahrensordnung ein erweitertes Antragsverfahren mit Reviewprozess.

Gibt es in den IQB-Ländervergleichen/Bildungstrends sowie in PISA die Möglichkeit, eine (tagesgenaue) Erfassung des Alters der Schüler*innen vorzunehmen?

Angaben zum Geburtsjahr und Geburtsalter der Schüler*innen werden standardmäßig in den IQB-Ländervergleichen und PISA-Studien erhoben und stehen für Re- und Sekundäranalysen der Daten zur Verfügung. Tagesgenaue Angaben zum Geburtsdatum wurden aus datenschutzrechtlichen Gründen allerdings nicht erfasst und liegen in den Datensätzen nicht vor. Auch das genaue Testdatum ist in den meisten Datensätzen nicht enthalten (in PISA 2009 liegen diese Angaben vor). Häufig ist in den Datensätzen aber eine Altersvariable enthalten, die unter Verwendung des Geburtsjahrs und -monats in Relation zum Testdatum gebildet wurde (z. B. in den IQB-Ländervergleichen 2011, 2012 sowie in PISA 2012, 2009, 2006).

Welche nationalen PISA-Daten lassen sich mit den IQB-Ländervergleichen/Bildungstrends oder den internationalen PISA-Daten verknüpfen?

Die PISA-2012-Datensätze lassen sich mit den Daten des IQB-Ländervergleichs 2012 kombinieren. Die Schüler*innen-IDs wurden in den am FDZ am IQB verfügbaren Datensätzen schon so rekodiert, dass eine Verknüpfung beider Datenquellen möglich ist. Eine Verknüpfung der anderen PISA-Wellen mit den Daten der IQB-Ländervergleichen/IQB-Bildungstrends ist leider nicht möglich, da sich die ID-Variablen nicht einheitlich rekodieren lassen.

Auf welchen Ebenen wurden die Deutschland-PISA-Daten erfasst?

In den deutschen PISA-Studien liegen lediglich Informationen auf Bundeslandebene vor. Bitte beachten Sie, dass bei der Analyse von Bundesland-Daten besondere Nutzungsbedingungen eingehalten werden müssen. Diese können Sie hier nachlesen:

Wie hoch ist die Anzahl der gezogenen Klassen pro Schule in PISA-Erhebungen?

Informationen zur Stichprobenziehung in den Studien finden Sie in den Ergebnisberichten bzw. Skalenhandbüchern.
Hier eine kurze Zusammenfassung zur Stichprobenziehung in PISA:

PISA 2000:
zufällige Auswahl von 28 15-Jährigen sowie 10 nicht 15-Jährigen Neuntklässlern pro Schule; es wurden also nicht vollständige Klassen gezogen, Analysen können nur auf Schulebene durchgeführt werden

PISA 2003:
zufällige Auswahl von 15-Jährigen pro Schule; zusätzlich wurden für die nationale Erweiterung zwei komplette 9. Klassen pro Schule gezogen; in den PISA-E-Daten wurde allerdings keine klassenbasierte Stichprobenziehung realisiert.

PISA 2006:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15-Jährigen pro Schule, an den Schulen der internationalen Stichprobe (PISA_I) wurden zusätzlich Schüler*innen aus zwei kompletten 9. Klassen getestet

PISA 2009:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet

PISA 2012:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet

PISA 2015:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule

PISA 2018:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule

Wie viele Schüler*innen an Förder- und Berufsschulen sind in den PISA-Daten enthalten?

Die Förder- und Berufsschüler*innen wurden in den genannten PISA-Erhebungen getrennt erfasst. Nachfolgend finden Sie die Stichprobenumfänge für diese Teilgruppen. Sie basieren auf den Angaben in den deutschen PISA-Erweiterungsstichproben (PISA-E) in den Schüler*innen- und Schulleitungsdatensätzen. Gegebenenfalls kann es zu leichten Abweichungen zu den berichteten Stichproben in den Ergebnisberichten kommen.

PISA 2000 E:
- 9. Klasse: n= 11 Schüler*innen an Berufsschulen, n= 22 Schüler*innen an Förderschulen von insgesamt n = 34.754 Schüler*innen
- 15-Jährige: n= 241 Schüler*innen an Berufsschulen, n= 799 Schüler*innen an Förderschulen von insgesamt n= 35.584 Schüler*innen
- Schuldatensatz: n= 18 Berufsschulen,  n= 4 Förderschulen von insgesamt n= 1.342 Schulen

PISA 2003 E (hier keine Differenzierung zwischen Datensätzen für 9. Klasse & 15-Jährige möglich)
- 9. Klasse: n= 654 Schüler*innen an Berufsschulen, n= 1.712 Schüler*innen an Förderschulen von insgesamt n= 46.185 Schüler*innen
- Schuldatensatz: n= 43 Berufsschulen, keine Förderschulen von insgesamt n= 1.411 Schulen

PISA 2006 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz
- 15-Jährige: n= 625 Schüler*innen an Berufsschulen, n= 2.560 Schüler*innen an Förderschulen von insgesamt n= 39.573 Schüler*innen
- Schuldatensatz: n= 42 Berufsschulen, keine Förderschulen von insgesamt n= 1.496 Schulen

PISA 2009 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz von insgesamt n= 9.461
- Schuldatensatz: n= 9 Berufsschulen, n= 13 Förderschulen von insgesamt n= 226 Schulen

PISA 2012 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 153 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 9.998 Schüler*innen
- 15-Jährige: n= 99 Schüler*innen an Berufsschulen, n= 139 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.001 Schüler*innen
- Schuldatensatz: n= 7 Berufsschulen, n= 12 Förderschulen von insgesamt n= 230 Schulen

PISA 2015 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 165 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 4.149 Schüler*innen
- 15-Jährige: n= 160 Schüler*innen an Berufsschulen, n= 134 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 6.504 Schüler*innen
- Schuldatensatz: n= 8 Berufsschulen, n= 12 Förderschulen von insgesamt n= 205 Schulen

PISA 2018 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 115 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 3.567 Schüler*innen
- 15-Jährige: n= 184 Schüler*innen an Berufsschulen, n= 98 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.451 Schüler*innen
- Schuldatensatz: n= 10 Berufsschulen, n= 7 Förderschulen von insgesamt n= 191 Schulen

Lassen sich Lehrkräfte- und Schüler*innendaten in PISA verknüpfen?

Leider ist eine Verknüpfung nur für die Teildatensätze der 9. Klässler*innen möglich (die Datensätze der 15-Jährigen umfassen schulübergreifende Stichproben). In den meisten PISA-Wellen wurden zwei 9. Klassen gezogen, aber in den Teildatensätzen fehlt häufig eine eindeutige Klassen-ID.

Hier eine Übersicht in Stichpunkten zu den einzelnen PISA-Wellen:

PISA 2000:
hier wurde kein Lehrkräfte-Fragebogen eingesetzt

PISA 2003:
Teildatensatz "PISA-I-9.Klasse": Lehrkräfte-Fragebögen beinhalten Fragen auf Schulebene, nicht auf Klassenebene; eine Verknüpfung über die Variable [idclass_FDZ] ist möglich, aber im Lehrkräftedatensatz gibt es auf dieser Variable einen hohen Anteil fehlender Werte (vermutlich, da viele Lehrkräfte pro Schule befragt wurden); Teildatensatz "PISA-E": keine Lehrkräftefragebogen vorhanden

PISA Plus 2003-2004:
eine Verknüpfung ist prinzipiell möglich, aber Lehrkräftedaten müssten aus PISA-2003-Daten herangespielt werden und liegen nur zum ersten Messzeitpunkt vor

PISA 2006:
Teildatensatz "PISA-E": kein Lehrkräftedatensatz für 9.Klassen vorhanden, Verknüpfung nur auf Schulebene möglich; Teildatensatz "PISA-I": keine eindeutige Verknüpfung möglich, da im Lehrkräftedatensatz keine Klassen-ID enthalten ist

PISA 2009:
ebenfalls keine Klassen-ID im Lehrkräftedatensatz, aber Verknüpfung über idsch und Variable [LF39M01] (Deutsch in PISA Klasse unterrichtet: ja vs. nein) teilweise möglich; es wurden allerdings pro Schule zwei 9. Klassen gezogen

PISA 2012:
Verknüpfung ist prinzipiell über Variablen zur Klassenbezeichnung möglich (Lehrkräfte-Datensatz: klasse_FDZ; Schüler*innendatensatz: ClassName_FDZ) aber praktisch schwierig zu bewerkstelligen, da Metrik der Schul-ID zwischen beiden Teildatensätzen nicht korrespondiert und auf Variablen zur Klassenbezeichnung hoher Anteil fehlender Werte vorliegt (Erfahrungsberichte der PISA-Mitarbeiter*innen interpretiere ich so, dass Verknüpfung in Mehrheit der Fällen nicht gelingt)

PISA 2015:
Verknüpfung ist nicht direkt möglich, da alle Lehrkräfte der gezogenen Schulen befragt wurden

PISA 2018:
Eine Zuordnung zwischen Lehrkräften und Schüler*innen über die Variable "TEACHCLASS_ID" ist bis Ende 2022 aufgrund eines Sperrvermerks nicht möglich. Diese Variable beinhaltet aber auch nur die Information, ob die Lehrkraft eine neunte Klasse unterrichtet hat oder nicht. Das liegt daran, dass nahezu alle Lehrkräfte in der gezogenen Schule befragt wurden. Alternativ kann die Variable "TEACHERID" verwenden werden, aber auch diese Variable ermöglicht keine eindeutige Zuordnung zwischen Schüler*innen und dazugehöriger Lehrkraft. 

Für welche PISA-Daten liegt ein Messwiederholungsdatensatz vor?

Ein Messwiederholungsdatensatz liegt für PISA-2003 (PISA-Plus 2003, 2004) und PISA-2012 (PISA-Plus 2012, 2013)

Wie wurden die Tests zur naturwissenschaftlichen Kompetenz in PISA entwickelt?

Im Gegensatz zu den IQB-Ländervergleichen sind die naturwissenschaftlichen Tests in PISA nicht curricular verankert bzw. fachspezifisch konzipiert. Deshalb gibt es in PISA keine Subtests für Biologie, Physik und Chemie. Vielmehr wird in PISA eine naturwissenschaftliche Grundbildung (Scientific Literacy, siehe z. B. OECD, 2006) getestet. Dabei handelt es sich um Fähigkeiten, die in Situationen bedeutsam sind, in denen man mit Naturwissenschaften und Technik konfrontiert ist. Diese Situationen beziehen sich auf physikalische Systeme, lebende Systeme, Erd- und Weltraumsysteme und technologische Systeme. Konkret werden die folgenden Kompetenzen getestet:


a) naturwissenschaftliche Fragestellungen erkennen
b) naturwissenschaftliche Phänomene beschreiben, erklären und vorherzusagen
c) naturwissenschaftliche Evidenz nutzen, um Entscheidungen zu treffen

Nähere Informationen zur Konzeption und zum Test (inklusive Beispielaufgaben) finden Sie hier:

Für das Fach Mathematik liegen im Schüler*innendatensatz der 9. Klasse verschiedene PV-Variablen vor. Was ist der Unterschied zwischen den PV-Variablengruppen?

  • [pvxnatm]: Bei diesen PV-Werten handelt es sich um die nationalen Mathematiktests, deren Ergebnisse werden auf einer nationalen Metrik mit dem Mittelwert 100 und der Standardabweichung 30 berichtet.
  • [pvxnatmi]: Diese PVs basieren ebenfalls auf den nationalen Testitems, werden aber auf der internationalen Metrik mit dem Mittelwert 500 und der Standardabweichung 100 berichtet (deshalb korrelieren sie zu eins mit den PVs [pvxnatm]).
  • [pvxmg]: Dabei handelt es sich um den kombinierten Leistungsscore. In diesen Score gehen alle internationalen und alle nationalen Items ein. Laut Skalenhandbuch zur PISA 2000-Studie (Kunter et al., 2002; S. 77ff.; im Skalenhandbuch werden diese Items mit [NPV1MG1D] bezeichnet), wird empfohlen, diese PVs zu nutzen: "Ergebnisse verschiedener Dimensionsanalysen zeigen, dass es angemessen ist, den internationalen und den nationalen Mathematiktest auf einer Gesamtdimension der mathematischen Grundbildung abzubilden" (Kunter et al., 2002; S. 78). Das Skalenhandbuch können Sie PDF hier herunterladen; ggf. helfen Ihnen auch diePDF Ergänzungen zum Skalenhandbuch weiter.

zurück zur Übersicht

Literatur

Eine Auswahl an Publikationen finden Sie in dieser PDF Literaturliste (Stand: 16.03.2023).

2022

Camarero Garcia, S. (2022). Inequality of Educational Opportunities and the Role of Learning Intensity. Labour Economics, 74(4), 102084. https://doi.org/10.1016/j.labeco.2021.102084

Helm, F., Wolff, F., Möller, J., Zitzmann, S., Marsh, H. W., & Dicke, T. (2022). Individualized teacher frame of reference and student self-concept within and between school subjects. Journal of Educational Psychology. Advance online publication. https://doi.org/10.1037/edu0000737

2020

Camarero Garcia, S. (2020). Inequality of Educational Opportunities and the Role of Learning Intensity (ZEW Discussion Paper No. 18-021). Mannheim: Zentrum für Europäische Wirtschaftsforschung. Retrieved from Zentrum für Europäische Wirtschaftsforschung website: http://ftp.zew.de/pub/zew-docs/dp/dp18021.pdf

Roller, M., & Steinberg, D. (2020). The distributional effects of early school stratification - non-parametric evidence from Germany. European Economic Review, 125, 103422. https://doi.org/10.1016/j.euroecorev.2020.103422

2019

Andrietti, V., & Su, X. (2019). Education curriculum and student achievement: Theory and evidence. Education Economics, 27(1), 4–19. https://doi.org/10.1080/09645292.2018.1527894

2018

Autorengruppe Bildungsberichterstattung. (2018). Bildung in Deutschland 2018: Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration [Education in Germany 2018. An indicator-based report including an analysis of education and migration]. Bielefeld: wbv. https://doi.org/10.3278/6001820fw

Baden, G. (2018). Das akademische Selbstkonzept im Kontext primärer und sekundärer Herkunftseffekte: Eine quantitative Querschnittsstudie (Unveröffentlichte Masterarbeit): Universität Bremen, Bremen.

Huebener, M., Kuger, S., & Marcus, J. (2018). G8-Schulreform verbessert PISA-Testergebnisse: Insbesondere leistungsstarke SchülerInnen profitieren. DIW-Wochenbericht, 85(13/14), 265–275. https://doi.org/10.18723/diw_wb:2018-13-1

Jores, D., & Leiss, L. M. (2018). Die Kontroversen um PISA und Co. sowie eine Untersuchung zur Einstellung von Lehrkräften und Schulleitern zu Large Scale Assessments (Unveröffentlichte Bachelorarbeit): Johannes-Gutenberg-Universität Mainz, Mainz.

2017

Bartig, S., Bosswick, W., & Heckmann, F. (2017). Vielfaltsmonitor: Studie zum Umgang mit ethnischer und religiöser Vielfalt in Deutschland. Bericht an die Bertelsmann Stiftung. Bamberg: Europäisches Forum für Migrationsstudien.

Homuth, C. (2017). Die G8-Reform in Deutschland: Auswirkungen auf Schülerleistungen und Bildungsungleichheit (1st ed.). Wiesbaden: Springer Fachmedien. Retrieved from https://link.springer.com/content/pdf/10.1007%2F978-3-658-15378-6.pdf  https://doi.org/10.1007/978-3-658-15378-6

Huebener, M., Kuger, S., & Marcus, J. (2017). Increased instruction hours and the widening gap in student performance. Labour Economics, 47, 15–34. https://doi.org/10.1016/j.labeco.2017.04.007

2016

Andrietti, V. (2016). The causal effects of an intensified curriculum on cognitive skills : Evidence from a natural experiment (UC3M WP Economic Series No. 16-06). Madrid: Universidad Carlos III de Madrid. Retrieved from Universidad Carlos III de Madrid website: http://hdl.handle.net/10016/22880

Autorengruppe Bildungsberichterstattung. (2016). Bildung in Deutschland 2016: Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration [Education in Germany 2016. An indicator-based report including an analysis of education and migration]. Bielefeld: Bertelsmann. Retrieved from http://www.oapen.org/search?identifier=640941 https://doi.org/10.3278/6001820ew

Lorenz, C.‑V. (2016). A tree must be bent while it is young?: The effect of age at school entrance on school performance in Germany (Unveröffentlichte Bachelorarbeit): Universität Mannheim, Mannheim.

Nikolaus, J. (2016). Soziale Ungleichheit im deutschen Bildungssystem: Welche herkunftsspezifischen Einflüsse auf die Lesekompetenz von 15-jährigen Schülerinnen und Schülern gibt es in Deutschland und haben sie sich im Zeitverlauf verringert?: Eine Analyse der PISA-Daten im Zeitvergleich [Social inequality in the German education system: What are the (family) background-specific influences on the reading skills of 15-year-old students in Germany and have they decreased over time?] (Unveröffentlichte Masterarbeit): Universität Kassel, Kassel.

Voß, H. (2016). Zum Einfluss der Schulpolitik der Bundesländer auf den Schulerfolg: Eine bildungsökonomische Analyse. Schriftenreihe Volkswirtschaftliche Forschungsergebnisse: Vol. 211. Hamburg: Verlag Dr. Kovac. 

2015

Plieninger, H., & Dickhäuser, O. (2015). The female fish is more responsive: Gender moderates the BFLPE in the domain of science. Educational Psychology, 35(2), 213–227. https://doi.org/10.1080/01443410.2013.814197

Schmid, C. (2015). Lernen von älteren oder Lernen durch jüngere Geschwister? Effekte der Geschwisterkonstellation auf die Lesekompetenz und Hausaufgabenhilfe in PISA 2000-E. Zeitschrift für Erziehungswissenschaft, 18(3), 591–615. https://doi.org/10.1007/s11618-015-0635-5

2014

Penk, C., Pöhlmann, C., & Roppelt, A. (2014). The role of test-taking motivation for students’ performance in low-stakes assessments: an investigation of school-track-specific differences. Large-scale Assessments in Education, 2(1), 1–17. https://doi.org/10.1186/s40536-014-0005-4

Tatsi, E. (2014). Essays in Social and Spatial Interactions (Dissertation): Johann Wolfgang Goethe-Universität Frankfurt am Main, Frankfurt, Main.

2013

Horschig, K. (2013). Die Bedeutung des Zusamenhangs von Selbstkonzept und Motivation für die Schulleistungen hochbegabter Underachiever (Unveröffentlichte Masterarbeit): Technische Universität Berlin, Berlin.

Wolff, C. A. (2013). Education, Development and Labor Markets (Dissertation): Stockholm School of Economics Göteborg, Stockholm.

2012

Helbig, M., & Leuze, K. (2012). Ich will Feuerwehrmann werden!: Wie Eltern, individuelle Leistungen und schulische Fördermaßnahmen geschlechts(un-)typische Berufsaspirationen prägen. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 64(1), 91–122. https://doi.org/10.1007/s11577-012-0154-9

Homuth, C. (2012). Der Einfluss des achtjährigen Gymnasiums auf den Kompetenzerwerb: Bamberg Graduate School of Social Sciences Working Paper.

Legewie, J. (2012). Die Schätzung von kausalen Effekten: Überlegungen zu Methoden der Kausalanalyse anhand von Kontexteffekten in der Schule. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 64(1), 123–153. https://doi.org/10.1007/s11577-012-0158-5

Legewie, J., & DiPrete, T. A. (2012). School Context and the Gender Gap in Educational Achievement. American Sociological Review, 77(3), 463–485. https://doi.org/10.1177/0003122412440802

Prokic-Breuer, T., & Dronkers, J. (2012). The high performance of Dutch and Flemish 15-year-old native pupils: Explaining country differences in math scores between highly stratified educational systems. Educational Research and Evaluation, 18(8), 749–777. https://doi.org/10.1080/13803611.2012.727359

2011

Georg, W. (2011). Soziale Ungleichheit und kulturelles Kapital in der PISA-2000-Studie - eine latente Klassen-Analyse. Zeitschrift für Soziologie der Erziehung und Sozialisation, 31(4), 393–408. https://doi.org/10.3262/ZSE1104393

Ponomarenko, V. (2011). Determinanten der Bildungsaspirationen von jugendlichen Migranten in Deutschland (Unveröffentlichte Diplomarbeit): Otto-Friedrich-Universität Bamberg, Bamberg.

Prokic-Breuer, T., & Dronkers, J. (2011). Why 15-year old pupils in the Netherlands and Flanders have such high scores in international comparisons of educational outcomes? A first analysis with one German educational system, Maastricht.

Schlicht-Schmälzle, R. (2011). Determinanten der Bildungsungleichheit: Die Leistungsfähigkeit von Bildungssystemen im Vergleich der deutschen Bundesländer (1st ed.). Wiesbaden: Springer VS. Retrieved from https://link.springer.com/book/10.1007%2F978-3-531-92626-1  https://doi.org/10.1007/978-3-531-92626-1

Szczesny, M., & Watermann, R. (2011). Differenzielle Einflüsse von Familie und Schulform auf Leseleistung und soziale Kompetenzen. Journal for Educational Research Online, 3(1), 168–193. https://doi.org/10.25656/01:4687

Walper, S., Köller, O., Lewalter, D., & Spangler, G. (2011). Psychologie in Erziehung und Unterricht. Zeitschrift für Forschung und Praxis, 48(4).

2010

Brunner, M., & Krauss, S. (2010). Modellierung kognitiver Kompetenzen von Schülern und Lehrkräften mit dem Nested-Faktormodell. In W. Bos, E. Klieme, & O. Köller (Eds.), Schulische Lerngelegenheiten und Kompetenzentwicklung (pp. 105–125). Münster, München, Berlin: Waxmann.

Deininger, V. (2010). Messung der Fähigkeit zum selbstregulierten Lernen bei Auszubildenden des Berufsfeldes Elektroniker in Baden-Württemberg (Unveröffentlichte Masterarbeit): Pädagogische Hochschule Heidelberg, Heidelberg.

Hegelow, M. (2010). Vorhersage der Leistungsvarianz auf Schulebene durch das Konstrukt erwartungswidriger Leistungen (Unveröffentlichte Diplomarbeit): Freie Universität Berlin, Berlin.

Piopiunik, M., & Wößmann, L. (2010). Volkswirtschaftliche Folgekosten unzureichender Bildung: Eine makroökonomische Projektion. In G. Quenzel & K. Hurrelmann (Eds.), Bildungsverlierer: Neue Ungleichheiten (1st ed., pp. 463–473). Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-531-92576-9_21

2009

Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., . . . Weiß, M. (2009). Programme for International Student Assessment 2000 (PISA 2000) (Version 1) [Data set]. Berlin: IQB - Institut zur Qualitätsentwicklung im Bildungswesen. https://doi.org/10.5159/IQB_PISA_2000_v1

OECD. (2009). Pisa data analysis manual. Paris: OECD Publishing.

Wößmann, L., & Piopiunik, M. (2009). Was unzureichende Bildung kostet: Eine Berechnung der Folgekosten durch entgangenes Wirtschaftswachstum (Wirksame Bildungsinvestitionen). Gütersloh: Bertelsmann Stiftung. Retrieved from Bertelsmann Stiftung website: https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Presse/imported/downloads/xcms_bst_dms_30242_31113_2.pdf

2006

Becker, R., & Schubert, F. (2006). Soziale Ungleichheit von Lesekompetenzen: Eine Matching-Analyse im Längsschnitt mit Querschnittsdaten von PIRLS 2001 und PISA 2000. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 58(2), 253–284. https://doi.org/10.1007/s11575-006-0055-0

2005

Neubrand, M. (2005). Impulse aus PISA für die mathematikdidaktische Forschung. Der Mathematikunterricht, 51, 23–35.

Watermann, R., Thurn, S., Tillmann, K.-J., & Stanat, P. (Eds.). (2005). Die Laborschule im Spiegel ihrer PISA-Ergebnisse: Pädagogisch-didaktische Konzepte und empirische Evaluation reformpädagogischer Praxis. Weinheim: Juventa.

2004

Krohne, J. A., Meier, U., & Tillmann, K.‑J. (2004). Sitzenbleiben, Geschlecht und Migration - Klassenwiederholungen im Spiegel der PISA-Daten. Zeitschrift für Pädagogik, 50(3), 373–391. Retrieved from https://nbn-resolving.org/urn:nbn:de:0111-opus-48161

Lenzen, D., Baumert, J., Watermann, R., & Trautwein, U. (Eds.). (2004). Zeitschrift für Erziehungswissenschaft: Beiheft 3. PISA und die Konsequenzen für die erziehungswissenschaftliche Forschung. Wiesbaden: Springer VS.

Neubrand, M. (Ed.). (2004). Mathematische Kompetenzen von Schülerinnen und Schülern in Deutschland: Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden: Springer VS.

Rost, J., Prenzel, M., Carstensen, C. H., Senkbeil, M., & Groß, K. (2004). Naturwissenschaftliche Bildung in Deutschland: Methoden und Ergebnisse von PISA 2000. Wiesbaden: Springer VS.

Schiefele, U., Artelt, C., & Schneider, W. (Eds.). (2004). Struktur, Entwicklung und Förderung von Lesekompetenz: Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden: Springer VS.

Schümer, G., Tillmann, K.-J., & Weiß, M. (Eds.). (2004). Die Institution Schule und die Lebenswelt der Schüler: Vertiefende Analysen der PISA-2000-Daten zum Kontext von Schülerleistungen (1. Aufl.). Wiesbaden: Springer VS.

Watermann, R., & Stanat, P. (2004). Schulrückmeldungen in PISA 2000: Sozialnorm- und kriteriumsorientierte Rückmeldeverfahren. Empirische Pädagogik, 18, 40–61.

2003

Artelt, C., Baumert, J., Mc Elvany, N., & Peschar, J. (2003). Learners for life: Student approaches to learning. Results from PISA 2000. Paris: OECD.

Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., . . . Weiß, M. (Eds.). (2003). PISA 2000: Ein differenzierter Blick auf die Länder der Bundesrepublik Deutschland. Opladen: Leske & Budrich.

Baumert, J., Watermann, R., & Schümer, G. (2003). Disparitäten der Bildungsbeteiligung und des Kompetenzerwerbs. Zeitschrift für Erziehungswissenschaft, 6(1), 46–71. https://doi.org/10.1007/s11618-003-0004-7

Klieme, E. (2003). Benotungsmaßstäbe an Schulen: Pädagogische Praxis und institutionelle Bedingungen: Eine empirische Analyse auf der Basis der PISA-Studie. In H. Döbert, B. von Kopp, R. Martini, & M. Weiß (Eds.), Bildung vor neuen Herausforderungen: historische Bezüge, rechtliche Aspekte, Steuerungsfragen, internationale Perspektiven (pp. 195–210). Neuwied: Luchterhand.

Schümer, G. (2003). Soziale Herkunft, Bildungsbeteiligung und Schulleistungen von Jugendlichen aus Migrantenfamilien: Ergebnisse der OECD-Studie PISA 2000. In S. Handschuck (Ed.), Interkulturelle Verständigung: Fachtagung Bildung und Chancengleichheit 2002. Dokumentation (pp. 7–19). München.

Watermann, R., Stanat, P., Kunter, M., Klieme, E., & Baumert, J. (2003). Schulrückmeldungen im Rahmen von Schulleistungsuntersuchungen: Das Disseminationskonzept von PISA-2000. Zeitschrift für Pädagogik, 49(1), 92–111. Retrieved from https://nbn-resolving.org/urn:nbn:de:0111-opus-38708

Weiß, M., & Preuschoff, C. (2003). Sind mehr Privatschulen eine Antwort auf PISA?: Ergebnisse einer explorativen Analyse von Daten aus PISA-E. Recht der Jugend und des Bildungswesens, 51, 231–238.

Wirth, J., & Klieme, E. (2003). Computer-based assessment of problem solving competence. Assessment in Education: Principles, Policy & Practice, 10, 329–345.

2002

Artelt, C., Schiefele, U., Schneider, W., & Stanat, P. (2002). Leseleistungen deutscher Schülerinnen und Schüler im internationalen Vergleich (PISA): Ergebnisse und Erklärungsansätze. Zeitschrift für Erziehungswissenschaft, 5(1), 6–27. https://doi.org/10.1007/s11618-002-0002-1

Baumert, J., Artelt, C., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., . . . Weiß, M. (Eds.). (2002). PISA 2000: Die Länder der Bundesrepublik Deutschland im Vergleich. Opladen: Leske & Budrich.

Baumert, J., & Stanat, P. (2002). PISA 2000: Erste Ergebnisse und die Identifikation von Handlungsfeldern. Schulmanagement, 33, 30–32.

Kunter, M., Schümer, G., Artelt, C., Baumert, J., Klieme, E., Neubrand, M., . . . Weiß, M. (2002). PISA 2000: Dokumentation der Erhebungsinstrumente [PISA 2000: Documentation of survey instruments]. Materialien aus der Bildungsforschung: Vol. 72. Berlin: Max-Planck-Institut für Bildungsforschung. Retrieved from https://www.iqb.hu-berlin.de/fdz/studies/PISA-2000/PISA2000Dokument.pdf  

Kunter, M., & Stanat, P. (2002). Soziale Kompetenz von Schülerinnen und Schülern: Die Rolle von Schulmerkmalen für die Vorhersage ausgewählter Aspekte. Zeitschrift für Erziehungswissenschaft, 5(1), 49–71.

Lüdtke, O., Köller, O., Artelt, C., Stanat, P., & Baumert, J. (2002). Eine Überprüfung von Modellen zur Genese akademischer Selbstkonzepte: Ergebnisse aus der PISA-Studie. Zeitschrift für Pädagogische Psychologie, 16(3/4), 151–164.

Neubrand, M., Klieme, E., Lüdtke, O., & Neubrand, J. (2002). Kompetenzstufen und Schwierigkeitsmodelle für den PISA-Test zur mathematischen Grundbildung. Unterrichtswissenschaft, 30, 116–135.

Prenzel, M., Häußler, P., Rost, J., & Senkbeil, M. (2002). Der PISA-Naturwissenschaftstest: Lassen sich die Aufgabenschwierigkeiten vorhersagen? Unterrichtswissenschaft, 30, 100–115.

Stanat, P., Watermann, R., Baumert, J., Klieme, E., Artelt, C., & Schümer, G. (2002). Rückmeldung der PISA 2000-Ergebnisse an die beteiligten Schulen. Berlin: Max-Planck-Institut für Bildungsforschung.

Struck, P. (2002). TIMSS, PISA und LAU lassen viele Fragen offen und werfen neue auf. Pädagogikunterricht, 22(1), 41–42.

Wirth, J., & Klieme, E. (2002). Computer literacy im Vergleich zwischen Nationen, Schulformen und Geschlechtern. Unterrichtswissenschaft, 30(2), 136–157. Retrieved from https://nbn-resolving.org/urn:nbn:de:0111-opus-76835

2001

Artelt, C., Baumert, J., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., . . . Weiß, M. (Eds.). (2001). PISA 2000: Zusammenfassung zentraler Befunde. Berlin: Max-Planck-Institut für Bildungsforschung. Retrieved from http://www.mpib-berlin.mpg.de/pisa/ergebnisse.pdf

Artelt, C., Schiefele, U., & Schneider, W. (2001). Predictors of reading literacy. European Journal of Psychology of Education, 16(3), 363–384.

Baumert, J., Artelt, C., Klieme, E., & Stanat, P. (2001). PISA - Programme for International Student Assessment: Zielsetzung, theoretische Konzeption und Entwicklung von Messverfahren. In F. E. Weinert (Ed.), Leistungsmessungen in Schulen (pp. 285–310). Weinheim: Beltz.

Baumert, J., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., . . . Weiß, M. (Eds.). (2001). PISA 2000: Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske & Budrich.

Bundesministerium für Bildung und Forschung. (2001). Schülerleistungen im internationalen Vergleich. OECD PISA. Bonn: Bundesministerium für Bildung und Forschung.

Klieme, E., Funke, J., Leutner, D., Reimann, P., & Wirth, J. (2001). Problemlösen als fächerübergreifende Kompetenz: Konzeption und erste Resultate aus einer Schulleistungsstudie. Zeitschrift für Pädagogik, 47(2), 179–200. Retrieved from https://nbn-resolving.org/urn:nbn:de:0111-opus-52723

Neubrand, M. (2001). PISA - "Mathematische Grundbildung" beschreiben und testen. Die Grundschulzeitschrift, 147, 58–59.

Neubrand, M., Biehler, R., Blum, W., Cohors-Fresenborg, E., Flade, L., Knoche, N., . . . Wynands, A. (2001). Grundlagen der Ergänzung des internationalen PISA-Mathematik-Tests in der deutschen Zusatzerhebung. Zentralblatt für Didaktik der Mathematik, 33, 45–59.

OECD. (2001). Lernen für das Leben: Erste Ergebnisse der internationalen Schulleistungsstudie PISA 2000. Paris: OECD Publishing.

1999

Artelt, C., & Stanat, P. (1999). Schülerleistungen im internationalen Vergleich: Die OECD-Studie PISA (Programme for International Student Assessment). Erziehungswissenschaft, 10(8-14).

zurück zur Übersicht