Datenbasierte Qualitätssicherung und -entwicklung in Schulen: Eine Bestandsaufnahme in den Ländern der Bundesrepublik Deutschland [1. Aufl.] 978-3-658-23239-9;978-3-658-23240-5

Im vorliegenden Buch werden auf der Grundlage einer systematischen Auswertung von Konzepten, Handreichungen, Gesetzen un

477 105 14MB

German Pages XII, 325 [332] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Datenbasierte Qualitätssicherung und -entwicklung in Schulen: Eine Bestandsaufnahme in den Ländern der Bundesrepublik Deutschland [1. Aufl.]
 978-3-658-23239-9;978-3-658-23240-5

Table of contents :
Front Matter ....Pages I-XII
Einleitung (Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen, Thomas Riecke-Baulecke)....Pages 1-7
Analyse bildungspolitischer und -rechtlicher Dokumente – Methodische Grundlagen (Jasmin Tarkian, Felicitas Thiel)....Pages 9-14
Rahmenkonzepte zur Definition von Schulqualität in den 16 Ländern (Felicitas Thiel, Jasmin Tarkian)....Pages 15-39
Vergleichsarbeiten (VERA) – Konzeption und Implementation in den 16 Ländern (Jasmin Tarkian, Norbert Maritzen, Marius Eckert, Felicitas Thiel)....Pages 41-103
Externe Evaluation – Konzeption und Implementation in den 16 Ländern (Jasmin Tarkian, Eva-Maria Lankes, Felicitas Thiel)....Pages 105-183
Interne Evaluation – Konzeption und Implementation in den 16 Ländern (Jasmin Tarkian, Thomas Riecke-Baulecke, Felicitas Thiel)....Pages 185-229
Bildungsrechtliche Grundlagen datenbasierter Qualitätssicherung und -entwicklung (Anna Kroupa, Jasmin Tarkian, Hans-Peter Füssel, Claudia Schewe, Felicitas Thiel)....Pages 231-312
Strategien datenbasierter Steuerung zur Sicherung und Entwicklung von Schulqualität in den 16 Ländern – Zusammenfassung und Diskussion (Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen, Thomas Riecke-Baulecke)....Pages 313-325

Citation preview

Felicitas Thiel · Jasmin Tarkian Eva-Maria Lankes · Norbert Maritzen Thomas Riecke-Baulecke · Anna Kroupa Hrsg.

Datenbasierte Qualitätssicherung und -entwicklung in Schulen Eine Bestandsaufnahme in den Ländern der Bundesrepublik Deutschland

Datenbasierte Qualitätssicherung und -entwicklung in Schulen

Felicitas Thiel · Jasmin Tarkian · Eva-Maria Lankes · Norbert Maritzen · Thomas Riecke-Baulecke · Anna Kroupa (Hrsg.)

Datenbasierte Qualitätssicherung und -entwicklung in Schulen Eine Bestandsaufnahme in den Ländern der Bundesrepublik Deutschland

Hrsg. Felicitas Thiel Freie Universität Berlin Berlin, Deutschland Eva-Maria Lankes Technische Universität München München, Deutschland Thomas Riecke-Baulecke Institut für Qualitätsentwicklung an Schulen Schleswig-Holstein Kronshagen, Deutschland

Jasmin Tarkian Freie Universität Berlin Berlin, Deutschland Norbert Maritzen Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ) Hamburg, Deutschland Anna Kroupa Freie Universität Berlin Berlin, Deutschland

Ein Verzeichnis über die genutzten Rechtsquellen und Dokumente für die Analyse der Landeskonzeptionen ist als Anhang unter www.springer.com auf der Produktseite dieses Buches verfügbar. Das dieser Publikation zugrundeliegende Vorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01JG1650 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor. ISBN 978-3-658-23240-5  (eBook) ISBN 978-3-658-23239-9 https://doi.org/10.1007/978-3-658-23240-5 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer VS © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer VS ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Inhaltsverzeichnis

1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen und Thomas Riecke-Baulecke 2 Analyse bildungspolitischer und -rechtlicher Dokumente – Methodische Grundlagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Jasmin Tarkian und Felicitas Thiel 3 Rahmenkonzepte zur Definition von Schulqualität in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Felicitas Thiel und Jasmin Tarkian 4 Vergleichsarbeiten (VERA) – Konzeption und Implementation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Jasmin Tarkian, Norbert Maritzen, Marius Eckert und Felicitas Thiel 5 Externe Evaluation – Konzeption und Implementation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Jasmin Tarkian, Eva-Maria Lankes und Felicitas Thiel 6 Interne Evaluation – Konzeption und Implementation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Jasmin Tarkian, Thomas Riecke-Baulecke und Felicitas Thiel

V

VI

Inhaltsverzeichnis

7 Bildungsrechtliche Grundlagen datenbasierter Qualitätssicherung und -entwicklung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 Anna Kroupa, Jasmin Tarkian, Hans-Peter Füssel, Claudia Schewe und Felicitas Thiel 8 Strategien datenbasierter Steuerung zur Sicherung und Entwicklung von Schulqualität in den 16 Ländern – Zusammenfassung und Diskussion. . . . . . . . . . . . . . . . . . . . . . . 313 Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen und Thomas Riecke-Baulecke

Herausgeber- und Autorenverzeichnis

Über die Herausgeber Prof. Dr. Felicitas Thiel,  Freie Universität Berlin, Professorin für Schulpädagogik und Schulentwicklungsforschung im Fachbereich Erziehungswissenschaft und Psychologie, [email protected] Forschungsschwerpunkte: Steuerung im Bildungssystem, Schulorganisation, Klassenmanagement, Interaktion im Unterricht, Soziologie der Schule Dipl. Soz. M.A. Jasmin Tarkian, Freie Universität Berlin, Wissenschaftliche Mitarbeiterin und Doktorandin im Fachbereich Erziehungswissenschaft und Psychologie, [email protected] Forschungsschwerpunkte: Steuerung im Bildungssystem, Testbasierte Schulreform, Datenbasiertes Schulleitungshandeln, Schulische Personalentwicklung Prof. Dr. Eva-Maria Lankes,  Technische Universität München, Inhaberin des Lehrstuhls für Schulpädagogik, [email protected] Forschungsschwerpunkte: Qualitätssicherung im Bildungswesen, Bildungsmonitoring, Evidenzbasierte Schul- und Unterrichtsentwicklung, Kompetenzentwicklung und -modellierung, Lern- und Unterrichtsbedingungen im internationalen Vergleich Norbert Maritzen,  Direktor des Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ) in Hamburg, [email protected] Arbeitsschwerpunkte: Bildungsmonitoring, Empirische Schulqualitätsforschung, Steuerungstheorie

VII

VIII

Herausgeber- und Autorenverzeichnis

Dr. habil. Thomas Riecke-Baulecke,  Direktor des Instituts für Qualitätsentwicklung an Schulen Schleswig-Holstein sowie Designierter Präsident des Zentrums für Schulqualität und Lehrerbildung in Baden-Württemberg, [email protected] Arbeitsschwerpunkte: Leitung der Weiterbildungsstudiengänge „SchulmanagementMaster“ und „Kita-Master“, Evaluation der Interventionsprogramme „Lesen macht stark“ und „Mathe macht stark“ Dipl.-Jur. Anna Kroupa,  Freie Universität Berlin, Wissenschaftliche Mitarbeiterin im Arbeitsbereich Schulpädagogik/Schulentwicklungsforschung, [email protected] Forschungsschwerpunkte: Deutsches Bildungsrecht, Strafrecht

Autorenverzeichnis Marius Eckert, Lehrkraft im Referendariat an der Leonore-Goldschmidt-Schule in Hannover, [email protected] Forschungsinteressen: Bildungssoziologie, Educational Governance, Politische Urteilsbildung Prof. Dr. Hans-Peter Füssel, Assoziierter Wissenschaftler am Deutschen Institut für Internationale Pädagogische Forschung (DIPF) in Berlin, [email protected] Arbeitsschwerpunkte: Deutsches und internationales Bildungsrecht, Steuerung im Bildungswesen, Bildungsberichterstattung, Wissenschaftliche Begleitung des Schulversuchs „Erprobung neuer Steuerungsmöglichkeiten der Optimierung pädagogischer Prozesse in Sozialräumen mit hohen Belastungsfaktoren“ Claudia Schewe, Freie Universität Berlin, Studentische Mitarbeiterin im Fachbereich Erziehungswissenschaft und Psychologie, [email protected] Forschungsschwerpunkte: Steuerung im Bildungssystem, Schulrecht

Abbildungsverzeichnis

Abb. 3.1 Formale Merkmale der Rahmenkonzepte zur Definition von Schulqualität in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Abb. 3.2 Qualitätsdimensionen und -aspekte in den Rahmenkonzepten zur Schulqualität der 16 Länder. . . . . . . . . . . . . . . . 28 Abb. 3.3 Operationalisierung von Unterrichtsqualität/ Lehr-Lernprozessen in den Rahmenkonzepten der 16 Länder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Abb. 3.4 Operationalisierung der Dimensionen Qualitätsentwicklung, Qualitätsmanagement, Qualitätssicherung in den Rahmenkonzepten zur Schulqualität der 16 Länder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Abb. 4.1 Testlandschaft der Länder – Landesweit verpflichtend implementierte, standardisierte Test-/Diagnoseverfahren (z. T. schulformbezogen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Abb. 4.2 Institutionelle Zuständigkeiten für die Administration und Auswertung der Vergleichsarbeiten. . . . . . . . . . . . . . . . . . . . . . . . . 47 Abb. 4.3 Regelung zur Rückmeldung von VERA-Ergebnissen an die Eltern der TestteilnehmerInnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Abb. 4.4 Regelung zum Zugriff der Schulaufsicht auf schulbezogene VERA-Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Abb. 4.5 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Baden-Württemberg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Abb. 4.6 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Bayern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Abb. 4.7 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Berlin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Abb. 4.8 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Brandenburg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Abb. 4.9 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Bremen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 IX

X

Abbildungsverzeichnis

Abb. 4.10 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Hamburg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 Abb. 4.11 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Hessen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Abb. 4.12 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Mecklenburg-Vorpommern . . . . . . . . . . . . . . . . . . . . . . . 69 Abb. 4.13 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Niedersachsen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Abb. 4.14 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Nordrhein-Westfalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Abb. 4.15 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Rheinland-Pfalz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Abb. 4.16 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Saarland. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Abb. 4.17 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Sachsen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Abb. 4.18 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Sachsen-Anhalt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Abb. 4.19 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Schleswig-Holstein. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Abb. 4.20 Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Thüringen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Abb. 4.21 Verbindlichkeitsgrad bei der Durchführung von VERA-Testungen in den 16 Ländern . . . . . . . . . . . . . . . . . . . . . . . 75 Abb. 4.22 Bestandteile der VERA-Rückmeldungen in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Abb. 4.23 Anknüpfung der Verfahren externer Evaluation an die VERA-Ergebnisse auf Schulebene . . . . . . . . . . . . . . . . . . . . . . . 91 Abb. 4.24 Koordiniertes Zusammenwirken von Werkzeugen zur datenbasierten Unterrichts- und Schulentwicklung in der Region Berlin-Brandenburg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Abb. 4.25 Verbindungen zwischen den VERA-Arbeiten und weiteren Instrumenten der Evaluation(sunterstützung). . . . . . . . . . 98 Abb. 4.26 Gesamtkonzept der Evaluation in Mecklenburg-Vorpommern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Abb. 4.27 Funktionen von VERA in den 16 Ländern (adressatenbezogene Ermittlung). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 Abb. 5.1 Landesspezifische Verfahrensbezeichnungen und institutionelle Zuständigkeiten für die operative Umsetzung der Verfahren externer Evaluation. . . . . . . . . . . . . . . . . . . . 107

Abbildungsverzeichnis

XI

Abb. 5.2 Ein- und Fortführung der Verfahren externer Evaluation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Abb. 5.3 Verfahrensformen der externen Evaluation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Abb. 5.4 Regelhaft vorgesehener Einbezug der operativen Schulaufsicht in die Verfahren externer Evaluation. . . . . . . . . . . . . . . . 124 Abb. 5.5 Qualitätstableau der Berliner Schulinspektion. . . . . . . . . . . . . . . . . . . . 138 Abb. 5.6 Qualitätstableau der Qualitätsanalyse in Nordrhein-Westfalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 Abb. 5.7 Qualitätstableau der Externen Evaluation im Saarland . . . . . . . . . . . . . 140 Abb. 5.8 Qualitätstableau der Hamburger Schulinspektion . . . . . . . . . . . . . . . . . 141 Abb. 5.9 Auszug aus dem Datenblatt zur Analyse des Schulportfolios in Bayern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Abb. 5.10 Im Rahmen der externen Evaluation von Schulen in Mecklenburg-Vorpommern erfragte Dokumente des Schulportfolios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Abb. 5.11 Einbindungspunkte der operativen Schulaufsicht in den Prozess der externen Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Abb. 5.12 Mit der externen Evaluation in den Landeskonzeptionen verbundene Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Abb. 5.13 Unterrichtsbeobachtungsbögen der Verfahren externen Evaluation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 Abb. 6.1 Meilensteine bei der Einrichtung der schulischen Eigenverantwortlichkeit in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . 188 Abb. 6.2 Qualitätszyklus in allgemeinbildenden Schulen in Niedersachsen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 Abb. 6.3 In den Ländern flächendeckend angebotene Verfahren zur Umsetzung schulinterner Evaluationen. . . . . . . . . . . . . . . . . . . . . . 219 Abb. 6.4 Funktionen interner Evaluation in den 16 Ländern. . . . . . . . . . . . . . . . 227 Abb. 7.1 Normenpyramide zur Veranschaulichung der Normenhierarchie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Abb. 7.2 Aufbau der Schulaufsichtsbehörden in den 16 Ländern . . . . . . . . . . . . 243 Abb. 7.3 Aufgaben der Schulaufsichtsbehörden in den 16 Ländern. . . . . . . . . . . 253 Abb. 7.4 Aufgaben der Einrichtungen externer Evaluation in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 Abb. 7.5 Landes- und Qualitätsinstitute in den 16 Ländern. . . . . . . . . . . . . . . . . 261 Abb. 7.6 Aufgaben der Landes- und Qualitätsinstitute in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 Abb. 7.7 Aufgaben der Schulleitungen in den 16 Ländern. . . . . . . . . . . . . . . . . . 277 Abb. 7.8 Aufgaben der Lehrkräfte in den 16 Ländern . . . . . . . . . . . . . . . . . . . . . 281

XII

Abbildungsverzeichnis

Abb. 7.9 Zusammensetzung der Schulkonferenzen in den 16 Ländern. . . . . . . . 283 Abb. 7.10 Aufgaben der Schulkonferenzen in den 16 Ländern . . . . . . . . . . . . . . . 287 Abb. 7.11 Aufgaben der Gesamtkonferenzen in den 16 Ländern. . . . . . . . . . . . . . 290 Abb. 7.12 Aufgaben der Schulkonferenz und der Gesamtkonferenz in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 Abb. 7.13 Aufgaben der Fachkonferenzen in den 16 Ländern. . . . . . . . . . . . . . . . 293 Abb. 7.14 Institutionelle Anbindung der externen Evaluation in den Ländern in den 16 Ländern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296

1

Einleitung Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen und Thomas Riecke-Baulecke

In den vergangenen 15 Jahren erfolgte in allen Ländern der Bundesrepublik Deutschland unter dem Stichwort „neue Steuerung“ eine Neuausrichtung der traditionellen Schulpolitik (Füssel 2009; Ackeren et al. 2013). Ihren Niederschlag fand das neue Steuerungsverständnis in mehreren Beschlüssen der Kulturministerkonferenz. Einen besonderen Stellenwert unter diesen Beschlüssen hat wiederum die Gesamtstrategie zum Bildungsmonitoring, die im Jahr 2006 erstmals veröffentlicht und 2015 fortgeschrieben wurde. Norbert Maritzen bezeichnet die Monitoringstrategie der KMK als „historische Leistung“ (Maritzen 2014), weil hier nicht nur eine vormals von vielen nicht für möglich gehaltene Bereitschaft zur gemeinsamen Strategieentwicklung zum Ausdruck kommt, sondern auch ein Bekenntnis zu Transparenz und zu einem kriterialen (Kompetenzstufen), ipsativen (Trendanalysen) und sozialen (Länderunterschiede) Vergleich. In dem Beschluss zum Bildungsmonitoring von 2006 (Kultusministerkonferenz [KMK] 2006) F. Thiel () · J. Tarkian  Berlin, Deutschland E-Mail: [email protected] J. Tarkian E-Mail: [email protected] E.-M. Lankes  München, Deutschland E-Mail: [email protected] N. Maritzen  Hamburg, Deutschland E-Mail: norbert.marit[email protected] T. Riecke-Baulecke  Kronshagen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_1

1

2

F. Thiel et al.

lag – mit den verabredeten Maßnahmen internationale Schulleistungsstudien, Überprüfung der Bildungsstandards im Ländervergleich, Vergleichsarbeiten zur Schul- und Unterrichtsentwicklung, Bildungsberichterstattung von Bund und Ländern und der Einrichtung des Instituts zur Qualitätsentwicklung im Bildungswesen (IQB) – der Schwerpunkt vor allem auf Verfahren zur Qualitätssicherung auf der Systemebene. In der überarbeiteten Gesamtstrategie der Kulturministerkonferenz zum Bildungsmonitoring aus dem Jahr 2015 (KMK 2016) wird die Steuerungsstrategie insofern präzisiert, als die Rolle der Schulen für eine datenbasierte Qualitätssicherung und -entwicklung nun deutlich betont wird. Schulen sollen als maßgebliche Akteure ihre Entscheidungen zur Schul- und Unterrichtsentwicklung auf belastbare Daten gründen. Die Gesamtstrategie zum Bildungsmonitoring der Kultusministerkonferenz beschreibt wie folgt drei zentrale Instrumente der Qualitätssicherung auf der Ebene der Schulen: „Vergleichsarbeiten [dienen] der landesweiten, jahrgangsbezogenen Untersuchung der Leistungen der einzelnen Schulen und Klassen in ausgewählten Domänen. […] Die zentrale Funktion liegt in der Unterstützung der Unterrichts- und Schulentwicklung jeder einzelnen Schule. Vergleichsarbeiten sind Teil eines Bündels von Maßnahmen, mit denen die Länder eine evidenzbasierte Qualitätsentwicklung und -sicherung auf Ebene der einzelnen Schule gewährleisten. Dazu gehören in fast allen Ländern Verfahren zur externen Evaluation der einzelnen Schule, in deren Rahmen Schulen regelmäßige und systematische Rückmeldungen über Stärken und Schwächen, insbesondere über die Qualität von Unterrichtsprozessen, erhalten. Komplementär dazu unterstützen die Länder die interne Evaluation von Schulen durch die Bereitstellung entsprechender Verfahren und Beratungsangebote“ (KMK 2016, S. 13; Umstellung, Auslassung, Hervorhebungen: F.T. et al.). Unterrichts- und Schulentwicklung sowie Personalentwicklung stehen im Zentrum dieser Strategie zur Qualitätssicherung und -entwicklung. Wie bei Vergleichsarbeiten steht auch bei der Rückmeldung von Befunden der externen Evaluation der Entwicklungsaspekt im Mittelpunkt. Abgesehen von Zielvereinbarungen mit der Schulaufsicht, der Verpflichtung zur Inanspruchnahme von Beratungsleistungen sowie (in einigen Ländern) einer vorgezogenen Nachinspektion drohen Schulen auch bei einer deutlichen Verfehlung der Qualitätsstandards keine Sanktionen. Dieser low-stakes-­ Strategie liegt die Annahme zugrunde, dass Schulen die entscheidenden Ansatzpunkte für Qualitätssicherung und -entwicklung am besten identifizieren können und dass eine effektive Schul- und Unterrichtsentwicklung nur bedingt durch außerschulische Kontrollmechanismen in Gang gesetzt werden kann, sondern von den professionellen Entwicklungsaktivitäten der Schulleitung und des Kollegiums abhängt. Eine Voraussetzung für eine datenbasierte Schul- und Unterrichtsentwicklung ist allerdings auf der einen Seite, dass Schulen effektive „evaluation policies and practices“ (Scheerens und Bosker 1997, S. 307) entwickeln; Aufgaben und Entscheidungsbefugnisse der schulischen Akteure müssen zu diesem Zweck entsprechend definiert sein. Auf der anderen Seite benötigen die Schulen belastbare Daten, die eine differenzierte Bestandaufnahme der Bedarfslagen und Ressourcen, eine Planung von Entwicklungsmaßnahmen sowie

1 Einleitung

3

eine valide Beurteilung der eigenen Arbeit ermöglichen (Thiel und Thillmann 2012). Vergleichsarbeiten, Rückmeldungen der externen Evaluation sowie Verfahren der internen Evaluation stellen solche Daten bereit. Die Sichtung des bislang nur sehr rudimentären Forschungsstands (vgl. im Überblick: Wurster 2016) zeigt für Deutschland, dass die drei Instrumente in den Ländern unterschiedlich implementiert wurden. Die Unterschiede betreffen augenscheinlich vor allem die Instrumente selbst (z. B. Implementation ergänzender Diagnoseverfahren oder längsschnittlicher Datensätze), die Rückmeldung und Zugänglichkeit der Daten (z. B. Rückmeldeformate für Lehrkräfte, Rückmeldung für andere Akteure, Veröffentlichung von Ergebnissen), Materialien und Unterstützungsmaßnahmen zur datenbasierten Unterrichtsentwicklung (z. B. Aufgabendatenbanken, Fortbildungen), die Zuständigkeiten und Spielräume hinsichtlich datenbasierter Entscheidungen (z. B. Verantwortung für ­Qualitäts- oder Personalentwicklung, Zielvereinbarungen). Zwar liegen inzwischen einige ländervergleichende Studien zu Vergleichsarbeiten (z. B. Maier et al. 2013; Muslic et al. 2013), Schulinspektionen (z. B. ­Wurster und ­Gärtner 2013; Böhm-Kasper und Selders 2013) oder interner Evaluation (z. B. ­Thillmann et  al. 2013) vor, die die jeweiligen Instrumente für jeweils eine Auswahl von Ländern überblicksartig beschreiben, eine aktuelle Übersicht zu den verschiedenen Instrumenten der Qualitätssicherung und -entwicklung im Gesamtzusammenhang für alle Länder der Bundesrepublik Deutschland existiert dagegen nicht. Die einzige Studie dieser Art wurde im Jahr 1999 von Eva Arnold und Norbert Maritzen im Auftrag der Amtschefkommission der KMK als „Bestandsaufnahme zu Verfahren der Qualitätssicherung und Evaluation im allgemeinbildenden Schulwesen“ (Arnold und Maritzen 1999) durchgeführt. Sie gibt einen allgemeinen Überblick über die zum damaligen Zeitpunkt implementierten und geplanten Verfahren in allen 16 Bundesländern. Die Studie zeigt deutliche Unterschiede zwischen den einzelnen Ländern, was die Implementation der Verfahren und die Strategien zum Umgang mit den jeweiligen Daten betrifft. Die Autoren fassen ihre Befunde wie folgt zusammen: „Häufig wird eine Kombination aus verschiedenen Strategien der Selbst- und Außensteuerung verfolgt, wobei derzeit nicht erkennbar ist, welche Formen der Evaluation miteinander harmonieren und bei welchen Kombinationen es zu ungünstigen Interaktionseffekten kommt“ (Arnold und Maritzen 1999, S. 38). Zur Schulinspektion legten Döbert und Dedering (2008) und Saldern (2011) einen vergleichenden Überblick über unterschiedliche Formen der Implementation in den 16 Bundesländern vor. Seit dieser Publikation erfolgten allerdings erhebliche Anpassungen und Veränderungen im Verfahren. 2015 wurde ein aktualisierter Überblick zu Inspektionsverfahren in vier Ländern publiziert (Kuhn 2015). Kuhn konnte zeigen, dass zwischen den vier Ländern deutliche Unterschiede hinsichtlich der Häufigkeit der Inspektionen, des Umfangs, der Auswahl und der Qualifizierung der Inspektionsteams, der Rückmeldeverfahren, der institutionellen Verankerung sowie der Abgrenzung zur Schulaufsicht bestehen.

4

F. Thiel et al.

Eine neuere Studie untersucht überblickartig die Rahmenkonzeptionen zur Schulqualität, die in Form von Qualitätsrahmen oder Handlungsrahmen veröffentlicht sind (Elsing und Ackeren 2017). Diese Analyse konstatiert zwar ein geteiltes Qualitätsverständnis, allerdings auch Unterschiede in der Operationalisierung von Konstrukten. Was die Frage der Definition von Aufgaben und Entscheidungsbefugnissen im ­Rahmen der neuen bildungspolitischen Steuerung betrifft, hat Stefan Brauckmann (2016) die Befunde unterschiedlicher OECD-Studien zu Entscheidungskompetenzen im Schulsystem sowie Daten aus PISA-Schulleitungsbefragungen ausgewertet. Er kommt zu dem Schluss, dass sich die in die Analyse einbezogenen europäischen Staaten hinsichtlich der Gewährung echter Autonomiespielräume deutlich unterscheiden. Nur für die Schulsysteme Englands und der Niederlande „kann gezeigt werden, dass die Mehrzahl der Entscheidungen, die auf schulischer Ebene verantwortet werden, auch tatsächlich in völliger Autonomie getroffen werden“ (Brauckmann 2012, S. 88). In den anderen untersuchten Staaten seien „die Ausgangsbedingungen für die Nutzung erweiterter Handlungsspielräume auf einem eher mittleren oder aber niedrigen Niveau einzuordnen“ (Brauckmann 2012, S. 88). In Deutschland wurde die Erweiterung von Entscheidungsspielräumen für Schulen im Rahmen einer viel zitierten Studie von Matthias Rürup untersucht, der die Implementation von Maßnahmen zur Schulautonomie in allen 16 Ländern der Bundesrepublik Deutschland in der Perspektive des politikwissenschaftlichen Ansatzes der policy­diffusion-research rekonstruiert hat (Rürup 2007). Trotz länderspezifischer Unterschiede kommt Rürup zu dem Schluss, dass es sich bei dem Konzept der Schulautonomie um ein „länderübergreifendes Reformkonzept“ (S. 374) handelt. Aspekte der Qualitätssicherung und -entwicklung wurden im Rahmen der Studie allerdings nur am Rande thematisiert. Fragen der Schulautonomie wurden auch im Kontext des Gutachtens des Aktionsrats Bildung zur Bildungsautonomie in den 16 Ländern mit der Methode des Expertenratings untersucht (vbw – Vereinigung der Bayerischen Wirtschaft e. V. 2010). Regelungen zur Schulqualität wurden hier allerdings lediglich überblicksartig unter dem Stichwort der Schulautonomie erfasst. Die Ergebnisse dieses Expertenratings deuten auf Unterschiede zwischen den Ländern hin. Veränderte Aufgaben und Kompetenzen der Schulleitung infolge der neuen Steuerung wurden von Brauckmann (2016) und Hanßen (2013) für fünf Länder in schulgesetzlichen und untergesetzlichen Dokumenten rekonstruiert. Der Anforderungsbereich Qualitätssicherung und -entwicklung wurde hier ebenfalls eher überblicksartig thematisiert. Es zeigt sich, dass die Verantwortung für Qualitätssicherung in den untersuchten Ländern teilweise durchaus unterschiedlich definiert wird. Auch hinsichtlich der Abgrenzung der Aufgaben der verschiedenen schulischen Akteure sind Unterschiede zwischen den einzelnen Ländern festzustellen. Alle bislang vorliegenden Studien erfassen – mit Ausnahme der Bestandsaufnahme von Arnold und Maritzen (1999) – den Bereich der Qualitätssicherung nur ausschnitthaft (z. B. für einzelne Instrumente) oder überblicksartig. Eine umfassende aktuelle Bestandsaufnahme der Konzeption und Implementation der genannten drei I­nstrumente

1 Einleitung

5

aller 16 Länder liegt bislang nicht vor. Eine systematische Erfassung der Definition von Aufgaben und Entscheidungsbefugnissen hinsichtlich Qualitätssicherung und ­-entwicklung in Schulgesetzen und untergesetzlichen Regelungen steht ebenfalls aus. Die vorliegende Publikation dokumentiert eine umfangreiche und systematische Bestandaufnahme der Konzeption und Implementation von Vergleichsarbeiten, externer und interner Evaluation sowie der in gesetzlichen und untergesetzlichen Normen definierten Aufgaben und Entscheidungsbefugnisse schulischer Akteure hinsichtlich der Gewinnung, Kommunikation und Nutzung von Daten aus den drei genannten Verfahren zum Stichtag 31.01.2018. Insgesamt wurden mehr als 1000 Dokumente zur Konzeption, Implementation und der rechtlichen Verankerung datenbasierter Qualitätssicherung und -entwicklung für das allgemeinbildende Schulsystem ausgewertet. Auf der Grundlage der Analyse von Schulgesetzen und untergesetzlichen Normen, der Landesreferenzrahmen, Handreichungen, Bildungsberichte, in den Landesportalen publizierten Konzepten und Experteninterviews mit VertreterInnen von Bildungsadministrationen und Landesinstituten der 16 Länder der Bundesrepublik Deutschland wurde eine umfangreiche und differenzierte Synopse erstellt, die mit der vorliegenden Publikation einer breiten Leserschaft zugänglich gemacht wird. Die Publikation umfasst inklusive Einleitung acht Kapitel. Vor dem Hintergrund einer detaillierten Beschreibung des verwendeten Textkorpus und der Auswertungsmethoden werden zunächst die Ergebnisse der inhaltlichen Analyse der Rahmenkonzepte zur Schulqualität dargestellt. Diese Analyse zeigt die Schnittmengen der Konzepte von Qualität und ihren Operationalisierungen in den 16 Ländern. Die folgenden drei Kapitel sind jeweils einem Verfahren gewidmet: Vergleichsarbeiten, externer sowie interner Evaluation. Im Überblick wird jeweils verdeutlicht, wann und in welcher Form die Verfahren in den Ländern implementiert wurden. Außerdem wird gezeigt, welche Funktionen den Verfahren zugeschrieben werden, wie sie operativ gehandhabt werden, welche Unterstützungsangebote jeweils eingeführt wurden und wie die Verfahren miteinander verknüpft sind. Im Anschluss werden die Befunde der Analyse von Schulgesetzen und untergesetzlichen Normen aufgezeigt. Damit wird ein Blick auf die Aufgabenbeschreibungen und Entscheidungsbefugnisse unterschiedlicher schulischer Akteure im Vergleich der 16 Länder eröffnet. Die Gesamtschau der unterschiedlichen Analysen zeigt, in welchen Bereichen eine große Übereinstimmung zwischen den Ländern hinsichtlich der Definition und Implementation von schulischer Qualitätssicherung und -entwicklung besteht und in welchen Bereichen die Länder unterschiedliche Konzeptionen entwickelt sowie Aufgabenbeschreibungen schulischer Akteure definiert haben. Für VertreterInnen der Bildungsadministration und Bildungspolitik bietet die Synopse nicht nur die Möglichkeit eines Vergleichs der implementierten Maßnahmen zwischen den Ländern, sondern auch eine Gesamtschau auf die in dem jeweiligen eigenen Land implementierten drei Instrumente, ihre Verknüpfung und rechtliche Fundierung. Da Entwicklung und Implementation der Instrumente in fast allen Ländern in der Verantwortung unterschiedlicher

6

F. Thiel et al.

Bereiche liegt, ist ein umfassender und gleichermaßen detaillierter Überblick über ­Instrumente und Entscheidungsbefugnisse schulischer Qualitätssicherung nicht selbstverständlich. Für die Bildungsforschung ist die Synopse in mehrfacher Hinsicht instruktiv. Einerseits erlaubt sie eine sehr viel genauere und umfassende Beschreibung verschiedener Steuerungsstrategien als alle bislang vorliegenden Studien. Sie ist deshalb nicht nur hinsichtlich der Identifikation typischer Steuerungsstrategien von großem Interesse. Sie stellt andererseits auch eine gute Grundlage für länderspezifische Fallstudien oder ggf. Studien zur Überprüfung der Wirksamkeit bestimmter Steuerungsstrategien dar. Insofern leistet sie einen Beitrag zur systematischen Strukturierung des Forschungsfeldes.

Literatur Arnold, E., & Maritzen, N. (Hrsg.). (1999). Bestandsaufnahme zu Verfahren der Qualitätsevaluation im allgemein bildenden Schulwesen. Bonn: KMK. Böhm-Kasper, O., & Selders, O. (2013). “Schulinspektionen sollten regelmäßig durchgeführt werden”? Ländervergleichende Analyse der Wahrnehmung und Akzeptanz von Schulinspektionsverfahren. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis: Evidenzbasierte Steuerung im Bildungssystem?: Befunde aus dem BMBF-SteBis-Verbund (Bd. 12, Beiheft 12), 121–153. Brauckmann, S. (2012). Schulleitungshandeln zwischen deconcentration, devolution und delegation (3D) – Empirische Annäherungen aus internationaler Perspektive. Empirische Pädagogik, 26(1), 78–102. Brauckmann, S. (2016). Schulleitungshandeln zwischen erweiterten Rechten und Pflichten (SHaRP) unter Berücksichtigung einschlägiger schulrechtlicher Bestimmungen. In Bundesministerium für Bildung und Forschung (BMBF) (Hrsg.), Steuerung im Bildungssystem. Implementation und Wirkung neuer Steuerungsinstrumente im Schulwesen (Vol. Bildungsforschung Band 43, S. 238–255). Bielefeld: Bertelsmann. Döbert, H., & Dedering, K. (Hrsg.). (2008). Externe Evaluation von Schulen. Historische, rechtliche und vergleichende Aspekte. Münster: Waxmann. Elsing, S., & van Ackeren, I. (2017). Orientierungsrahmen zur Schulqualität im nationalen Vergleich. Eine deskriptive Sichtung unter besonderer Berücksichtigung der Wirkungsdimension und ausgewählter internationaler Ansätze. In P. Dobbelstein, B. Groot-Wilken, & S. Koltermann (Hrsg.), Referenzsysteme zur Unterstützung von Schulentwicklung (S. 35–62). Münster: Waxmann (Beiträge zur Schulentwicklung). Füssel, H.-P. (2009). Evaluationsbasierte Steuerung. Was kann die Bildungsforschung leisten? In R. Tippelt (Hrsg.), Steuerung durch Indikatoren. Methodologische und theoretische Reflektionen zur deutschen und internationalen Bildungsberichterstattung (S. 31–34). Opladen: Budrich (Vorstandsreihe der Deutschen Gesellschaft für Erziehungswissenschaft). Hanßen, K. (2013). Rechtliche Regelungen zu Tätigkeitsfeldern von Schulleiterinnen und Schulleitern bei erweiterter Eigenverantwortung von Schulen. Eine Untersuchung der Rechtslage in den Ländern Brandenburg und Hamburg (Ergänzung zu der Untersuchung der Rechtslage in den Ländern Bayern, Hessen und Nordrhein-Westfalen sowie in den Ländern Brandenburg und Hamburg) (S. 1–50). Berlin: DIPF.

1 Einleitung

7

Kuhn, H.-J. (2015). Schulinspektion in Deutschland – Erfolgsmodell oder neue Illusion? In C. G. Buhren (Hrsg.), Handbuch Feedback in der Schule (S. 79–107). Weinheim: Beltz (Pädagogik). Kultusministerkonferenz (= Sekretariat der Ständigen Konferenz der Kultusminister) (Hrsg.). (2006). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Kultusministerkonferenz. (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Maier, U., Ramsteck, C., & Frühwacht, A. (2013). Lehr-lerntheoretische Argumentationsmuster bei der Interpretation und Nutzung von Vergleichsarbeitsrückmeldungen durch Gymnasiallehrkräfte. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis (Bd. 12, Beiheft 12), 74–96. Maritzen, N. (2014). Glanz und Elend der KMK-Strategie zum Bildungsmonitoring: Versuch einer Bilanz und eines Ausblicks. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 106(4), 398–413. Muslic, B., Ramsteck, C., & Kuper, H. (2013). Das Verhältnis von Schulleitung und Schulaufsicht im Kontext testbasierter Schulreform. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis (Bd. 12, Beiheft 12), 97–120. Rürup, M. (2007). Innovationswege im deutschen Bildungssystem. Die Verbreitung der Idee “Schulautonomie” im Ländervergleich (1. Aufl., Bd. 4). Wiesbaden: VS Verlag (Educational governance). Scheerens, J., & Bosker, R. J. (1997). The foundations of educational effectiveness. Oxford: Pergamon. Thiel, F., & Thillmann, K. (2012). Interne Evaluation als Instrument der Selbststeuerung von Schulen. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung: Empirische Befunde und forschungsmethodische Implikationen (S. 35–55). Wiesbaden: VS Verlag. https://doi.org/10.1007/978-3-531-94183-7_2. Thillmann, K., Bach, A., Gerl, C., & Thiel, F. (2013). Schulische Selbststeuerung durch interne Evaluation. Eine Analyse von Evaluationsprogrammen Berliner und Brandenburger Gymnasien. Paralleltitel: Schools’ self-governance by using internal evaluation. Die deutsche Schule – DDS, 12(Beiheft 12), 197–225. van Ackeren, I., Heinrich, M., & Thiel, F. (Hrsg.). (2013). Evidenzbasierte Steuerung im Bildungssystem? Befunde aus dem BMBF-SteBis-Verbund. Münster: Waxmann (Themenheft). Vbw – Vereinigung der Bayerischen Wirtschaft e. V. (Hrsg.). (2010). Bildungsautonomie: Zwischen Regulierung und Eigenverantwortung. Jahresgutachten 2010 (1. Aufl., Bd. 2010). Wiesbaden: VS-Verlag (Aktionsrat Bildung: Jahresgutachten). von Saldern, M. (2011). Schulinspektion. Fluch und Segen externer Evaluation (Bd. 5). Norderstedt: Books on Demand (Schule in Deutschland). Wurster, S. (2016). Evaluationsgestützte Schul- und Unterrichtsentwicklung. Eine multiperspektivische Analyse von Vergleichsarbeiten, zentralen Abschlussprüfungen, Schulinspektion und interner Evaluation. Dissertation, Humboldt-Universität Berlin. Wurster, S., & Gärtner, H. (2013). Schulen im Umgang mit Schulinspektion und deren Ergebnissen. Zeitschrift für Pädagogik, 59(3), 425–445. http://www.pedocs.de/volltexte/2016/11944/ pdf/ZfPaed_2013_3_Wurster_Gaertner_Schulen_im_Umgang_mit_Schulinspektion.pdf.

2

Analyse bildungspolitischer und -rechtlicher Dokumente – Methodische Grundlagen Jasmin Tarkian und Felicitas Thiel

Die vorliegende Bestandsaufnahme zur Gestaltung evidenzbasierter Schulqualitätssteuerung in den Ländern der Bundesrepublik Deutschland beruht auf einer inhaltsanalytischen Auswertung von über 1000 Dokumenten, die der Autorengruppe zur Konzeption, Implementation und der rechtlichen Verankerung datenbasierter ­Qualitätssicherung und -entwicklung in den 16 Ländern zum Stichtag 31.01.2018 elektronisch oder in Papierform vorgelegen haben. Sie dient der Beschreibung der Verfahrensanlagen und Rechtsgrundlagen der in der überarbeiteten KMK-Gesamtstrategie zum Bildungsmonitoring genannten drei Maßnahmen zur evidenzbasierten Qualitätsentwicklung auf Ebene der Einzelschulen: den Vergleichsarbeiten, den externen und internen Evaluationen (Kultusministerkonferenz [KMK] 2016, S. 13). Eine Bewertung der von den Landesregierungen initiierten und bildungsadministrativ umgesetzten Konzeptionen sowie der sie betreffenden schulrechtlichen Regelungen ist für die Analyse ausdrücklich nicht vorgesehen. Einzelne Kommentierungen zum Entwicklungsstand der Steuerungsinstrumente und den damit für Bildungspolitik, -administration und schulischer Praxis verbundenen Herausforderungen, die von den am Projekt beteiligten Steuergruppenmitgliedern vorgenommen wurden, gehen allein in das Abschlusskapitel der Publikation ein.

J. Tarkian (*) · F. Thiel  Berlin, Deutschland E-Mail: [email protected] F. Thiel E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_2

9

10

J. Tarkian und F. Thiel

2.1 Aufbau eines Dokumentenkorpus Neben Quellen von grundsätzlichem Informationsgehalt wie den landesspezifischen Referenzrahmen zur Schulqualität, den Landesbildungsberichten, dem deutschen Bildungsserver und den jeweiligen Schulgesetzgebungen sind vor allem instrumentbezogene Handreichungen, Konzeptpapiere und in Internetportalen bereitgestellte Informationen in den Dokumentenkorpus eingegangen, die von den Landesinstituten bzw. Qualitätsagenturen, den jeweiligen Inspektoraten oder Netzwerk-Einrichtungen der Länder sowie von den Landesministerien bzw. Senatsbildungsverwaltungen selbst erstellt worden sind. Auch den landesspezifischen Jahres- und Bilanzberichten zu den Vergleichsarbeiten sowie zu den Verfahren der externen wie internen Evaluation, den Website-Darstellungen der für die Auswertung und Aufbereitung von Ergebnisrückmeldungen beauftragten Partnerinstitutionen sowie verschiedenen Kleinen und Großen Anfragen an die Landesregierungen, aber auch Pressemitteilungen der Kultusministerien bzw. der BildungssenatorInnen konnten relevante Hinweise zur Gestaltung und Umsetzung dieser Instrumente entnommen werden. Speziell für die juristische Auswertung sind sämtliche öffentlich auffindbaren, die schulgesetzlichen Ausführungen konkretisierenden „untergesetzlichen Normen“ (Verordnungen, Verwaltungsvorschriften, Erlasse, Rundschreiben) in die Analyse eingegangen, die mit Blick auf ausdrückliche (dem Wortlaut nach eindeutig nachvollziehbare) oder implizite Regelungen analysiert wurden, die einen Sachverhalt oder die Beauftragung eines spezifischen Steuerungsakteurs jeweils über den Kontext erschließen lassen. Ergänzt wurde diese Dokumentensammlung durch – unausgefüllte oder anonymisierte – Originalformulare zu den eingesetzten Verfahren wie Beobachtungsbögen der Schulinspektion, Vordrucke für Zielvereinbarungen, Musterrückmeldungen zu den VERA-Arbeiten sowie öffentlich einsehbare Schul-Rückmeldeberichte oder Materialien zur externen Evaluation bzw. Fragebögen, die als Instrumente der internen Evaluation zumeist auf den Internetseiten der Landesinstitute zum Download zur Verfügung stehen. Alle für die Analyse genutzten, öffentlich einsehbaren Dokumente sind in einem separaten Dokumentenverzeichnis (Dokumentenkorpus) aufgeführt, das ergänzend als OnlinePublikation bereitgestellt ist.

2.2 Experteninterviews mit LändervertreterInnen Die aus den Dokumentenanalysen stammenden Angaben zur Konzeption und Implementation der Instrumente sind zusätzlich durch VertreterInnen der 16 Länder über Experteninterviews im Sinne einer Datentriangulation kommunikativ validiert, vervollständigt und ggfs. aktualisiert worden. Alle GesprächspartnerInnen sind dabei von den Mitgliedern der Projektsteuergruppe jeweils instrumentbezogen identifiziert, teilweise auch von den LandesvertreterInnen als ergänzende AnsprechpartnerInnen empfohlen

2  Analyse bildungspolitischer und -rechtlicher Dokumente …

11

worden. Sie sind vorrangig im fachlich-operativen Bereich der Landesinstitute tätig, in Einzelfällen auch in den Landesministerien bzw. Bildungsverwaltungen. Die leitfadengestützten Experteninterviews erfolgten telefonisch oder vor-Ort und waren ausschließlich auf die konkrete Umsetzung zum Analysestichtag bzw. auf den aktuellen Planungsstand der offiziellen Landeskonzeptionen ausgerichtet. Es sind entsprechend keine individuell-positionierenden Aussagen der GesprächspartnerInnen erfragt bzw. in die Analyse aufgenommen worden. Limitierend muss an dieser Stelle eingeräumt werden, dass infolge verteilter Zuständigkeiten und damit zwangsläufig auch verteilter fachlicher Expertise nicht zu allen in den Übersichten dargestellten Auswertungsaspekten ausnahmslos auch von allen Befragten gleichermaßen umfassende Informationen beigesteuert werden konnten. Zugleich waren auch die benötigten schriftlichen Informationen in den Ländern nicht überall im selben Maße transparent/öffentlich zugänglich bzw. haben nicht aus allen Ländern gleichermaßen aktuelle und alle hier interessierenden Aspekte umfassende Dokumente zur Einsicht vorgelegen. Dies betrifft etwa die Muster-Rückmeldeberichte zu den teilweise jahrgangsbezogen und in den Fachdomänen variierenden VERA-Arbeiten, die als eine wesentliche Grundlage für die Beschreibung der Rückmeldeformate dienten, Ergebnisberichte oder Materialien zu den Verfahren der externen und teilweise auch der internen Evaluation sowie vereinzelt auch untergesetzliche Normen, gerade auf der Ebene von Vorschriften, Erlassen und Rundschreiben. Es kann damit nicht ausgeschlossen werden, dass im Einzelfall Leerstellen bestehen oder Informationen zu inzwischen überarbeiteten Angaben dargestellt sind. Entsprechende Korrekturerfordernisse, die aufgrund der stetigen Weiterentwicklung der Verfahren in den Ländern in einer Synopse zur Konzeption und Implementation bildungspolitischer Maßnahmen der Qualitätsentwicklung schon naturgemäß laufend entstehen, könnten im Rahmen einer Fortschreibung der Analyse berücksichtigt werden. Die Autorengruppe unterstreicht in diesem Zusammenhang insofern den von Norbert Maritzen erteilten Hinweis, dass „Bestandsaufnahmen über Entwicklungsstände, die Überblickswissen und Orientierung vermitteln, […] eigentlich kontinuierlich der Aktualisierung [bedürfen]“ (Maritzen 2015, S. 13). In diesem Sinne ist die vorliegende Synopse selbst auch als eine aktualisierende und zugleich erweiterte Darstellung früherer (Teil-)Bestandsaufnahmen zu verstehen wie sie bereits mit unterschiedlichen Zuschnitten vorgelegt worden sind (z. B. von Böttcher et al. 2013; Döbert und Dedering 2008; Kuhn 2015; Maritzen 2006; Müller et al. 2008; Müller et al. 2011; Saldern 2011).

2.3 Vorgehen und Verfahren der Auswertung Es wurden sämtliche schriftlich vorliegende Dokumente in die Analyse einbezogen, die bis zum Stichtag (31.01.2018) vom Analyseteam auf den einschlägigen Internetportalen der 16 Länder bzw. ihrer nachgeordneten Behörden sowie den von den Ländern genutzten weiteren Kommunikationsplattformen und zusätzlichen Distributionswegen

12

J. Tarkian und F. Thiel

eingesehen werden konnten. Zur Recherche der Schulgesetze dienten insbesondere die Dienstleistungsportale der einzelnen Bundesländer und die Webseiten der Schulaufsichtsbehörden, in denen die Gesetzesschriften kostenlos zum Download zur Verfügung stehen. Auch die Verordnungen und Verwaltungsvorschriften sind hier größtenteils verfügbar, während Rundbriefe häufiger auf den Seiten der zuständigen Landesinstitute auffindbar sind. Da Rechtsverordnungen zusätzlich zu den Schulgesetzen auch im Gesetzes- und Verordnungsblatt verkündet werden und Verwaltungsvorschriften in Amtsblättern, Rundschreiben oder weiteren amtlichen Bekanntmachungen veröffentlicht sind, konnten auch auf diesem Wege relevante Vorschriften ausfindig gemacht werden. Zusätzlich wurde die juristische Fachdatenbank beck-online sowie das Rechtsportal juris verwendet, gerade auch um einen Einblick in frühere Versionen der Schulgesetzgebungen zu erhalten. Gerade die umfangreicheren Dokumente wurden mithilfe einschlägiger Deskriptoren auf die relevanten Textinhalte untersucht, dabei sind die Deskriptoren jeweils auf die landesspezifischen Begrifflichkeiten ausgerichtet worden. Eine Zusammenstellung wesentlicher Begriffsunterschiede für die untersuchten Instrumente und die zentralen schulischen Gremien findet sich am Anhang der Publikation. Die Experteninterviews fanden jeweils parallel zur Erstellung der instrumentbezogenen Teilkapitel schwerpunktmäßig in den Zeiträumen Mai 2017 (Vergleichsarbeiten), Januar 2018 (externe Evaluation) und Oktober 2018 (interne Evaluation) statt. Wurden dabei zur externen und internen Evaluation noch Informationen erteilt, die sich auf laufende Verfahrensanpassungen nach dem 31.01.2018 beziehen, sind diese der Vollständigkeit halber als aktuelle Entwicklungen mitaufgenommen worden, auch wenn im Einzelfall dazu noch keine – die genannten Informationen schriftlich belegenden – Dokumente existierten. Eine Gewichtung der eingegangenen Textgattungen wurde nur nach dem Prinzip vorgenommen, dass Dokumente bzw. Informationen, die von den amtierenden Landesregierungen bzw. ihren VertreterInnen selbst stammen, im Falle von Unklarheiten gegenüber anderen Quellen bevorzugt worden sind. Zugleich wurden – beim Vorliegen verschiedener Dokumentversionen – diejenigen Texte herangezogen, die mit Blick auf die jeweiligen Auswertungsaspekte das jüngste Veröffentlichungsdatum aufweisen. Für die tabellarischen Abbildungen bzw. Infografiken wurden die Bundesländer aus Gründen der besseren Lesbarkeit jeweils mit einem Länderkürzel versehen. Die Vergabe der Länderkürzel folgt den nach der ISO-3166-2 Norm für Deutschland vereinbarten Abkürzungen der Länder (vgl. https://www.iso.org/obp/ui/#iso:code:3166:DE1). Die Auswertung der Dokumente erfolgte nach der von Philipp Mayring begründeten qualitativen Inhaltsanalyse (QIA) in ihrer inhaltlich-strukturierenden Variante und wurde technisch bei der kategorienbasierten Datenreduzierung und -aufbereitung mithilfe der Analysesoftware MAXQDA 12 umgesetzt. Diese gerade in der Kommunikations- und Sozialwissenschaft etablierte Technik dient der systematisch-regelgeleiteten Analyse unterschiedlichster Dokumentformen und eignet sich in besonderer Weise für die

1Zugegriffen:

15.02.2019.

2  Analyse bildungspolitischer und -rechtlicher Dokumente …

13

­ uswertung sehr großer Datenbestände, wie es für die vorliegende Synopse zutreffend A ist. Da durch verschiedene Vorarbeiten und die enge Zusammenarbeit mit den ExpertInnen der Projektsteuergruppe bereits zu Projektbeginn ein Grundstock an zentralen Auswertungskategorien vorlag, wurde bei den Analysen zunächst theoriegeleitet-deduktiv vorgegangen. Parallel dazu konnte das Analyseraster aber auch durch induktiv aus dem Material gewonnene, weitere Kategorien vervollständigt werden (Mayring und Fenzl 2014, S. 550). Wann ein Textteil jeweils unter eine (Sub-)Kategorie fällt, ist nach diesem Vorgehen genau festzulegen. Dabei hat sich gemäß Mayring ein dreischrittiges Vorgehen („Kodierleitfaden“) bewährt, das zunächst eine möglichst eindeutige Definition der Kategorie vorsieht, zu der im Weiteren eine als Kodierregel bezeichnete Arbeitsanweisung für die Zuordnung relevanter Fundstellen erstellt wird, die – durch dazu besonders aussagekräftige Ankerbeispiele aus dem Material gestützt – die Bestandsaufnahme zu Verfahren der Qualitätssicherung und Evaluation im allgemeinbildenden Schulwesen Kategorie prototypisch abbilden (Mayring 2015, S. 97). Sämtliche auf diese Weise generierten Informationen sind jeweils in thematisch fokussierten Workshops unter Einbezug der Projektsteuergruppe sowie zusätzlicher wissenschaftlicher ExpertInnen aus der empirischen Bildungsforschung in ihrem Erkenntniswert und mit Blick auf ihre Präsentationsform diskutiert worden. An dieser Stelle dankt die Herausgeberschaft Frau Prof. Dr. Isabell van Ackeren, Herrn Prof. Dr. Hans-Peter Füssel, Herrn Dr. Holger Gärtner und Herrn Prof. Dr. Hans Anand Pant ganz herzlich für ihre wertvollen Rückmeldungen und Hinweise.

Literatur Böttcher, W., Hense, J., & Keune, M. (2013). Schulinspektion als eine Form externer Evaluation – ein Forschungsüberblick. In J. Hense (Hrsg.), Forschung über Evaluation. Bedingungen, Prozesse und Wirkungen (S. 231–250). Münster: Waxmann. Döbert, H., & Dedering, K. (Hrsg.). (2008). Externe Evaluation von Schulen. Historische, rechtliche und vergleichende Aspekte. Münster: Waxmann. Kuhn, H.-J. (2015). Rechtliche, strukturelle und politische Rahmenbedingungen für externe Evaluation in Deutschland. In M. Pietsch, B. Scholand, & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (Bd. 15, S. 385–418). Münster: Waxmann (HANSE – Hamburger Schriften zur Qualität im Bildungswesen). Kultusministerkonferenz (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Maritzen, N. (2006). Schulinspektion zwischen Aufsicht und Draufsicht – Eine Trendanalyse. In H. Buchen, L. Horster, & H.-G. Rolff (Hrsg.), Schulleitung und Schulentwicklung (S. 7–26). Stuttgart: Raabe, Fachverlag für Bildungsmanagement. Maritzen, N. (2015). Schulinspektion – Aspekte der Transformation von Governance-Strukturen. In M. Pietsch, B. Scholand, & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste ­Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (Bd. 15, S. 13–36). Münster: Waxmann (HANSE – Hamburger Schriften zur Qualität im Bildungswesen).

14

J. Tarkian und F. Thiel

Mayring, P. (2015). Qualitative Inhaltsanalyse. Grundlagen und Techniken/Philipp Mayring (12., überarbeitete Aufl.). Weinheim: Beltz. Mayring, P., & Fenzl, T. (2014). Qualitative Inhaltsanalyse. In N. Baur & J. Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung (S. 543–556). Wiesbaden: Springer VS. Müller, S., Dedering, K., & Bos, W. (Hrsg.). (2008). Schulische Qualitätsanalyse in Nordrhein-Westfalen. Konzepte, erste Erfahrungen, Perspektiven (Praxishilfen Schule, 3, aktualisierte u. erweiterte Aufl.). Köln: LinkLuchterhand. Müller, S., Pietsch, M., & Bos, W. (Hrsg.). (2011). Schulinspektion in Deutschland. Eine Zwischenbilanz aus empirischer Sicht. Münster: Waxmann. von Saldern, M. (2011). Schulinspektion. Fluch und Segen externer Evaluation (Bd. 5). Norderstedt: Books on Demand (Schule in Deutschland).

3

Rahmenkonzepte zur Definition von Schulqualität in den 16 Ländern Felicitas Thiel und Jasmin Tarkian

3.1 Schulen als Akteure der Qualitätsentwicklung Die überarbeite Fassung der Gesamtstrategie zum Bildungsmonitoring der Kultusministerkonferenz (2016) lenkt die Aufmerksamkeit auf die Bedeutung der Einzelschule für die Qualitätssicherung und -entwicklung des Gesamtsystems. Mit Vergleichsarbeiten, externer und interner Evaluation werden die wichtigsten „Maßnahmen einer evidenzbasierten Qualitätsentwicklung und -sicherung auf Ebene der einzelnen Schule“ als zentrale Ansatzpunkte der Verbesserung von Systemqualität identifiziert. Damit greift die Kultusministerkonferenz die Diskussion um die zentrale Rolle proximaler (unmittelbar wirksamer) Faktoren der Schulqualität auf, die spätestens mit dem von Helmut Fend publizierten Beitrag „Gute Schulen – schlechte Schulen“ in Gang gesetzt worden war. Fend hatte mit der Beschreibung der Schule als „pädagogische Handlungseinheit“ (Fend 1986) die Befunde internationaler Forschung zur Schuleffektivität auf den Begriff gebracht und neue Perspektiven für die deutschsprachige Schulforschung eröffnet. Ihren schulpolitischen Widerhall fand die von Helmut Fend angestoßene Debatte in der Einrichtung von Modellvorhaben zur Ausweitung von schulischen Entscheidungsspielräumen und zur Verlagerung operativer Entscheidungskompetenzen von der Schulaufsicht auf die einzelne Schule. Im Anschluss an die Evaluation dieser Modellvorhaben (Maag Merki und Büeler 2002; Holtappels et al. 2008; Sroka et al. 2007; Holtappels et al. 2008; Gärtner 2017b) wurden unterschiedliche Instrumente organisationaler Selbststeuerung wie das Schulprogramm oder die interne Evaluation in den F. Thiel (*) · J. Tarkian  Berlin, Deutschland E-Mail: [email protected] J. Tarkian E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_3

15

16

F. Thiel und J. Tarkian

meisten Bundesländern flächendeckend implementiert (vgl. Kap. 6). Schulen erhielten zudem zunehmend die Möglichkeit zur Profilbildung und der Entwicklung schulinterner Curricula. Weil die Stärkung schulischer Selbstständigkeit unter den Bedingungen von verfassungsrechtlich garantierten Mindestansprüchen an schulische Bildung zwangsläufig mit einer erhöhten Rechenschaftslegung einhergehen muss, veränderten sich auch die Anforderungen an die Schulaufsicht. Die Überprüfung der Leistungen der einzelnen Schule unter den Bedingungen erhöhter Selbstständigkeit erfordert die Einführung von Controlling-Maßnahmen wie verpflichtende Berichtslegungen oder Zielvereinbarungen. Eine systematische externe Evaluation der schulischen Prozesse und Ergebnisse durch Inspektionsverfahren wurde als zentrales Instrument der Qualitätssicherung neben der traditionellen Schulaufsicht in fast allen Bundesländern implementiert (vgl. Kap. 5). Zu diesem Zweck wurden eigene Einrichtungen geschaffen, denen – weitgehend unabhängig von der traditionellen operativen Schulaufsicht (vgl. Abschn. 7.3) – die Aufgabe der Überprüfung schulischer Leistung und Leistungsfähigkeit übertragen wurde (Gärtner 2017a). Wie Mindestansprüche an die Ergebnisse schulischer Arbeit zu definieren sind, wird durch Bildungsstandards differenziert beschrieben (Klieme et al. 2007) und mittels Vergleichsarbeiten oder zentralen Abschlussprüfungen (bzw. auf Systemebene im Rahmen der Ländervergleiche/Bildungstrends) gemessen. Die Operationalisierung und Messung erwarteter Effekte ist allerdings weder für die Planung und Gestaltung von Schulentwicklungsprozessen noch für ihre interne und externe Evaluation, deren Funktion in der Identifikation von Ansatzpunkten für Entwicklung besteht, hinreichend. Aus diesem Grund mündeten die Diskussionen über die Operationalisierung von Qualitätsindikatoren für die Beschreibung von Prozessen auf der Ebene des Unterrichts und der Schule nahezu zwangsläufig in die Entwicklung von Rahmenkonzepten zur Schulqualität. Eine wichtige Rolle spielte hier das Hessische Institut für Bildungsplanung und Schulentwicklung und der dort organisierte „Arbeitskreis Qualität von Schule“, aus dessen Mitte schon früh Überlegungen zur „Wirksamkeit und Qualität von Schule“ (Steffens und Bargel 1987) angestellt wurden, die im „Hessischen Referenzrahmen Schulqualität (HRS)“ ihren Niederschlag fanden (Institut für Qualitätsentwicklung Hessen 2011). Inzwischen haben fast alle Bundesländer ihre Konzepte zur Schulqualität unter Titeln wie Handlungsrahmen, Orientierungsrahmen, Referenzrahmen oder zumindest Modelle bzw. Tableaus der Schulqualität veröffentlicht. Diese Rahmenkonzepte haben unterschiedliche Funktionen. Zum einen definieren sie Merkmale und Indikatoren für die (externe und interne) Evaluation von Schulen, die in erster Linie der Schulentwicklung vor Ort dienen sollen, aber flankierend auch für schulaufsichtliches Controlling sowie Bildungsmonitoring genutzt werden können. Zum anderen wird mit der Publikation der Rahmenkonzepte die Erwartung einer Normendurchsetzung verbunden, d. h. einer orientierenden Funktion für Planungsentscheidungen unterschiedlicher Akteure, von Lehrkräften und

3  Rahmenkonzepte zur Definition von Schulqualität …

17

Schulleitungen bis hin zu Akteuren der Fortbildung (vgl. Landwehr 2011; Elsing und Ackeren 2017; Dobbelstein et al. 2017). Erst kürzlich sind die Referenzrahmen zum Gegenstand einer ersten Dokumentenanalyse gemacht worden (Elsing und Ackeren 2017). Die Dokumente wurden hier vor allem hinsichtlich ihrer Strukturmerkmale und ihrer grafischen Aufbereitung sowie schwerpunktmäßig mit Blick auf die „Operationalisierung der Wirkungsdimensionen“ analysiert. Zwar verzichten die Autorinnen auf eine systematische Übersicht der Operationalisierung der Wirkungsdimensionen in allen 16 Bundesländern, die dargestellten Beispiele im Text lassen aber vermuten, dass – trotz eines geteilten Grundverständnisses von Schulqualität – eine deutliche Varianz hinsichtlich der vorgeschlagenen Bezugsnormen für die Interpretation von Ergebnissen, des Stellenwerts und der Operationalisierung von nicht-fachlichen Kompetenzen sowie der Definition von Indikatoren zur Erfassung der Schullaufbahn besteht (Elsing und Ackeren 2017, S. 48 f.). Aufbauend auf den Vorarbeiten von Stephanie Elsing und Isabell van Ackeren (2017) wurden die Rahmenkonzepte zur Schulqualität der 16 Länder (in der Regel sind diese als Referenz-, Orientierungs- oder Handlungsrahmen bezeichnet) im Hinblick auf die definierten Qualitätsdimensionen bzw. -merkmale, die Modellierung von Einflussfaktoren der Schulqualität, die in den Rahmen explizit enthaltenden Vorstellungen von Qualitätsentwicklung – insbesondere Unterrichtsqualität – sowie hinsichtlich formaler Aspekte detailliert untersucht. Dabei ist in Rechnung zu stellen, dass die untersuchten Rahmenkonzepte eine Momentaufnahme der Vorstellungen über schulische Qualität darstellen und sich zum Analysestichtag (31.01.2018) teilweise bereits wieder in Überarbeitung befanden.

3.2 Kriterien der Schulqualität Hartmut Ditton (2000) hat in einem Beitrag für ein Schwerpunktheft der Zeitschrift für Pädagogik zum Thema Qualität und Qualitätssicherung im Bildungsbereich einen Vorschlag für die Definition und Operationalisierung von Schulqualität publiziert. Vor dem Hintergrund der Befunde der Schulforschung plädiert er für die Entwicklung eines theoretisch fundierten und empirisch geprüften Modells der Schulqualität, das unmittelbare Outputs von längerfristigen Outcomes unterscheidet und sowohl auf der Ebene des Unterrichts als auch auf der Ebene der Schule die zentralen Faktoren für eine Optimierung der Lernerträge ausweist. Ditton betont explizit, dass die proximalen Faktoren, d. h. die Faktoren, die maßgeblich die Gestaltung einer lernwirksamen Lehr-Lernsituation beeinflussen, im Zentrum der Überlegungen stehen müssen. Ausgehend vom Kern der Leistungserbringung der Schule, dem Unterricht, sollten dann organisationale und systemische Faktoren in der Logik der Identifikation von

18

F. Thiel und J. Tarkian

­ rmöglichungsbedingungen beschrieben werden. Eine wichtige Unterscheidung betrifft E die strukturelle und die dynamische Dimension der Schulentwicklung. Bezieht sich die strukturelle Dimension auf das Mehrebenengeflecht, also auf die Schachtelung von Individuen in Lehr-Lernsituationen in Schulen in sozial-regionalen Kontexten, so ist mit der dynamischen Dimension die Prozessqualität (oder Produktionsfunktion) ­schulischer Bildung bezeichnet, genauer: die Transformation von Inputs in Outputs. Sowohl hinsichtlich der Frage, was als Input schulischer Leistungserbringung gelten kann, als auch was das Problem der vermittelten Transformation eines Inputs in einen Output betrifft, unterscheiden sich Schulen erheblich von anderen Organisationen. In der Diskussion um die Entwicklung von Qualitätssicherungs- und -entwicklungsverfahren für Schulen ist deshalb häufig darauf hingewiesen worden, dass eine einfache Übertragung betriebswirtschaftlicher oder verwaltungstechnischer Qualitätssicherungsverfahren auf Schulen an deutliche Grenzen stößt bzw. kontraproduktive Wirkungen entfalten kann. Während sich aus der Mehrebenenstruktur des Schulsystems die Anforderung einer (adaptiven) Koordination von Entscheidungen ergibt, die die notwendigen professionellen Autonomiespielräume ebenso gewährleistet wie ein bestimmtes Anspruchsniveau der (staatlich garantierten) Leistung, bestehen die Besonderheiten der schulischen Produktionsfunktion darin, dass einerseits die Inputs den Entscheidungen der Leistungserbringenden weitgehend entzogen sind, oder anders formuliert: die „Qualität“ eines relevanten Teils der Inputs innerschulisch kaum veränderbar ist, und dass anderseits die Leistungserbringung in einer Logik der Ko-Produktion erfolgt (Fend 2000). Insbesondere der zweite Gesichtspunkt unterscheidet professionelle Organisationen fundamental von anderen Organisationen: Bei der Erbringung der Leistung sind die Leistungserbringenden auf die Mitwirkung ihrer Kunden, hier: der SchülerInnen, angewiesen (vgl. Mintzberg 1979; Thiel 2008). Diese besonderen Merkmale von Schulorganisationen müssen bei der Modellierung von Schulqualität berücksichtigt werden, soll eine Beurteilung einer Schule fair erfolgen und ein entsprechendes Feedback die wesentlichen Ansatzpunkte für Optimierung fokussieren. Inwieweit ein intendiertes Curriculum erreicht wird, hängt dabei maßgeblich von Faktoren der Implementation ab, die wiederum durch Rahmenbedingungen limitiert wird (Ditton 2000). Auf der Schulebene unterscheidet Ditton im Anschluss an die Befunde von Stringfield (1994) vier Einflussfaktoren, die über die Gestaltung des Unterrichts, indirekt Lernzuwächse von SchülerInnen beeinflussen: Schulkultur, Schulmanagement, Personalpolitik und -entwicklung, Kooperation und Koordination. Vor dem Hintergrund organisationstheoretischer Überlegungen und empirischer Befunde sind Schulen dann effektiv und effizient, wenn sie gemeinsame Ziele und ein geteiltes Aufgabenverständnis haben, wenn sie Aufgaben, Zuständigkeiten und Entscheidungskompetenzen eindeutig definieren, wenn sie Kooperation nach innen und außen sicherstellen um Prozesse und Entscheidungen aufeinander abzustimmen und wenn sie schließlich für eine kompetente

3  Rahmenkonzepte zur Definition von Schulqualität …

19

Aufgabenerfüllung durch eine entsprechende Personalgewinnungs- und -entwicklungsstrategie Sorge tragen. Diese vier Faktoren schulischer Qualität sind sowohl mit managementtheoretischen (Mintzberg 1979) als auch mit systemtheoretischen ­(Luhmann 2000) Ansätzen gut kompatibel (Thiel 2008). Die zentralen Dimensionen der Unterrichtsqualität beschreibt Ditton (2000) im Rückgriff auf das sogenannte QUAIT-Modell von Slavin (1996): Quality of Instruction (Qualität), Appropriateness (Angemessenheit), Incentives (Motivierung), Time (Unterrichtszeit). Indikatoren für die Qualität der Instruktion sind: Strukturiertheit, ­ Klarheit/Verständlichkeit, Variablität der Unterrichtsformen, angemessenes Tempo, angemessener Medieneinsatz, Übungsintensität, Stoffumfang, Leistungserwartungen und Anspruchsniveau. Die Motivierungsqualität lässt sich nach dem QUAIT Modell ablesen an bedeutungsvollen Inhalten und Lernzielen, bekannten Erwartungen und Zielen, Vermeidung von Leistungsangst, der Weckung von Interesse und Neugier, Bekräftigung und Verstärkung sowie einem positiven Klassenklima. Eine effektive Nutzung der Unterrichtszeit lässt sich an der für Lernen verfügbaren Zeit, an Lerngelegenheiten, an der genutzten Lernzeit, an Inhaltsorientierung, Lehrstoffbezogenheit, Klassenmanagement und Klassenführung ablesen. Die vierte Dimension, Angemessenheit, umfasst die Indikatoren Angemessenheit des Schwierigkeitsgrads, Adaptivität, diagnostische Sensibilität/Problemsensitivität, individuelle Unterstützung und Beratung, Differenzierung und Individualisierung sowie Förderungsorientierung (Ditton 2000, S. 82). Kritik an dem Modell wurde hinsichtlich der Trennschärfe der vier Dimensionen und an der Modellierung von Adaptivität als eigener Dimension anstatt als querliegender Anforderung formuliert (Helmke 2003). Ditton selbst hat in einer späteren Publikation (2006) im Anschluss an das Modell der Unterrichtsqualität der TIMSS-Videostudie (Klieme et al. 2001) nur noch drei Dimensionen erfolgreichen Unterrichts beschrieben: Unterrichts- und Klassenführung, Schülerorientierung und kognitive Aktivierung. Dieses Modell liegt auch den Unterrichtsanalysen der COACTIV-Studie zugrunde (Kunter und Voss 2011). Die drei Dimensionen werden operationalisiert als „klare, strukturierte und gut organisierte Instruktion“, Eingehen auf „individuelle Lernpotenziale und Bedürfnisse der einzelnen Schüler“ und im Sinne einer „Komplexität der Aufgabenstellungen und Argumentationen auf der einen und hohe Intensität des fachlichen Lernens auf der anderen Seite“ (Ditton 2006, S. 240). Auch dieser Vorschlag zur Operationalisierung dreier Basisdimensionen der Unterrichtsqualität weist gewisse Schwierigkeiten hinsichtlich der theoretischen Trennschärfe auf. Ein alternativer Vorschlag zur Operationalisierung der drei Basisdimensionen geht von dem von Karl Josef Klauer und Detlev Leutner (2007) beschriebenen Lehr-Lern-Prozessmodell aus und unterscheidet den kognitiven (Unterstützung des Wissenserwerbs) vom motivationalen (Motivierung) Aspekt des Lernens und ergänzt diese aus lernpsychologischer Sicht identifizierten Anforderungen um die Anforderung einer lerndienlichen Steuerung der Interaktion (Klassenmanagement) (Thiel et al. 2012; Thiel 2016).

20

F. Thiel und J. Tarkian

Dittons Vorschlag zur Modellierung von Faktoren der Schulqualität kann nach wie vor Aktualität beanspruchen. Sein Modell ist prinzipiell gut geeignet, Kriterien zur Beschreibung der Referenz- oder Qualitätsrahmen für Schulentwicklung zu identifizieren. Ditton macht allerdings deutlich, dass die Modellierung von Einflussfaktoren nicht im Sinne einer Fixierung von Stellschrauben für Qualitätsentwicklung zu verstehen ist, sondern Spielraum lässt für die Entwicklung unterschiedlicher Strategien. Auf der Grundlage strukturfunktionalistischer oder systemtheoretischer Ansätze kann argumentiert werden, dass in den meisten Fällen mehrere, funktional äquivalente Strategien zielführend sein können. So kann sowohl kooperative Führung als auch ein transaktionales Führungskonzept hinsichtlich der Entwicklung schulischer Qualität wirksam sein. Außerdem muss immer in Rechnung gestellt werden, dass die Wirksamkeit einer Strategie von internen und externen Rahmenbedingungen bzw. sogenannten Kontingenzfaktoren abhängt. Das heißt z. B.: In unterschiedlichen Phasen des Schulentwicklungsprozesses oder in unterschiedlichen Kontexten können auch unterschiedliche Instrumente wirksam sein. Für die praktische Beurteilung von Qualität ergeben sich aus der funktionalen Äquivalenz sowie aus der Kontingenz unterschiedlicher Steuerungsstrategien wichtige Schlussfolgerungen. Zum einen sollte die Operationalisierung von Qualitätsindikatoren für Prozesse auf der Schul- und Unterrichtsebene sich auf zentrale prozessrelevante Merkmale beschränken, um nicht Gefahr zu laufen, organisationale und professionelle Prozesse zu determinieren; zum anderen müssen bei der Beurteilung der Qualität einer Schule in jedem Fall die Rahmenbedingungen miteinbezogen werden.

3.3 Methode der Auswertung Es wurden die aktuellen Qualitätskonzepte der 16 Länder der Bundesrepublik Deutschland untersucht. In der Regel handelt es sich hier um sogenannte Handlungs-, Orientierungs- oder Referenzrahmen, die die Schulentwicklungsaktivitäten der Schulen und die schulaufsichtlichen Aktivitäten sowie die externe Evaluation gleichermaßen orientieren sollen. In einzelnen Fällen, in denen solche expliziten Referenzrahmen nicht vorlagen, wurde eine Kriterienbeschreibung Schulqualität (SN) bzw. eine Beschreibung der Qualitätsbereiche der externen Evaluation (MV) ausgewertet. Die Dokumente wurden über die Internet-Informationsportale der Länder in Abstimmung mit den für die thematischen Analysen (Kap. 4–6) identifizierten Landesvertretungen zusammengestellt. Zunächst wurden die Dokumente der 16 Länder unter formalen Gesichtspunkten hinsichtlich ihres Umfangs, des Differenzierungsgrad der Merkmale, der Herausgeberschaft und der im Dokument enthaltenen Referenzen charakterisiert (siehe Abb. 3.1 im Anhang des vorliegenden Beitrags).

3  Rahmenkonzepte zur Definition von Schulqualität …

21

Die Auswertung nach inhaltlichen Kriterien (Abb. 3.2 im Anhang) erfolgte in Anlehnung an Ditton (2006) für die vier Dimensionen des Bildungsproduktionsmodells (Inputs/Kontextbedingungen, Prozesse auf Schulebene, Prozesse auf Unterrichtsebene, Outputs). In der Regel wurde die Operationalisierung auf der obersten (ersten) und der zweiten Ebene, wie sie die Dokumente jeweils ausweisen, erfasst. Eine Ausnahme wurde bei der Qualitätsdimension „Unterricht/Lehren und Lernen“ gemacht. Dort, wo die Qualitätskriterien des Unterrichts sowie der individuellen Förderung erst auf der dritten Ebene beschrieben sind, wurde auch diese Ebene einbezogen (in der Abbildung in Klammern kursiv gesetzt), weil Unterrichtsqualität das entscheidende (proximale) Qualitätsmerkmal darstellt und ein Vergleich der Konzeptionen von Unterrichtsqualität aus diesem Grund von besonderem Interesse ist. Die Dimension „Unterricht/Lehren und Lernen“ wurde außerdem einer Detailauswertung unterzogen (Abb. 3.3 im Anhang). Ziel dieser Detailauswertung war es, das jeweilige Verständnis von Unterrichtsqualität in den Ländern zu rekonstruieren. Dazu wurde in den entsprechenden Qualitätsbereichen der jeweiligen Dokumente nach den oben skizzierten Merkmalen der Unterrichtsqualität gesucht. Abschließend wurde für diese und verwandte Begriffe eine Deskriptorensuche in den gesamten Dokumenten durchgeführt, um sicherzugehen, dass relevante Merkmale, die unter einem anderen Qualitätsbereich (z. B. Qualitätsentwicklung) genannt werden, aber die Unterrichtsqualität unmittelbar betreffen, miteinbezogen werden. Wenn entsprechende Begriffe in einem anderen Qualitätsbereich identifiziert wurden, wurde geprüft, ob sich das Merkmal explizit auf Unterricht bzw. Unterrichtsqualität bezieht. So wurde z. B. der Indikator „Nutzung von Lernstandserhebungen“ in der Qualitätsdimension „Qualitätsentwicklung“ in die Teilanalyse der Konzepte von „Unterricht/­Lehren und Lernen“ nur dann aufgenommen, wenn die Nutzung für Unterrichtsentwicklung spezifiziert wurde. Außerdem wurden die Qualitätsdimensionen oder Subdimensionen zum Themenbereich Qualitätssicherung/Qualitätsmanagement/Qualitätsentwicklung genauer erfasst (Abb. 3.4 im Anhang).

3.4 Ergebnisse der Dokumentenanalyse Was die formalen Merkmale der untersuchten Qualitätsrahmen bzw. -tableaus angeht, sind erhebliche Unterschiede zwischen den Dokumenten festzustellen (siehe Abb. 3.1). Der Seitenumfang reicht von 2 Seiten (TH) bis zu 122 Seiten (HE). Teilweise werden die Rahmenkonzepte in eigenen Broschüren publiziert und ausführlich kommentiert (z. B. HE, NW, BB, BE) oder im Rahmen von Handreichungen zur externen Evaluation erläutert (z. B. MV, BY). Für Thüringen findet sich nur ein kommentiertes Modell auf zwei Seiten.

22

F. Thiel und J. Tarkian

Auch was die Herleitung der Qualitätsmerkmale bzw. die Referenzen auf externe Quellen betrifft, unterscheiden sich die Dokumente deutlich. So finden sich etwa im Hessischen Referenzrahmen zahlreiche Referenzen auf wissenschaftliche Publikationen, im Niedersächsischen oder Brandenburger Rahmen wird ein großer Teil der Merkmale aus gesetzlichen Vorgaben abgeleitet, in anderen Rahmen wie z. B. dem des Saarlands finden sich dagegen gar keine Referenzen auf Quellen. In einigen Fällen wird der Qualitätsrahmen direkt vom Landesinstitut herausgegeben, in den meisten Fällen fungiert das zuständige Ministerium als Herausgeber. Die Dokumente unterscheiden sich auch hinsichtlich der Operationalisierung der Qualitätsdimensionen teilweise deutlich. In den meisten Fällen werden drei Ebenen unterschieden, teilweise werden bis zu fünf Ebenen operationalisiert. Auf der obersten Ebene werden zwischen 3 und 7 Qualitätsdimensionen unterschieden. Auf der zweiten Ebene werden zwischen 8 und 36 Subdimensionen beschrieben, und auf der dritten Ebene finden sich zwischen 23 und 95 Kriterien. Dazu kommen in vielen Fällen Indikatoren oder aufschließende Aussagen, die genau fixieren, was unter dem jeweiligen Kriterium zu verstehen ist. Fast alle Dokumente stellen auf mindestens einer Ebene einen expliziten Bezug zu den Bildungsstandards her. Mit Ausnahme des Hamburger Orientierungsrahmens findet sich in allen grafisch abgebildeten Qualitätsmodellen oder Tableaus zumindest ansatzweise eine Modellierung der Produktionsfunktion schulischer Arbeit, d. h. die explizite Unterscheidung von Prozessen und Outputs. In vielen Modellen/Tableaus werden auch Inputs bzw. Rahmenbedingungen dargestellt. Hinsichtlich der inhaltlichen Analyse der Dokumente, gibt Abb. 3.2 einen Überblick über die vier analysierten Aspekte. Alle Konzepte, mit Ausnahme des rheinland-pfälzischen, das die Wirkungsdimension nicht operationalisiert, orientieren sich explizit oder implizit an der Produktionsfunktion von Schule und unterscheiden Ergebnisse bzw. Wirkungen von Prozessen. Auch die Mehrebenenstruktur des Schulsystems wird in allen Dokumenten insofern berücksichtigt, als dass Prozesse auf der Ebene des Unterrichts von Prozessen auf der Ebene der Schule unterschieden werden und die Prozesse auf der Ebene der Schule grundsätzlich im Sinne von Ermöglichungsbedingungen für guten Unterricht operationalisiert werden. Hinsichtlich der Indikatoren auf der Seite der Wirkungen/Ergebnisse gibt es große Schnittmengen zwischen den Qualitätskonzepten der Länder. So nennen alle Dokumente – mit Ausnahme des neuaufgelegten rheinland-pfälzischen Orientierungsrahmens, der die Wirkungsdimension nicht operationalisiert – schulische bzw. fachliche und überfachliche Leistungen sowie schulische Abschlüsse bzw. Bildungslaufbahnen als Output-Kriterien. In einigen Qualitätsrahmen werden überfachliche Outputs genauer beschrieben. So findet sich beispielsweise im Dokument von Mecklenburg-Vorpommern die Wirkungsdimension „Persönlichkeitsbildung“, im Qualitätsrahmen von

3  Rahmenkonzepte zur Definition von Schulqualität …

23

­ achsen-­ S Anhalt werden neben sozialer Kompetenz, Lern-, Selbst- sowie Methodenkompetenz auch Medienkompetenz bei überfachlichen Kompetenzen genannt. Die Zufriedenheit mit oder Akzeptanz der Schule fand Eingang in den größten Teil der Qualitätskonzepte. Im Hamburger Orientierungsrahmen wird auch die Zufriedenheit der MitarbeiterInnen als Wirkungsvariable erfasst; in einigen Konzepten wird die Zufriedenheit der Eltern oder der AbnehmerInnen operationalisiert. Was die Definition der Qualitätsmerkmale auf Schulebene angeht, besteht ebenfalls große Übereinstimmung zwischen den untersuchten Dokumenten. Immer wird das Leitungshandeln/Schulmanagement und die Schulkultur bzw. das Schulleben oder -klima genannt. Auch Qualitätsentwicklung und Kooperation sind Merkmale, die entweder auf der obersten Ebene oder der zweiten Ebene operationalisiert werden. Externe Rahmenbedingungen bzw. Voraussetzungen werden nur in fünf der 16 Dokumente explizit beschrieben (wobei das thüringische Dokument nur eine Kommentierung des Modells auf zwei Seiten umfasst). In allen fünf Fällen werden soziale Bedingungen (Schülerschaft, familiäre Kontexte) sowie materielle Bedingungen/Ressourcen einbezogen. Teilweise (NW, HB, HE, TH) werden auch normative bzw. rechtliche Rahmenbedingungen genannt. Was die Beschreibung der Dimension/Subdimension „Qualitätsentwicklung/-sicherung/ -management“ (vgl. Abb. 3.4) betrifft, unterscheiden sich die 16 Rahmenkonzepte zwar im Operationalisierungsgrad, in den verschiedenen Rahmenkonzepten kommt aber ein ähnliches Verständnis von Qualitätsentwicklung zum Ausdruck. In der großen M ­ ehrzahl der Konzepte ist von Qualitäts- oder Schulentwicklung die Rede, in einigen Fällen in Kombination mit Schulentwicklung oder Qualitätsmanagement. In einigen Konzepten wird neben einer eigenständigen Dimension „Qualitätsentwicklung“ zusätzlich „Qualitätsmanagement als Führungsaufgabe“ operationalisiert (BE, BB, MV, RP). Die Beschreibung der einzelnen Indikatoren orientiert sich erkennbar an der Vorstellung eines Qualitätszyklus. In der Mehrzahl der Dokumente wird das Schulprogramm als Qualitätsaspekt explizit genannt. Andere Konzepte enthalten Aspekte wie Zielorientierung, Planung, Monitoring (BY) oder betonen stärker den Aspekt der datengestützten Zielentwicklung und Steuerung der Datengewinnung (NW). In den meisten Rahmenkonzepten wird die Nutzung von Vergleichsarbeiten bzw. Lernstandserhebungen für schulische Qualitätssicherung explizit beschrieben. Zielvereinbarungen werden als Kriterium der Qualitätsentwicklung nur im Rahmenkonzept von Rheinland-Pfalz ausdrücklich genannt. Rechenschaftslegung/Berichtspflicht wird ausschließlich im Bremer Orientierungsrahmen explizit als Qualitätsmerkmal beschrieben. Der Bremer Orientierungsrahmen listet außerdem den Aspekt „Beschwerdemanagement“ unter der Dimension „Qualitätsmanagement“ auf. Im Hamburger Konzept findet sich der Aspekt „Sicherung des Organisationswissens“ unter der Dimension „Qualitätsentwicklung ­etablieren“. Im Rahmenkonzept von

24

F. Thiel und J. Tarkian

Schleswig-Holstein wird die Antwort auf die Frage, ob U ­ nterrichtsentwicklung den Arbeitsmittelpunkt darstellt, als ein Indikator für Qualitätsentwicklung betrachtet. Die Auswertung der Rahmenkonzepte hinsichtlich der Operationalisierung der Unterrichtsqualität ergab ebenfalls große Schnittmengen (siehe Abb. 3.3; vgl. auch die Analyse der Unterrichtsbeobachtungsbögen aus den Verfahren externer Evaluation in Kap. 5). Für alle untersuchten Dokumente (TH wurde in diese Analyse nicht einbezogen, weil dort lediglich ein zweiseitiges Dokument existiert, in dem keine Merkmale/Indikatoren operationalisiert werden) sind folgende Merkmale guten Unterrichts ausgewiesen: Kompetenz- bzw. Standardorientierung, Individualisierung/Umgang mit Heterogenität, Unterrichts-/Lernklima, Klassenführung, selbstgesteuertes Lernen, Leistungsfeststellung und Leistungsrückmeldung und – mit wenigen Ausnahmen – Mediennutzung, Strukturierung, Nutzung von Lernstandserhebungen für Unterricht/Förderung sowie fächerübergreifender Unterricht. In 10 bis 13 Bundesländern werden Leistungsorientierung, Methodenvielfalt/-Variabilität, Motivierung, kooperatives Lernen, Anwendungs-/­ Lebensweltbezug, Nutzung außerschulische Lernorte, schulinterne Curricula und fächerübergreifender Unterricht als Qualitätsmerkmale verstanden. Ein uneinheitliches Bild zeigt sich dagegen für die Merkmale fachliche Qualität, kognitive Aktivierung, Üben oder Einbindung von Hausaufgaben. Dass einige Merkmale, die in der Unterrichtsforschung einen hohen Stellenwert haben, nur in einem Teil der Rahmenkonzepte zu finden sind, mag, wie im Fall des Merkmals kognitive Aktivierung, am Publikationsdatum einiger Rahmenkonzepte liegen. Was die Motivierungsqualität betrifft, ist es auf den ersten Blick durchaus erstaunlich, dass diese wichtige Qualitätsdimension bzw. ­entsprechende Indikatoren nur in elf Rahmenkonzepten explizit zu finden sind. Allerdings wird Motivierung teilweise auch in anderen Merkmalen wie konstruktive Unterstützung mit abgebildet. Was die Operationalisierungstiefe der Dimension „Unterricht/Lehren und Lernen“ und die entsprechende Zahl der Indikatoren betrifft, unterscheiden sich die Rahmen ebenfalls deutlich. So definiert etwa der nordrhein-westfälische Referenzrahmen unter dem Inhaltsbereich „Lehren und Lernen“ mit elf Dimensionen, 27 Kriterien und 163 Indikatoren (aufschließenden Aussagen) sehr detailliert, was unter gutem Unterricht zu verstehen ist. Das gilt auch für den Brandenburger Orientierungsrahmen. Der Bereich „Unterricht“ umfasst hier fünf Qualitätsmerkmale, 26 Kriterien und 140 Indikatoren (schulische Maßnahmen). Im Unterschied dazu beschreibt das sächsische Rahmenkonzept nur zwei Qualitätsmerkmale der Dimension „Lehren und Lernen“ mit sieben Qualitätskriterien. Diese Kriterien werden in kurzen Textpassagen erläutert, auf konkrete Indikatoren wird verzichtet. Der Orientierungsrahmen von Schleswig-Holstein beschreibt in der Dimension „Lehren und Lernen“ zwei Merkmale zur Qualität der Curricula, drei allgemeine Basismerkmale sowie ein fachliches Merkmal der

3  Rahmenkonzepte zur Definition von Schulqualität …

25

­ nterrichtsqualität, fünf Merkmale zum Umgang mit Heterogenität sowie drei MerkU male zur Bewertung von Lehr- und Lernprozessen, also 14 Merkmale, die insgesamt mit 53 Indikatoren unterlegt sind.

3.5 Zusammenfassung Die Analyse der Rahmenkonzeptionen zur Schulqualität belegt, dass zwischen den Bundesländern eine hohe Übereinstimmung besteht, was zentrale Merkmale der Qualität von Schulen betrifft. Deutliche Unterschiede zwischen den Qualitätsrahmen bestehen hingegen hinsichtlich formaler Kriterien wie Umfang oder Operationalisierungstiefe. Der Bezug zur Schul- und Unterrichtsforschung ist meist erkennbar, wenn auch nur in wenigen Fällen explizit durch Referenzen ausgewiesen. Der Mehrebencharakter der Schule bzw. die Bildungsproduktionsfunktion mit der zentralen Bedeutung der Unterrichtsebene für die Schulqualität wird in der Mehrzahl der Rahmenkonzepte deutlich, wenngleich Input und Rahmenbedingungen nur in einem Teil der Konzepte operationalisiert werden. Als erwartete Ergebnisse schulischer Bildung werden in fast allen Dokumenten fachliche und überfachliche Kompetenzen genannt. Fast überall erfolgt, was die fachlichen Kompetenzen betrifft, ein expliziter Bezug auf die Bildungsstandards. Bei den überfachlichen Kompetenzen setzen die Rahmenkonzepte teilweise unterschiedliche Akzente. In den meisten Fällen werden neben proximalen Outputs auch längerfristige Outcomes (Bildungslaufbahnen) einbezogen. Eine vergleichsweise hohe Übereinstimmung besteht hinsichtlich der Definition von Qualitätsindikatoren auf der Schulebene. Hier werden die vier von Ditton (2000) beschriebenen Qualitätsdimensionen (Management/Führung, Professionalisierung/ Personalentwicklung, Kooperation/Abstimmung und Schulkultur) in der großen Mehrzahl der Referenzrahmen explizit operationalisiert. Auch der Bereich Qualitätsentwicklung/-management/-sicherung wird in den unterschiedlichen Rahmenkonzepten ähnlich beschrieben. Erkennbar war in den meisten Fällen der Qualitätsentwicklungszyklus bei der Operationalisierung von Kriterien und Indikatoren leitend. Außerdem scheint die Nutzung von Daten für die Länder ein selbstverständliches Merkmal der Schulqualität zu sein. Fast alle Rahmenkonzepte nennen Vergleichsarbeiten als ein Instrument schulischer Qualitätsentwicklung. Auch was die Operationalisierung von Unterrichtsqualität betrifft, konnte ein Kern von Merkmalen identifiziert werden, die offensichtlich unstrittig sind. Dazu zählen Individualisierung/Umgang mit Heterogenität, Klassenführung, Leistungsfeststellung und -rückmeldung sowie Unterrichtsklima. Andere Merkmale wie Üben, Hausaufgaben oder kognitive Aktivierung finden sich dagegen nur in einem Teil der Referenzrahmen.

26

F. Thiel und J. Tarkian

­ ußerdem weist nur die Hälfte der Rahmenkonzepte die fachliche Qualität des UnterA richts als explizites Qualitätsmerkmal aus. Dass in der Mehrzahl der Rahmenkonzepte die Rahmen- oder Kontextbedingungen nicht operationalisiert werden, mag der Fokussierung auf schulische Prozessmerkmale in dieser Textgattung geschuldet sein. Vor dem Hintergrund der Überlegungen zu funktional äquivalenten Strategien und der Bedeutung von Kontingenzfaktoren ist diese Aussparung allerdings als problematisch zu bezeichnen. Anders formuliert: Ob eine Qualitätssicherungsstrategie funktional ist, kann nur mit Bezug auf die jeweiligen (Kontext-) Bedingungen beurteilt werden. Eine fundierte Rückmeldung zur Qualität schulischer Prozesse kann demnach ohne den Einbezug von Rahmenbedingungen nur schwerlich erfolgen. Auch die teilweise sehr detailgenaue Operationalisierung von Prozessindikatoren in einigen Rahmenkonzepten muss hinsichtlich der beschriebenen theoretischen Überlegungen kritisch betrachtet werden. Zwar sind mit Blick auf die Frage der Messung von Qualität gut definierte und operationalisierte Indikatoren wünschenswert; ob mit einer allzu kleinteiligen Erfassung von Prozessmerkmalen der Unterrichtsqualität den notwendigen Autonomiespielräumen einer Profession noch Rechnung getragen wird, kann aber für den Einzelfall durchaus kritisch diskutiert werden (vgl. Avenarius 2006). In diesem Zusammenhang stellt sich auch die Frage, ob eine sparsamere Definition von Prozessmerkmalen der Schul- und Unterrichtsqualität den Aktualisierungsbedarf der Handlungsrahmen nicht deutlich reduzieren würde.

Kapitelanhang Siehe Abb. 3.1, 3.2, 3.3 und 3.4.

3  Rahmenkonzepte zur Definition von Schulqualität …

27

Abb. 3.1   Formale Merkmale der Rahmenkonzepte zur Definition von Schulqualität in den 16 Ländern

Abb. 3.2   Qualitätsdimensionen und -aspekte in den Rahmenkonzepten zur Schulqualität der 16 Länder

28 F. Thiel und J. Tarkian

29

Abb. 3.2   (Fortsetzung)

3  Rahmenkonzepte zur Definition von Schulqualität …

F. Thiel und J. Tarkian

Abb. 3.2   (Fortsetzung)

30

31

Abb. 3.2   (Fortsetzung)

3  Rahmenkonzepte zur Definition von Schulqualität …

F. Thiel und J. Tarkian

Abb. 3.2   (Fortsetzung)

32

33

Abb. 3.2   (Fortsetzung)

3  Rahmenkonzepte zur Definition von Schulqualität …

34

F. Thiel und J. Tarkian

BW

BY

BE

BB

Individualisierung / Differenzierung / Umgang mit Heterogenität Klassenführung / -management / aktiv. Lernzeit Kompetenz- / Standardorientierung im Unterricht Leistungsfeststellung Leistungsrückmeldung Selbständiges, selbstgesteuertes Lernen Unterrichtsklima / Lernklima Mediennutzung / Einsatz digitaler Medien Fächerübergreifender Unterricht Nutzung Lernstandserheb. für Unterricht / indiv. Förderung Strukturierung Anwendungsbezug/ Lebensweltbezug Leistungsorientierung / anspruchsvolle Leistungserwartungen / hohe Leistungserwartungen Qualität schulinterner Curricula Kooperatives Lernen Motivierung / Schüleraktivierung Sprachbildung / Förderung Lesekompetenz Außerschulische Lernorte Methodenvielfalt / -variabilität Lernen im Ganztag / Rhythmisierung Fachliche Qualität des Unterrichts Kognitive Aktivierung Üben / Sichern Einbindung von Hausaufgaben

Abb. 3.3    Operationalisierung von Unterrichtsqualität/Lehr-Lernprozessen in den Rahmenkonzepten der 16 Länder

3  Rahmenkonzepte zur Definition von Schulqualität …

HH

HE

MV

NI

NW

RP

SL

SN

ST

SH

TH*

© Freie Universität Berlin - AB Schulpädagogik / Schulentwicklungsforschung, brandart design

HB

35

*

Merkmale oder gar Indikatoren werden nicht operationalisiert.

Abb. 3.3   (Fortsetzung)

36

F. Thiel und J. Tarkian

Abb. 3.4   Operationalisierung der Dimensionen Qualitätsentwicklung, Qualitätsmanagement, Qualitätssicherung in den Rahmenkonzepten zur Schulqualität der 16 Länder

3  Rahmenkonzepte zur Definition von Schulqualität …

Abb. 3.4   (Fortsetzung)

37

38

F. Thiel und J. Tarkian

Literatur Avenarius, H. (2006). „Standard-Konzepte“ und „Qualitätsrahmen“ für „eigenständige Schulen“ – Ein Widerspruch? GFPF-Nachrichten, 2, 21–33. Ditton, H. (2000). Qualitätskontrolle und Qualitätssicherung in Schule und Unterricht. Ein Überblick zum Stand der empirischen Forschung. In A. Helmke, W. Hornstein, & E. Terhart (Hrsg.), Qualität und Qualitätssicherung im Bildungsbereich: Schule, Sozialpädagogik, Hochschule (Zeitschrift für Pädagogik, Beiheft 41, S. 73–92). Weinheim: Beltz. Ditton, H. (2006). Unterrichtsqualität. In K.-H. Arnold, U. Sandfuchs, & J. Wiechmann (Hrsg.), Handbuch Unterricht (UTB Schulpädagogik, Pädagogik, Bd. 8423, S. 235–243). Stuttgart: UTB. Dobbelstein, P., Groot-Wilken, B., & Koltermann, S. (Hrsg.). (2017). Referenzsysteme zur Unterstützung von Schulentwicklung (Beiträge zur Schulentwicklung). Münster: Waxmann. Elsing, S., & Ackeren, I. van. (2017). Orientierungsrahmen zur Schulqualität im nationalen Vergleich. Eine deskriptive Sichtung unter besonderer Berücksichtigung der Wirkungsdimension und ausgewählter internationaler Ansätze. In P. Dobbelstein, B. Groot-Wilken, & S. Koltermann (Hrsg.), Referenzsysteme zur Unterstützung von Schulentwicklung (Beiträge zur Schulentwicklung, S. 35–62). Münster: Waxmann. Fend, H. (1986). „Gute Schulen – schlechte Schulen“. Die einzelne Schule als pädagogische Handlungseinheit. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 78 (3), 275–293. Fend, H. (2000). Qualität und Qualitätssicherung im Bildungswesen. Wohlfahrtsstaatliche Modelle und Marktmodelle. In A. Helmke, W. Hornstein, & E. Terhart (Hrsg.), Qualität und Qualitätssicherung im Bildungsbereich: Schule, Sozialpädagogik, Hochschule (Zeitschrift für Pädagogik, Beiheft 41, S. 55–72). Weinheim: Beltz. Gärtner, H. (2017a). Das ISQ-Selbstevaluationsportal. In ISQ-Bericht zur Schulqualität 2016. Qualitätssicherungsverfahren, Prozess- und Ergebnisqualität an Schulen in Berlin und Brandenburg (S. 52–56). Berlin: Institut für Schulqualität der Länder Berlin und Brandenburg (ISQ) e.V. Gärtner, H. (2017b). Referenzrahmen für Schulqualität, interne und externe Evaluation und ein Model evidenzbasierter Steuerung. In P. Dobbelstein, B. Groot-Wilken, & S. Koltermann (Hrsg.), Referenzsysteme zur Unterstützung von Schulentwicklung (Beiträge zur Schulentwicklung, S. 105–123). Münster: Waxmann. Helmke, A. (2003). Unterrichtsqualität erfassen, bewerten, verbessern. Dieses Buch ist Fran-Emanuel Weinert gewidmet (Schulisches Qualitätsmanagement). Seelze: Kallmeyer. Holtappels, H. G., Klemm, K., & Rolff, H.-G. (Hrsg.). (2008). Schulentwicklung durch Gestaltungsautonomie. Ergebnisse der Begleitforschung zum Modellvorhaben „Selbstständige Schule“ in Nordrhein-Westfalen. Münster: Waxmann. Institut für Qualitätsentwicklung Hessen (Hrsg.). (2011). Hessischer Referenzrahmen Schulqualität. Qualitätsbereiche, Qualitätsdimensionen und Qualitätskriterien (Stand: Dezember 2011, überarb. Fassung). Wiesbaden: Institut für Qualitätsentwicklung Hessen. Klauer, K. J., & Leutner, D. (2007). Lehren und Lernen. Einführung in die Instruktionspsychologie (Studientexte). Weinheim: Beltz PVU. Klieme, E., Schümer, G., & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I: „Aufgabenkultur“ und Unterrichtsgestaltung. In E. Klieme & J. Baumert (Hrsg.), TIMSS – Impulse für Schule und Unterricht (S. 43–57). Bonn: Bundesministerium für Bildung und Forschung.

3  Rahmenkonzepte zur Definition von Schulqualität …

39

Klieme, E., Avenarius, H., Blum, W., Döbrich, P., Gruber, H., Prenzel, M. et al. (Hrsg.). (2007). Zur Entwicklung nationaler Bildungsstandards: Eine Expertise. Berlin: Bundesministerium für Bildung und Forschung (BMBF). Kultusministerkonferenz (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Kunter, M., & Voss, T. (2011). Das Modell der Unterrichtsqualität in COACTIV. In M. Kunter, J. Baumert, W. Blum, S. Krauss, & M. Neubrand (Hrsg.), Professionelle Kompetenz von Lehrkräften: Ergebnisse des Forschungsprogramms COACTIV (S. 85–113). Münster: Waxmann. Landwehr, N. (2011). Thesen zur Wirkung und Wirksamkeit der externen Schulevaluation. In C. Quesel, V. Husfeldt, N. Landwehr, & P. Steiner (Hrsg.), Wirkungen und Wirksamkeit der externen Schulevaluation (S. 35–69). Bern: Hep. Luhmann, N. (2000). Organisation und Entscheidung. Wiesbaden: VS Verlag. Maag Merki, K., & Büeler, X. (2002). Schulautonomie in der Schweiz. In H.-G. Rolff, H.-G. Holtappels, K. Klemm, H. Pfeiffer, & R. Schulz-Zander (Hrsg.), Jahrbuch der Schulentwicklung. Daten, Beispiele und Perspektiven (Eine Veröffentlichung des Instituts für Schulentwicklungsforschung der Universität Dortmund, Bd. 12, S. 131–161). Weinheim: Beltz Juventa. Mintzberg, H. (1979). The structuring of organizations. A synthesis of the research (The theory of management policy series). Englewood Cliffs: Prentice-Hall. Slavin, R. E. (1996). Education for all (Contexts of learning). Lisse: Swets & Zeitlinger Publishers. Sroka, W., Avenarius, H., Kampa, N., Döbert, H., Isermann, K., & Seeber, K. (2007). Die Entwicklung zu selbstständigen Schulen im Land Brandenburg. Erfahrungen und Ergebnisse. Ergebnisbericht der wissenschaftlichen Begleitung des Modellvorhabens „Stärkung der Selbständigkeit von Schulen“ (MoSeS) im Land Brandenburg. Frankfurt a. M.: Deutsches Institut für Internationale Pädagogische Forschung (DIPF). Steffens, U., & Bargel, T. (Hrsg.). (1987). Erkundungen zur Wirksamkeit und Qualität von Schule (Beiträge aus dem Arbeitskreis „Qualität von Schule“/Hessisches Landesinstitut für Pädagogik (HeLP), Wiesbaden, H. 1, 1. Aufl.). Wiesbaden: HIBS. Stringfield, S. (1994). A model of elementary school effects. In D. Reynolds, B. Creemers, P. S. Nesselrodt, E. C. Shaffer, S. Stringfield, & C. Teddlie (Hrsg.), Advances in school effectiveness research and practice (S. 153–187). Oxford: Pergamon. Thiel, F. (2008). Organisationssoziologische Vorarbeiten zu einer Theorie der Schulentwicklung. Journal für Schulentwicklung, 12(2), 31–39. Thiel, F. (2016). Interaktion im Unterricht: Ordnungsmechanismen und Störungsdynamiken. Opladen: Barbara Budrich. Thiel, F., Blüthmann, I., & Watermann, R. (2012). Konstruktion eines Fragebogens zur Erfassung der Lehrkompetenz (LeKo). In Neues Handbuch Hochschullehre (I 1.13, S. 1–27). Stuttgart: Raabe, Fachverlag für Bildungsmanagement.

4

Vergleichsarbeiten (VERA) – Konzeption und Implementation in den 16 Ländern Jasmin Tarkian, Norbert Maritzen, Marius Eckert und Felicitas Thiel

4.1 Überblick: Testlandschaft der Länder Die Implementation standardisierter Tests und Diagnoseinstrumente auf Grundlage der Bildungsstandards1 erfolgte in den Ländern der Bundesrepublik Deutschland in ganz unterschiedlicher Weise. Während die meisten Länder seit Ende der 1990er-Jahre zunächst in Eigenregie oder in loser Kooperation untereinander Testinstrumente entwickelten,

1Auslöser

für die Einführung der Bildungsstandards und in Folge für die Einführung der Vergleichsarbeiten waren zum einen die deutlichen Unterschiede, die in der ersten PISA-Studie zwischen den Ländern festgestellt worden waren; zum anderen der Befund, dass deutsche SchülerInnen zwar gute Ergebnisse im Bereich von Faktenwissen, Fertigkeiten und Routinen erbrachten, jedoch weniger gut abschnitten bei Aufgaben, die eine Anwendung des Gelernten erforderten. Auf Beschluss der Kultusministerkonferenz wurde die Erarbeitung von Bildungsstandards in Auftrag gegeben, die dazu beitragen sollten, „die Entwicklung eines an Kompetenzen ausgerichteten Unterrichts“ zu stärken (Kultusministerkonferenz [KMK] 2010, S. 3). J. Tarkian (*) · F. Thiel  Berlin, Deutschland E-Mail: [email protected] F. Thiel E-Mail: [email protected] N. Maritzen  Hamburg, Deutschland E-Mail: [email protected] M. Eckert  Hannover, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_4

41

42

J. Tarkian et al.

l­eitete die im Juni 2006 verabschiedete KMK-Gesamtstrategie zum Bildungsmonitoring ­(Kultusministerkonferenz [KMK] 2006) mit der Verpflichtung auf länderübergreifende Vergleichsarbeiten in der Jahrgangsstufe 3 und der geplanten Ausweitung auf die Jahrgangsstufe 8 einen Prozess der Vereinheitlichung ein. Diese unter dem Namen VERA bekannt gewordenen Vergleichsarbeiten waren ursprünglich von der Universität Koblenz-­Landau als Vergleichsarbeiten für die 4. Jahrgangsstufe in Rheinland-Pfalz entwickelt und im Schuljahr 2003/2004 erstmals eingesetzt worden. Im darauffolgenden Schuljahr schlossen sich die Länder Berlin, Brandenburg, Bremen, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Schleswig-Holstein dem Testverfahren an. Mit dem KMK-Beschluss ging die Verantwortung für die Aufgabenentwicklung auf das Institut zur Qualitätsentwicklung im Bildungswesen (IQB) über; durch die sukzessiv durchgeführte und mittlerweile abgeschlossene Implementation von VERA 3 und 8 in allen Ländern bildet dieses Instrumentarium das Rückgrat der bundesdeutschen Testlandschaft auf Schulebene. Auch wenn aufgrund der ländereigenen Testtraditionen die VERA-Arbeiten in Hamburg als KERMIT, in Hessen und Nordrhein-Westfalen als Lernstandserhebungen und in Sachsen und Thüringen als Kompetenztests bekannt sind, handelt es sich dennoch in den Jahrgangsstufen 3 und 8 stets um dasselbe Instrument. Abb. 4.1 stellt die spezifischen Testregime in den einzelnen Ländern dar. Sie wurden basierend auf Dokumentenanalysen und Experteninterviews mit allen 16 LandesvertreterInnen zusammengestellt und stellen aus Sicht der Autorschaft die erste vollständige Übersicht über die landesweit verpflichtend implementierten, standardisierten Test- und Diagnostikinstrumente zum Analysestichtag (31.01.2018) dar. Damit ist ein Überblick über den Umfang an Testungen gegeben, der kennzeichnend ist für den Bildungsweg der SchülerInnen in einem Bundesland. VERA 3 und 8 sind in allen Ländern verbindlich durchzuführen. In Hessen, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Saarland und Schleswig-Holstein bleiben die verpflichtend durchzuführenden Tests aktuell auf diese beiden Testzeitpunkte beschränkt, während die anderen zehn Länder darüber hinausgehend in unterschiedlichem Umfang weitere verbindliche Testungen implementiert haben. So besteht zwischen Thüringen, Sachsen, Mecklenburg-Vorpommern und Schleswig-Holstein sowie der Autonomen Provinz Bozen-Südtirol eine Kooperation zur Entwicklung gemeinsamer Vergleichstests in der 6. Jahrgangsstufe für die Fächer Deutsch, Mathematik und Englisch, die bis auf Schleswig-Holstein in den drei anderen deutschen Ländern zum Analysestichtag auch verpflichtend durchzuführen sind. Das Projekt geht auf eine 2002 getroffene Vereinbarung zwischen Thüringen, Bayern, Hamburg, Hessen, Mecklenburg-Vorpommern und Schleswig-Holstein zurück. Nachdem über die Jahre einige Länder aus dem Verbund ausgetreten sind und Sachsen eingetreten ist, hat sich die Gruppe nun in ihrer derzeitigen Konstellation etabliert und erstellt die Aufgaben arbeitsteilig für die einzelnen Fächer unter Einbezug des IQB für die Entwicklung der Aufgaben im Fach Deutsch. Der Länderverbund koordiniert sich durch eine Steuergruppe auf Arbeitsebene.

VERA 3 VERA 3 KompT 3

RP

SL

SN

KompT 3

TH nur Stadtteilschulen

ZenKA 4

HSP

HSP

KompT 6

ZenKA 6

KompT 6

VERA 6

HSP

6

HSP

HRT 7

KE 7

LAL 7*

7

KompT 8

VERA 8

VERA NaWi 8**

VERA 8

KompT 8

VERA 8

VERA 8

Lernstand 8

VERA 8

VERA 8

Lernstand 8

HSP

KE 8

VERA 8

OA 8

VERA 8

VERA 8

VERA 8

VERA 8

8

Jahrgangsstufe

HSP

9

HSP

10

© Freie Universität Berlin - AB Schulpädagogik / Schulentwicklungsforschung, brandart design

Abb. 4.1   Testlandschaft der Länder – Landesweit verpflichtend implementierte, standardisierte Test-/Diagnoseverfahren (z. T. schulformbezogen)

*v ** alle zwei Jahre

VERA 3

SH

nur R

VERA 3

NW

ST

VERA 3

NI

VERA 3

VERA 3

MV

HSP Lernstand 3

HSP

KE 3 HRT 3

KE 2

HSP

KE 5 HRT 5

VERA 3

ILeA 5

LRS 2

OA 4

Lernstand 5

5

Mirola 1

ILeA 3

4

OA 2

VERA 3

VERA 3

VERA 3

VERA 3

3

Jahrgangsstufe

ILeA 1

LauBe 1*

OaD 2

2

HE

HH

HB

BB

BE

BY

BW

1

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation … 43

44

J. Tarkian et al.

Im Zuge des evidenzbasierten Steuerungsmodells hat auch das Land Sachsen-Anhalt mit seinen zentralen Klassenarbeiten (ZKA) in Eigenregie kompetenzorientierte, auf den landeseigenen Rahmenlehrplänen basierende Vergleichstests eingeführt. Die zentral entwickelten Tests werden in der 4. Jahrgangsstufe zunächst in Deutsch und Mathematik und in der 6. Jahrgangsstufe dann auch zusätzlich in Englisch jeweils am Ende des Schuljahres durchgeführt. Als benotete Klassenarbeiten dienen die ZKAs neben der formativen auch der summativen Diagnostik. Zudem führt Sachsen-Anhalt alle zwei Jahre parallel zu VERA 8 einen ähnlichen Vergleichstest für die Naturwissenschaften durch, der auf den landeseigenen Rahmenlehrplänen beruht. Bayern hat mit seinen Jahrgangsstufentests in der Mittelstufe bereits vor zwei Jahrzehnten eine Reihe von Vergleichsarbeiten geschaffen, die LehrerInnen, SchülerInnen und Eltern Auskunft über das erreichte Kompetenzniveau der SchülerInnen auf Basis der bayrischen Rahmenlehrpläne geben sollen. Die Jahrgangsstufentests finden jeweils zu Beginn des Schuljahres statt, dabei fließen die Ergebnisse in die Notengebung mit ein. Die Durchführungsmodalitäten der Tests variieren nach Schulform: Gymnasien müssen in der Jahrgangsstufe 6 verpflichtend an den Tests in Deutsch und der 1. Fremdsprache teilnehmen, in der 10. Jahrgangsstufe sind die Testungen in den Fächern Englisch und Mathematik obligatorisch. Die Teilnahme in der 8. Jahrgangsstufe in Deutsch und Mathematik ist hingegen nur verbindlich, wenn das Fach in demselben Jahr nicht im Rahmen von VERA getestet wurde. An Real- und Mittelschulen ist der Jahrgangsstufentest in der 6. Jahrgangsstufe verpflichtend und wird in den Fächern Deutsch und Mathematik durchgeführt. Für Realschulen ist auch der anschließende Test in der Jahrgangsstufe 7 im Fach Englisch Pflicht. Zudem führt Bayern im Primarbereich in der 2. Jahrgangsstufe eine Orientierungsarbeit Deutsch durch, die der Diagnostik erster Rechtschreibfähigkeiten dient. Für den Bereich der Rechtschreibdiagnostik verfolgt Bremen eine ähnliche Richtung. Dort wird am Ende der 2. Jahrgangsstufe ein landesweiter Lese-Rechtschreibtest zur Sichtung von SchülerInnen mit Lese-Rechtschreibschwierigkeiten durchgeführt. Alle Erstklässler nehmen zudem an dem Beobachtungsverfahren Mirola teil, das die Kompetenzen von SchulanfängerInnen erhebt. Um auch zu Beginn des weiterführenden Bereichs auf Daten zum Leistungsstand der SchülerInnen zurückgreifen zu können, wurde als gemeinsame Zielsetzung der Oberschulen und der Bildungsbehörde zu Jahresbeginn 2018 die Einführung einer landesweiten Lernausgangslagenuntersuchung in Klasse 5 vereinbart. Auch die Einführung des Hamburger KERMIT-Systems ab Jahrgangsstufe 5 ist für Bremen angekündigt, nähere Informationen hierzu bleiben abzuwarten. Das Berliner Testregime ist durch einen zusätzlichen Fokus auf die Erfassung der Lernausgangslagen zu Beginn der Primarstufe und nach dem Übergang in die weiterführende Schulform charakterisiert. Mit dem Instrument Lernausgangslage Berlin (LauBe) werden dabei gleich nach der Einschulung sprachliche und mathematische Kompetenzen erfasst. Mit Beginn der weiterführenden Schule in Jahrgangsstufe 7 ist ebenfalls die Ermittlung des Lernstands in den Fächern Deutsch, Mathematik und der 1. Fremdsprache verpflichtend. Der Berliner Senat stellt den Schulen dafür das Instrument LAL 7

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

45

zur Verfügung, die Schulen können sich allerdings auch für ein anderes, funktional äquivalentes Testinstrument entscheiden. Baden-Württemberg setzt mit Lernstand 5 einen ähnlichen Fokus: Das verpflichtend zu Beginn der Orientierungsstufe an den weiterführenden Schulen einzusetzende Diagnoseinstrument erfasst bildungsstandardbezogen die Lernausgangslage der Schüler in den Fächern Deutsch und Mathematik. Ein umfangreiches und auf Längsschnittdiagnostik ausgelegtes Testregime findet sich in Brandenburg. Mit der verbindlichen Durchführung von individuellen Lernstandsanalysen (ILeA) in den Jahrgangsstufen 1, 3 und 5 in den Fächern Deutsch und Mathematik sowie den Orientierungsarbeiten in den Jahrgangsstufen 2 (Deutsch) und 4 (Deutsch und Mathematik) ist der Primarbereich diagnostisch nahezu lückenlos abgedeckt. Auch wenn sich die Instrumente im Hinblick auf ihre Funktion unterscheiden – ILeA soll in Verantwortung der Lehrkräfte ausschließlich zur formativen Diagnostik eingesetzt werden, die Ergebnisse der Orientierungsarbeiten sind hingegen auch als Klassenarbeiten zu bewerten – zielen sie dennoch auf die kontinuierliche Fortschreibung einer Individualdiagnostik ab. Gleichzeitig ist die Orientierungsarbeit 4 im Sinne einer längsschnittlichen Diagnostik im Fach Mathematik an die jeweiligen Domänen von VERA 3 angepasst. Die auf Lesen und Rechtschreibung ausgerichteten ILeA-Deutsch-Instrumente zeigen, dass Brandenburg ebenso wie andere Länder den Fokus auf eine frühe Lese-­ Rechtschreibdiagnostik legt. Daneben führt Brandenburg im Sekundarbereich auch eine weitere landeseigene Orientierungsarbeit für die Fächer Deutsch, Mathematik und Englisch in der Jahrgangsstufe 8 verbindlich durch. Das von allen Ländern umfangreichste Testregime findet sich in Hamburg. Die KERMIT-Tests („Kompetenzen ermitteln“) begleiten neben der obligatorischen Lernstandserhebung in Klasse 3 und 8 mit zusätzlichen Testzeitpunkten in den Jahrgangsstufen 2, 5, 7 und 9 (nur Gymnasium) bzw. 10 (nur Stadtteilschulen) kontinuierlich die Schülerbiografie und testen dabei fast durchgängig die Kompetenzen in den Fächern Deutsch, Englisch, Mathematik und den Naturwissenschaften (Ausnahmen bilden die Grundschul-Jahrgänge). Damit werden hier echte längsschnittliche Datensätze erhoben. KERMIT 5 ist zudem als Instrument zur Erfassung der Lernausgangslage konzipiert und wird zu Beginn des ersten Schuljahres an den weiterführenden Schulen durchgeführt. Auf Basis des Hamburger Sozialindex wird bei KERMIT für jede Schule ein Vergleich mit acht anderen Hamburger Schulen vorgenommen, die eine ähnliche soziale Zusammensetzung der Schülerschaft vorweisen. Parallel zu den KERMIT-Testungen sind in Hamburg zwei auf Rechtschreibdiagnostik abzielende Testformate vorgesehen: Zum einen wird ein aus alten VERA-Aufgaben zusammengesetzter Rechtschreibtest parallel zu VERA 3 und in veränderter Form auch in den Jahrgangsstufen 5 und 7 eingesetzt (die Entwicklung eines entsprechenden Rechtschreibtests für die Jahrgangsstufen 1 und 2 ist unter dem Namen SCHNABEL ab dem Schuljahr 2018/2019 als verbindliches Verfahren geplant und wird perspektivisch auch für die Jahrgangsstufen 3 bis 6 umgesetzt). Zum Analysestichtag ist zudem der jährliche Einsatz der Hamburger Schreibprobe (HSP) zur Erfassung der Rechtschreibung durch die Lehrkräfte verpflichtend vorgeschrieben. Besonderheit: Neben der schülerbiografisch fast lückenlos ausgebauten Ermittlung von

46

J. Tarkian et al.

Kompetenzständen ist Hamburg bislang das einzige Bundesland, in dem Lernstandserhebungen auch durch externe TestleiterInnen durchgeführt werden – dies betrifft die Jahrgangsstufen 5, 7, 9 und 10. In der vorliegenden Übersicht zu den standardisierten Test- und Diagnoseinstrumenten (Abb. 4.1) sind bewusst nur die verpflichtend vorgeschriebenen Instrumente dargestellt worden. Es lässt sich so ein Bild zeichnen von den jeweiligen Testregimen, die vonseiten der Politik verbindlich in der Fläche implementiert sind und SchülerInnen wie LehrerInnen fest durch die Jahrgangsstufen begleiten. Darüber hinaus sind in einigen Ländern jedoch auch freiwillige Testinstrumente vorhanden, die von staatlicher Seite den Schulen optional zur Verfügung gestellt werden. Zu diesen gehört zum Stichtag unter anderem VERA 6 für Deutsch, Mathe und Englisch in Schleswig-Holstein (zum Schuljahr 2018/2019 wird die Testung in Mathe hier allerdings erneut verbindlich eingeführt), ILeA 2, 4 und 6 in Brandenburg, die Jahrgangsstufentests 8 für Realschulen in Bayern oder auch die computergestützte Lernverlaufsdiagnostik quop in Hessen. Instrumente wie diese stellen Angebote an die Schulen dar, den Auftrag zur evidenzbasierten Qualitätsentwicklung in eigener Verantwortung wahrzunehmen und auszugestalten.

4.2 Standardbasierte Vergleichsarbeiten VERA: Gemeinsamkeiten und Unterschiede in den Ausführungen der Länder Basierend auf den für die Kernfächer verabschiedeten Bildungsstandards ist mit der KMK-Gesamtstrategie zum Bildungsmonitoring ab 2006 die bundesweite Einführung jahrgangsbezogener Vergleichsuntersuchungen an allgemeinbildenden Schulen beschlossen worden. Die in den meisten Ländern unter dem Namen VERA bekannten, zum Teil auch als Lernstandserhebungen, Kompetenztests oder KERMIT bezeichneten Verfahren zur Ermittlung von SchülerInnenkompetenzen werden seither jährlich durch die zentrale Entwicklung, Erprobung und Bereitstellung der Testhefte vom Institut für Qualitätsentwicklung im Bildungswesen (IQB) eingeleitet. Sie sind heute für einen Einsatz in den Jahrgangsstufen 3 und 8 in den Fächern Deutsch, Mathematik sowie in den weiterführenden Schulen auch in der 1. Fremdsprache verbindlich vorgesehen; die grundsätzliche Verpflichtung zur Durchführung der Vergleichstestungen ist entsprechend in allen Ländern auf schulgesetzlicher Ebene verankert (vgl. Kap. 7). Dabei basieren die VERA-Arbeiten, die im Gegensatz zu den internationalen Schulleistungsuntersuchungen (PISA, TIMSS, IGLU, PIRLS) wie auch den nationalen IQB-Bildungstrend-Studien flächendeckend und von den Lehrkräften selbst durchgeführt werden, im Grundsatz auf Kompetenzstufenmodellen, die in Verantwortung des IQB in einem differenzierten psychometrischen Verfahren entwickelt und den Ländern zur Darstellung der Ergebnisrückmeldungen zur Verfügung gestellt werden. Wenngleich die Länder mit den Empfehlungen der KMK gemeinsam einen politisch verbindlichen Rahmen hinsichtlich der standardbasierten Tests definiert haben (KMK

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

47

2006, 2012), bleiben Entscheidungen zu den genauen Durchführungsmodalitäten, zur Verarbeitung und Rückmeldung der Ergebnisse, zum Angebot an begleitenden Unterstützungsleistungen für die Datenrezeption und – nutzung oder zur Anbindung an weitere Steuerungsinstrumente den Ländern selbst vorbehalten. Gerade für die praktische Implementation und Begleitung der Testungen sind daher auf Landesebene ministeriell nachgeordnete Qualitätsagenturen oder Landesinstitute beauftragt, die zur Auswertung und Rückmeldung der Ergebnisberichte zum Teil mit universitären Partnerinstitutionen zusammenarbeiten (siehe Abb. 4.2). Diese Kooperationen beeinflussen, wie im Weiteren zu erkennen sein wird, in Teilen bereits die jeweiligen Implementationsmerkmale. Dies betrifft insbesondere die Aufbereitung der Datenrückmeldungen an die Schulen. Nach der zunächst für die Grundschulen verbindlichen Einführung der Testungen zum Schuljahr 2007/2008, die ab dem Folgejahr auch die weiterführenden Schulen

Abb. 4.2   Institutionelle Zuständigkeiten für die Administration und Auswertung der Vergleichsarbeiten

48

J. Tarkian et al.

mit einschloss,2 haben die Länder entsprechend unterschiedliche Wege beschritten, die Lernstandserhebungen in der Praxis umzusetzen – dies jeweils im Kontext der bis dato teilweise schon bestehenden landeseigenen Verfahren zur Sicherung von Schulqualität, aber auch unter dem Gesichtspunkt regional-struktureller Gegebenheiten sowie spezifischer landespolitischer Zielstellungen. Im Anschluss an die obige Darstellung sämtlicher im Bundesgebiet verpflichtend eingeführter Test-/Diagnoseinstrumente ist es Ziel des vorliegenden Kapitels, die zum Analysestichtag bestehenden zentralen Unterschiede in den landesspezifischen Konzeptionen und Implementationen der Vergleichsarbeiten in Jahrgang 3 und 8 im Einzelnen aufzuzeigen und, zumindest punktuell, die dahinterliegenden institutionellen, rechtlichen oder historischen Rahmenbedingungen herauszustellen. Für die Analyse wurden die Referenz- bzw. Orientierungs- oder Schulqualitätsrahmen der Länder, die von den Qualitätsagenturen/Landesinstituten herausgegebenen Handreichungen und ­Website-Darstellungen zu den Vergleichstests, instrumentbezogene Bekanntmachungen der Kultusministerien bzw. Informationsangebote der Landesbildungsserver, die Landesbildungsberichtslegungen und flankierend juristische Textgattungen sowie Kleine Anfragen an die Länderparlamente, aber auch landeseigene Formulare mit VERA-­ Bezug, die der Autorengruppe zur Verfügung gestellt wurden, herangezogen. Die so gewonnenen Informationen wurden zusätzlich in Experteninterviews mit ausgewählten LändervertreterInnen und ihren Auswertungspartnern, der Universität Jena und dem Zentrum für Empirische Pädagogische Forschung (zepf) an der Universität Koblenz-Landau, kommunikativ validiert, ergänzt und kontextualisiert. Für die Gegenüberstellung der in den Ländern jeweils in unterschiedlicher Signatur eingerichteten Vergleichsarbeiten sind sowohl im Vorfeld – auf Grundlage theoretischer Überlegungen – entwickelte (deduktive) als auch aus dem Text- und Gesprächsmaterial hinzugewonnene (induktive) Aspekte als Auswertungskategorien zugrunde gelegt worden. Diese werden im Folgenden unter Erläuterung der dazugehörigen Landesumsetzungen für sieben übergeordnete Analysekategorien aufgeführt.

4.3 Funktion(en) der Vergleichsarbeiten Ein Aspekt, der für die landesspezifischen Steuerungsprogrammatiken zur Qualitätsentwicklung von Schulen von zentraler Bedeutung ist, betrifft die Frage, welche(r) Zweck(e) mit dem Instrument verfolgt bzw. eingeleitet werden. Für die VERA-Arbeiten wurde in den Basistexten der KMK wie auch des für die Testentwicklung beauftragten IQB hierzu bereits eine grundsätzliche Positionierung vorgenommen:

2Eine Ausnahme

bildet hier Baden-Württemberg, wo erst zum Schuljahr 2015/2016 das frühere Verfahren der Diagnose- und Vergleichsarbeiten (DVA) durch die VERA 8- Testung abgelöst wurde.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

49

4.3.1 Entwicklungsfunktion In ihren Ausführungen zum Entstehungshintergrund der Vergleichsarbeiten benennt die KMK (KMK 2006, 2010, 2012, 2016) und im Weiteren auch das IQB3 die Qualitätssicherung auf Ebene der Schule als primäres Ziel des Verfahrens. Entsprechend lassen sich auch in den analysierten Textdokumenten aller Länder vielfache Verweise auf diese Zielstellung finden. Sie wird, in Anlehnung an den KMK-Beschluss von 2012, zumeist als Unterrichts- und Schulentwicklung konkretisiert, dabei verschiedentlich auch in den Kontext der flankierenden Vermittlungsfunktion zur innerschulischen Etablierung der Bildungsstandards gesetzt und als solche oft schon direkt auf die zentralen Adressaten der Datenrückmeldungen bezogen, den in den Schulen mit der Unterrichts- und Schulqualitätsarbeit beauftragten (Fach-)Lehrkräften und auch Schulleitungen. So wird beispielsweise auf den Informationsseiten von Qualitätsagenturen oder in Handreichungen dazu formuliert: Was sind Vergleichsarbeiten?

Vergleichsarbeiten sind standardisierte und erprobte Tests, an denen sich alle (öffentlichen) Schulen beteiligen. Sie sind eine von vielen Maßnahmen der Kultusministerkonferenz (KMK), um die Qualität des Unterrichtes zu verbessern. […] Der Fokus der Vergleichsarbeiten liegt gegenüber anderen Maßnahmen der KMK explizit auf dem Aspekt der internen Unterrichts- und Schulentwicklung der Einzelschule. Auf eine Veröffentlichung der VERA-Ergebnisse einzelner Schulen wird deshalb verzichtet (ISQ-Website zu VERA in Berlin/Brandenburg, zugegriffen: 2. Juli 2017).

Vergleichsarbeiten – der Begriff „Lernstandserhebungen“ ist vielleicht t­reffender – bieten den Schulen eine abgesicherte Bestandsaufnahme zum Lernstand der Schülerinnen und Schüler, um daraus Schlussfolgerungen für die Gestaltung von Lernprozessen zu ziehen. Die Ergebnisse der Vergleichsarbeiten können somit einen wertvollen Beitrag leisten, um die Qualität von Unterricht zu erhöhen. Natürlich bewirken Vergleichsarbeiten keine direkte und automatische Verbesserung des Lehrens und Lernens, aber sie stellen ein pädagogisch nutzbares Informationsangebot dar. Vergleichsarbeiten sind daher ein bedeutsamer Baustein für die Qualitätsentwicklung, der durch weitere Informationen ergänzt werden muss, um einen umfassenden Überblick zur Qualität einer Schule zu erhalten (NI_Handreichung „Informationen zu dem Projekt VERA“, 2014, S. 3)

3Vergleiche

hierzu die entsprechende Einordnung der VERA-Arbeiten unter https://www.iqb. hu-berlin.de/vera.

50

J. Tarkian et al.

Übersicht

„Die zentrale Funktion von Vergleichsarbeiten liegt in der Unterrichts- und Schulentwicklung jeder einzelnen Schule. Weiterhin kommt den Vergleichsarbeiten eine Vermittlungsfunktion in Bezug auf die Einführung der fachlichen und fachdidaktischen Konzepte der ländergemeinsamen Bildungsstandards für die Primarstufe und die Sekundarstufe I zu. Unabhängig von unmittelbar vorgeschalteten unterrichtlichen Lernprozessen testen Vergleichsarbeiten den Stand der Kompetenzentwicklung von Schülerinnen und Schülern. Sie unterscheiden sich darin von Klassenarbeiten und weiteren Formen unterrichtlicher Leistungsüberprüfung. Eine Analyse von lerngruppenbezogenen Ergebnissen bei VERA und die sich daraus ergebenden Schlussfolgerungen bieten Ansatzpunkte und Impulse für die Unterrichtsentwicklung durch die Lehrkräfte. Darüber hinaus ist VERA ein Diagnoseverfahren, das den Schulen eine Standortbestimmung ermöglicht. Lehrkräfte erhalten eine Rückmeldung über den Könnens- und Wissensstand ihrer Klassen sowie Vergleichswerte auf verschiedenen Ebenen. Eine effektive Form der Rückmeldung kann erreicht werden, wenn Lehrkräfte, Schulleitungen und weitere schulische Gremien einen professionellen Dialog über die Resultate initiieren und sich über ihre Erfahrungen mit Unterrichtsprozessen austauschen (ST_Handreichung „Vergleichsarbeiten Schuljahrgang 3“, 2015, S. 5).

Rheinland-Pfalz setzt hierbei einen eigenen Schwerpunkt: Da in diesem Bundesland die Ergebnisse der Testungen zur Rückmeldung an die unterrichtenden Lehrkräfte, nicht aber unmittelbar an die Schulleitungen vorgesehen sind (vgl. Abschn. 4.4), bleibt die angestrebte Entwicklungsfunktion in den Schulen zumindest konzeptuell auf eine Auseinandersetzung auf Ebene des Kollegiums bezogen.4 Zusätzliche Verwendungsmöglichkeiten auf Leitungsebene, die – beispielsweise in Form datenbasierter Personalentwicklungsmaßnahmen – über den Zwischenschritt eines entsprechend ergebnisinformierten Führungshandelns die Unterrichtsentwicklung zielgerichtet fördern könnten, werden damit zumindest erschwert. Welchen Stellenwert die Länder dem Instrument in seiner ‚Zentralfunktion Entwicklung‘ insgesamt einräumen, ist allerdings nicht nur aus dem Vorhandensein entsprechender Datenrückmeldungen und der Benennung des Entwicklungsziels in den einschlägigen Landes(konzept)dokumenten abzuleiten, sondern wird auch durch das in Umfang und Qualität unterschiedlich stark ausgebaute Unterstützungsangebot für Schulen, die variierende Gestaltung der Ergebnisrückmeldungen sowie durch eine unterschiedlich starke Anknüpfung an Maßnahmen der internen Evaluation erkenn-

4Die

(Fach-)Kollegien werden vom Pädagogischen Landesinstitut in Rheinland-Pfalz auf seiner Homepage entsprechend auch als zentraler Akteur für die Weiterarbeit mit den Rückmeldungen adressiert.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

51

bar. Während in fast allen Ländern (mehr oder weniger umfangreiche) Handreichungen sowie allgemeine Serviceleistungen zur Durchführung der Tests (wie eine im Testzeitraum geschaltete Telefon-Hotline sowie eine Website zur Beantwortung von FAQs) angeboten werden, unterscheiden sich die Länder vor allem hinsichtlich der Modalitäten der Ergebnisrückmeldungen, der Bereitstellung von speziellen Materialien zur Weiterarbeit mit den Ergebnissen oder ihrer auf das Instrument bezogenen Fortbildungsangebote voneinander. Auch die konzeptionelle Verbindung mit Instrumenten der internen Evaluation wie Selbstevaluationsportalen oder der Schulprogrammarbeit ist in den Ländern bislang in unterschiedlichem Maß eingerichtet. Die sich bei der praktischen Förderung der Entwicklungsfunktion insgesamt ergebende quantitative wie qualitative Varianz ist in den Unterkapiteln im Einzelnen dargestellt.

4.3.2 Informationsfunktion Neben der Entwicklungsfunktion wird in allen Ländern grundsätzlich das Ziel verfolgt, auch die Eltern der TestteilnehmerInnen im Zusammenhang mit den Vergleichsarbeiten zu informieren.5 Konkrete Informationsangebote zur Bekanntmachung des Instruments, seinen Durchführungsmodalitäten und ggf. auch seiner Funktion im Rahmen von Schulund Unterrichtsentwicklung werden entsprechend – in Form von Flyern, Broschüren oder speziellen Webseiten für Eltern – in fast allen Ländern angeboten. Nur für Thüringen und Hamburg ließen sich solche eigenständigen schriftlichen Hinweise für Erziehungsberechtigte nicht finden, hier wird derzeit ausschließlich auf Nachfrage informiert. Unterschiedliche Wege beschreiten die Länder hingegen in der Frage, ob die Eltern auch stets über die Testergebnisse zu informieren sind: Während einige Länder entsprechende Datenrückmeldungen (zum Teil bereits mit Blick auf dazugehörige Vergleichswerte) als verbindliche Aufgabe für die Schulen in Verordnungen, Vorschriften oder Erlassen festschreiben, bleibt diese Entscheidung in anderen Ländern den Schulen freigestellt (siehe Abb. 4.3). Eindeutige Empfehlungen dazu werden im KMK Beschluss vom 08.03.2012 nicht erteilt. In allen Ländern, die eine Rückmeldung verbindlich vorsehen, sowie zusätzlich auch in den vom Zentrum für empirische pädagogische Forschung unterstützten Ländern Bremen, Rheinland-Pfalz (beide nur bei VERA 3) und Niedersachsen sowie in Hessen werden von

5Entsprechende

Hinweise finden sich zumeist in den VERA-Handreichungen, schulischen Qualitäts-/Referenzrahmen, auf den Websites der Landesinstitute oder in öffentlich einsehbaren (Vortrags-)Papieren der Kultusministerien bzw. Senatsverwaltungen sowie in Landesberichtslegungen.

52

J. Tarkian et al.

Abb. 4.3   Regelung zur Rückmeldung von VERA-Ergebnissen an die Eltern der TestteilnehmerInnen

den auswertenden Institutionen auch spezielle Elternbriefe zur Kommunikation der Ergebnisse gegenüber den Erziehungsberechtigten6 bereitgestellt. Diese sollen bzw. können von den Lehrkräften zur Gegenüberstellung von erreichten bzw. noch förderungsbedürftigen Kompetenzen der Kinder in der Kommunikation mit den Eltern genutzt werden. Thüringen bietet eine Schülerrückmeldung an, die sich zwar vornehmlich an die Lehrkräfte selbst richtet, teilt aber in einem begleitenden Anschreiben zugleich mit, dass diese auch für eine Rückmeldung an die Eltern genutzt werden kann. In den Rückmeldebriefen sind grundsätzlich die nach Fächern und Domänen differenzierten I­ndividualergebnisse

6Diese

werden z. T. auch als Schülerberichte bezeichnet, es werden dabei aber die Eltern mitadressiert. Die Elternbriefe sind in einigen Ländern auf VERA 3 beschränkt (vgl. Abschn. 4.4).

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

53

der TestteilnehmerInnen aufgeführt,7 die zumeist auch als Anlass für Gespräche zur Leistungs-entwicklung mit den SchülerInnen selbst gedacht sind.8 Die übrigen Länder bieten hierfür keine feste Form an, dort liegt es im Ermessen der Schulen oder der Fachlehrkräfte selbst, nicht nur ob, sondern auch in welcher Weise sie den Eltern (und SchülerInnen) gegenüber berichten. Besonderheit: In Bayern, Bremen, Hessen, Schleswig-Holstein und Thüringen werden auch praktische Orientierungshilfen und/oder spezielle Materialien für die schulische Elternarbeit bereitgestellt wie Foliensätze für eine Ergebnispräsentation an Elternabenden oder detaillierte Umsetzungshinweise zur Durchführung eines datenbasierten Feedbackgespräches mit den Eltern. Die Rückmeldung selbst ist, sofern vorhanden, primär als standardbasierte Information zu den individuellen Leistungsständen der SchülerInnen und damit als ein zusätzliches, kompetenzorientiertes Element im Rahmen eines schülerbezogenen Leistungsfeedbacks an die Elternschaft gedacht. Da VERA unter testtheoretischen Gesichtspunkten nur in sehr begrenztem Maße individualdiagnostische Schlussfolgerungen erlaubt, wird bei entsprechenden Ableitungen für den/die EinzelschülerIn von FachdidaktikerInnen und Experten aus Landesinstituten allerdings teilweise zu Vorsicht gemahnt9. In Hamburg wurde vor diesem Hintergrund entschieden, nur solche Datenrückmeldungen zu erstellen, die sich – eher ethischen als genuin diagnostischen Motiven geschuldet – ausschließlich an die TestteilnehmerInnen selbst wenden. Die Eltern werden hier nicht explizit als Adressaten mitaufgeführt. Eine andere Konnotation erhält die Elterninformations-Funktion im Zusammenhang mit der Rückmeldung von schulischen Referenzwerten: Während die zusätzliche Ausweisung von Vergleichswerten auf Klassenebene vor allem der Einordnung

7Mit

Ausnahme von BB werden dabei neben den individuell erzielten Lösungshäufigkeiten auch die erreichten Kompetenzstufen des Kindes berichtet. 8Rückmeldegespräche mit den SchülerInnen sind in BW, BY, BE, BB, HE, MV, NW und SH in untergesetzlichen Normen entsprechend als obligatorische Aufgabe verankert (Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen, 2016, S. 183; Hinweise zur Durchführung und Auswertung von VERA-3 und Orientierungsarbeiten im Schuljahr 2015/2016, Bayerisches Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst; Verordnung über schulische Qualitätssicherung und Evaluation, GVBl. 2011, S. 728; Verwaltungsvorschrift über Vergleichsarbeiten als diagnostische Testverfahren, Abl. MBJS/12, S. 292; Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8, ABl. 2015 S. 503; Verordnung zur Qualitätsentwicklung und Qualitätssicherung an selbstständigen Schulen, GVOBl. M-V 2016, S. 2; Zentrale Lernstandserhebungen (Vergleichsarbeiten), ABl. NRW. S. 98; Erlass über die Durchführung von Vergleichsarbeiten in allgemeinbildenden Schulen, NBl. MBK. Schl.-H. 2013, S. 7). 9Siehe z. B. unter Punkt 2. in der EMSE Präsentation von Peek/Dobbelstein: https://www. emse-netzwerk.de/uploads/Main/EMSE08_Peek_Dobbelstein_Diskussionsaspekte_zum_Schwerpunktthema.pdf. Zugegriffen: 14.02.2019.

54

J. Tarkian et al.

der Individualdaten im Sinne eines sozialen Vergleichs innerhalb der Lerngruppe dient (aber auch erste Rückschlüsse auf die Unterrichtsqualität liefern kann) und eine darüber hinausgehende Darstellung von – insbesondere „fairen“, also adjustierten – Daten auf Regional- oder Landesebene die Interpretation der Einzelleistung noch bereichern mag, kann eine Bereitstellung von gesamtschulischen Ergebnissen auch zur Beurteilung der Organisation als solcher dienen und damit potenziell Schulwahlentscheidungen beeinflussen. Eine zusätzliche Aufbereitung von auf Schulebene aggregierten Leistungsergebnissen für die Elternschaft ist derzeit allerdings nur aus Nordrhein-Westfalen von der QUA-LiS (VERA 8) bekannt. Klassen- und/oder Landeswerte werden neben Nordrhein-Westfalen auch in Elternbriefen für Berlin, Brandenburg und Schleswig-­ Holstein (VERA 8) zur Verfügung gestellt, Thüringen bietet in seinen Schülerberichten als Vergleichsmaß den schulformspezifischen Landesdurchschnitt an. Bayern, Baden-­ Württemberg, Bremen, Hessen und Mecklenburg-Vorpommern beschränken sich in ihren Vorlagen auf eine Rückmeldung der Individualergebnisse, bei den vom Zentrum für empirische pädagogische Forschung administrierten Ländern werden die Vorlagen derzeit ausschließlich für den Grundschulbereich zur Verfügung gestellt. Während Niedersachsen, Sachsen und Sachsen-Anhalt infolge ihres Verzichts auf spezielle Eltern-Rückmeldebögen keine formalen Standards zur Weitergabe von (Referenz–) Ergebnissen setzen, sind in Hamburg, im Saarland und in Rheinland-Pfalz (bei VERA 8) Datenrückmeldungen an Eltern erklärtermaßen nicht vorgesehen. Eine Gesamtübersicht zu den vorgesehenen Rückmeldeebenen für Eltern, aber auch für andere potenzielle Adressaten der Leistungsergebnisse bietet Abschn. 4.4.

4.3.3 Controlling-Funktion Aktuelle Forschungsbefunde weisen darauf hin, dass die Ableitung und Umsetzung von Entwicklungsmaßnahmen im Anschluss an Lernstandsrückmeldungen, also der Weg „von Daten zu Taten“, für Schulen eine große Herausforderung bedeutet (Groß Ophoff 2012; Maier und Kuper 2012; Schildkamp et al. 2012). Trotz der mitunter – gerade infolge steuerungsbedingt neugeordneter Verantwortlichkeiten – konstatierten Rollendiffusion der operativen Schulaufsicht wird insofern regelmäßig auf ihre Funktion verwiesen, Schulen in diesem Prozess zu unterstützen und bei der „Ergebnisklärung (Controlling)“ (Bogumil et al. 2016) zu begleiten. Ein diesbezügliches Vorgehen der Schulaufsicht kann verstanden werden als „Steuerungshilfe, auf deren Basis systematisch Ziele geklärt und der Grad der Zielerreichung untersucht wird, um daraus in einem Rückkopplungsprozess Konsequenzen für die Arbeit der folgenden Periode zu ziehen“ (Lange 2003, S. 147; vgl. dazu auch Dubs 2009). In etwa der Hälfte der Länder – dazu zählen Bayern, Brandenburg, Bremen, Hamburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Sachsen-Anhalt, Schleswig-­ Holstein und Thüringen – wurden im Zuge der analysierten Dokumente Textpassagen gefunden, die auf eine vorgesehene Verwendung der VERA-Daten im Sinne einer solchen Funktion hinweisen. So heißt es beispielsweise in einer Reaktion der Bremer Senatsbildungsverwaltung auf eine Kleine Anfrage der SPD-Fraktion im Juli 2013:

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

55

Der Schulaufsicht stehen die VERA-Ergebnisse auf der Ebene der Klasse/Lerngruppe in Form von Kom-petenzstufenverteilungen zur Verfügung, damit sie den schulinternen Nutzungsprozess begleiten kann. Die Schulaufsicht bespricht mit der Schule, wie diese die Ergebnisse analysiert und interpretiert hat und welche Konsequenzen geplant wurden. In den Zielvereinbarungen werden entsprechende Verabredungen gemeinsam festgelegt (HB_Kleine_Anfrage_07/2013, Antwort zu Frage 2).

Das Kultusministerium von Sachsen-Anhalt spricht auf seinem Landesbildungsserver diesen Zweck ebenfalls an, wenn es dazu (allerdings ohne konkrete Benennung der genauen Zuständigkeit) für die zentralen Abschlussprüfungen, zentrale Klassenarbeiten und VERA-Arbeiten gemeinsam formuliert: Ziele

Für alle zentralen Leistungserhebungen in Sachsen-Anhalt gilt gleichermaßen, dass mit ihnen das Ziel verfolgt wird, eine größere Transparenz für landesweite Leistungsanforderungen einerseits und für die erreichten Schülerleistungen im Sinne einer Outputkontrolle (und damit auch einer Outputsteuerung) andererseits herzustellen (ST_Landesbildungsserver_Information vom 20.08.2015).

Die Funktion eines schulaufsichtlichen Controllings unter Einbezug von VERA-Daten zur Unterstützung der Qualitätsentwicklung von Schulen findet sich in Brandenburg, Bremen, Mecklenburg-Vorpommern und Nordrhein-Westfalen auch in schulgesetzlich nachgeordneten Vorschriften festgeschrieben (BB: VVStSchÄ; HB: Anlage zur Verfügung Nr. 32/2013; MV: §§ 4 u. 11 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen v. 09.11.2015; NW: QA-VO 2007; Runderlass Zentrale Lernstandserhebungen v. 25.2.2012, Nr. 5). So wird in Brandenburg beispielsweise in den Erläuterungen zu den Verwaltungsvorschriften für Staatliche Schulämter als Ziel für die „Kernaufgabe A – Datengestützte Aufsicht über Schul- und Unterrichtsentwicklung“ festgelegt, dass „die datengestützte Aufsicht über Schulentwicklung […] durch periodisches Controlling sicher[stellt], dass die Schulen die notwendigen Handlungsfelder identifizieren und Entscheidungen über deren Bearbeitung treffen“ (VVStSchÄ v. 07.03.2016, Anlage 3, S. 2). Die Ergebnisse der VERA-Arbeiten bilden dabei eine der verschiedenen Datenquellen des „Datenkranzes“, die im Rahmen der DAQ-Gespräche (künftig: Schulbilanzierungs-Gespräche bzw. SchuB) genutzt werden. Auch in Berlin ist in der Verordnung über schulische Qualitätssicherung und Evaluation vom 29. November 2011 (§ 3, Abs. 6) festgelegt, dass „der wissenschaftliche Projektträger […] die Vergleichs- und Referenzwerte den Schulen und der Schulaufsichtsbehörde zur Verfügung [stellt]“. Zugleich wird im Weiteren aber betont, dass „die

56

J. Tarkian et al.

Schulaufsichtsbehörde […] die Vergleichs- und Referenzwerte nur zu Zwecken der Qualitätssicherung und Evaluation nach § 9 des Schulgesetzes [verwenden darf], nicht jedoch für operative Aufgaben der Schulaufsicht“. Insofern wird mit diesem Passus zumindest eine vergleichende Nutzung der Ergebnisse für ein Controlling der Einzelschule letztlich ausgeschlossen bzw. die Verwendung der Daten auf eine anderweitige administrative Verarbeitung (z. B. für andere Evaluationsmaßnahmen oder Berichtslegungen) beschränkt. Im Rahmen des 2017 implementierten Berliner ‚Indikatorenmodells‘, das – ähnlich wie im Nachbarland Brandenburg – für Zielvereinbarungen (hier genannt: Schulverträge) zwischen der Schulaufsicht und der Einzelschule einen Zugriff auf verschiedene schulische Daten vorsieht, ist ein Einbezug von Teilen der schulischen VERA-Ergebnisse10 zur Beschreibung ihres eigenen Entwicklungsverlaufs allerdings vorgesehen. Entsprechende Daten werden daher der Senatsverwaltung vom Institut für Schulqualität zur Verfügung gestellt. Hiermit deutet sich bereits an, dass – abgesehen von der in Konzeptpapieren, Willenserklärungen oder juristischen Textgattungen festgehaltenen Benennung schulaufsichtlicher Controllingaufgaben im Zusammenhang mit den VERA-Ergebnissen – für eine Bestandsaufnahme zur Kennzeichnung der Funktion vor allem der für die operativ tätigen SchulrätInnen eingerichtete, regelhafte Informationszugang zu den schulischen Ergebnissen entscheidend ist. Eine Bereitstellung dieser Daten ist in den Ländern in unterschiedlicher Weise eingerichtet: In Bayern, Brandenburg, Mecklenburg-Vorpommern sowie Hamburg und Bremen und seit 2017 auch in Baden-Württemberg werden von den Auswertungsinstitutionen schulscharfe Ergebnisse zur direkten Einsichtnahme für die jeweils operativ zuständigen SchulrätInnen/–aufsichtsbeamtInnen aufbereitet, etwa in Form spezifischer Berichte an die Schulaufsicht, die auch mit konkreten Handlungsempfehlungen zur Nutzung der Daten versehen sein können (Beispiel: BY). Damit besteht eine unmittelbare Informationsgrundlage für schulaufsichtliche Tätigkeiten, deren Charakter sich in der Praxis – auch aufgrund des in weiten Teilen noch unbestimmten Rollenverständnisses der Schulaufsicht (Altrichter und Heinrich 2007; vgl. Dubs 2009) – mal als stärker beratend-unterstützend, mal als stärker direktiv-kontrollierend darstellen kann. Während die Umsetzung in Brandenburg oder Bayern zumindest ausgehend von den dort deutlicher formulierten Vorgaben11 als eher klassisch-aufsichtlich bezeichnet werden kann,

10Derzeit beschränkt auf die (auf Klassen- bzw. Schulebene aggregierten) Ergebnisse der Kompetenzstufe 1 bei VERA 3, perspektivisch in dieser Weise auch für VERA 8-Daten vorgesehen. 11Siehe etwa Anlage 3 zur VVStSchÄ unter http://bravors.brandenburg.de/verwaltungsvorschriften/ vvstschae bzw. § 113c, Abs. 4 des BayEUG und den Leitfaden für die Erstellung von Zielvereinbarungen: https://www.isb.bayern.de/download/15616/leitfaden_2014.pdf. Jeweils zugegriffen: 08.06.2017.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

57

wird etwa in Bremen und auch in Berlin nach Auskunft der Landesvertretungen auf ein möglichst niedrigschwelliges, beratendes Vorgehen der SchulaufsichtsbeamtInnen fokussiert, das den Schulen bewusst große Entscheidungsfreiheiten einräumt. Vor dem Hintergrund datenschutzrechtlicher Klärungsbedarfe, die sich gerade in Reaktion auf bestehende Informationsfreiheitsgesetzgebungen der Länder ergeben (vgl. Abschn. 7.4.3), wurde das Verfahren der direkten Weitergabe von Einzelschuldaten an die Schulaufsicht in zwei Ländern zwischenzeitlich ausgesetzt. Für Nordrhein-Westfalen und Schleswig-Holstein ist das zukünftige Vorgehen laut Auskunft der Landesvertretungen in Überarbeitung, gilt aber zum Stichtag noch als regelhafte Weitergabe. In den übrigen Ländern ist prinzipiell kein unmittelbarer Zugriff auf die Schuldaten seitens der regionalen Schulaufsicht vorgesehen. Vergleichbar dem Vorgehen bei der Schulinspektion, die im Großteil der Länder keinen direkten Zugriff auf die Schulergebnisse erhält, sind hier die AufsichtsbeamtInnen stattdessen angehalten, bei Bedarf die Daten selbst bei den Schulen abzufragen (vgl. Abb. 4.4).

Abb. 4.4   Regelung zum Zugriff der Schulaufsicht auf schulbezogene VERA-Ergebnisse

58

J. Tarkian et al.

Jenseits der Datenzugangsregelungen sind aber auch konkrete Instrumente bzw. Verfahren des schulaufsichtlichen Controllings, die einen Einschluss von VERA-Daten vorsehen, in unterschiedlicher Weise institutionalisiert: So sind in Brandenburg und in Berlin, aber auch in Bremen und Hamburg regelmäßig durchzuführende datenbasierte Qualitäts- oder Statusgespräche zwischen der Schulaufsicht und der Schulleitung eingerichtet, die „eine zielgerichtete Schulaufsicht und Schulberatung anhand einer systematischen Analyse und Bewertung der Daten einer Schule mittels eines strukturierten Vorgehens“12 verfolgen und entsprechend in Zielvereinbarungen oder „Schulverträge“ (Berliner Indikatorenmodell) münden (können). In den dazu einsehbaren Unterlagen werden die Ergebnisse aus den Vergleichsarbeiten in Klasse 3 und 8 ausdrücklich als eine Informationsquelle aufgeführt. Ein vom Brandenburger Landesministerium MBJS nach Einrichtung des Instruments für die Schulen zusammengestelltes Dossier etwa benennt die durch das ISQ bereitgestellten VERA-­ Ergebnisse entsprechend ihrer Listung im landeseigenen Orientierungsrahmen13 gleich zu Beginn als einen zentralen Indikator für das mit den Schulen durchzuführende datengestützte Qualitätsgespräch (DAQ; künftig: SchuB). Auch in den Hamburger Qualitätsentwicklungsgesprächen werden grundsätzlich „auffällige Ergebnisse“ aus den KERMIT-Testungen im jährlichen ersten QE-Gespräch mit weiterführenden Schulen thematisiert. Die entsprechenden Ergebnisrückmeldungen für alle Schulen sind 2018 durch ein zusätzliches Blatt ergänzt worden, auf denen die Auffälligkeiten gesondert dargestellt sind. Ausgehend von einer Handreichung aus dem Jahr 2009 sind auch in Nordrhein-­ Westfalen entsprechende Zielvereinbarungsgespräche eingeführt und können dabei neben Ergebnissen aus zentralen Prüfungen sowie der Qualitätsanalyse (externe Evaluation) auch Lernstandserhebungen als Datenquelle miteinschließen. Voraussetzung hierfür ist allerdings eine vorherige Berichtslegung durch die Schulen selbst, zu der diese gemäß einem Runderlass14 offiziell verpflichtet sind. In Mecklenburg-Vorpommern ist zwischen dem Landesministerium und den vier Schulämtern ein entsprechendes Verfahren abgestimmt worden, das für die SchulrätInnen nach Erhalt der VERA-Einzelschulergebnisse eine „begründete Ersteinschätzung“ zum Risikograd der Schulen und in ausgewählten Fällen Gespräche über eine schulische Weiterarbeit mit den Daten vorsieht. Sofern sich fortlaufende Auffälligkeiten bei den Leistungsergebnissen einer Schule ergeben, werden durch einen Ministerialzuständigen

12So die Zielstellung in Brandenburg, siehe https://mbjs.brandenburg.de/sixcms/detail.php/lbm1.c. 315803.de. 13In der Version von 2016 finden sich die Vergleichsarbeiten als Qualitätskriterium unter QM 6.1 (S. 36). 14Runderlass

Zentrale Lernstandserhebungen v. 25.02.2012.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

59

gemeinsam mit einem Vertreter des Beratungs-/Unterstützungssystems „eintägige Schulbesuche“ im Sinne einer zusätzlichen externen Evaluation vorgenommen, die in eine Kurzdokumentation der schulischen Situation mit angeschlossenen Zielvereinbarungen münden15. Auch in Thüringen und Rheinland-Pfalz haben Zielvereinbarungsgespräche – insbesondere nach Abschaffung der dortigen externen Evaluation – an Bedeutung gewonnen und können als solche nach Auskunft der Landesvertretungen prinzipiell auch unter Einsatz schulischer Leistungsdaten aus den Vergleichstestungen erfolgen. Während ein solches Vorgehen in Thüringen zumindest im Rahmen einer Kleinen Anfrage zur Bildungs- und Schulqualität aus 2016 auch als regelhaft beschrieben ist, lassen sich dazu in Rheinland-Pfalz allerdings keine Festlegungen finden. Zudem werden in beiden Ländern Zielvereinbarungsgespräche aus Kapazitätsgründen derzeit nur bei schulisch angemeldetem Unterstützungsbedarf umgesetzt; eine behördlich gesteuerte Einleitung entsprechender Gespräche ist ebenso wie eine direkte Anbindung der Schulaufsicht an die Leistungsergebnisse in diesen Ländern nicht grundsätzlich eingerichtet. In den Ländern Bayern, Baden-Württemberg und Hessen existieren ebenfalls Zielvereinbarungsgespräche zwischen der Schulaufsicht und den Schulen; diese sind allerdings jeweils nur im Anschluss an die (insgesamt vergleichsweise selten stattfindende) externe Evaluation konzipiert. VERA-Ergebnisse dienen hier nicht ausdrücklich als eine dabei zu berücksichtigende Datenquelle, sondern werden nur potenziell mit einbezogen, wenn im Rahmen der Inspektionsberichte besondere Hinweise zu den Testergebnissen festgehalten wurden (BW, HE) oder sie als Maßstab für eine (in der späteren Bilanzierung) durchzuführende Erfolgsmessung der entwickelten Ziele dienen sollen (BY). Dass die VERA-Ergebnisse in Baden-Württemberg in der Vergangenheit nicht systematisch in die Evaluationsberichte der Fremdevaluation eingingen, kritisierte der Landesrechnungshof 2016 in seiner „Denkschrift 2016 zur Haushaltsrechnung 2014“,16 daraufhin wurde das Verfahren angepasst. Nach Aussetzen der externen Evaluation zum Schuljahr 2017/2018 ist dies allerdings derzeit dort nicht mehr der Fall. Ein webbasiertes Informationsportal, das eine automatisierte Gegenüberstellung von VERA-Schul(bereichs)ergebnissen erlaubt und diese Daten zugleich in einem Gesamtzusammenhang mit weiteren schulstatistischen Leistungs- und Strukturmerkmalen stellt, existiert derzeit in Brandenburg mit dem ZENSOS-System17. In Berlin kommt zur Administration der Statistiken für das Indikatorenmodell ebenfalls ein Informations-

15Siehe dazu die Übersichtsgrafik in der Ministerialinformation zur externen und internen Evaluation in MV unter https://www.bildung-mv.de/downloads/Evaluation_Gesamtkonzept_Evaluation7. pdf. Zugegriffen: 25.09.2018. 16Siehe dazu Punkt 2.3 unter http://www.landtag-bw.de/files/live/sites/LTBW/files/dokumente/ WP16/Drucksachen/0000/16_0111_D.pdf. Zugegriffen: 08.06.2017. 17Weitere Informationen dazu unter: https://mbjs.brandenburg.de/sixcms/detail.php/lbm1.c.263581.de. Zugegriffen: 25.09.2018.

60

J. Tarkian et al.

portal zum Einsatz und auch in Hamburg existiert in ähnlicher Weise für die Verwaltung der Ziel- und Leistungsvereinbarungen ein ZLV-Tool als Share-Point. Eine eher indirekte Maßnahme VERA-basierten Controllings, die zur Förderung innerschulischer Unterrichts- und Schulentwicklungsarbeit eine Rechenschaftslegung für Einzelschulen vorsieht, haben einige Länder im Zusammenhang mit der externen Evaluation implementiert: Durch die für Bayern und Baden-Württemberg bereits angesprochene, aber auch in Berlin, Brandenburg, Hamburg und Nordrhein-­Westfalen vorgesehene systematische Erfassung der im Nachgang der Datenrückmeldung an den Schulen erfolgenden (oder unterbleibenden) Ergebnisnutzung, die wiederum in die Berichtslegung zur Inspektion eingeht, wird ein – zumindest mittelbarer – Informationsfluss zur Schulaufsicht als Empfänger der Inspektionsberichte hergestellt. In Brandenburg und Nordrhein-Westfalen sind ergänzend spezielle Berichtsblätter zur formalisierten Abfrage der Ergebnisse bzw. insbesondere der daraus von den Schulen abgeleiteten Konsequenzen entwickelt worden. Ein solches Berichtsblatt existiert ebenfalls in Rheinland-Pfalz, beschränkt sich allerdings auf den Umgang mit den VERA 3-Ergebnissen und dient dort, genau wie die (allerdings insgesamt ohne festen Rahmen konzeptualisierten) Zielvereinbarungsgespräche, infolge der Abschaffung der externen Evaluation als ein Teilersatz zur Aufrechterhaltung des Dialogs mit den Schulen. B ­ erlin hat sich nach landesinterner Diskussion bisher gegen die Einführung einer solchen Reporting-Maßnahme entschieden. Aus den übrigen Ländern sind keine Überlegungen bekannt, ein entsprechendes Berichtsformular zum Einsatz an den Schulen einzuführen. Neben Thüringen und Rheinland-Pfalz, die der operativen Schulaufsicht somit nur sehr ansatzweise Steuerungsaufgaben im Zusammenhang mit datenbasierter Qualitätssicherung zuweisen, sind für die Länder Hessen, Niedersachsen, Saarland, Sachsen, Sachsen-Anhalt und Schleswig-Holstein zum Stichtag keinerlei systematische Informationswege oder planmäßige Verfahren für ein schulbehördliches Controlling auf Basis von VERA-Ergebnissen erkennbar. Hier wird einerseits Schulen bewusst Freiraum zur eigenverantwortlichen Einleitung bzw. Umsetzung ihrer Entwicklungsvorhaben gewährt, andererseits den SchulaufsichtsbeamtInnen zugestanden, ihre diesbezüglichen Unterstützungsaktivitäten in Umfang und Form nach eigenem Ermessen zu gestalten.

4.3.4 Monitoring-Funktion Eine weitere Funktion, die im Zusammenhang mit regelmäßig erhobenen schulischen Leistungsdaten verbunden sein kann, besteht im Bildungsmonitoring, zu verstehen als eine auf Systemebene stattfindende „laufende Beobachtung der Rahmenbedingungen, Verlaufsmerkmale, Ereignisse und Erträge von Bildungsprozessen mit Hilfe empirischer Methoden […] mit dem Ziel, administrative und politische Handlungsbedarfe und Interventionsmöglichkeiten aktuell und prospektiv zu erkennen“ (Maritzen und ­Tränkmann 2015). Werden – regional oder auf Landesebene – aggregierte Ergebnisse der VERA-Testungen von bildungspolitisch Verantwortlichen in den Ländern als Indikator

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

61

für Schulqualität wahrgenommen, so ist eine Grundlage für informierte Steuerungsentscheidungen geschaffen. Der landespolitische Wille für ein solches Vorgehen zeigt sich etwa in einer vom baden-württembergischen Kultusministerium im Sommer 2017 veröffentlichten Pressemitteilung zur Einführung eines neuen Qualitätskonzepts für das Schulsystem, in der ein Bildungsmonitoring unter Einschluss von VERA-Daten als zentrale Aufgabe des zum 01.03.2019 neu zu gründenden Instituts für Bildungsanalysen (IBBW) benannt wird:

Kernaufgabe des Instituts für Bildungsanalysen ist der Aufbau eines strategischen Bildungsmonitorings. Dieses soll eine datengestützte Qualitätsentwicklung auf allen Ebenen des Bildungssystems vom Kultusministerium bis hin zu den Schulen unterstützen. Vordringliches Ziel ist eine systematische, wissenschaftlich basierte Beobach-tung und Dokumentation von Bildungsprozessen und – ­ ergebnissen, um Ansatzpunkte für Verbesserungen identifizieren zu können. Anhand vorhandener Daten wie beispielsweise den Ergebnissen von Vergleichsarbeiten, den Auswertungen der amtlichen Schulstatistik sowie sozioökonomischer Daten soll damit künftig zielgerichtet auf Probleme reagiert werden können. Zugleich sollen ­empirisch belegte Erkenntnisse als Steuerungswissen für Politik und Praxis nutzbar gemacht werden, um eine langfristig wirksame Schul- und Unterrichtsentwicklung zu unterstützen. ‚Messung, Diagnose, Empfehlungen, so lassen sich die zentralen Aufgaben zusammenfassen‘ (BW_2017_Pressemitteilung des Ministeriums für Kultus, Jugend und Sport v. 28.06.2017).

Als instrumentelle Grundlage für ein Bildungsmonitoring dient im Allgemeinen die Bildungsberichterstattung18, die in allen Ländern – wenngleich auch in ganz unterschiedlichem Veröffentlichungsturnus und z. T. mit regional/kommunal eingeschränkter Ausrichtung – die Aufbereitung verschiedener statistischer Daten zu den landeseigenen Schulen vornimmt. Im Falle politisch gesetzter „kritischer Schwellenwerte“ können diesbezüglich erreichte oder verfehlte Ziele zumindest annäherungsweise sichtbar und damit politischer Handlungsbedarf erkennbar gemacht werden. Dass auf diesem Wege in manchen Ländern regelmäßig Daten aus den VERA-­ Vergleichstestungen aufbereitet werden (sollen), lässt sich am Beispiel Thüringens illustrieren: In dem 2016 erschienenen Bericht ist ein Bedarf an den Ergebnissen erkennbar, der in

18So

heißt es im Kontext des nationalen Bildungsberichts, dass „Bildungsberichterstattung […] als Bestandteil eines umfassenden Bildungsmonitorings zu verstehen [ist], das darauf abzielt, durch kontinuierliche, datengestützte Beobachtung und Analyse Informationen für politisches Handeln aufzubereiten und bereitzustellen“ (Autorengruppe Bildungsberichterstattung 2016, S. 1).

62

J. Tarkian et al.

diesem Fall nicht nur die Kompetenzstände der SchülerInnen selbst betrifft, sondern auch die für thüringische Schulen optional ermittelbaren Ergebnisprognosen ihrer Lehrkräfte19:

Der jeweils im Herbst erscheinende Landesbericht gibt die Ergebnisse [der Kompetenztests] auf der Landesebene wieder und dient dem Bildungsmonitoring. So enthält er auch die Ergebnisse zur Untersuchung der diagnostischen Einschätzung. Hier können die am Test beteiligten Fachlehrkräfte auf anonymer und freiwilliger Basis am Vortag des Tests eine Reihe von Testaufgaben einsehen und die Lösungshäufigkeiten in ihrer Klasse prognostizieren. Eine gute Kenntnis des aktuellen Lernstandes der eigenen Schüler ist eine der wichtigen Voraussetzungen für guten Unterricht (TH_2016_ Landesbericht Thüringer Kompetenztests, S. 4).

Aggregierte Ergebnisse aus den Vergleichstestungen (die keinen Rückschluss auf Einzelschulen zulassen) werden derzeit neben Thüringen auch in den Bildungsberichten der Länder Bayern, Baden-Württemberg, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Sachsen-Anhalt und Schleswig-Holstein aufgeführt. In der Region Berlin-Brandenburg werden nach der 2017 verfolgten Umstellung auf ein neues Berichtsformat keine VERADaten mehr ausgewiesen. Das Bayrische Staatsinstitut für Schulqualität und Bildungsforschung berichtet aktuell noch nach Bildungsregionen bzw. Schularten zusammengefasste Ergebnisse, es bestehen aber – wie auch in Thüringen – Überlegungen, dies zukünftig nicht mehr fortzuführen. Hamburg verzichtet zwar in seinem Bildungsbericht ebenfalls auf eine öffentliche Dokumentation der landeseigenen Ergebnisse aus KERMIT 3 und 820, lässt allerdings in dem vom IfBQ zu KERMIT bereitgestellten Informationsmaterial auf der Website erkennen, dass eine systematische Auswertung der als Zwischenbilanz verstandenen Ergebnisse durchaus politisch intendiert ist, wenn es dort heißt: „Eine zusammenfassende Auswertung, die keine Rückschlüsse auf die Ergebnisse einzelner Schulen zulässt, informiert Bildungsadministration und – politik über den Status quo des Lernstandniveaus der Hamburger Schülerinnen und Schüler.“ Die Einführung der ‚Mathematik-Offensive‘ im Schuljahr 2015/2016 kann als ein Beispiel dafür angeführt werden, dass aus den (insbesondere für die Stadtteilschulen anhaltend als problematisch bewerteten) Mathematikleistungen21 auch bereits Konsequenzen gezogen wurden.

19Vgl.

dazu Abschn. 4.6 zu den Rückmeldeformaten. werden stattdessen Ergebnisse aus KERMIT 5, 7 sowie 9/10 dargestellt, die aus testtheoretischen Gründen als geeigneter für Systemmonitoring-Zwecke befunden werden. 21die auch in anderen Testverfahren wie den früheren KESS-13-Daten als auffällig bewertet wurden. 20Es

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

63

Für Niedersachen ergibt sich eine uneindeutige Praxis (siehe nachfolgende Textstellen): Während sich in der Handreichung zu VERA 3 aus dem Jahr 2014 zwar ein entsprechender Hinweis auf eine Monitoring-Funktion finden lässt, wird dies nach Rücksprache mit dem Ministerium mit Verweis auf die dazu in der KMK laufende, kontrovers geführte Diskussion relativiert und in einer Reaktion der Landesregierung auf eine Kleine Anfrage im Jahr 2014 erkennbar abgelehnt. Als Grundlage für ein Bildungsmonitoring werden hier stattdessen die – allerdings seltener und stichprobenbezogen ermittelten – Ergebnisse aus Ländervergleichen wie dem IQB-Bildungstrend angeführt. Im Rahmen einer offiziellen Landesberichterstattung werden auch in Niedersachsen keine VERA-Ergebnisse aufbereitet. Umgang mit Landesergebnissen

Aus den Ergebnissen aller Schulen wird ein Gesamtergebnis für Niedersachsen ermittelt, das auch als Steuerungswissen für weiterführende Entscheidungen dient (NI_2014_Handreichung VERA, S. 11).

Übersicht

Ländervergleiche liefern der Politik systematische Informationen über das Bildungssystem und geben Hinweise für weiteres Handeln (so zeigt beispielsweise der Ländervergleich 2009 einen länderübergreifenden Handlungsbedarf bezogen auf das Fach Englisch im Bereich Leseverstehen). Für die wachsende gesamtstaat-liche Verantwortung im Bildungsbereich ist die Veröffentlichung der Ergebnisse der Ländervergleiche folge-richtig. Vergleichsarbeiten, kurz VERA, haben dagegen – im Gegensatz zu Ländervergleichen – keine Monitoring-funktion, sondern eine Entwicklungsfunktion. Mithilfe der Vergleichsarbeiten wird der Einzelschule eine abgesicherte Standortbestimmung im Hinblick auf die länderübergreifenden Bildungsstandards und ein daraus abgeleitetes Anschlusshandeln ermöglicht (NI_Kleine Anfrage zur Schulvergleichsarbeit VERA v. 09.05.2014, S. 2).

In seiner VERA-Jahresberichterstattung von 2015 schließt auch Berlin aus testtheoretischen Gründen wie auch aus erwarteten Funktionskonflikten eine Verwendung der Daten zum Zwecke des Bildungsmonitoring aus:

64

J. Tarkian et al.

Übersicht

VERA ist ein Instrument für die Unterrichts- und Schulentwicklung jeder einzelnen Schule und hat eine wichtige Vermittlungsfunktion für die Einführung der zentralen fachlichen und fachdidaktischen Konzepte der Bildungsstandards. VERA ist nicht als Instrument für das Bildungsmonitoring auf Landes- oder Bezirksebene konzipiert und weist deshalb auf diesen Interpretationsebenen Messunschärfen auf. Von weitreichenden Interpretationen der VERA-Ergebnisse auf diesen Ebenen wird daher ausdrücklich abgeraten. Eine Trendanalyse über die Zeit ist aufgrund der Testkonstruktion ebenfalls nicht sinnvoll. Um die Stabilität der Messung sicherzustellen, müssten einerseits mehr Aufgaben eingesetzt und andererseits jährlich ein gewisser Teil der Aufgaben wiederholt bearbeitet werden. Die dafür erforderliche Verlängerung der Testzeit oder Rotation verschiedener Testheftversionen innerhalb einer Klasse widerspricht jedoch dem Ziel der Unterrichts- und Schulentwicklung. Des Weiteren müssten die Vergleichsarbeiten für den wiederholten Einsatz eines Teils der Testaufgaben vor den Lehrkräften und Eltern geheim gehalten werden, wodurch VERA ebenfalls nicht mehr für die Unterrichtsentwicklung nutzbar wäre (BE_VERA 3-­Länderbericht Berlin, Dezember 2015, S. 3).

In Brandenburg hingegen werden die Daten über das zentrale Informationssystem ZENSOS den politisch Verantwortlichen zumindest systematisch zugänglich gemacht. Hinweise auf eine steuernde Nutzung ergeben sich aus dem Umstand, dass die dort auf Bezirks- und Schulebene zusammengestellten Ergebnisse regelmäßig einander gegenübergestellt und entsprechende Auffälligkeiten gekennzeichnet werden, die dann in ­Fortbildungsveranstaltungen für einen Austausch mit der operativ tätigen Schulaufsicht zum Einsatz gebracht werden. Aus diesen Gesprächen ergeben sich für die zuständigen Schulräte konkrete Unterstützungsaufträge, die üblicherweise in DAQ-Gespräche (seit 2018: Schulbilanzierungsgespräche) mit den als besonders unterstützungsbedürftig identifizierten Schulen münden. Für die übrigen Länder ohne VERA-einschließende Bildungsberichterstattung konnten in den analysierten Dokumenten auch keinerlei andere Anhaltspunkte für eine VERA-Datennutzung zum Zwecke evidenzgestützter politischer Entscheidungsfindungen gefunden werden. Da angenommen werden darf, dass eine Weitergabe der Ergebnisse in die Landesministerien auf Bezirks-, Schulamts-, zumindest aber Landesebene auch jenseits der öffentlichen und damit nachvollziehbaren Berichtslegung erfolgt, sind letztlich in jedem Fall zusätzliche Möglichkeiten für ein Landesbildungsmonitoring gegeben. Inwieweit die Ergebnisse aus den VERA-Testungen in den Ländern dann auch tatsächlich – im Rahmen anschließender Verarbeitungswege, ggf. auch in Verbindung mit zusätzlichen Leistungsoder Prozessdaten – als Informationsbasis für bildungspolitische Maßnahmen eingesetzt wurden oder werden, kann und soll im Rahmen dieser Publikation nicht erfasst werden.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

65

4.4 Vorgesehene Adressaten der Datenrückmeldungen Wie im Zusammenhang mit den möglichen Funktionen von Vergleichsarbeiten im vorangegangenen Abschnitt bereits skizziert, werden in den Ländern mit Blick auf die eingerichteten Datenrückmeldungen – je nach Zielstellung des Verfahrens – unterschiedliche Adressierungen vorgenommen: Neben den Lehrkräften und Schulleitungen als zentralen Akteuren der Unterrichts- und Schulentwicklung sind regelmäßig auch Eltern mit Blick auf die Leistungsfeststellungen und -entwicklungen der SchülerInnen als Ergebnis-Empfänger vorgesehen. In manchen Ländern wird zudem an die operative Schulaufsicht zur Unterstützung von innerschulischen Entwicklungsmaßnahmen berichtet, teilweise kann auch die externe Evaluation/Schulinspektion zur Vorbereitung von Schulbesuchen direkt auf die Testergebnisse zugreifen. Schließlich werden zumeist auch den VertreterInnen der Landesministerien bzw. der Senatsbildungsverwaltungen Landesdatensätze zur Verfügung gestellt, die als Orientierungspunkte für bildungspolitische Entscheidungen bedeutsam werden können. Handelt es sich dabei um publizierte Ergebnisse, sind diese als öffentliche Berichtslegung zu verstehen. Regelmäßig erscheinende Landesbildungsberichte, die eine Veröffentlichung von Lernstandsergebnissen auch aus den Vergleichsarbeiten miteinschließen, bieten eine Grundlage für ein (regionales) Bildungsmonitoring zur Weiterentwicklung von Schulqualität.22 Dabei sind nicht für alle Akteursebenen Rückmeldungen auf derselben Aggregationsebene anvisiert: Diese können auf die Individualebene des SchülerInnenergebnisses beschränkt bleiben, das Klassen- bzw. Lerngruppen- oder auch das Schulergebnis betreffen; sie können auf regionaler Ebene (z. B. Schulaufsichtsbezirke) gruppiert oder auf der Ebene des gesamten Landes zusammengefasst sein. Zudem ist es möglich, dass die Rückmeldungen als „faire Vergleiche“ aufbereitet werden und damit nur solche (adjustierten) Vergleichswerte einbeziehen, die eine ähnliche Zusammensetzung der Schülerschaft aufweisen.23 Die nachfolgenden Abb. 4.5, 4.6, 4.7, 4.8, 4.9, 4.10, 4.11, 4.12, 4.13, 4.14, 4.15, 4.16, 4.17, 4.18, 4.19 und 4.20 illustrieren die für alle 16 Länder zum Analysestichtag implementierte Rückmeldepraxis zu den Ergebnissen der VERA Testungen in Jahrgangsstufe 3 und 8. Dabei sind die verschiedenen Adressatengruppen vertikal abgetragen, die Datenebenen werden auf der Horizontalen dargestellt.

22Der konkrete Nutzen von (gerade auf hohen Aggregationsebenen aufbereiteten) VERA-Daten für die Einleitung geeigneter bildungspolitischer Interventionen wird in und zwischen den Ländern kontrovers diskutiert. Die dazugehörige Debatte kann und soll im Rahmen dieser Publikation nicht abgebildet werden. 23Die Adjustierung der Daten erfolgt üblicherweise durch die Berücksichtigung soziodemografischer Aspekte der Schülerschaft wie z. B. dem Anteil an SchülerInnen nicht-deutscher Herkunft oder dem Anteil an für die Lehr-/Lernmittelzuzahlung befreiten SchülerInnenhaushalten (vgl. Isaac 2008), zu finden unter http://www.isq-bb.de/uploads/media/VERA_ Handreichung_fairer_Vergleich_2008.pdf). Zugegriffen: 04.09.2017.

66

J. Tarkian et al.

Abb. 4.5   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Baden-Württemberg

Abb. 4.6   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Bayern

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

Abb. 4.7   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Berlin

Abb. 4.8   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Brandenburg

67

68

Abb. 4.9   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Bremen

Abb. 4.10   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Hamburg

J. Tarkian et al.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

Abb. 4.11   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Hessen

Abb. 4.12   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Mecklenburg-Vorpommern

69

70

J. Tarkian et al.

Abb. 4.13   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Niedersachsen

Abb. 4.14   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Nordrhein-Westfalen

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

Abb. 4.15   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Rheinland-Pfalz

Abb. 4.16   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Saarland

71

72

Abb. 4.17   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Sachsen

Abb. 4.18   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Sachsen-Anhalt

J. Tarkian et al.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

Abb. 4.19   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Schleswig-Holstein

Abb. 4.20   Rückmeldepraxis zu den Ergebnissen aus VERA 3/8 in Thüringen

73

74

J. Tarkian et al.

4.5 Verpflichtungsgrad und Terminierung der Durchführung Wenngleich laut KMK-Beschluss (KMK 2006) mit den Vergleichsarbeiten in Jahrgangsstufe 3 und 8 ein für alle Länder verbindliches Instrument geschaffen wurde, so ist in den letzten Jahren unter den Stichworten Modularisierung und Flexibilisierung an gleicher Stelle über die Einrichtung von Freiheitsgraden bei der konkreten Durchführung der Erhebungen diskutiert worden. Der aus einigen Ländern vorgetragene Wunsch, die Schulen hinsichtlich des Gesamtumfangs an Testungen zu entlasten, wurde in der Vereinbarung zur Weiterentwicklung von VERA (KMK 2012) aufgegriffen und über die ­Festlegung einer Mindestverpflichtung zur Umsetzung der Vergleichsarbeiten berücksichtigt: Sowohl in der dritten als auch achten Jahrgangsstufe muss demnach wenigstens in einem der Kernfächer obligatorisch getestet werden (im Falle von Deutsch soll dabei zumindest der Kompetenzbereich Lesen überprüft werden, im Falle von Englisch in Klasse 8 sind die Domänen Lese- und Hörverstehen miteinzuschließen). Die Durchführung der übrigen Fächertestungen wird zur freiwilligen Umsetzung angeboten, ist aber empfohlen. In den Ländern ist auf diese Entwicklung unterschiedlich reagiert worden: Während Sachsen, Niedersachsen und Bremen die Vereinbarung dahin gehend übernommen haben, dass sie sich in beiden Jahrgangsstufen an der Mindestanforderung orientieren, haben Rheinland-Pfalz, Hessen und das Saarland zumindest für Klasse 8 die Freiwilligkeit stark erhöht.24 Berlin, Hamburg, Thüringen, Mecklenburg-Vorpommern, Nordrhein-Westfalen und seit dem Schuljahr 2015/2016 auch Baden-Württemberg25 halten demgegenüber an einer für ihre Schulen vollständigen Verpflichtung aller vom IQB angebotenen Testbereiche weiter fest, auch wenn aus dem MBJS in Thüringen bekannt ist, dass erste Überlegungen zur Modularisierung der Testung zumindest für Jahrgangsstufe 8 bestehen. Kleinere Einschränkungen im Verbindlichkeitsgrad lassen sich bei den Ländern feststellen, die zusätzliche Testverfahren bzw. -zeitpunkte in der Bildungsbiografie ihrer SchülerInnen verankert haben: Dazu zählen Bayern, Brandenburg und Sachsen-Anhalt, die neben VERA 3 und VERA 8 jeweils zwei weitere Diagnoseinstrumente mit z. T. mehreren Testzeitpunkten zum Einsatz bringen, aber auch Schleswig-Holstein, das im Zuge einer Länder-Kooperation bereits seit 2002 standardisierte Vergleichsarbeiten in der 6. Jahrgangsstufe mitentwickelt hat, die Testung aber zum Stichtag den Schulen zur freiwilligen Umsetzung anbietet (vgl. Abschn. 4.1). Abb. 4.21 fasst die Ergebnisse in einer entsprechenden Gruppierung zusammen:

24Hier

ist für VERA 8 nur eins der drei Fächer verpflichtend (in RP und SL nach rotierendem System). zu diesem Zeitpunkt wurde VERA 8 noch in einer Pilotphase erprobt, nachdem das Verfahren die früheren DVA-Testungen aus den Jahrgangsstufen 7 und 9 abgelöst hat. 25Bis

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

75

Abb. 4.21   Verbindlichkeitsgrad bei der Durchführung von VERA-Testungen in den 16 Ländern

Entscheidungsregelungen zur Durchführung freigestellter Arbeiten bzw. Testbereiche

Nicht verbindlich vorgeschriebene Testbereiche oder -domänen können in den jeweiligen Ländern auf freiwilliger Basis geschrieben werden. Das Entscheidungsrecht darüber wird allerdings in den Landes-vorschriften unterschiedlichen Akteuren zugeschrieben: So bevollmächtigen Bayern, Sachsen-Anhalt, Bremen und Rheinland-Pfalz über Rundschrei-ben bzw. Verfügungen die Schulleitungen zu einer entsprechenden Festlegung, während in Niedersachsen per Erlass die jeweiligen Fachkonferenzen über die Teilnahme an den freigestellten Vergleichsarbeiten entscheiden. Für Brandenburger Schulen ist ein gemischtes Modell vorgesehen: Die Entscheidung soll laut einem Rundschreiben des Kultusministeriums von der Schulleitung in Abstimmung mit den Fachkonferenzen getroffen werden. Sachsen lässt hingegen auf Basis einer Verwaltungsvorschrift die Gesamtlehrerkonferenz über die Durchführung abstimmen. Während Hessen per Verwaltungsvorschrift regelt, dass eine verbindliche Teilnahme an den Lernstandserhebungen noch per Zielvereinbarung zwischen der Schulaufsicht und der Schulen vereinbart werden kann, sind in Schleswig-­ Holstein und im Saarland keinerlei Entscheidungsbefugnisse rechtlich festgelegt.

76

J. Tarkian et al.

Bezüglich der zunächst für alle 16 Länder fest vorgegebenen Durchführungstermine wurden infolge eines hohen Abstimmungsbedarfs bei den jährlichen Terminfestsetzungen ebenfalls Lockerungen seitens der KMK eingeführt: Die Länder können inzwischen die Testzeitpunkte innerhalb eines zeitlich vorgegebenen Rahmens für ihren Zuständigkeitsbereich selbst festsetzen oder diesen Testzeitraum gleichsam an die Schulen ihres Bundeslandes zur schulindividuellen Terminierung der Erhebungen ­weitergeben. Dieser Freiraum ist bisher noch nicht in der Breite aufgegriffen worden: In der Mehrzahl der Länder (dies sind BE und BB, BW, BY, HB, MV, NW, SN, ST, SL und TH) werden weiterhin den Schulen gegenüber feste Testzeitpunkte für die Durchführung der VERA-Arbeiten kommuniziert.26 Gerade Länder, für die besondere Modalitäten bei der Umsetzung der Arbeiten gelten (wie das kürzlich vom zepf zum Einsatz gebrachte computerbasierte Testen in Niedersachsen), aber auch Schleswig-Holstein, Hamburg, Hessen und Rheinland-Pfalz (bei VERA 8) haben aus organisatorischen Gründen bzw. als Entgegenkommen an die Schulen in den letzten Jahren bereits angefangen, Testzeiträume für die Durchführung der VERA-Arbeiten anzubieten. Mit der zunehmenden Umstellung des Verfahrens auf eine elektronische Testung ist davon auszugehen, dass künftig auch weitere Länder in dieser Hinsicht nachziehen werden. Auch eine ­Modularisierung der Tests nach schulischen Bedarfen wird, so deutet es sich bereits an, mit dem Umstieg auf elektronische Testformate an Bedeutung gewinnen können.

4.6 Rückmeldeformate Die Rückmeldungen der VERA-Ergebnisse an die Lehrkräfte unterscheiden sich nicht nur mit Blick auf die Jahrgangsstufen und sind in unterschiedlicher Weise geprägt von den technisch- verfahrensbezogen variierenden Rahmenbedingungen der Auswertungsinstitutionen, sondern präsentieren sich den Ländern auch mit individuellen Akzentuierungen. Es lassen sich dennoch einige wiederkehrende Merkmale identifizieren, die mit Blick auf die Rezeption und Nutzung der Rückmeldungen eine zentrale Rolle spielen. Dazu zählt 1) die Darstellung von Kompetenzstufen, 2) der „faire Vergleich“ mit einer ähnlichen Bezugsgruppe, 3) die Feststellung einer Diagnosegenauigkeit der betreffenden Einzellehrkräfte, 4) die Bereitstellung von Interpretationshilfen als Erläuterung der Datenrückmeldung und (5) die Kommunikation von Hinweisen zur Weiterarbeit mit den Ergebnissen (EMSE-Netzwerk 2009; Groß Ophoff 2012; Koch 2011; Loesche und Hosenfeld 2016; Schliesing 2017). Auf der Grundlage von Muster- bzw. Beispielrückmeldungen für die Schulen, die den AutorInnen von den Landesvertretungen zur Analyse

26Abweichungen um einige Tage können aber bei Vorliegen einer die Schulterminplanung betreffenden Begründung im Einzelfall genehmigt werden.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

77

zur Verfügung gestellt wurden, konnten folgende Gemeinsamkeiten und Unterschiede festgestellt werden: Allen Berichten gemeinsam ist die Darstellung von Lösungshäufigkeiten, die zumeist in einer Sofortrückmeldung, teilweise auch etwas zeitlich verzögert (BW, HH, NI, NW, RP) an die Schulen zurückgespiegelt werden.27 Dabei weisen diese die Erfüllungsprozentsätze auf Aufgaben- oder Schülerebene oder auch als Kombination von beidem aus. Kompetenzstufen werden in allen Ländern außer den von der Universität Jena betreuten Ländern Hessen, Sachsen und Sachsen-Anhalt zurückgemeldet. Im Saarland ist die Darstellung auf VERA 3 beschränkt, Schleswig-Holstein meldet in Klasse 8 bei Französisch und Rheinland-Pfalz im selben Jahrgang bei Mathematik nur Lösungshäufigkeiten zurück. Für Sachsen-Anhalt fällt auf, dass die Ausweisung der Kompetenzstufen dabei nicht für die SchülerInnen oder die Klasse, sondern nur auf schulformbezogener Landesebene in einer separaten Rückmeldung erfolgt. Ein sogenannter „fairer Vergleich“ der rückgemeldeten Klassen- oder Schulergebnisse mit einer möglichst ähnlich zusammengesetzten sozialen Bezugsgruppe (z. T. auch als „Standorttyp“ oder „korrigierter Landesmittelwert“ bezeichnet) ist für die Akzeptanz von Vergleichsergebnissen sehr entscheidend (Maier 2014, S. 211). ­Bayern, ­Berlin, Hamburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Thüringen bieten ihren Schulen für beide Jahrgangsstufen solch adjustierte Ergebnisdarstellungen an. Um Klassengruppen mit einem soziostrukturell vergleichbaren Belastungsgrad bilden zu können, werden üblicherweise leistungsrelevante, aber unterrichtsunabhängige SchülerInnenmerkmale wie ihre Erstsprachlichkeit (möglicher Migrationshintergrund) oder der sozio-ökonomische Status ihrer Familien (Langzeitarbeitslosigkeit/­ Sozialhilfebezug, Lernmittelzuzahlungsbefreiung o. ä.) herangezogen,28 die z. T. über amtliche Statistiken, aber auch über Rückmeldungen der Klassenlehrkräfte ermittelt werden. Für die Zuordnung der Schule als Ganzes ist ihre sozialgeografische Lage (mögliche „Brennpunktschule“) entscheidend, die sich gleichsam aus einer Einschätzung der Schule mit Blick auf das konzentrierte Zusammenwirken verschiedener unterrichts- und lernerschwerender Faktoren ergeben kann. In den bei der Auswertung vom zepf unterstützten Ländern Bremen, Niedersachsen, Saarland und Schleswig-Holstein bleibt ein fairer Vergleich aktuell auf die Grundschulrückmeldungen beschränkt, Hessen meldet hingegen nur bei VERA 8 fair zurück. Aber auch hinsichtlich der Rückmeldungsebene gibt es Unterschiede: Während in Bayern, Berlin, Hamburg, Mecklenburg-Vorpommern und Nordrhein-Westfalen (VERA 8) die

27Die

Einführung von Sofortrückmeldungen für die teilnehmenden Lehrkräfte erhöht – so ist zumindest einer Studie für das Land Thüringen zu entnehmen – die Ergebnisnutzung in den Schulen (Hosenfeld et al. 2006).

28Diese werden teilweise noch durch weitere Stammdaten wie die Geschlechterverteilung in der Klasse ergänzt, siehe dazu auch Isaac (2008); Fiege et al. (2011).

78

J. Tarkian et al.

Vergleichsgruppe aus Schulen mit ähnlichen Kontextbedingungen gebildet wird, orientiert sich in den von der Universität Jena betreuten Ländern Hessen und Thüringen sowie in den zepf-Partnerländern Bremen, Saarland, Schleswig-Holstein, Niedersachsen und Nordrhein-Westfalen (VERA 3) die Zusammensetzung der Vergleichsgruppe stattdessen an Klassen, die ähnliche Kontextbedingungen aufweisen. In Brandenburg ist die Verarbeitung der erforderlichen Sozialindikatoren unter Einbezug der Kollegiumsebene mangels dafür geeigneter Datengrundlagen sowie infolge datenschutztechnischer Bestimmungen erschwert, sodass bisher keine fairen Rückmeldungen eingerichtet werden konnten. Baden-Württemberg bietet einen Vergleich nur auf Ebene der gleichen Schulart an, sodass kein fairer Vergleich im eigentlichen Sinne gebildet wird. Mit dem Verweis auf eine insgesamt nur geringe landesinterne Varianz verzichtet Rheinland-Pfalz bisher vollständig auf die Bildung adjustierter Vergleichsgruppen, und auch in Sachsen und Sachsen-Anhalt werden den Einzelschulen keine nach spezifischen Ausgangslagen der Schülerklientel differenzierten Vergleichswerte angeboten. Eine Rückmeldung zur Diagnosegenauigkeit der Ergebnisse bieten die Ergebnisberichte von Bayern, Baden-Württemberg, Hessen, Sachsen und Thüringen sowie der mit dem zepf kooperierenden Länder Bremen, Niedersachsen, Nordrhein-Westfalen, Schleswig-Holstein und Rheinland-Pfalz.29 Dieser vom zepf eingeführte, freiwillig nutzbare Verfahrensbestandteil bietet den Lehrkräften am Vortag der Testung die Möglichkeit einer eigenen Ergebniseinschätzung zu ihren SchülerInnen und vergleicht ihre Prognosen nach dem Test mit den tatsächlich erzielten TeilnehmerInnenergebnissen. Bei den bayrischen Rückmeldungen werden die faktischen VERA-Ergebnisse einem statistisch berechneten Erwartungswert gegenübergestellt. Besonderheit: In Hessen und Thüringen können die Testergebnisse zusätzlich mit den Halbjahresnoten korreliert werden. Eine innerschulische Weiterverwertung der Information zur individuellen Diagnosegüte von Lehrkräften ist dabei in den zepf-Kooperationsländern sowie in Bayern und Baden-Württemberg in breiterem Umfang möglich als in den von der Universität Jena begleiteten Ländern, da in jenen die Ergebnisse zur Diagnosegenauigkeit nur den Einzellehrkräften selbst im Direktanschluss an ihre Dateneingabe zurückgespiegelt werden, während sich die Diagnosegenauigkeit in den erstgenannten Ländern im Rahmen der offiziellen Berichtslegungen prinzipiell auch von Schulleitungen einsehen lässt. Allein Ergebnisse zu den Zusammenhängen zwischen VERA-Ergebnissen und Halbjahresnoten finden in Hessen und Thüringen Einzug in die offizielle Berichtslegung, diese bilden allerdings keine Diagnosegüte im eigentlichen Sinne ab. Eine Analyse und ggf. weiterführende Bearbeitung der Frage, warum Über- oder Unterschätzungen der S ­ chülerInnenkompetenzen aufgetreten sind, kann somit in den zepf-Ländern sowie

29Teilweise

beschränkt sich der Einsatz dieses Verfahrensschrittes aus organisationstechnischen Gründen auf die Testung in Klasse 3; in vielen der teilnehmenden Länder wird die Diagnosegenauigkeit den Schulen aber für beide Jahrgangsstufen angeboten.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

79

in Bayern und Baden-Württemberg z. B. auch im Rahmen schulischer Personalentwicklungsmaßnahmen durch die Schulleitungen angestoßen bzw. begleitet werden. Bayern, Hamburg sowie die von der Universität Jena begleiteten Länder H ­ essen, Mecklenburg-Vorpommern (VERA 8), Sachsen und Thüringen versehen die grafischen oder tabellarischen Darstellungen der Klassen- und Schulergebnisse regelmäßig mit einer schriftlichen Interpretationshilfe. In Bayern etwa wird das Klassenergebnis mit dem Durchschnitt ähnlicher Schulen der gleichen Schulform verglichen und eine entsprechende Einwertung vorgenommen. Besonderheit hierbei: Selbst Schulen mit durchschnittlichem Ergebnis erhalten einen – wenn auch knappen – Hinweis zu ihrem Ergebnis, der trotz ihres Abschneidens in der statistischen Mitte einen Aufruf zur Weiterarbeit einschließt. Auch in den Hamburger Rückmeldungen ist schriftlich erklärt, inwieweit das Klassenergebnis statistisch bedeutsam vom Schul- und Schulformdurchschnitt abweicht; seit 2018 existiert ein zusätzliches Blatt, das auffällige KERMIT-­ Ergebnisse besonders ausweist. In den von der Universität Jena erstellten Rückmeldungen für die Länder Hessen, Mecklenburg-Vorpommern, Sachsen und Thüringen werden die vergleichsweise guten und weniger guten Ergebnisse von Teilaufgaben in der Rückmeldung mithilfe entsprechender Textbausteine schriftlich ausgewiesen und um Hinweise/Checklisten zur weiteren Arbeit ergänzt. In speziellen Schulberichten, die sich vornehmlich an schulische Leitungskräfte richten und Ergebnisse über mehrere Testzeitpunkte hinweg zur Verfügung stellen, wird zudem angeregt, Trendanalysen über die letzten Testjahre durchzuführen. Neben den durch Jena begleiteten Ländern Hessen und Thüringen werden solche Schulberichte auch in Baden-Württemberg und Nordrhein-Westfalen (beide für Jahrgangsstufe 8) sowie in Schleswig-Holstein erstellt. Mecklenburg-Vorpommern plant, diese künftig für beide Jahrgangsstufen als zusätzliches Rückmeldeformat miteinzuführen. Mit dem landeseigenen Instrument „VerA-Scope“ werden allerdings hier bereits jetzt für alle Schulleitungen (sowie ggfls. weitere FunktionsstelleninhaberInnen) jahrgangs-, klassen- und fachübergreifende Ergebnisübersichten erstellt. Durch die dabei kombinierte Darstellung der VERA-Ergebnisse aus den Klassen 6 und 8 ist es im Bereich der weiterführenden Schulen somit aktuell schon möglich, Daten aus zumindest zwei Testzeitpunkten zu vergleichen und darüber eine erste Einschätzung zur Entwicklung der Schülerleistungen abzuleiten. Bei den Hinweisen zur Weiterarbeit kann unterschieden werden zwischen Ländern, die Möglichkeiten zur Weiterarbeit in ihren Rückmeldungen selbst kaum thematisieren bzw. nur organisatorische Hinweise zu Fortbildungsveranstaltungen/-terminen oder zum IQB-Angebot erteilen und Ländern, die (z. B. in einem eigenen Kapitel der Rückmeldung) ausführlichere Hinweise geben. Diese sind z. T. auch umgesetzt über Direktverlinkungen zwischen den grafischen Datenrückmeldungen und entsprechenden Aufgabenkommentierungen sowie weiterführenden didaktischen Materialien aus Aufgabendatenbanken (BE, BB). Nordrhein-Westfalen bei VERA 8 bzw. Schleswig-­Holstein verlinken nicht direkt, weisen in ihren Rückmeldungen aber auf das Angebot des ISQ-Aufgabenbrowsers hin.

80

J. Tarkian et al.

In den Rückmeldungen für Lehrkräfte aus Baden-Württemberg, Bayern, Hamburg, Mecklenburg-Vorpommern, Niedersachsen, Rheinland-Pfalz und Schleswig-Holstein wird jeweils nur knapp auf das Thema Weiterarbeit aufmerksam gemacht bzw. auf weitere Dokumente und Materialien verwiesen, die an anderer Stelle abgerufen werden können. Bremen, Hessen (VERA 8), Nordrhein-Westfalen, Saarland (VERA 3), Sachsen und Thüringen haben jeweils eigene Kapitel zur Weiterarbeit in ihre Rückmeldungen integriert, die konkretere Hinweise zur Schul- und Unterrichtsentwicklung geben und ebenfalls auf ein landeseigenes Unterstützungsangebot verweisen. In Berlin und Brandenburg wird zusammen mit dem Testmaterial eine fachspezifische Handreichung mit aufgabenbezogenen Kommentaren und entsprechenden Anregungen für den Unterricht mitgeliefert; zudem verlinken die einzelnen Aufgaben in der digitalen Rückmeldung direkt auf den Aufgabenbrowser und dessen Unterstützungsmaterial. Über das zusätzliche Angebot eines Kurzvideos, das eine idealtypische Fachkonferenzsitzung zur Planung von Unterrichtsarbeit im Anschluss an eine Datenrückmeldung zeigt, wird aktuell nachgedacht. In Sachsen-Anhalt findet sich in den Ergebniszusammenfassungen (2. Rückmeldung) ebenfalls ein ausführliches Kapitel zur Weiterarbeit. Die zentralen Elemente der Rückmeldungen und ihre Umsetzung in den Ländern sind in Abb. 4.22 noch mal im Gesamtüberblick dargestellt. Ausgehend von den juristischen Festlegungen in Landesverordnungen und -erlassen sind für eine inhaltliche Weiterarbeit mit den VERA-Ergebnissen in erster Linie die Fachkonferenzen bzw. (je nach Schulform und -größe) darüber hinausgehende Lehreroder Lerngruppenkonferenzen zuständig. Entsprechende Regelungen finden sich in den Ländern Baden-Württemberg, Berlin, Brandenburg, Bremen, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Schleswig-Holstein sowie Thüringen. Teilweise werden aber auch die einzelnen FachlehrerInnen selbst in den untergesetzlichen Normen für die Analyse der Datenrückmeldungen und die Einleitung daran anschließender Maßnahmen zur Binnendifferenzierung verantwortlich gezeichnet. Dies betrifft die Länder Bayern, Brandenburg, Bremen, Hessen, Nordrhein-Westfalen und Sachsen. In Niedersachsen sind gemäß einem Runderlass spezielle FachberaterInnen für die datenbasierte Qualitätssicherung und -entwicklung zuständig;30 Sachsen-Anhalt sieht in seiner Verwaltungsvorschrift31 im Falle „komplexer Defizite“, die unter anderem an den Ergebnissen der Lernstandsanalysen festzumachen sind, die Erstellung individueller Förderpläne vor, benennt dabei aber keine direkte Verantwortlichkeit. Ein expliziter Auftrag an die Lehrkräfte bzw. die Lehrkräftegremien, auf Basis der ­Rückmeldeergebnisse

30Schulformbezogene

Fachberatung an Grundschulen, Hauptschulen, Realschulen, Oberschulen und Förderschulen sowie sonderpädagogische Förderung einschließlich Gymnasien und Gesamtschulen, RdErl. d. MK v. 30.04.2013, SVBl. 6/2013, S. 217. 31Besondere Förderung von versetzungs- und abschlussgefährdeten SchülerInnen in der Sekundarschule, im Sekundarschulzweig der Kooperativen Gesamtschule und in der Integrierten Gesamtschule, VwV v. 21.06.2010, SVBl. LSA 2010, S. 227.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

Abb. 4.22   Bestandteile der VERA-Rückmeldungen in den 16 Ländern

81

82

J. Tarkian et al.

den Unterricht weiterzuentwickeln bzw. stärker kompetenzorientiert zu gestalten, findet sich in Brandenburg32, Schleswig-Holstein33 und in Hessen34. Mecklenburg-Vorpommern und Nordrhein-Westfalen benennen – in etwas allgemeinerer bzw. in weniger verbindlicher Formulierung – die Verbesserung der Unterrichtsarbeit als ein Ergebnis der Auseinandersetzung mit den Daten35. Jenseits der Lehrkräfte(gremien) werden in manchen Ländern (BB, HB, MV und NW) auch die Schulleitungen explizit für die weitere inhaltliche Arbeit mit in die Verantwortung genommen: Sie sollen insbesondere für die Ableitung von Konsequenzen auf Ebene der Schule Sorge tragen (BB: VVStSchÄ v. 07.03.201636; MV: SchQualiVO M-V v. 09.11.2015; NW: RdErl. v. 20.12.2006), werden aber in Bremen auch direkt mit Blick auf die Weiterentwicklung von Unterricht als zuständig benannt37. In den übrigen Ländern kommen ihnen – sofern überhaupt eigenständig erwähnt – offiziell ausschließlich organisatorische Aufgaben im Zusammenhang mit der Testabwicklung zuteil (wie die Einhaltung von Terminvorgaben oder die Bereitstellung der Schulrückmeldungen für die weitere Analyse in Fachkonferenzen). SchulaufsichtsbeamtInnen werden in den Rechtsvorschriften der Länder Brandenburg38, Bremen39 und Nordrhein-Westfalen40 im Zusammenhang mit ihrer Unterstützungsfunktion bei der schulischen Auseinandersetzung mit den Ergebnissen bzw. der Festlegung daran anschließender Schulziele erwähnt. In Hamburg, Rheinland-Pfalz und dem Saarland sind auf juristischer Ebene keinerlei Regelungen zur Weiterarbeit mit den Ergebnissen aus den Vergleichstestungen festgehalten.

32VV-Diagnostische Testverfahren v. 27.10.2017, Abs. 3, S. 3. verpflichtet die „das jeweilige Fach unterrichtenden Lehrkräfte […] auf der Basis der Ergebnisse individuelle Fördermaßnahmen [zu entwickeln], die im Unterricht umzusetzen sind“. 33Erlass über die Durchführung von Vergleichsarbeiten in allgemeinbildenden Schulen, Erl. v. 04.12.2012, NBl. MBK. Schl.-H. 2013, S. 7. 34Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8, VwV v. 15.9.2015, ABl. 2015 S. 503. 35SchQualiVO M-V v. 09.11.2015, GVOBl. M-V 2016, S. 2.; Zentrale Lernstandserhebungen (Vergleichsarbeiten), RdErl. v. 20.12.2006, ABl. NRW. 36Verwaltungsvorschrift über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter, Abl. MBJS/16, Nr. 8, S. 138. 37Vergleichsarbeiten in Bremen: VERA-3 und VERA-8, Senatorin für Bildung und Wissenschaft. Anlage zu Verfügung Nr. 33/2013 v. 14.06.2013. 38Verwaltungsvorschrift über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter. VVStSchÄ v. 07.03.2016, Abl. MBJS/16, Nr. 8, S. 138. 39Vergleichsarbeiten in Bremen: VERA-3 und VERA-8, Senatorin für Bildung und Wissenschaft. Anlage zu Verfügung Nr. 33/2013 v. 14.06.2013. 40Zentrale Lernstandserhebungen (Vergleichsarbeiten). RdErl. v. 20.12.2006, ABl. NRW. S. 98.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

83

4.7 Unterstützungsangebote Um den Schulen und Lehrkräften bei der Nutzung der Ergebnisrückmeldungen und der Gestaltung eines kompetenzorientierten Unterrichts Hilfestellung zu leisten, sind mit der Einführung der Vergleichsarbeiten begleitende Unterstützungsangebote entwickelt worden. Dazu zählt einerseits die Bereitstellung didaktischer Materialien für eine systematische und zielgerichtete Datenanalyse und Maßnahmenableitung für die Unterrichtsarbeit (z. T. speziell für eine Weiterarbeit im Kollegiumsverbund konzipiert), zum anderen ein Angebot an Fortbildungs- und Beratungsveranstaltungen, z. B. durch SchulentwicklungsberaterInnen. In manchen Ländern existieren darüber hinaus formalrechtliche Regelungen, die einen Ausbau der innerschulischen Personalressourcen für die Umsetzung von Aufgaben ermöglichen, die mit (test-)datenbasierter Qualitätsentwicklung in Zusammenhang stehen.

4.7.1 Bereitstellung didaktischer Materialien Das IQB bietet in jedem Jahr zeitnah zu den Testungen auf seinen Internetseiten didaktische Handreichungen mit Erläuterungen und weiterführenden Kommentaren zu den eingesetzten Aufgaben sowie Hinweise zur Nutzung der Testaufgaben im Unterricht an. Zugleich werden in einem Aufgabenpool alte Testaufgaben bereitgestellt, förderdiagnostische Materialien beworben und geeignete weiterführende Literatur empfohlen. Viele Länder verweisen daher auf ihren Internetportalen direkt auf das Materialangebot des Testentwicklers IQB von der Berliner Humboldt-Universität. Aber auch landeseigene Materialien werden den Schulen zur Verfügung gestellt: So existieren – bis auf das Saarland – in allen Ländern landeseigene Handreichungen bzw. Leitfäden oder Fachbriefe zum Umgang mit den VERA-Arbeiten, die von den zuständigen Landesinstituten bzw. Qualitätsagenturen, auf den Landesbildungsservern oder auf Webseiten der Kultusministerien bereitgestellt und teilweise noch um spezielle Hinweise zur Umsetzung der Testungen ergänzt werden (z. B. FAQ-Listen). Für die Länder, die ihre Datenauswertungen an das zepf bzw. die Universität Jena ausgelagert haben, finden sich entsprechende Info-Dokumente zugleich auf den Internetseiten der Partnerinstitutionen. Berlin, Brandenburg, Nordrhein-Westfalen und Hessen geben im Rahmen ihrer Ergebnisrückmeldungen zusätzlich eigenes didaktisches Material an die Lehrkräfte weiter (im Anhang oder durch elektronische Verlinkung zu didaktischen Kommentierungen in einer Datenbank). Zudem stellen sie – wie auch Bayern, Hamburg, Sachsen-Anhalt, Schleswig-Holstein und Thüringen – parallel zur Testdurchführung entsprechende Unterlagen für eine unterrichtliche Weiterarbeit zum Download auf ihren Internetportalen bereit. Sachsen bietet neben seiner allgemeinen Handreichung zu den Kompetenztests auch eine separate Broschüre zum kompetenzorientierten Unterrichten in der Primar- und Sekundarstufe I an, in der auch konkrete Planungsbeispiele (z. B. für eine lernzieldifferente Gestaltung von Unterrichtsstunden) angehängt sind.

84

J. Tarkian et al.

4.7.2 Spezielles Material zur Weiterarbeit im Klassenverbund und in Gremien Hervorzuheben ist das in Nordrhein-Westfalen angebotene Material für eine an die Rückmeldungen angeschlossene Klassenfeedbackstunde, das auch Videos mit exemplarischen Rückmeldegesprächen zur Lernentwicklung von SchülerInnen beinhaltet.41 Zudem geben das Landesministerium und die QUA-LiS praxisbezogene (Fach-)Broschüren zur Ergebnisnutzung heraus, die Beispiele und praktische Arbeitshilfen für eine Weiterarbeit in den Fachkonferenzen beinhalten (beispielsweise zur qualitativen Fehleranalyse).42 In Bayern und Schleswig-Holstein existieren spezielle Präsentationsvorlagen zum Umgang mit VERA in den Fachgremien („Kompetenzorientierung im Unterricht“ und „30-Minuten-VERA“), Hessen und Rheinland-Pfalz bieten entsprechende Arbeitsvorlagen zur Ergebnissichtung bzw. Protokollmuster für Lernstandskonferenzen an. Für Berlin und Brandenburg wurde mit der BISTA-Box ein auf VERA abgestelltes Workshopkonzept entwickelt, das auch im Rahmen der Lehreraus- und -fortbildung zur Vermittlung der Bildungsstandards und gemeinschaftlichen Einübung von Ergebnisinterpretationen zum Einsatz kommen kann. Kernziel dieses Tool ist es, das Potenzial, ggf. aber auch die Grenzen kompetenzorientierter Testverfahren für die fachdidaktische Arbeit in den Gremien gegenstandsbezogen zu veranschaulichen. Zudem werden den Schulen umfangreiche Fachbriefe zur Verfügung gestellt, die dabei unterstützen sollen, die Rückmeldungen auch für das schulinterne Curriculum (SchiC) zu nutzen.43

4.7.3 Zusammenstellung von (Test-/Lern-)Aufgaben per Datenbank Fachdidaktisch kommentierte Testaufgaben zu bereits erfolgten VERA-Durchgängen werden in Berlin und Brandenburg über den vom ISQ entwickelten Aufgabenbrowser (www.aufgabenbrowser.de) angeboten.44 Die hier enthaltenen Aufgaben können von den Lehrkräften nach eigenen Bedürfnissen zusammengestellt werden (z. B. nach Anforderungsniveau oder Kompetenzbereich) und somit in maßgeschneiderten

41Zu

finden unter https://www.schulentwicklung.nrw.de/e/VERA3/lehrerinformationen/ergebnisrueckmeldung/ klassenfeedback/klassenfeedback.html. Zugegriffen: 05.06.2017. 42Siehe unter https://www.schulentwicklung.nrw.de/e/upload/download/mat_11-12/NRW-Broschuere-Lernstand_VERA-2012.pdf; https://www.schulentwicklung.nrw.de/e/upload/mat_2014/ Vera-3_Unterrichtsentwicklung-Rechtschreiben_Modul_5.pdf. Zugegriffen: 05.06.2017. 43Siehe unter https://www.isq-bb.de/wordpress/wp-content/uploads/2018/01/Fachbrief_Grundschule _09_VERA_3.pdf. Zugegriffen: 05.06.2017. 44Neben den Aufgaben des letzten Durchführungszyklus sind hier derzeit über 250 Aufgaben aus den Vergleichsarbeiten älterer Durchgänge hinterlegt.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

85

­ estheft-Variationen zur individuellen Förderung im Klassenraum zum Einsatz komT men. Schleswig-Holstein und Nordrhein-Westfalen bieten ihren Lehrkräften im Rahmen einer Kooperationsvereinbarung mit dem ISQ eine Ko-Nutzung des Aufgabenbrowsers an, während Bremen auf seiner Website ausschließlich auf die (für jeden Nutzer öffentlich zugängliche und damit auf das Lesen beschränkte) Leistung dieser Aufgabendatenbank verweist. Auch Sachsen und Thüringen haben in Kooperation eine entsprechende Datenbank aufgebaut, in der die Einzelaufgaben der vergangenen Kompetenztestungen gemeinsam mit aufgabenscharfen didaktischen Hinweisen anforderungs-, ergebnisoder themenfokussiert für weitere Nutzungsmöglichkeiten aufbereitet werden können. Darüber hinaus stellt Sachsen auf seinem Bildungsserver eine separate Lernaufgaben-­ Datenbank zur Verfügung (www.bildung.sachsen.de/lernaufgaben). In Berlin und Brandenburg können sich registrierte Nutzer seit 2017 auch über den Kompetenzbrowser (www.kompetenzbrowser.de) Aufgaben erläutern und ausgeben lassen, die zur Entwicklung kompetenzorientierten Unterrichts besonders gut geeignet sind. Das Ministerium für Schule und Berufsbildung in Schleswig-Holstein bietet zudem eine eigene Sammlung von Beispielaufgaben zu den Fachanforderungen in Mathematik für die dort bestehenden Leitideen an.

4.7.4 Fortbildungs- und Beratungsmaßnahmen Studien zeigen, dass Ergebnisrückmeldungen aus Kompetenztestungen, wenn sie in ein Fortbildungskonzept für Lehrkräfte integriert werden, in stärkerem Maße akzeptiert und damit auch genutzt werden (Maier 2008; Zimmer-Müller et al. 2014). Während in den ersten Jahren der Instrumenten-Implementation begleitende Fortbildungen zur Testdurchführung und der Weiterarbeit mit den Ergebnissen vielerorts als festes Angebot eingerichtet waren, werden eigens auf VERA fokussierte Informationsveranstaltungen für Lehrkräfte aktuell nur noch in Hamburg, Niedersachsen, Schleswig-Holstein und der Region Berlin-Brandenburg aktiv angeboten. Üblicher ist es inzwischen, die Umsetzung von Vergleichsarbeiten oder die Weiterarbeit mit den Ergebnissen nur noch im Rahmen des sonstigen Fortbildungsangebotes an geeigneter Stelle mit zu thematisieren bzw. erst auf Nachfrage der Schulen FachberaterInnen zu entsenden, um testpsychologische Fragen zu klären oder fachdidaktische Maßnahmen vor Ort anzustoßen. Dies ist in Bremen, Baden-Württemberg, Hessen, Mecklenburg-Vorpommern, Rheinland-Pfalz, Sachsen, Sachsen-Anhalt und Thüringen der Fall, aber auch die erstgenannten Länder mit einem grundsätzlichen Veranstaltungsangebot bieten solche Schulbesuche prinzipiell zusätzlich an. Mit dem „Wiesbadener Forum“ ist in Hessen seit 2015 zudem ein ‚basisorientiertes‘ Fortbildungsformat eingerichtet worden: In den jährlich stattfindenden Tagungen wird bewusst ein Austausch auf schulpraktischer Ebene angestrebt, wenn Lehrkräfte und Schulleitungen einzelner Schulen in Workshops ihren Umgang mit den Datenrückmeldungen im Sinne von „Good-practice“-Beispielen vorstellen und mit

86

J. Tarkian et al.

anderen ­PraktikerInnen ihre Erfahrungen zur evidenzbasierten Unterrichts- und Schulentwicklung diskutieren45. In Bayern und Nordrhein-Westfalen sind Fortbildungsmaßnahmen aufgrund der großen Landes-flächen und der damit erhöhten Anzahl an Schulen und Lehrkräften nicht als systematisches Angebot organisiert, sondern werden nachfrageorientiert in Teilregionen des Landes angeboten. Im Saarland finden die Abrufveranstaltungen zu VERA 3 mangels Teilnehmerinteresse zum Analysestichtag nicht mehr statt; für VERA 8 werden hier infolge der abgesenkten Teilnahmeverpflichtung grundsätzlich keine Fortbildungsveranstaltungen mehr angeboten.

4.7.5 Ausbau innerschulischer Personalressourcen Neben einer inhaltlichen Hilfestellung bei der Arbeit mit den Rückmeldungen bieten manche Länder ihren Schulen auch eine formalrechtliche Unterstützung bei der Zuordnung ihrer personalbezogenen Kapazitäten für die Umsetzung von Entwicklungsaufgaben an: So wird den weiterführenden Schulen in Berlin, aber auch den Hamburger Schulen die Möglichkeit angeboten, Funktionsstellen für Qualitätsbeauftragte zu besetzen. In Mecklenburg-Vorpommern können Anrechnungsstunden für eine VERA-Koordination vergeben werden, die eine innerschulische Absenkung der Unterrichtsverpflichtung für damit betraute Lehrkräfte ermöglichen. In Brandenburg bestand für Sekundarschulen eine entsprechende Möglichkeit, die aktuell allerdings ausgesetzt ist. Im Rahmen des Berliner Qualitätspakets, das ab 2011 unter dem früheren Bildungssenator Zöllner zur Umsetzung kam, wurde in Berlin zudem die Stelle einer von der Senatsbildungsverwaltung unabhängigen Qualitätsbeauftragten geschaffen, die im Bedarfsfall – zusätzlich zu den Angeboten des ISQ – von den Schulen zur Unterstützung bei der Interpretation ihrer Vergleichsdaten (sowie den Ergebnissen der Schulinspektion oder auch zu bildungsrechtlichen Fragen) abgerufen werden kann.

4.8 Berücksichtigung im Rahmen der Leistungsbewertung Eine schulische Benotung der VERA-Ergebnisse wird gemäß Beschluss der KMK zur Weiterentwicklung der Vergleichsarbeiten (KMK 2012) abgelehnt. Als zentrales Argument ist dabei angeführt, dass Vergleichsarbeiten – im Gegensatz zu anderen ­Diagnoseverfahren – die Kompetenzen von SchülerInnen auch unabhängig von vorangegangenen Unterrichtsprozessen und curricularen Vorgaben schul- und länderübergreifend messen (sollen). Anstelle einer summativen Erfolgskontrolle sind sie auf einen

45https://lehrkraefteakademie.hessen.de/schule-unterricht/zentrale-lernstandserhebungen/wies-

badener-forum/naechstes-forum. Zugegriffen: 14.02.2019.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

87

künftig angestrebten Zustand ausgerichtet, nämlich der Mindesterfüllung der Bildungsstandards zum Ende der vierten (bei VERA 3) bzw. zum Ende der neunten bzw. zehnten Klasse (bei VERA 8). Das Sichtbarmachen von noch nicht ausreichend entwickelten SchülerInnenkompetenzen dient – der Konzeption des Instruments entsprechend – als Impulsgeber für die weitere Ausrichtung der Unterrichts- und Schularbeit. Einige Länder (MV, SL und TH) räumen den Schulen in ihren Verwaltungsgebieten allerdings unter bestimmten Auflagen trotzdem eine Möglichkeit zur Berücksichtigung der Testergebnisse ein: So ist es laut einer Information auf der Website des Thüringischen Landesministeriums den Schulen freigestellt, die Ergebnisse bei der Festsetzung der Jahresleistung im Rahmen ihrer pädagogischen Verantwortung einzubeziehen. Die Universität Jena als beauftragte Auswertungsinstitution konkretisiert hierzu, dass dabei nur Aufgaben heranzuziehen sind, die dem jeweiligen Bildungsgang sowie den vorab behandelten Unterrichtsschwerpunkten bestmöglich entsprechen. Mecklenburg-­ Vorpommern legt in einer eigenen Handreichung fest, dass die Vergleichsarbeiten als Lernerfolgskontrolle (LEK) benotet werden dürfen, sofern allein solche Aufgaben in die Bewertung eingehen, die bereits im Unterricht behandelt wurden (dies sei für die Lehrkräfte auch erkennbar am hohen Lösungsgrad) und die in Summe den klassenstufentypischen Umfang einer Lernerfolgskontrolle nicht überschreiten.46 In ähnlicher Weise legt auch das Saarländische Ministerium für Bildung und Kultur per Erlass zur Leistungsbewertung (2016) fest, dass im Falle positiver VERA-Ergebnisse diese zugunsten der SchülerInnen berücksichtigt werden sollen, allerdings in einem nicht zu wertenden Leistungsnachweis. Nähere Erläuterungen dazu liegen nicht schriftlich vor. Für Berlin existiert in einem Rundbrief der Senatsbildungsverwaltung vom 8. Februar 2011 zu den VERA 8-Ergebnissen in Deutsch der Hinweis, dass Berliner Lehrkräfte „auf der Grundlage von VERA 8 ein sehr differenziertes Bild über den Leistungsstand Ihrer Schülerinnen und Schüler erhalten, [sodass] dies bei der Notenfindung berücksichtigt werden [kann], insbesondere bei der Berücksichtigung der Leistungsentwicklung“. Das ISQ übernimmt diese Regelung in seinem Länderbericht zur Schulqualität 2016 bzw. erweitert diese prinzipiell auch auf Jahrgangsstufe 3 und Mathematik. Für Rheinland-Pfalz findet sich in den FAQs auf dem Landesbildungsserver zumindest ein vorsichtiger Hinweis darauf, dass die Ergebnisse als Orientierungshilfe in die Leistungsbewertung zusätzlich eingehen können, wenn es heißt, dass „verglichen mit der Erfahrung und Expertise von Lehrerinnen und Lehrern […] das Ergebnis einer Vergleichsarbeit – bezogen auf die Beurteilung einzelner Schülerinnen und Schüler – das Leistungsbild nur ergänzen und abrunden“ kann. Ähnlich verhält es sich in Sachsen-­ Anhalt: Auch hier wird eine Notengebung klar ausgeschlossen, zugleich aber durch das Kultusministerium auf dem Bildungsserver eingeräumt, dass „aus pädagogischer Sicht

46Siehe Handreichung zur Benotung von Teilen der Vergleichsarbeiten als schriftliche Lernerfolgskontrolle, zu finden auf dem Landesbildungsserver von MV (05/2014).

88

J. Tarkian et al.

[…] auf Entscheidung der Lehrkraft eine Wertung der erbrachten Leistungen einzelner Schülerinnen und Schüler möglich“ ist. In Schleswig-Holstein schließlich wird diese Möglichkeit beim IQSH auf Nachfrage nur unter größtmöglicher Zurückhaltung eingeräumt: Allein im Einzelfall, d. h. sofern sich in den Kompetenzbereichen ein deutlich besseres Abschneiden als bei den eigentlichen Leistungsergebnissen des Schülers ergeben hat und aus diesen keine eindeutige Notenfestsetzung abgeleitet werden kann, darf das Ergebnis ausnahmsweise in das pädagogische Urteil der Lehrkraft eingehen. Alle übrigen Länder räumen den Schulen keinerlei Spielräume zur Berücksichtigung der VERA-Ergebnisse im Rahmen der Leistungsbewertung ihrer SchülerInnen ein.

4.9 Verbindung mit weiteren Verfahren datenbasierter Qualitätssicherung und -entwicklung Die Durchführung von Vergleichsarbeiten stellt einen Teil eines Maßnahmenbündels dar, mit dem die Länder gemäß KMK-Beschluss (KMK 2016) aufgerufen sind, die datenbasierte Qualitätssicherung und -entwicklung auf Schulebene voranzutreiben. Neben den VERA-Testungen sind in den vergangenen fünfzehn Jahren auch Verfahren zur externen Evaluation der Schulen (vgl. Kap. 5) sowie zur schulinternen Feststellung und Bearbeitung von Entwicklungsbedarfen (vgl. Kap. 6) als Maßnahmen der Sicherung bzw. des Ausbaus von Schulqualität konzipiert und implementiert worden. Ein koordiniertes Vorgehen, das bewusst Schnittstellen zwischen den Instrumenten sowie zu weiteren Verfahren der Verbesserung von Schule und Unterricht schafft, dürfte die Leitidee einer evidenzbasiert-integrierten Entwicklung von Schulqualität stärken und damit in den Schulen den Nutzen und die Bedeutsamkeit der (Einzel-)Instrumente für ein Gesamtkonzept zur Qualitätsentwicklung unterstreichen. Beleuchtet man die möglichen Verbindungsstellen zwischen Vergleichsarbeiten und den weiteren Instrumenten datenbasierter Schul- und Unterrichtsentwicklung mit Blick auf ihre Umsetzung in den Ländern, zeigt sich ein unterschiedliches Bild, das von einem mehrfach an die Testung(sergebnisse) anknüpfenden Instrumentarium bis hin zu einer eher isolierten Konzeptionierung der Vergleichsarbeiten reicht.

4.9.1 Verbindungen mit der externen Schulevaluation Anschlussstellen zwischen VERA und den turnusmäßig stattfindenden Inspektionsverfahren werden in den Ländern meist dahin gehend gebildet, dass die beauftragten EvaluatorInnen auf Basis einer entsprechenden Festlegung – die zumeist in den Referenzrahmen zur Schulqualität als Qualitätsindikator verankert ist (vgl. Dobbelstein et al. 2017) – die in den Schulen erfolgende (oder eben unterlassene) Beschäftigung mit den VERA-Ergebnissen ermitteln. Dies trifft mit Bayern, Berlin, Brandenburg, Hamburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Sachsen-Anhalt derzeit auf knapp die Hälfte der Länder zu.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

89

Dabei liegen die Schulergebnisse dem Inspektionsteam infolge direkter Datenbereitstellung durch die auswertende Institution z. T. bereits vor der Schulbegehung vor (dies ist in MV und ST, seit Kurzem auch in BY der Fall47) oder sie werden von diesen im Vorfeld bei den Schulen angefordert. Ein solches besuchsvorbereitendes Reporting der VERA-Daten ist gängige Praxis in Berlin, Brandenburg und Nordrhein-Westfalen, wird aber in Mecklenburg-Vorpommern und Sachsen-Anhalt zur Förderung der innerschulischen Auseinandersetzung mit den Ergebnissen regelmäßig zusätzlich umgesetzt. Jenseits der turnusmäßigen Schulinspektion ist gemäß Konzeptpapier des MBWK vom Juni 2017 in Mecklenburg-Vorpommern unter Einbezug der VERA-Ergebnisse zunächst für jede Schule eine „datenbasierte Schuleinschätzung“ zur Erstbewertung der schulischen Risikolage vorgesehen. Im Falle besonderer Auffälligkeiten bei den Leistungsergebnissen sowie auf Hinweis des zuständigen Schulrats wird mit dem anlassbezogenen Inspektionsinstrument „eintägiger Schulbesuch“ dann vor Ort eine gezielte Analyse und Unterstützung möglicher Qualitätsprobleme auf Einzelschulebene vorgenommen. Dazu besucht zeitnah ein Ministerialverantwortlicher gemeinsam mit einem Vertreter des Beratungs- bzw. Unterstützungssystems die Schule und wirkt auf den Abschluss einer Zielvereinbarung mit der Schulleitung hin. Dass auch für die Terminierung der regelmäßig eingerichteten Vollinspektionen Daten aus Vergleichsarbeiten ausschlaggebend sein können, ist für das Land Mecklenburg-­ Vorpommern in der SchQualiVO M-V geregelt, in der die vorliegenden Daten erneut als Entscheidungsgrundlage für Terminfestlegungen zur externen Evaluation benannt werden (§ 6). Ein entsprechendes Vorgehen ist auch für Brandenburg angedeutet: Im dortigen Handbuch zur Schulvisitation wird für die Festlegung der neuen Besuchszeitpunkte ab dem Schuljahr 2017/2018 eine „fachliche Dringlichkeit“ zugrunde gelegt, die – neben dem früheren Inspektionsergebnis sowie einer Selbstauskunft der Schulleitung zum Schulentwicklungsstand – zugleich über „ausgewählte Leistungs- und Bildungsverlaufsdaten der Schülerinnen und Schüler“ (S. 5) ermittelt wird. Das Berliner Handbuch zur Schulinspektion von 2012 enthält zumindest den Hinweis, dass der Inspektionszyklus für Schulen, die trotz schwacher Ergebnisse in Schulleistungsuntersuchungen keine schulischen Konsequenzen veranlassen, auf zwei Jahre verkürzt werden kann. Für Sachsen-Anhalt wird auf dem Bildungsserver ein entsprechendes Vorgehen bei der Festsetzung der Fokusevaluationen zumindest vermutbar, wenn es heißt, dass die Auswahl der Schulen durch eine „Steuergruppe Schulentwicklungsberatung“ getroffen wird, der wiederum eine Vorauswahl durch das Landeschulamt vorangeht. Es darf angenommen werden, dass im Sinne eines ressourcenschonenden Einsatzes ihrer verfügbaren Kapazitäten auch weitere Länder – im Falle der dortigen Fortführung von Inspektionen – nach einem vergleichbaren dateninformierten Auswahlprinzip vorgehen werden. Weiterführende Informationen dazu bietet Kap. 5 zu den Verfahren der externen Evaluation.

47Vgl. Abschn. 4.4.

90

J. Tarkian et al.

Anders als in den vorabgenannten Ländern ist für die Inspektion bzw. Qualitätsanalyse in Hamburg und Nordrhein-Westfalen keine systematische Einsicht in die VERA-Ergebnisse selbst vorgesehen. Die Inspekteure dieser Länder beschränken sich für die Erstellung ihrer Besuchsberichte – auf Basis der vor Ort geführten Gespräche – auf die (letztlich zentrale) Frage, ob bzw. inwiefern in den Schulen Erkenntnisse aus den Rückmeldungen gezogen wurden und welche konkreten Maßnahmen mit Blick auf die Weiterentwicklung von Schule und Unterricht daraufhin von den PraktikerInnen angestoßen worden sind. Informationen über eine testdatenbasierte Terminierung der Schulbesuche liegen zu diesen Ländern aktuell nicht vor. In Bremen, Schleswig-Holstein und seit 2017 auch in Niedersachsen werden externe Evaluationen nicht (mehr) als Inspektionen im eigentlichen Sinne verstanden. Die dort eingerichteten Verfahren externer Schulevaluation bzw. des „Schulfeedbacks“ (Schleswig-Holstein) sind stärker darauf angelegt, den Rechenschaftscharakter ­ zugunsten seiner Entwicklungsfunktion zu senken und sehen insofern – wie es auch im Saarland der Fall ist – keine regelmäßige, sondern allenfalls eine fakultative Einbindung von schulischen Leistungsdaten wie den VERA-Ergebnissen vor.48 Verfahren der Schulinspektion sind derzeit in Baden-Württemberg, Hessen, Rheinland-Pfalz, Sachsen und Thüringen grundsätzlich ausgesetzt, sodass Verbindungen zum Instrument der Vergleichsarbeiten in dieser Linie prinzipiell nicht auftreten können. In Abb. 4.23 ist der Zugang der Evaluatoren zu den VERA-Schulergebnissen noch mal in zusammengefasster Form aufgeführt. Schulscharfe VERA-Ergebnisse sind gemäß Beschluss der KMK (KMK 2012) grundsätzlich nicht für eine allgemeine Veröffentlichung vorgesehen. Im Rahmen der für die Länder Berlin, Brandenburg und Hamburg seit einigen Jahren im Internet einsehbaren Kurzberichte zur externen Schulevaluation sind entsprechende Passagen mit VERA-Ergebnissen insofern nicht regelhaft enthalten. Auf Entscheidung der Schulkonferenz können in Berlin und Brandenburg allerdings (z. B. in den sog. Schulporträts) auch vollständige Inspektionsberichte veröffentlicht werden,49 sodass in Einzelfällen doch eine Einsicht in schulscharfe VERA-Ergebnisse erfolgen kann. Angaben zum innerschulischen Umgang mit den Ergebnissen sind hingegen für eine Aufnahme in die Kurzberichte prinzipiell vorgesehen. Da diese in Hamburg regelmäßig in Verbindung mit weiteren Evaluationsdaten dargestellt werden, ist ein Rückschluss auf die spezifische Nutzung der VERA-Ergebnisse in diesem Land allerdings nicht möglich.

48Ein externes Hinterfragen der innerschulischen Auseinandersetzung mit den Ergebnissen bleibt in diesen Ländern somit der Schulaufsichtsebene vorbehalten. 49Geregelt in § 5 Abs. 3 der Berliner Verordnung über schulische Qualitätssicherung und Evaluation bzw. in § 6 Abs. 1, VV-Schulvisitation in Brandenburg.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

91

Abb. 4.23   Anknüpfung der Verfahren externer Evaluation an die VERA-Ergebnisse auf Schulebene

4.9.2 Verbindungen mit Instrumenten der internen Evaluation Anknüpfungspunkte an die Vergleichsarbeiten können auch mit Blick auf die Verfahren der internen Evaluation eingerichtet sein. Dies wird einerseits erkennbar, wenn in den Ländern spezielle Instrumente zur innerschulischen Ermittlung und Entwicklung von (Unterrichts–)Qualität angeboten werden, die im Anschluss an VERA zur weiterführenden Analyse gedacht und in dieser Zielstellung kommuniziert sind. Auch können mit Blick auf die Selbstevaluations- und Schulprogrammarbeit länderseitig zumindest Vorgaben für die Schulen bestehen, beim eigenen Erfassen von Schul- und Unterrichtsqualität und einer darauf basierenden Festlegung bzw. Fortschreibung schulischer Leitlinien und Zielstellungen die Testrückmeldungen als Grundlage einzubeziehen. Zudem kann ein Ansatz zur integrierten Qualitätsentwicklung dadurch unterstrichen werden, dass eine direkte Schnittstelle zwischen den VERA-Ergebnissen und einer zur Unterrichtsvorbereitung bzw. Förderarbeit bereitgestellten Materialdatenbank hergestellt oder – im Sinne eines schulinternen Monitorings – ein systematischer Abgleich der

92

J. Tarkian et al.

VERA-Testergebnisse mit den Daten weiterer standardbasierter Diagnoseinstrumente bzw. weiterer Messzeitpunkte vorgenommen werden kann. Eine Vorreiterstellung nehmen in dieser Hinsicht die vom ISQ betreuten Länder Berlin und Brandenburg ein, in denen auf gemeinsamer konzeptioneller Basis der Bildungsstandards ein breites Instrumentarium an miteinander verzahnten Angeboten eingerichtet ist, die gezielt Bezug nehmen zu den Leitideen sowie auch den konkreten Ergebnissen der Vergleichsarbeiten und damit in einem koordinierten Konzept zur Weiterarbeit aufgehen (vgl. Abb. 4.24; weitere Ausführungen zur Verknüpfung der Instrumente finden sich in den Berliner und Brandenburger Handreichungen zu VERA). Dazu zählt zum einen das zentral bereitgestellte und in Berlin im zweijährigen Takt verpflichtend einzusetzende Selbstevaluationsportal (SEP),50 das auf Basis standardisierter Teilinstrumente wie Schülerbefragungen der Einzellehrkraft ein ergänzendes Feedback zu ihrer Unterrichtsqualität in fokussierten Bereichen ermöglicht. Im ISQ-­Bericht zur Schulqualität 2016 (S. 50) wird entsprechend dazu angeregt, „ausgehend von den Ergebnissen einer VERA-Rückmeldung einzelne Stärken und Schwächen gezielt mit einer Evaluation des eigenen Unterrichtes über das Selbstevaluationsportal“ zu verbinden. Auch im Berliner Handlungsrahmen zur Schulqualität (2013, S. 40) sind die VERA-Ergebnisse explizit als Grundlage für weitergehende Analysen benannt, wenn es heißt: „Zur Verfügung stehende Daten werden zur internen Evaluation herangezogen (z. B. Vergleichsarbeiten, Prüfungsergebnisse, Statistik zum Unterrichtsausfall)“. In einem vom dortigen Landesinstitut LISUM herausgegebenen Leitfaden zur internen Evaluation (2007) wird ebenfalls dazu angeregt, VERA-Daten als Evaluationsgrundlage zu nutzen. Der Einbezug der Schulleistungstests in den regelmäßig von den Schulen zu erstellenden Evaluationsberichten ist zudem in der Berliner AV Schulprogramm aus 2008 verbindlich geregelt, die unter Punkt 3 Regelungen zur Durchführung der internen Evaluation beinhaltet. Auch die Bremer Schulen werden in ihrem Orientierungsrahmen Schulqualität (S. 29) darauf hingewiesen, dass bei der schulinternen Evaluation „auf bereits vorhandene Daten (Schulstatistik, Vergleichsarbeiten, etc.) […] zurückgegriffen“ werden soll. Mit Blick auf juristische Festlegungen oder die vom Bremer Landesinstitut LIS den Schulen zum Einsatz angebotene „Methodenbox Selbstevaluation“ muss allerdings festgestellt werden, dass weder juristisch-verbindliche Regelungen dazu erstellt wurden noch für die einzelnen Tools im Weiteren konkrete Anknüpfungspunkte an die VERA-Arbeiten kommuniziert werden. In direkter informationstechnischer Verlinkung mit den VERA-Ergebnisrückmeldungen wurde in der Region Berlin-Brandenburg ein eigener Aufgaben- sowie ein separater Kompetenzbrowser entwickelt, der die Fachlehrkräfte auf Basis zusätzlichen, didaktisch kommentierten Aufgabenmaterials im Anschluss an die Testauswertung zu einer zielgerichtet kompetenzfördernden Unterrichtsgestaltung anregen soll. Auf diese

50Für BB wird eine Nutzung des Portals gemäß Rundschreiben des MBJS vom 27.07.2009 zumindest besonders empfohlen.

Wo weichen die Ergebnisse einer Klasse von der Vergleichsgruppe ab?

Lehrer- und Schülerfragebogen

www.sep.isq-bb.de

• Informationen über Unterrichtsqualität und Qualitätskriterien • Unkomplizierte Rückmeldungen zum eigenen Unterricht • Basis: validierte und bildungsstandardbezogene Instrumente

Ergebnisübersicht

Selbstevaluationsportal (SEP)

Welche allgemeinen mathematischen Kompetenzen müssen gefördert werden?

welche nicht?

BI STA BO X

Klassenbezogene Rückmeldung

Diagnose durch die Lehrkraft

Schulbezogene Rückmeldung

Welche Aufgaben

5 4 3 2 1

Individualrückmeldung

Rückmeldungen auf Basis der Bildungsstandards

Rückmeldung von VERA-Ergebnissen durch das ISQ

(Aufgabenvariationen)

• Nutzung für Aufgabenanalyse,

• Einfache Recherche im Aufgabenpool und Zusammenstellung von Heften

• überprüfte, kommentierte Aufgaben auf Basis der Bildungsstandards

• beispielhafte didaktische Analysen von Aufgaben

• unterrichtsnahe Entfaltung einzelner Kompetenzbereiche

• anschauliche Beschreibung der Bildungsstandards

BI STA BO X

• Nutzung kooperativer Arbeitsformen

• fachdidaktische fundierte Aufgabenanalysen

• angeleitete Interpretation von VERA-Rückmeldungen

Aufgabenbezogener Umgang mit VERA-Rückmeldungen

www.kompetenzbrowser.de

KOMPETENZBROWSER

Bildungsstandards konkret: Kompetenzentwicklung im Unterricht

www.aufgabenbrowser.de

AUFGABENBROWSER

Aufgaben online recherchieren

Unterstützung des Unterrichts mithilfe des ISQ-Aufgabenbrowsers

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation … 93

Quelle: ISQ Bericht zur Schulqualität 2017, S. 50

Abb. 4.24   Koordiniertes Zusammenwirken von Werkzeugen zur datenbasierten Unterrichts- und Schulentwicklung in der Region Berlin-Brandenburg

94

J. Tarkian et al.

Vernetzung der Schülerkompetenzstände mit dafür zusammenstellbaren Förderaufgaben verweisen auch Schleswig-Holstein und Nordrhein-Westfalen, für die eine Mitnutzung des ISQ-Browsers vereinbart ist, sowie Thüringen und Sachsen, die eine eigene Aufgabendatenbank anbieten. Zur Umsetzung innerschulischer Auswertungskonferenzen, aber auch für im Testkontext stattfindende Fortbildungen wurde vom ISQ zudem die BISTA-Box entwickelt. Dieser Workshop-Kartensatz soll dabei helfen, die rückgemeldeten Ergebnisse im Team zu interpretieren und an den Bildungsstandards orientierte Entwicklungsmaßnahmen einzuleiten. Er richtet sich dazu neben den Lehrkräften selbst auch an die Schulleitungen sowie die Schulaufsicht. Mit dem „Klassenfeedback“, das Schülerbefragungsbögen zum Unterricht sowie Vorbereitungs-material für ein darauf folgendes strukturiertes Reflexions- und Lerngespräch beinhaltet, schafft aber auch die QUA-LiS in Nordrhein-Westfalen für ihre Schulen einen Anknüpfungspunkt zur Weiterarbeit mit den VERA-Ergebnissen im Rahmen der internen Evaluation. Auf ihrer Website wird den Schulen der Einsatz dieses Instruments in direkter Anbindung an die VERA-Rückmeldung empfohlen. Übersicht

Nach einer VERA Durchführung ist es sinnvoll, mit den Schülerinnen und Schülern über die Ergebnisse zu sprechen. Hier finden Sie Anregungen und Arbeitsmaterialien für eine Feedbackstunde. Zunächst kann mit folgenden Materialien eine Rückmeldung der Kinder eingeholt und darauf aufbauend ein Klassenfeedback gegeben werden. • Feedbackbogen für Schülerinnen und Schüler im Fach Deutsch • Anleitung Klassenfeedback im Fach Deutsch • Reflexion zu der Arbeit der Kinder im Bereich Deutsch, Lesen nach der Durchführung (PDF-Datei) • Folien mit Hintergrundinformationen zum Klassenfeedback (PowerPoint Folien) Unterrichtsmaterialien zur Reflexion: • Reflexionen und Lerngespräche (PDF-Datei ohne Videoaufzeichnung eines Reflexionsgesprächs, 4 MB) • Videoaufzeichnung eines Reflexionsgesprächs (MP4-Datei, 87 MB) • Reflexionen und Lerngespräche (PDF-Datei mit integrierter Videoaufzeichnung eines Reflexionsgesprächs, 91 MB – Adobe Reader ab Version 9 erforderlich) • Vorbereitung eines Reflexionsgesprächs (PDF-Datei, 0,6 MB) (NW_Website-Information der QUA-LiS, zugegriffen: 28.11.2017).

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

95

Mecklenburg-Vorpommern bietet mit „VerA-Scope“, einem Tool zur zusammenfassenden Ergebnisschau, das sich speziell an Fachkonferenzen und Schulleitungen richtet, sowie einer Fragebogensammlung für die Bereiche Unterricht und Schulmanagement zwei vom Institut für Qualitätsentwicklung bereitgestellte Instrumente der schulinternen Evaluation bzw. der Weiterarbeit mit den Ergebnissen an. Gemäß dem im Juni 2017 veröffentlichten Konzeptpapier des MBWK sollen diese Instrumente, die eine Bewertung der Unterrichtstätigkeit zwingend miteinschließen, in einem mindestens dreijährigen Rhythmus genutzt werden. Als einzubeziehende Datengrundlage sind neben Unterrichtsbeobachtungen, Ergebnissen aus Schulleistungstests und Befragungsdaten explizit auch die Vergleichsarbeiten vorgesehen. Diese konzeptionellen Vorgaben zur Verbindung der Testergebnisse mit der internen Evaluation hat Mecklenburg-Vorpommern als einziges Bundesland ausdrücklich auch im Rahmen einer Rechtsvorschrift geregelt, der Schulqualitäts-Verordnung aus dem Dezember 2015:

(2) Gegenstand der internen Evaluation ist immer der Qualitätsbereich Unterrichtsund Erziehungstätigkeit. Bestandteile sind immer Unterrichtsbeobachtungen, Ergebnisse aus Schulleistungsuntersuchungen, Vergleichsarbeiten, Lehrer-, Schüler- und Elternbefragungen sowie an beruflichen Schulen Befragungen von Ausbildungspartnern (MV_§ 5 SchQualiVO M-V).

In den übrigen Ländern existieren zwar teilweise ebenfalls landesspezifische Angebote an Instrumenten zur schulinternen Evaluation; direkte Hinweise auf konzeptionelle Anschluss-stellen zu den VERA-Arbeiten sind hier allerdings nicht erkennbar. Auch wenn die Landes-vertretungen es zumeist für sehr sinnvoll befinden, die Instrumente in der schulischen Arbeitspraxis in einem Gesamtzusammenhang zu verstehen und entsprechend in diesem Sinne einzu-setzen, so werden den Schulen gegenüber konkrete Anknüpfungsmöglichkeiten aktuell (noch) nicht in schulrechtlichen Dokumenten, Referenzrahmen, Konzeptpapieren, Handreichungen, Ergebnisrückmeldungen oder Informationsangeboten der Landeswebsites kommuniziert.

4.9.3 VERA als Bestandteil der Schulprogrammarbeit Ähnlich sieht es mit der Gestaltung von Schulprogrammen aus, die zwar vielfach über die Landesschulgesetze oder Verordnungen als solche vorgeschrieben sind (allein im SL, in TH und in RP existiert zu diesem Instrument der schulinternen, schriftlichen Qualitätsdokumentation keinerlei Regelung), für die aber wenig verbindliche Verknüpfungen mit den getesteten Schülerleistungsergebnissen hergestellt werden. Nur für

96

J. Tarkian et al.

Berlin existiert mit der „AV Schulprogramm“51 eine völlig eigene, an die schulgesetzlichen Bestimmungen zur Schulprogrammarbeit angelehnte52 Vorschrift, die in einer erläuternden Anlage die Schulen bei ihrer Bestandsanalyse zur schulischen Qualität, insbesondere der unterrichtlichen Prozesse, explizit zu einer Analyse der Vergleichsarbeiten verpflichtet. In der Evaluationsverordnung von Baden-Württemberg vom 10. Juni 2008 (§ 5 Abs. 5), der im Jahr 2015 veröffentlichten Schulqualitätsverordnung von Mecklenburg-Vorpommern (SchQualiVO M-V, § 4) sowie in einem Rundschreiben der Brandenburgischen Landesregierung53 ist geregelt, dass bei der Fortschreibung von Qualitätsdokumentationen „(interne und externe) Evaluationsergebnisse“ zu berücksichtigen sind. Ob darunter auch speziell die VERA-Ergebnisse fallen (sollen), bleibt in diesen untergesetzlichen Normen letztlich offen. In allen übrigen Ländern werden in den juristischen Dokumenten keinerlei Datenquellen als Grundlage für eine Schulprogramm-, Schulportfolio- oder Schulberichtsarbeit benannt. Im Bereich der Ausführungen, die dazu direkt von den Qualitätsagenturen/Landesinstituten veröffentlicht werden, finden sich allerdings mancherorts konkretere Festlegungen: So wird etwa im Bremer Orientierungsrahmen Schulqualität von 2007 bereits einleitend angeführt, dass die Schulprogrammarbeit zwecks Gewährleistung eines systematischen Qualitätsmanagements unterschiedliche Verfahren miteinschließen soll, zu denen auch die Analyse der VERA-Ergebnisse als fester Bestandteil zählt. Auch Baden-Württemberg benennt in seiner Handreichung zur Schulportfolioarbeit die Ergebnisse der Vergleichsarbeiten ausdrücklich als Maßstab für die Beurteilung des Schulerfolgs und weist darauf hin, dass dazu

eine entsprechende Dokumentation von Entwicklungen sowie Ergebnissen und abgeleiteter Maßnahmen über mehrere Jahre (mindestens fünf Jahre, PDCA-­ Zyklus) erforderlich [ist], die Zeitwandelaspekte abbildet. Dies bezieht sich auf die Vergleichsarbeiten (VERA, DVA) ebenso wie auf die Ergebnisse der Abschlussprüfungen und auf anderweitige schulische Kennzahlen (BW_Handreichung_ Schulische_Qualitätsdokumentation (Schulportfolio), 2011, S. 25).

Aus allen übrigen Ländern sind keine konzeptionellen Festlegungen zur Verbindung von VERA und der internen Evaluation bzw. der dafür rahmengebenden Schulprogrammarbeit bekannt.

51Die AV Schulprogramm wurde am 11.06.2008 erstellt und ist trotz formalem Ablauf am 31.07.2013 lt. Auskunft der Senatsbildungsverwaltung weiterhin gültig. 52Siehe: SchulG Berlin – § 8 Schulprogramm. 53Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg, Abl. MBJS/09, Nr. 6, S. 247.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

97

4.9.4 Besonderheit: Kopplung mit zusätzlichen Kompetenztestungen Die in Brandenburg durchgeführten Orientierungsarbeiten in Jahrgangsstufe 4 greifen seit dem Schuljahr 2011/2012 grundsätzlich die im Vorjahr bei VERA 3 in Mathematik getesteten Domänen auf, um Lernentwicklungen der SchülerInnen im Jahr nach der VERA-Testung sichtbar zu machen. Zudem werden die Lehrkräfte bei der Vorbereitung auf die Orientierungsarbeiten über ein Hinweisschreiben angeregt, sich mit den Aufgaben aus VERA erneut auseinanderzusetzen und die didaktische Handreichung zum VERA-Testheft Mathematik zu berücksichtigen. Eine entsprechende Koppelung der bei den Vergleichsarbeiten getesteten Kompetenzbereiche mit anderen Testverfahren bzw. -zeitpunkten ist sonst nur aus dem – insgesamt auf längsschnittliche Kompetenzprüfungen angelegten – Hamburger Verfahren bekannt. Mit der in Jahrgangsstufe 6 zusätzlich bestehenden und ebenfalls an die Bildungsstandards angelehnten Vergleichsbzw. zentralen Klassenarbeiten wurde aber auch in Hessen, Mecklenburg-Vorpommern, Sachsen, Sachsen-Anhalt und Thüringen eine Möglichkeit zur erweiterten Interpretation der festgestellten Schülerkompetenzen für ausgewählte Domänen(bereiche) geschaffe.54 Mecklenburg-Vorpommern bereitet diese Ergebnisse in der Datenschau von „VerAScope“ gezielt in Kopplung mit den VERA 8-Ergebnissen für Schulleitungen und Fachkonferenzen der weiterführenden Schulen auf. Für Bayern, aber auch Hessen bestehen Hinweise darauf, dass VERA-Ergebnisse auf administrativer Ebene durchaus im Kontext anderer Leistungsergebnisse (wie zentraler Abschlussprüfungen oder Ergebnisse des IQB-Bildungstrends) interpretiert werden. Konzeptionelle Verbindungen zu methodisch vergleichbar angelegten Test- oder Diagnoseinstrumenten, die gleiche Kompetenzbereiche fokussieren und den Schulen so systematisch Ergebnisse für zeitraumübergreifende Analysen zur Verfügung stellen, existieren hier allerdings wie auch in den übrigen Ländern bislang nicht. Insgesamt lässt sich schließen, dass in manchen Ländern ein mehrfacher Bezug zwischen VERA und weiteren Steuerungsinstrumenten hergestellt wird, während in anderen Ländern – zum einen aufgrund des dort insgesamt geringeren Ausmaßes an implementierten Verfahren, aber auch infolge einer geringeren Regelungsdichte bei möglichen konzeptionellen Anschlussstellen – die Vergleichsarbeiten stärker isoliert konzipiert sind. Abb. 4.25 bietet eine Gesamtübersicht zu den aktuell eingerichteten Verbindungen zwischen den VERA-Arbeiten in Jahrgangsstufe 3 und 8 und weiteren Instrumenten der Evaluation(sunterstützung). Ein zur Sicherung und Weiterentwicklung von Schulqualität gezielt angelegtes konzeptionelles Zusammenspiel aller drei in der KMK-Gesamtstrategie benannten ­Instrumente – Vergleichsarbeiten, interne und externe Evaluation – wie es im Konzept-

54Vgl.

dazu Abb. 4.1 zu Kapitelbeginn.

98

J. Tarkian et al.

Abb. 4.25   Verbindungen zwischen den VERA-Arbeiten und weiteren Instrumenten der Evaluation(sunterstützung)

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

99

Abb. 4.26   Gesamtkonzept der Evaluation in Mecklenburg-Vorpommern

papier der Landesregierung von Mecklenburg-Vorpommern dargestellt ist (vgl. Abb. 4.26), bildet in den deutschen Ländern bisher die Ausnahme. Welchen Stellenwert die verschiedenen Ergebnisbeiträge der einzelnen Steuerungselemente mit Blick auf die Feststellung schulischer bzw. unterrichtlicher Qualität erhalten bzw. wie auf den verschiedenen Ebenen des Schulsystems (Schulpolitik, Schulaufsicht, schulische Praxis) mit unterschiedlichen oder gar als widersprüchlich wahrgenommenen Qualitätsfeststellungen der verschiedenen Instrumente umgegangen werden soll, bleibt an dieser Stelle allerdings unklar.

4.10 Zusammenfassung Für die in Jahrgangsstufe 3 und 8 in allen Ländern grundsätzlich verbindlich durchzuführenden VERA-Arbeiten sind jenseits der gemeinsamen Verabredungen im Rahmen der Kultusministerkonferenz auch einige konzeptionelle Unterschiede in den Ländern erkennbar. Diese betreffen zum einen den – mit Blick auf die jeweils umzusetzenden Fächer und Teildomänen – variierenden Verpflichtungsgrad, aber auch die Gestaltung der schriftlichen Datenrückmeldungen an die Schulen sowie die Unterstützungsangebote zur Weiterarbeit mit den Ergebnissen. Vor allem aber hinsichtlich der Adressierung der Ergebnisrückmeldungen werden Unterschiede erkennbar, die sich als verschiedene Funktionen beschreiben lassen.

100

J. Tarkian et al.

Abb. 4.27   Funktionen von VERA in den 16 Ländern (adressatenbezogene Ermittlung)

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

101

Ausgehend von den für die jeweiligen Akteursebenen nachvollziehbar regelhaft eingerichteten Datenrückmeldungen bzw. -aufbereitungen bietet die nachstehende Abb. 4.27 eine Übersicht über die in den Ländern zum Analysestichtag (31.01.2018) eingerichteten (Teil-)Funktionen von Vergleichsarbeiten. Dabei zeigt sich, dass erwartungsgemäß in allen Fällen entsprechende Rückmeldungen für die Schulen selbst vorhanden sind (Kernfunktion Entwicklung), die sich allerdings teilweise mit Blick auf die rückgemeldeten Ebenen für Lehrkräfte und Schulleitungen unterscheiden (vgl. Abschn. 4.4). Ein schulaufsichtliches Controlling durch regelhaft erfolgende, d. h. institutionalisierte Ergebnisrückmeldungen an die SchulrätInnen ist hingegen nicht für alle Länder vorgesehen. Anders als bei anderen Steuerungsinstrumenten wie den Verfahren interner und externer Evaluation wird für die Vergleichsarbeiten eine gesamtöffentliche Darstellung schulischer Ergebnisdaten gemäß KMK-Beschluss ausgeschlossen (KMK 2018, S. 3). Mit der Bereitstellung von Elternrückmeldebriefen zu den Ergebnissen ihrer Kinder (z. T. inklusive Vergleichswerten) verfolgt hingegen der Großteil der Länder eine Informationsfunktion. Eine Monitoring-Funktion, die hier über die Veröffentlichung regional oder landesbezogen aggregierter Ergebnisse in Landesbildungsberichten definiert wird, lässt sich zum Stichtag in rund der Hälfte der Länder feststellen. Damit ergeben sich im Einzelnen die in Abb. 4.27 aufgezeigten Funktionszuordnungen.

Literatur Altrichter, H., & Heinrich, M. (2007). Kategorien der Governance-Analyse und Transformation der Systemsteuerung in Österreich. In H. Altrichter, H. Brüsemeister, & J. Wissinger (Hrsg.), Educational Governance. Handlungskoordination und Steuerung im Bildungssystem (Educational governance, Bd. 1, S. 55–104). Wiesbaden: VS Verlag. Autorengruppe Bildungsberichterstattung (Hrsg.). (2016). Bildung in Deutschland 2016. Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration. Bielefeld: Bertelsmann. Bogumil, J., Fahlbusch, R. M., & Kuhn, H.-J. (Hrsg.). (2016). Weiterentwicklung der Schulverwaltung des Landes NRW. Bochum: Wissenschaftliches Gutachten im Auftrag des Finanzministeriums. Dobbelstein, P., Groot-Wilken, B., & Koltermann, S. (Hrsg.). (2017). Referenzsysteme zur Unterstützung von Schulentwicklung (Beiträge zur Schulentwicklung). Münster: Waxmann. Dubs, R. (2009). Schulaufsicht. In S. Blömeke, T. Bohl, L. Haag, & G. Lang-Wojtasik (Hrsg.), Handbuch Schule: Theorie-Organisation-Entwicklung (UTB Schulpädagogik). Klinkhardt: Bad Heilbrunn. EMSE-Netzwerk. (2009). Nutzung und Nutzen von Schulrückmeldungen im Rahmen standardisierter Lernstandserhebungen/Vergleichsarbeiten. Zweites Positionspapier des EMSE-Netzwerkes – Verabschiedet auf der 9. EMSE-Fachtagung, 16.–17. Dezember 2008, Nürnberg. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 101(4), 389–396.

102

J. Tarkian et al.

Fiege, C., Reuther, F., & Nachtigall, C. (2011). Faire Vergleiche? – Berücksichtigung von Kontextbedingungen des Lernens beim Vergleich von Testergebnissen aus deutschen Vergleichsarbeiten. Zeitschrift für Bildungsforschung, 1(2), 133–149. https://doi.org/10.1007/ s35834-011-0009-x. Groß Ophoff, J. (2012). Lernstandserhebungen: Reflexion und Nutzung. Münster: Waxmann. Hosenfeld, I., Schrader, F.-W., & Helmke, T. (2006). Von der Rezeption zur Ergebnisrückmeldung. Leistungsevaluation im Spannungsfeld von System-Monitoring und Schulentwicklung. In I. Hosenfeld & F.-W. Schrader (Hrsg.), Schulische Leistung. Grundlagen, Bedingungen, Perspektiven (S. 289–313). Münster: Waxmann. Isaac, K., Projekt VERA – VERgleichsArbeiten in der Grundschule (Mitarbeiter). (2008). Handreichung zum fairen Vergleich bei VERA. Universität Koblenz Landau. http://www.isq-bb.de/ uploads/media/VERA_Handreichung_fairer_Vergleich_2008.pdf. Zugegriffen: 22. Sept. 2017. Koch, U. (2011). Verstehen Lehrkräfte Rückmeldungen aus Vergleichsarbeiten? Datenkompetenz von Lehrkräften und die Nutzung von Ergebnisrückmeldungen aus Vergleichsarbeiten. Münster: Waxmann. Kultusministerkonferenz (=KMK) (=Sekretariat der Ständigen Konferenz der Kultusminister, Hrsg.). (2006). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Kultusministerkonferenz (=KMK) (=Sekretariat der Ständigen Konferenz der Kultusminister, Hrsg.). (2010). Konzeption der Kultusministerkonferenz zur Nutzung der Bildungsstandards für die Unterrichtsentwicklung. Kultusministerkonferenz (=KMK) (=Sekretariat der Ständigen Konferenz der Kultusminister, Hrsg.). (2012). Vereinbarung zur Weiterentwicklung von VERA. Beschluss der Kultusministerkonferenz vom 08.03.2012. Kultusministerkonferenz (=KMK) (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Kultusministerkonferenz (=KMK) (=Sekretariat der Ständigen Konferenz der Kultusminister, Hrsg.). (2018). VERA 3 und VERA 8 (Vergleichsarbeiten in den Jahrgangsstufen 3 und 8). Fragen und Antworten für Schulen und Lehrkräfte (von der 87. Amtschefskommission „Qualitätssicherung in Schulen“ am 19.04.2018 zustimmend zur Kenntnis genommen). https://www.kmk. org/fileadmin/Dateien/veroeffentlichungen_beschluesse/2018/2018_04_19-VERA-FragenundAntworten.pdf. Zugegriffen: 8. Febr. 2019. Lange, H. (2003). Schulaufsicht zwischen normativen Anforderungen und faktischen Wirkungsmöglichkeiten. In H.-P. Füssel & Roeder Peter M. (Hrsg.), Recht-Erziehung-Staat. Zur Genese einer Problemkonstellation und zur Programmatik ihrer zukünftigen Entwicklung (S. 137–155). Weinheim: Beltz. Loesche, P., & Hosenfeld, I. (2016). Rückmeldung von fairen Vergleichen anhand eines Rückmeldepassungskoeffizienten. In B. Groot-Wilken, K. Isaac, & J. P. Schräpler (Hrsg.), Sozialindices für Schulen. Hintergründe, Methoden und Anwendung (S. 57–70). Münster: Waxmann. Maier, U. (2008). Vergleichsarbeiten im Vergleich – Akzeptanz und wahrgenommener Nutzen standardbasierter Leistungsmessungen in Baden-Württemberg und Thüringen. Zeitschrift für Erziehungswissenschaft, 11(3), 453–474. Maier, U. (2014). Leistungsdiagnostik in Schule und Unterricht: Schülerleistungen messen, bewerten und fördern. Stuttgart: UTB.

4  Vergleichsarbeiten (VERA) – Konzeption und Implementation …

103

Maier, U., & Kuper, H. (2012). Vergleichsarbeiten als Instrumente der Qualitätsentwicklung an Schulen: Überblick zum Forschungsstand. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 104(1), 88–99. Maritzen, N., & Tränkmann, J. (2015). Normative Grundlagen des Bildungsmonitorings. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 3, 232–247. Schildkamp, K., Rekers-Mombarg, L. T. M., & Harms, T. J. (2012). Student group differences in examination results and utilization for policy and school development. School effectiveness and school improvement, 23(2), 229–255. Schliesing, A. C. (2017). Rückmeldungen aus Vergleichsarbeiten (VERA). Eine methodenintegrative Studie zur Gestaltung und Rezeption von VERA-Rückmeldungen. Berlin: Humboldt-Universität. Zimmer-Müller, M., Hosenfeld, I., & Koch, U. (2014). Rückmeldungen nach Vergleichsarbeiten in Grund- und Sekundarschulen. In H. Ditton & A. Müller (Hrsg.), Feedback und Rückmeldungen. Theoretische Grundlagen, empirische Befunde, praktische Anwendungsfelder (S. 195–212). Münster: Waxmann.

5

Externe Evaluation – Konzeption und Implementation in den 16 Ländern Jasmin Tarkian, Eva-Maria Lankes und Felicitas Thiel

5.1 Die Einführung der externen Evaluation: Rückblick und Gesamtübersicht zu den Verfahren In den vergangenen 15 Jahren sind zur Sicherung und Entwicklung der Qualität im allgemeinbildenden Schulsystem1 in allen deutschen Ländern Verfahren der externen Evaluation ein- bzw. durchgeführt worden. Anders als die standardbasierten Vergleichsarbeiten, die im Zuge entsprechender KMK-Beschlüsse von gemeinsamen Grundsatzverabredungen begleitet und als wissenschaftlich entwickeltes und erprobtes Instrument zentral bereitgestellt werden, ist die externe Evaluation in den Ländern weit stärker in Eigenregie eingerichtet und weiterentwickelt worden. Dabei haben die Entscheidungen derjenigen Länder, die ihre Evaluationssysteme (etwa in Anlehnung an internationale Vorbilder) vergleichsweise früh eingeführt bzw. im Verlauf auch verändert haben, mitunter eine orientierende Wirkung für die übrigen Länder entfaltet; zum Teil sind in die jeweiligen Umsetzungen auch gezielt Vorerfahrungen aus ­(Nachbar-)Ländern e­ inbezogen

1Teilweise

auch im berufsbildenden System; dieser Bereich ist allerdings nicht Gegenstand der vorliegenden Bestandsaufnahme.

J. Tarkian () · F. Thiel  Berlin, Deutschland E-Mail: [email protected] F. Thiel E-Mail: [email protected] E.-M. Lankes  München, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_5

105

106

J. Tarkian et al.

worden (vgl. Füssel 2008; Füssel und Leschinsky 2008; Döbert und ­Dedering 2008). Obwohl mit der Einführung der externen Evaluation große Erwartungen an die Qualitätssicherung im Schulsystem verbunden waren, haben inzwischen mehrere Länder ihre Verfahren nach vergleichsweise kurzer Laufzeit wieder vom Regelbetrieb ausgesetzt oder durch ein alternatives Instrument ersetzt und auf Abruf organisiert (vgl. Abb. 5.1). In den übrigen Ländern sind im Zuge des Übergangs zwischen den verschiedenen Evaluationszyklen, die bei einer Vollerhebung jeweils einen Durchgang aller allgemeinbildenden (z. T. auch berufsbildenden) Schulen des Landes erfassen, regelmäßig konzeptionelle Anpassungen vorgenommen worden. Unterschiedliche Bezeichnungen Aus politisch-historischen Gründen wie auch mit Blick auf spezifische Zielsetzungen tragen (bzw. trugen) die Verfahren in den Ländern unterschiedliche Bezeichnungen: Während Berlin und Hamburg (früher auch HB, HE und NI) das Instrument als Schulinspektion bezeichnen, wird in Bayern, Mecklenburg-Vorpommern und dem Saarland (vor Aussetzung des Inspektionsverfahrens ebenso in RP, SN, ST, SL und TH, zuletzt auch in HB) der Begriff der externen Evaluation bevorzugt. In Schleswig-Holstein wurde das Verfahren zunächst als EVIT (externe Evaluation im Team), zeitweilig auch als Schul-TÜV bezeichnet. Nordrhein-Westfalen hat mit der Qualitätsanalyse und Brandenburg mit der Schulvisitation wiederum eine eigene Begrifflichkeit gewählt, Sachsen-Anhalt nannte sein zuletzt bis 2018 eingesetztes Verfahren Qualitätsfeststellung an Schulen, und auch Baden-Württemberg nutzte bis zur dortigen Aussetzung des Instruments mit dem Begriff Fremdevaluation eine landeseigene Bezeichnung (Kuhn 2015). Niedersachsen führt zum Schuljahr 2018/2019 sein bereits seit 2016 praktiziertes Instrument der Fokusevaluation für alle Schulen ein (vgl. Abb. 5.1). Dabei ist das Niedersächsische Verfahren trotz des gleichlautenden Begriffes zu unterscheiden von den in den übrigen Ländern teilweise zusätzlich bestehenden, anlassbezogenen Fokusevaluationen. Diese landesweit oder regional zeitweilig durchgeführten, zumeist stichprobenbezogenen Projekterhebungen werden jeweils zu spezifischen Fragestellungen in Auftrag gegeben2 und begleiten die landesweite Planungs- oder Einführungsphase besonderer bildungspolitischer Maßnahmen. Anders als die flächendeckend-regelhaft und turnusmäßig eingerichteten Verfahren (wie auch für Niedersachsen vorgesehen) stehen bei diesen Fokusevaluationen insofern nicht die Aspekte der Qualität einzelschulischer Arbeit im Vordergrund.

2Entsprechende Evaluationen wurden etwa in ST aufgrund temporärer bildungspolitischer Schwerpunktsetzungen bislang zwei Mal durchgeführt und betrafen dabei u. a. den Lateinunterricht in den Gymnasien. BB führt zwischen den Schuljahren 2016/2017 und 2017/2018 eine Fokusevaluation zum Thema Ganztagsschule durch, die zeitlich zwischen dem zweiten und dritten Visitationszyklus für alle entsprechenden Schulformen eingeschoben wurde.

5  Externe Evaluation – Konzeption und Implementation …

HH

SH

Schulinsp nsp nspektion IfBQ

Schulfeedback auf Abruf IQSH

MV

Externe ne Evaluation E aluation Ev l (ausgesetzt zt zt)

Externe Evaluation on n IQ Q M-V

BE

NI Fokusevaluation Fokuseva usev N NLQ

ST Qualitätsfeststellun ng g an Schulen (ausgesetzt) zt))

NW Qualitätsanalyse Dezernat 4Q

HE RP Externe Evaluation n (ausgesetzt)

BB Schulvisita ulvisitatio tion LISU UM

TH

SN

Externe Evaluation (ausgesetzt)

Externe ne Ev Evaluation (ausg usgesetzt) usg

Externe Ev Eva Evaluation v auf uf Abru Abruf Deezernat I.3

SL Qualitätssicherung cherung heru ung durch externe Evaluation Referat B 7

Schu hulhu inspe pektion pe SenB BJF, B Abt. III F

BY BW Fremdevaluati tio tion (ausgesetzt)

Zum Analysestichtag: als Regelbetrieb laufendes / vorgesehenes Verfahren ausgesetztes Verfahren auf Abruf organisiertes Verfahren

Externe Evaluation Qualitätsagentur am Landesamt für Schule

© Freie Universität Berlin - AB Schulpädagogik / Schulentwicklungsforschung, brandart design

HB

107

Abb. 5.1   Landesspezifische Verfahrensbezeichnungen und institutionelle Zuständigkeiten für die operative Umsetzung der Verfahren externer Evaluation. (zum Stichtag 31.01.2018)

108

J. Tarkian et al.

Die für diese Publikation demgegenüber in den Blick genommenen Verfahren, die zur Unterstützung der Einzelschulentwicklung implementiert sind, sind gekennzeichnet durch eine externe Erfassung und Analyse schulischer Daten der Prozessqualität (insbesondere des Unterrichts) sowie der Arbeitsbedingungen und Leistungsergebnisse von Einzelschulen. Die Beschreibung, ggf. auch Bewertung des schulischen Entwicklungsstands dient hier als ein Teilelement innerhalb eines datenbasierten Qualitätsmanagements. Dabei erfolgt die Datenerfassung und -analyse unter Einsatz verschiedener Methoden und zwar „auf der Grundlage von Verfahren mit wiederkehrenden Standardelementen, die in öffentlich zugänglichen Handbüchern beschrieben sind“ (Maritzen 2008, S. 87). Die Basis dafür bilden landeseigene Referenz- bzw. Qualitätsrahmen, die verschiedene Qualitätsdimensionen ausweisen, welche in den Ländern wiederum in variierendem Umfang und unterschiedlicher Tiefenschärfe operationalisiert werden. Zum Zweck der Datenerhebung werden die Schulen – je nach Schulgröße und möglichen Untersuchungsschwerpunkten – für einen Zeitraum zwischen zwei und fünf Tagen von einem Evaluationsteam besucht.3 Die erfassten Daten werden im Nachgang aufbereitet und den Schulen in einem Abschlussbericht rückgemeldet, an den sich üblicherweise begleitende Maßnahmen seitens der Schulaufsicht anschließen (vgl. ­Wurster und Gärtner 2013, S. 426). Bei besonderen Ergebnisauffälligkeiten sind in manchen Ländern (BE, BB, HH, NW) Nachinspektionen4 möglich, sodass hier besonders entwicklungsbedürftige Schulen schon zu einem früheren Zeitpunkt als turnusmäßig geplant, in der Regel nach ein bis zwei Jahren, erneut besucht werden. In Hessen läuft dieses Verfahren zum Schuljahr 2017/2018 aus, Niedersachsen hat seine Nachinspektionen vor einigen Jahren bereits eingestellt. In Mecklenburg-Vorpommern existieren offiziell keine Nachinspektionen, gleichwohl ist mit dem zweigliedrigen System aus „eintägigem Schulbesuch“ und der „vollständigen Evaluation“ auch eine ergebnisabhängige Besuchsterminierung ­konzeptioniert. Verschiedene Einführungszeitpunkte Abb. 5.2 zeigt die Einführung der externen Evaluation in allen 16 Ländern in einer zeitlich vergleichenden Perspektive auf. Dabei wird zwischen der vorab als Pilotphase eingeleiteten und insofern nur stichprobenbezogen erfolgten Evaluation und ihrer flächendeckenden Umsetzung im Regelbetrieb unterschieden. Außerdem aufgeführt sind die erstmalige Aufnahme bzw. Berücksichtigung der externen Evaluation in den Landesschulgesetzgebungen, die in den Ländern teilweise als solche definierten

3In

MV existiert allerdings mit dem „eintägigen Schulbesuch“ eine ergänzende Variante der externen Evaluation, die als Kurzbegehung einzelner Schulen ein zusätzliches Element im Rahmen des Gesamtkonzepts schulischer Evaluation darstellt (https://www.bildung-mv.de/downloads/Evaluation_Gesamtkonzept_Evaluation7.pdf). Zugegriffen: 14.02.2019. 4Auch bezeichnet als Nachvisitationen (BB) oder Nachanalysen (NW).

§ 2002

Pilotphase

2003

2004

§

§

Pilotphase

2005

Pilotphase

§

Pilotphase

§

2007

Pilotphase

2006

Pilotphase

2008

Pilotphase

§

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Pilotphase

§

Pilotphase

§

Regelbetrieb

Regelbetrieb

Pilotphase

Regelbetrieb

§

§

§

§

Pilotphase

2008

Pilotphase

2007

2009

2009

§

2014

Pilotphase

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

Regelbetrieb

2013

2016

2018

Pilotphase

auf Abruf

Fokusevaluation

2017

Stichtag der Analyse

Regelbetrieb

2015

2011

2012

2013

2014

Regelbetrieb

2015

Pilotphase

Pilotphase

Regelbetrieb

Regelbetrieb

2016

2018

auf Abruf

2017

Regelbetrieb

Erstmalige Einführung der externen Evaluation im Landesschulgesetz Übergang zum nächsten Zyklus

2010

auf Abruf

Regelbetrieb

Regelbetrieb

Regelbetrieb

2012

Regelbetrieb 460659_1_De_5_Fig2_Print.eps

2011

Regelbetrieb

Pilotphase

2010

Abb. 5.2   Ein- und Fortführung der Verfahren externer Evaluation in den 16 Ländern

TH

SH

ST

SN

SL

RP

NW

NI

MV

HE

§ 1997

HH

Vorphase 1994–2001

§

HB

BB

§

BE

§

2006

Implementation in allen Ländern erfolgt

2005

Pilotphase

2004

BY

BW

2003

2019

Pilotphase

Regelbetr.

Regelbetr.

2019

5  Externe Evaluation – Konzeption und Implementation … 109

© Freie Universität Berlin - AB Schulpädagogik / Schulentwicklungsforschung, brandart design

110

J. Tarkian et al.

­ valuationszyklen sowie die derzeit in der Hälfte der Länder auch wieder erfolgte AusE setzung bzw. gegebenenfalls ihre Neueinrichtung oder zwischenzeitliche Durchführung als verändertes Verfahren. Mit seiner bereits 1994 eingeführten Schulinspektion kann Bremen als Pionier der externen Evaluation bezeichnet werden. Das Verfahren wurde zwar 2001 (und damit noch vor der Ersteinführung in einem weiteren Bundesland) wiedereingestellt; im Jahr 2004 aber in Reaktion auf die deutschen PISA-Ergebnisse unter der Leitung eines externen Instituts erneut eingeführt (vgl. Füssel 2007) und für etwas mehr als zehn Jahre unter Einsatz eines freien Expertenteams umgesetzt. Zu diesem erneuten Einführungszeitpunkt liefen die Evaluationsverfahren in Niedersachsen und Schleswig-Holstein seit einem guten Jahr im Pilotbetrieb, Bayern startete gerade seine Testphase. 2005 folgten die Länder Brandenburg, Sachsen, Sachsen-Anhalt und Thüringen sowie im Weiteren Hessen und Nordrhein-Westfalen, die ihre Probedurchgänge jeweils zum Schuljahr 2005/2006 eingerichtet haben. Berlin hat zu dieser Zeit eine ausschließlich konzeptionelle Vorbereitungsphase durchlaufen, ab 2006 sind dann auch Berliner Schulen von Inspektoren besucht worden. Im Schuljahr 2006/2007 nahmen schließlich Baden-Württemberg, Mecklenburg-Vorpommern, Rheinland-Pfalz und das Saarland den Testbetrieb auf, der sich im Saarland zunächst auf die Grundschulen beschränkte. Etwa zeitgleich hat Hamburg die externe Evaluation im Jahr 2007 eingeleitet, ist dabei dann allerdings direkt in die flächendeckende Umsetzung eingestiegen, die kurz zuvor für alle allgemeinund berufsbildenden Schulen in dem Stadtstaat gesetzlich verankert worden war. Verbindlicher Regelbetrieb Neben der schon früh etablierten Bremer Inspektion ist der landesweit verpflichtende Regelbetrieb als externe Evaluation nach einer kurzen Pilotierungsphase als erstes in Schleswig-Holstein eingeführt worden (2004). Bayern und Brandenburg schlossen im darauffolgenden Schuljahr (2005/2006) daran an, gefolgt von Berlin (März 2006). Mit Niedersachsen, Hessen, Rheinland-Pfalz und Sachsen-Anhalt haben zum Schuljahr 2006/2007 vier weitere Länder begonnen, das Verfahren auf alle Schulen auszuweiten, Hamburg führte seine Inspektion 2007 direkt in den Regelbetrieb ein. In Mecklenburg-Vorpommern, Rheinland-Pfalz und Sachsen ist die externe Evaluation zum Schuljahr 2007/2008 in die Fläche gebracht worden, während Baden-Württemberg und das Saarland (weiterhin zunächst für die Grundschulen) ihre Pilotierungsphasen noch bis zum Schuljahr 2008/2009 fortgeführt haben. Die weiterführenden Schulen des Saarlands sind im Kalenderjahr 2009 in den Regelbetrieb einbezogen worden, zeitgleich hat Thüringen damit begonnen, seine Schulen flächendeckend extern zu evaluieren. Aussetzung bzw. Modifikation des Verfahrens Nur wenige Monate nach diesem Zeitpunkt ist das Schleswig-Holsteinische Verfahren EVIT bereits nur noch auf Schulwunsch hin durchgeführt worden, bevor es dann zum Jahr 2011 vollständig aufgegeben wurde. Mit dem Schulfeedback ist seit Februar 2016 an die Stelle des ursprünglichen Verfahrens allerdings ein (weiterhin für die S ­ chulen

5  Externe Evaluation – Konzeption und Implementation …

111

f­reiwilliges) Peer-Review durch das Landesinstitut (IQSH) eingeführt worden, das bewusst dialogorientiert eingerichtet ist und die individuellen Evaluationsinteressen der Schulen unter besonderer Berücksichtigung der Unterrichtsqualität in den Vordergrund stellt. An dieser Instrumenten-Weiterentwicklung hat sich im Weiteren Niedersachsen orientiert, das nach zwischenzeitlicher Umsetzung eines modifizierten Inspektionsverfahrens (zwischen 2013 und 2016) sein Konzept der Fokusevaluation seit dem Frühjahr 2017 erprobt und dessen Umsetzung ab dem Schuljahr 2018/2019 für alle Schulen vorsieht. Sachsen-Anhalt hatte im Zuge veränderter Schwerpunktsetzungen (stärkere Berücksichtigung schulischer Interessen, erweiterte Ergebnisrückmeldungen) mit seiner Qualitätsfeststellung ebenfalls ein modifiziertes Verfahren entwickelt, das allerdings seit Februar 2018 (nach heutigem Erkenntnisstand bis zum 31.01.2020) ausgesetzt wurde. Während in Bayern, Berlin und Brandenburg das Regelverfahren derzeit bereits im dritten Zyklus läuft,5 ist die Entscheidung, das Instrument auszusetzen oder ausschließlich auf Anfrage hin anzubieten, zum Stichtag der vorliegenden Analyse (31.01.2018) allerdings von der Hälfte aller Länder getroffen worden: Nach dem Ausstieg von Schleswig-Holstein ist die externe Evaluation in Sachsen (seit Schuljahr 2015/2016), Thüringen (seit 01.11.2015), Bremen (seit Schuljahr 2016/2017), Rheinland-Pfalz (Auflösung der AQS zum Sommer 2016) sowie in Hessen (seit Schuljahr 2016/2017), Baden-­Württemberg (seit Schuljahr 2017/2018) und Sachsen-Anhalt (seit 01.02.2018) als flächendeckende Maßnahme zur Qualitätssicherung und -entwicklung zum Stichtag außer Kraft gesetzt. Hessen bietet seinen Schulen das Verfahren aktuell noch als Abrufvariante „on demand“ an, zudem werden einige ausgewählte Schulen aktuell noch (nach-)evaluiert und Schulen mit besonderem Status (SES) per Metaevaluation begleitet (vgl. Kap. 6). Im Zuge struktureller Veränderungen innerhalb der Bildungsadministration sind sämtliche für das Verfahren abgeordneten Lehrkräfte im Land Baden-Württemberg hingegen wieder in den Lehrdienst zurückberufen worden. Ob hier eine Wiederaufnahme des Verfahrens ab 2019 erfolgt, ist derzeit noch offen. Ähnlich verhält es sich in Sachsen-Anhalt, wo das frühere Personal bis auf Weiteres in das Landesschulamt abgeordnet wurde. In Bremen ist zunächst die Neugründung eines Qualitätsinstituts angekündigt, und auch Thüringen strukturiert aktuell sein Unterstützungssystem um. Nach der anvisierten Neuanbindung des Instruments an die Staatlichen Schulämter und das Thüringer Institut für Lehrerfortbildung, Lehrplanentwicklung und Medien (Thillm) ist eine Wiederaufnahme zum Schuljahr 2018/2019 geplant. Die Bayerische Landesregierung hat mitgeteilt, zum gleichen Zeitpunkt ihre externe Evaluation für die Dauer eines Schuljahres zur konzeptionellen Überarbeitung auszusetzen. Weitere Entwicklungen bleiben somit abzuwarten.

5BB

startet seinen dritten Visitationszyklus offiziell zum Schuljahr 2018/2019 im Anschluss an eine zwischenzeitlich auf Fragen des Ganztagsbetriebs fokussierte Evaluationsphase.

112

J. Tarkian et al.

Berücksichtigt man die unterschiedlichen Einführungs- wie auch Austrittszeitpunkte in einer Gesamtschau, so wird erkennbar, dass eine gleichzeitige Umsetzung der externen Evaluation als regelhaft-verpflichtendes Verfahren in allen 16 Ländern der Bundesrepublik nur innerhalb des Jahres 2009 erfolgte (vgl. Abb. 5.2). Damit wird dieses Steuerungsinstrument – anders als etwa die VERA-Arbeiten, die mittlerweile seit über zehn Jahren im gesamten Bundesgebiet durchgehend zum Einsatz kommen – in der Fläche weit weniger kontinuierlich betrieben. Die von der KMK in ihrem Strategiepapier zum Bildungsmonitoring von 2015 enthaltene Formulierung, dass „in fast allen Ländern Verfahren zur externen Evaluation der einzelnen Schule“ (Kultusministerkonferenz [KMK] 2016, S. 13) zum Einsatz kommen, kann insofern – zumindest aus Perspektive des Analysestichtags (31.01.2018) – nur eingeschränkt Gültigkeit beanspruchen. Abb. 5.3 fasst die zu diesem Zeitpunkt bestehenden Verfahrensformen (Vollerhebung, Teilerhebung, ausgesetzte Erhebung, zusätzliche Fokusevaluation und Nachevaluation) für die Länder nochmals in einer Gesamtschau zusammen.

Abb. 5.3   Verfahrensformen der externen Evaluation in den 16 Ländern. (Analysestichtag: 31.01.2018)

5  Externe Evaluation – Konzeption und Implementation …

113

Gesetzliche Regelungen Die schulgesetzliche Einführung der Paragrafen zur externen Evaluation erfolgte in den Ländern infolge der landeseigenen Regelungen zur Gesetzgebung zu unterschiedlichen Zeitpunkten. Bremen war entsprechend der frühen Einführung des Verfahrens auch das erste Bundesland, welches am 20.12.1994 mit § 13 BremSchulVwG die externe Evaluation ins Schulgesetz aufnahm, dicht gefolgt von Hamburg, das 1997 die externe Evaluation in § 100 HmbSG verankerte.6 Brandenburg nahm 2001 die externe Evaluation in sein Schulgesetz auf. Zehn Jahre nach Bremen führten Berlin, Rheinland-Pfalz und Sachsen ihre Regelungen zur externen Evaluation schulgesetzlich ein. 2005 folgten Hessen, Nordrhein-Westfalen, Saarland und Sachsen-Anhalt, ein weiteres Jahr später Baden-Württemberg, Hamburg und Mecklenburg-Vorpommern. Niedersachsen und Schleswig-Holstein führten ihre Regelungen 2007 ein, Bayern und Thüringen haben erst im Jahr 2008 Bestimmungen zur externen Evaluation im Schulgesetz aufgenommen. Zwar wurde das Verfahren mit § 123a NSchG in Niedersachsen 2007 schulgesetzlich eingeführt, doch hatte Niedersachsen als einziges Bundesland bereits ein gutes Jahr zuvor einen Runderlass über Schulinspektionen erlassen. Im saarländischen und schleswig-holsteinischen Schulgesetz finden sich Begriffe wie externe Evaluation oder Schulinspektion nicht. Hier sind die entsprechenden Paragrafen sehr allgemein formuliert. So wird die externe Evaluation im Saarland unter die „sonstigen von der Schulaufsichtsbehörde vorgesehenen Maßnahmen zur Qualitätsentwicklung und Qualitätssicherung“ subsumiert7, in Schleswig-Holstein zählt sie zu den von der obersten Schulbehörde „zugelassenen Tests, Befragungen und Erhebungen, die der Überprüfung der schulischen Arbeit dienen“8. Im Unterschied zum Saarland und zu Schleswig-Holstein werden in Baden-Württemberg, Bayern, Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Niedersachsen, Sachsen-Anhalt und Thüringen spezifische Aspekte des Verfahrens gesetzlich geregelt. Die Regelungen betreffen etwa die Ziele des Verfahrens (wie Gleichwertigkeit, Durchgängigkeit und Durchlässigkeit des schulischen Bildungsangebots) oder das Prozedere der Übermittlung der Ergebnisse an die Schule und andere Akteure. Zusätzlich ist in den betreffenden Vorschriften mancher Länder9 ebenfalls die – mit Blick auf Fragen des Weisungsrechts – festgelegte Unabhängigkeit der Inspektoren geregelt. In Rheinland-Pfalz und Sachsen wird das Instrument der externen Evaluation nur als verpflichtend durchzuführendes Verfahren genannt, weitere Spezifizierungen sind dagegen schulgesetzlich nicht festgehalten.

6Der

Begriff Schulinspektion wurde allerdings erst 2006 in § 85 HmbSG aufgenommen.

7§ 20e Abs. 1 S. 1 SchoG. 8§ 11 Abs. 2 S. 3 9BB,

HH, NW.

sh SchulG.

114

J. Tarkian et al.

Während es in der Hälfte der Länder seit der Einführung der Regelungen über die externe Evaluation inhaltliche Änderungen in den betreffenden Vorschriften gab, sind die Vorschriften von Baden-Württemberg, Berlin, Brandenburg, Hamburg, Rheinland-Pfalz, Saarland, Schleswig-Holstein und Thüringen seit ihrer Einführung unverändert geblieben. Einige Länder10 änderten ihre Vorschrift dahin gehend, dass das jeweilige Landesinstitut fortan ausdrücklich mit den Schulen und den Schulaufsichtsbehörden für die Qualitätssicherung und -entwicklung zuständig war. In anderen Ländern wurden nur die Titel der betreffenden Vorschriften überarbeitet11 oder die Regelungen in einen anderen Absatz verschoben.12 Zu bemerken ist, dass in Sachsen der bisherige § 59a sächs SchulG am 1. August 2018 durch einen neuen § 3a ersetzt wird, welcher künftig die Qualitätssicherung einschließlich der Evaluation regelt. Baden-Württemberg, Berlin, Mecklenburg-Vorpommern und Nordrhein-Westfalen haben jeweils noch zusätzlich zu den schulgesetzlichen Regelungen Verordnungen eingeführt, in denen detailliertere Regelungen zur externen Evaluation enthalten sind. In Brandenburg, Hessen und Niedersachsen existieren Verwaltungsvorschriften über das Instrument. Detailkonzeption der Verfahren Die in der Zeitverlaufsdarstellung sichtbar gewordenen Unterschiede zwischen den Ländern beschränken sich nicht nur auf die zeitliche Ein- und Fortführung des Instruments sowie seine in unterschiedlicher Weise erfolgte schulrechtliche Verankerung, sondern betreffen in besonderem Maße auch die konzeptionelle Anlage der externen Evaluation. Dabei lassen sich beispielsweise unterschiedliche Festlegungen bei der personellen Zusammensetzung der Evaluationsteams oder der Auswahl der Verfahrensbeteiligten erkennen, insbesondere bestehen auch Unterschiede bei den zum Einsatz kommenden Untersuchungsbereichen der Qualitätstableaus, dem methodischen Vorgehen oder den für die Schulaufsicht vorgesehenen Maßnahmen zur Unterstützung der Schulen bei ihrer Entwicklungsarbeit. Im Folgenden sollen daher diejenigen Aspekte genauer beleuchtet werden, bei denen sich infolge der landeseigenen Zuschnitte aktuell zentrale Unterschiede in der Konzeption und Implementation der laufenden Verfahren externer Evaluation zeigen. Dabei wird neben den acht Ländern, die ihr Instrument zum Analysestichtag 31.01.2018 für einen flächendeckend-verpflichtenden Einsatz im Regelbetrieb vorsehen (BY, BE, BB, HH, MV, NI, NW, SL) auch das Schulfeedback aus Schleswig-Holstein einbezogen, das seit 2016 von den Schulen zur Unterstützung ihrer Entwicklungsziele regelhaft angeboten, aber von den Schulen freiwillig in Anspruch genommen werden kann. In

10SN,

ST, MV. HE, NW, MV und NI. 12In BY waren Regelungen über die externe Evaluation im Art. 113a BayEUG festgelegt, welche nach einer Gesetzesnovelle im Jahr 2010 mit Art. 113c BayEUG geregelt wurden. 11HB,

5  Externe Evaluation – Konzeption und Implementation …

115

diesem ­ Verfahren wurden im ersten Durchführungszeitraum (Schuljahr 2016/2017) 25 Schulen evaluiert, für das Jahr 2017 befanden sich laut letztem Länderbericht des IQSH rund 50 Schulen in laufender Evaluation. Das zum Stichtag auf Abruf organisierte Hessische Modell der externen Schulevaluation findet nach Umstrukturierung des zuständigen Dezernats laut Angaben der Landesregierung seit dem Schuljahr 2016/2017 nur sehr vereinzelt „on demand“ statt; es kann auf Anfrage der Schule oder im Auftrag der Schulaufsicht eingeleitet werden. Informationen zu diesem Verfahren werden in den Detailanalysen ebenfalls nach Absprache mit der befragten Landesvertretung dargestellt. Mit dem Einschluss dieser beiden Länder soll im Besonderen aufgezeigt werden, wie sich Verfahren, die keine flächendeckende Umsetzung gewährleisten, unter den gesetzten Analysekriterien darstellen.

5.2 Funktionen der externen Evaluation Auch wenn mit der Einführung von Verfahren der Fremdevaluation vordergründig Hoffnungen auf eine selbstgesteuerte Qualitätsentwicklung durch „die Konfrontation der Schule mit möglichst objektiven und validen Daten“ (Rürup 2008, S. 476) verbunden waren und sind, so werden in den Ländern teilweise zusätzliche Funktionen mit dem Instrument verfolgt. Die dabei entstehenden Zwecküberlagerungen unterscheiden sich nicht wesentlich vom „Funktionenmix“ (Maritzen 2015, S. 15) anderer datenbasierter Verfahren zur Sicherung und Entwicklung von Schulqualität wie etwa den Vergleichsarbeiten (Maritzen 2006; vgl. Wurster und Gärtner 2013). Angelehnt an bekannte Darstellungen aus der Literatur (vgl. Landwehr 2011)werden in dieser Bestandsaufnahme analog zu den in Kap. 4 aus den Landeskonzeptionen abgeleiteten Zwecken mit der Entwicklungs –, Controlling –, Monitoring- und Informationsfunktion vier Funktionen externer Evaluation unterschieden, die im Folgenden unter Zuordnung der Länderausprägungen näher ausgeführt werden.

5.2.1 Entwicklungsfunktion In ihrer aktualisierten Gesamtstrategie zum Bildungsmonitoring benennt die Kultusministerkonferenz die externe Evaluation als Maßnahme, „in deren Rahmen Schulen regelmäßige und systematische Rückmeldungen über Stärken und Schwächen, insbesondere über die Qualität von Unterrichtsprozessen, erhalten“ (KMK 2016, S. 13). Die Länder stehen in dieser Perspektive in der schon früher formulierten Verantwortung, ihre Verfahren „so weiter[zu]entwickeln, dass die Möglichkeiten zur Nutzung der vorliegenden Daten für die Schul- und Unterrichtsentwicklung […] ausgeweitet werden“ (KMK 2008, S. III., 3.). Die damit angesprochene Entwicklungsfunktion wird auch von der Konferenz der deutschen Einrichtungen für die externe Evaluation von Schulen (Kodex) für ihre Eigendarstellung aufgegriffen. Hier heißt es, dass die ­entsprechenden

116

J. Tarkian et al.

Einrichtungen der Länder erfolgt sind „mit dem Ziel, Schulen Impulse zur nachhaltigen Verbesserung des Unterrichts und der schulischen Prozesse zu geben“ (http://www. kodex.schule/). Es wird insofern (zunächst) davon ausgegangen, dass die externe Evaluation über Rückmeldungen, die an landesspezifisch festgelegten Merkmalen von Schul- und Unterrichtsqualität ausgerichtet sind, generell Entwicklungsanstöße für schulische Anschlussaktivitäten bietet, die von den Einzelschulen in eigenständiger Weise umgesetzt und weiterverfolgt werden können (Blok et al. 2008; Maritzen 2006; Wendt und Bos 2011, S. 217). Diese Kernfunktion von Qualitätsentwicklung durch impulsgebende Datenrückmeldungen zu schulischen Stärken und Schwächen wird entsprechend in den Konzeptionsdokumenten sämtlicher Länder in je ähnlicher Weise angeführt, wie sich an nachstehenden Ausführungen für die Länder Berlin, ­Mecklenburg-Vorpommern und Nordrhein-Westfalen beispielhaft verdeutlichen lässt:

Angestrebt wird die gezielte Unterstützung der Schulentwicklungsprozesse durch konkrete Hinweise auf Stärken und Entwicklungsbedarf. Inspektionsberichte dienen als Anstöße zu innerschulischen Diskussions- und Entwicklungsprozessen (BE_2012_Handbuch_Schulinspektion, S. 3).

Die externe Evaluation dient als Feedbackinstrument für die Eigensteuerung der Selbstständigen Schulen. Sie liefert in ihrer Gesamtsicht auf Schulen eine empirische Basis, die beispielsweise für die Umgestaltung der Sekundarstufe I, für Fortbildungsschwerpunkte, insbesondere im Bereich der individuellen Förderung und die Fortbildung von Schulleitungen genutzt wird (MV_2010_Kleine_Anfrage an die Landesregierung, S. 4).

Die Qualitätsanalyse (QA) ist ein Verfahren der externen Evaluation in Nordrhein-Westfalen. Ihr vorrangiges Ziel ist die Unterstützung der Schulen in ihrer Schul- und Unterrichtsentwicklung. Es gilt, über die Analyse der schulischen Prozesse den Ist-Stand schulischer Arbeit aufzuzeigen, mit Hilfe von Analysekriterien die Qualität von pädagogischer Arbeit in Schule und Unterricht zu bewerten und nachhaltige Impulse zur Weiterentwicklung zu setzen (NW_2016_Informationen zur Qualitätsanalyse des Ministerium für Schule und Weiterbildung, S. 3).

5.2.2 Controllingfunktion Nicht zuletzt infolge von Forschungsbefunden, die aufgezeigt haben, dass die schulischen Aktivitäten nach Evaluationsende aber offenbar hinter den Erwartungen zurückbleiben (Altrichter und Kemethofer 2016; Gärtner und Wurster 2009; Gärtner et al.

5  Externe Evaluation – Konzeption und Implementation …

117

2014; Wurster und Gärtner 2013) ist zur zielgerichteten Unterstützung schulischer Qualitätsentwicklung auch eine Beteiligung der operativen Schulaufsicht am Gesamtverfahren vorgesehen (vgl. Abschn. 5.8). Dabei ist diese in den Ländern allerdings in ganz unterschiedlichem Umfang eingerichtet. Der teilweise sehr ausdrücklich, teilweise mit ­Einschränkungen und teilweise eher randständig konzipierte Einflussbereich der operativen Schulaufsicht im Verfahren der externen Evaluation betrifft im Gesamtspektrum: 1. ihre Einflussnahme auf eine Teilnahme/den Teilnahmezeitpunkt der Schule, 2. ihre Begleitung der Schule im Prozess der Datenerhebung, 3. ihre Einsicht in die schulspezifischen Evaluationsergebnisse sowie 4. ihren Auftrag zur Beratung und Unterstützung der Schule nach Evaluationsende bei der Einleitung und Umsetzung zielgerichteter Maßnahmen für Entwicklungsvorhaben. Von einer klar erkennbaren Controllingfunktion kann ausgegangen werden, wenn schulaufsichtliche Aktivitäten bzw. Einflussmöglichkeiten für alle vier Merkmale vorgesehen sind. Dies darf als zutreffend gelten, wenn die zuständigen Schulräte: 1. bei der Auswahl der zu evaluierenden Schulen im Sinne einer gezielten Terminierung von Schulen (Dringlichkeitsentscheidung) mitbeteiligt, 2. an mindestens einem definierten Zeitpunkt konzeptionell in den Verfahrensablauf (vom Vorgespräch bis zur Ergebnispräsentation) eingebunden, 3. standardmäßig als Empfänger der Ergebnisberichte vorgesehen und zur 4. Durchführung evidenzbasierter Zielvereinbarungen mit den Schulen angehalten sind. Am Beispiel Brandenburgs lässt sich die skizzierte Verzahnung schulischer Entwicklungsarbeit mit schulaufsichtlicher Prozesssteuerung durch Ergebniscontrolling besonders deutlich illustrieren, da hier nach Abschluss des zweiten Visitationszyklus’ die Einflussnahme der operativen Schulaufsicht weiter gestärkt worden ist. Damit wird sie aktuell in alle vorgenannten vier Bereiche – teilweise mehrfach – einbezogen. Mit Bezug auf die häufig funktionell nicht vollständig voneinander abgrenzbaren Institutionen Inspektorat und Schulaufsicht betont die Landesregierung auf ihrem Landesbildungsserver insofern die Frage nach geteilter Verantwortlichkeit dahin gehend, dass

die Schulvisitation […] kein Ersatz für schulaufsichtliches Handeln im Bereich der Einhaltung vorgegebener Regeln [ist]. Hinweise auf Mängel oder Schwächen einer Schule können Anlass für die Schulaufsicht sein, sich mit diesem Sachverhalt eigenständig und kontrollierend zu befassen (BB_Schulvisitation_Brandenburg_ Bildungsserver Berlin-Brandenburg, Zugegriffen: 09.03.2017).

Entsprechend werden bereits die Modalitäten der Teilnahme einer Schule am Visitationsverfahren ab dem Schuljahr 2017/2018

118

J. Tarkian et al.

in Abhängigkeit von einer fachlichen Dringlichkeit terminiert. Die fachliche Dringlichkeit und damit der Zeitpunkt der Visitation an der Einzelschule werden in einem Lageeinschätzungsgespräch bewertet und festgelegt. Dieses Gespräch findet im Staatlichen Schulamt zwischen der für die Schule zuständigen Schulaufsicht, einem Vertreter der Schulvisitation sowie der Schulleiterin/des Schulleiters statt. Zur Einschätzung der fachlichen Dringlichkeit werden Angaben aus der Selbstauskunft der Schulleitung zum Stand der Schulentwicklung, die Ergebnisse der letzten Visitation sowie ausgewählte Leistungs- und Bildungsverlaufsdaten der Schülerinnen und Schüler herangezogen. Das Ergebnis dieser Lageeinschätzung wird der Schule schriftlich mitgeteilt (BB_2017_Handbuch_Schulvisitation, S. 5).

Dabei werden gemäß Erläuterung des befragten Landesexperten die oben genannten Datensätze in einem weiteren Schritt noch durch eine eigene Einschätzung der Schulaufsicht ergänzt und in ihrer Gesamtschau anhand eines per Auswertungsvorschrift festgelegten Bewertungsschlüssels13 in schulische Risikoklassen umgerechnet. Die Zuordnung der Schule zu einer der drei Risikoklassen („Schule mit stabiler, sehr guter Entwicklung“, „Schule in Entwicklung“ oder „Schule in kritischer Lage“) ist laut der Ausführungen im Brandenburger Handbuch zur Schulvisitation aus 2017 im Weiteren ausschlaggebend für die genaue Terminierung der Visitation.14 Jenseits ihrer Mitsprache bei der Teilnahmefestlegung im Vorgespräch (1. Merkmal) ist die untere Schulaufsicht in Brandenburg auch in die öffentliche Rückmeldung für die visitierte Schule regelhaft einbezogen, die im Rahmen der Schulkonferenz vorgesehen ist (2. Merkmal). Im Falle besonders kritischer (Zwischen-)Ergebnisse (vgl. Abschn. 5.9) wird sie sogar auch während der laufenden Evaluation für eine spezifische Entwicklungsplanung hinzugezogen, der Visitationsprozess wird hierzu unterbrochen. Der Ergebnisbericht geht den zuständigen Schulräten grundsätzlich parallel zum Versand an die Schule und den Schulträger zu (3. Merkmal), zur optimierten Interpretation der Ergebnisse und darauf aufbauender Maßnahmen werden die AufsichtsbeamtInnen auch in Fortbildungsveranstaltungen geschult. Ob ein (zusätzliches) Erörterungsgespräch zwischen der Schulaufsicht, schulischen VertreterInnen sowie dem Visitationsteam stattfindet, das der Nachbesprechung der festgestellten Schulergebnisse sowie ihrer

13Dieser liegt dem Autorenteam zum Stichtag 31.01.2018 allerdings nicht vor, da er zu diesem Zeitpunkt nicht zur Veröffentlichung freigegeben ist. 14Gemäß Brandenburger Handbuch zur Schulvisitation (2017, S. 6) kann bei Schulen, für die eine „stabile, sehr gute Entwicklung“ diagnostiziert wurde, die Folgevisitation bis zu zehn Jahren ausgesetzt werden, während Schulen „in Entwicklung“ nach fünf Jahren wieder besucht werden sollen. Schulen, die sich „in kritischer Lage“ befinden, sind bereits zwei Jahre später erneut zu visitieren (vgl. dazu auch Abschn. 5.9).

5  Externe Evaluation – Konzeption und Implementation …

119

Einordnung in die letzte Lageeinschätzung dient, darf von der Schulkonferenz vor Visitationsbeginn entschieden werden. Entscheidet sie sich dagegen, wird die Schule mit dem Endergebnisbericht über die derzeitige Kategorisierung informiert, und die operative Schulaufsicht berät die Schule im Rahmen eines späteren (gesamt)datengestützten Bilanzgespräches hinsichtlich einzuleitender Maßnahmen und dazu nötiger Unterstützungsangebote. Dass in jedem Fall spätestens drei Monate nach Visitationsende mit den Schulen Zielvereinbarungen durchgeführt werden (4. Merkmal), ist in Brandenburg im Rahmen einer Verwaltungsvorschrift festgelegt (§ 5, Abs. 5 VV-Schulvisitation). Vor dem Hintergrund der oben dargestellten Systematik darf Brandenburg insofern als das Bundesland mit der aktuell am stärksten konzipierten Controllingfunktion gelten. Aber auch in Hamburg, Berlin, Nordrhein-Westfalen sowie Mecklenburg-Vorpommern und Niedersachsen sind die Evaluationsverfahren mit Controllingmaßnahmen zur zielgerichteten Unterstützung der Schulentwicklung verbunden. Hier erfolgen allerdings zum Teil Schwerpunktsetzungen bzw. sind Einzelbereiche oder – phasen ausgeklammert, sodass eine Beteiligung der unteren Schulaufsicht auf jeweils drei von vier Bereiche beschränkt ist: Bis auf die Teilnahmeauswahl bzw. – terminierung der Schulen, die in Berlin, Hamburg und Nordrhein-Westfalen vorrangig einem mathematischen Algorithmus folgen soll (vgl. dazu Abschn. 5.4.1), ist die operative Schulaufsicht in diesen Ländern in allen anderen oben genannten Bereichen konzeptionell eingebunden. Dabei ist hervorzuheben, dass – ähnlich wie in Brandenburg – auch in Hamburg bereits während des laufenden Verfahrens ein Einbezug der SchulaufsichtsbeamtInnen vorgesehen ist, sofern erkennbar wird, dass in entscheidenden Untersuchungsbereichen Mindeststandards der Schul- und Unterrichtsqualität nicht eingehalten werden. Im Rahmen einer speziellen Fallkonferenz findet dann unter Beteiligung des zuständigen SchulaufsichtsbeamtInnen sowie der leitenden Schulaufsicht eine Vorbesprechung statt, die im Weiteren in ein Beratungsgespräch mit der betroffenen Schule und schließlich in gezielte Unterstützungsmaßnahmen seitens der Schulaufsicht und des Landesinstituts münden sollen. Grundsätzlich vorgesehen ist in Hamburg daneben in jedem Fall – und gleiches gilt für Berlin – die Teilnahme der SchulaufsichtsbeamtInnen an einem Ergebnisrückmeldegespräch/Rückmeldetag zum Ende der Evaluation (2. Merkmal). In Nordrhein-­Westfalen wird den Schulen im Zuge der Neuausrichtung der Qualitätsanalyse auf freiwilliger Nutzungsbasis ein separater Termin zur tiefergehenden Interpretation des Qualitätsberichts angeboten, der allerdings nur das Zustandekommen der Ergebnisse erläutern soll und ausdrücklich nicht der Beratung zur Schulentwicklung dient. Entsprechend ist die Mitwirkung der Schulaufsicht hier nicht regulär vorgesehen. Diese nimmt hingegen plangemäß an einem Abstimmungsgespräch mit der Schule gleich zu Evaluationsbeginn teil (1. Merkmal). Sie erhält außerdem – und dies gilt für alle drei genannten Länder – standardmäßig den Evaluationsbericht der ihnen zugeordneten Schulen (3. Merkmal) und ist auf dieser Basis auch angehalten, Entwicklungsziele mit den Schulleitungen festzuschreiben und ihre Umsetzung weiterzuverfolgen (4. Merkmal): Während für Hamburg in der vom IfBQ herausgegebenen Handreichung „Die Inspektion

120

J. Tarkian et al.

kommt – und nun?“ darüber informiert wird, dass jede Schulleitung mit ihrer Schulaufsicht in regelmäßigen Abständen anhand der erzielten Ergebnisse sogenannte Ziel- und Leistungsvereinbarungen abschließt und darüber in der Schulkonferenz berichtet, hat Nordrhein-Westfalen die ergebnisbasierten Zielvereinbarungen zusätzlich im Rahmen einer Qualitätsverordnung geregelt. Dabei ist dort als Aufgabe für die Schulleitung festgelegt, dass diese nach Durchführung der Qualitätsanalyse

der Schulaufsichtsbehörde die aus der Sicht der Schule erforderlichen Sicherungs- und Entwicklungsaufgaben dar[stellt] und […] mit ihr die notwendigen Absprachen [festlegt]. Sie oder er schließt dazu mit der Schulaufsichtsbehörde eine Zielvereinbarung ab, die der Mitwirkung der Schulkonferenz bedarf (§ 65 Abs. 2 Nr. 2 Schulgesetz NRW), und berichtet der Schulaufsichtsbehörde im Rahmen eines Controllings über die Ergebnisse der Umsetzung (NW_§ 3, Abs. 10, QA-VO).

In Berlin ist ein in 2006 erstellter Leitfaden, der entsprechende Zielvereinbarungsgespräche zwischen der Schule und der Schulaufsicht inhaltlich regelt, derzeit zwar nicht mehr veröffentlicht, gleichwohl führt der frühere Abteilungsleiter Arnz aus der Senatsbildungsverwaltung in der Berliner Berichtslegung zur Schulinspektion aus 2014 dazu aus, dass

die konkreten Ziele und Unterstützungsmaßnahmen sowie die Entscheidung, wer konkret tätig werden soll, […] in einer Zielvereinbarung festgehalten [werden], die von der Schulleitung, der zuständigen Schulaufsicht sowie den jeweiligen Unterstützern unterzeichnet werden. Entscheidend ist, dass diese Zielvereinbarungen ernst gemeint und tatsächlich umsetzbar sind, eher dem Prinzip ‚lieber weniger, aber besser‘ folgen und vor allem nicht nach dem Motto ‚Papier ist geduldig‘ verfasst werden. Zur Überprüfung der Wirksamkeit und Richtigkeit der eingeleiteten Unterstützungsmaßnahmen mit der Möglichkeit, ggf. Korrekturen vorzunehmen, lädt die Schulaufsicht zu einer gemeinsamen Zwischenbilanz nach circa drei Monaten sowie zu einer weiteren Bilanzrunde nach spätestens einem Jahr ein (BE_2014_SenBJW_7_Jahre_Schulinspektion, S. 48).

Die zuständigen SchulrätInnen werden für diese Aufgabe laut Auskunft der Berliner Schulinspektion von dieser im Rahmen spezieller Fortbildungsveranstaltungen bei der Interpretation der Ergebnisberichte unterstützt. Die Hessische Schulevaluation „on demand“ kann – neben einer Eigenanfrage durch die Schule – auch durch die gezielte Beauftragung eines der 15 staatlichen Schulämter

5  Externe Evaluation – Konzeption und Implementation …

121

erfolgen. Den zuständigen SchulaufsichtsbeamtInnen ist damit offiziell die Möglichkeit eingeräumt, Schulen direkt für die Durchführung einer (individualisierten) externen Evaluation auszuwählen (1. Merkmal).15 Am Evaluationsverfahren selbst nehmen sie dann im Rahmen eines gemeinsamen Aufklärungsgesprächs mit der Schulleitung teil, bei der Ergebnispräsentation sind sie hingegen nur dann beteiligt, wenn eine Schule dies ausdrücklich wünscht. Der Ergebnisbericht geht ihnen als Basis für die Vereinbarung von Zielen (4. Merkmal) im Nachgang der Evaluation grundsätzlich zu (3. Merkmal). Ausgehend von den veröffentlichten Konzeptdokumenten ist somit für das zum Analysezeitpunkt allerdings nur sehr punktuell stattfindende Hessische Abrufverfahren durch die Schulaufsicht ein schulaufsichtliches Controlling deutlich erkennbar vorgesehen. Mecklenburg-Vorpommern bezieht die Schulaufsicht ebenfalls deutlich in sein Verfahren mit ein. Hier ist sie laut Angaben im Konzeptionspapier des Landesministeriums (2017) über eine datenbasierte Vorabeinschätzung bereits an der Schulauswahl beteiligt und kann hier auch gezielt Untersuchungsaspekte für die Evaluation der Einzelschule einbringen (1. Merkmal), zudem ist auch ihre Teilnahme an einem Rückmeldegespräch mit der evaluierten Schule fest vorgesehen (2. Merkmal). Bei besonderen schulischen Auffälligkeiten nehmen die SchulaufsichtsbeamtInnen nicht nur an dem Standardverfahren der vollständigen externen Evaluation teil, sondern sind zusätzlich auch an eintägigen, themenfokussierten Schulbesuchen beteiligt. Den Ergebnisbericht erhält die untere Schulaufsicht in Mecklenburg-Vorpommern ebenfalls grundsätzlich (3. Merkmal). Ergebnisbasierte Zielvereinbarungen zwischen den evaluierten Schulen und den SchulrätInnen sind zwar laut einer entsprechenden Information im bislang einzigen Bildungsbericht aus 2011 (S. 70) grundsätzlich vorgesehen, gemäß Auskunft des IQ M-V allerdings derzeit nicht fest institutionalisiert. In § 4 der Schulqualitätsverordnung ist entsprechend auch nur geregelt, dass die Schulen „auf der Grundlage der Evaluationsergebnisse Maßnahmen, insbesondere zur Weiterentwicklung des Unterrichts, fest[legen]. Die Maßnahmen und deren Umsetzung werden dokumentiert.“ Ob diese Vorgabe auch in gemeinsame, weiterzuverfolgende Vereinbarungen mit der Schulaufsicht mündet, unterliegt dabei jeweils individuellen Einzelfallentscheidungen der AufsichtsbeamtInnen. In Niedersachsen sind die schulfachlichen Dezernenten zum Auftakt des Verfahrens noch nicht für eine aktive Teilnahme vorgesehen. Die Auswahl der Schulen erfolgt derzeit unter rein laufzeittechnischen Gesichtspunkten, d. h. anstelle schulaufsichtlicher Einschätzungen zur Dringlichkeit eines Besuchs wird der zeitliche Abstand zum Besuchszeitpunkt an der Schule als Maßstab für eine Terminierung herangezogen. Auch an dem Vorgespräch mit der Schule zur Planung der Evaluation sind sie nicht beteiligt. Im Prozess selbst ist ihre Mitwirkung hingegen gleich zu zwei Zeitpunkten eingerichtet: So soll sie im Rahmen von Reflexionsgesprächen, die in dem niedersächsischen

15Entsprechende Nominierungen durch die staatlichen Schulämter sind laut Auskunft der befragten Landesvertretungen allerdings seit Abschaffung des Regelverfahrens kaum vorgenommen wurden.

122

J. Tarkian et al.

­ erfahren sowohl zur Mitte als auch zum Ende der 18-monatigen Fokusevaluation V stattfinden, jeweils in beratender Funktion teilnehmen (2. Merkmal). Die Dezernenten erhalten entsprechend auch grundsätzlich die Ergebnisberichte (3. Merkmal). Zugleich ist vorgesehen, dass der zuständige Dezernent spätestens drei Monate nach Ende der Evaluation den Zeitpunkt für den nächsten Evaluationsbesuch festlegt. Im weiteren Verlauf des Verfahrens erhalten die SchulaufsichtsbeamtInnen also ein explizites Entscheidungsrecht bei der Terminierung künftiger Evaluationen (1. Merkmal). Auch wenn ergebnisbasierte Zielvereinbarungen zwischen der Schulaufsicht und den Schulen weder im vorherigen noch im neuen Verfahren fest institutionalisiert sind, sondern nur auf Schulantrag erfolgen (Punkt 5 im Runderlass des MK v. 06.07.2014), lässt sich zusammenfassen, dass für die operative Schulaufsicht mit dieser Mitwirkungsplanung insgesamt eine Controllingfunktion zur Unterstützung der Schulentwicklung erkennbar ist. Schulaufsichtliche Mitbestimmung zeigt sich im Bayerischen Evaluationsverfahren etwas weniger deutlich. Bei der Schulauswahl ist für die Schulräte nur dann ein Eingreifen in den ansonsten rein rechnerisch festgelegten Besuchsplan vorgesehen, wenn formale Gründe (Schulleiterwechsel, Schulumbau o. ä.) gegen eine anstehende Evaluation sprechen. Auch im Rahmen des Eröffnungs- bzw. Vorgesprächs mit der Schule wie auch der abschließenden Berichtskonferenz ist eine Beteiligung der operativen Schulaufsicht nicht routinemäßig eingeplant. Der Bericht wird vom Evaluationsteam ausschließlich den schulischen Akteuren („Schulfamilie“) vorgestellt und geht der Schulaufsicht erst im Nachgang der entsprechenden Berichtskonferenz zu. Nach der Möglichkeit einer Stellungnahme durch die Schule wird den AufsichtsbeamtInnen dann die Endfassung des Ergebnisberichts inklusive eines gesonderten Bogens mit Angaben zur Schulleitung bzw. dem Schulmanagement zur Verfügung gestellt (3. Merkmal). Im Anschluss sollen die Daten gemäß Art. 113c IV BayEUG als Basis für eine Vereinbarung von Schulentwicklungszielen genutzt werden (4. Merkmal). Ein entsprechender Leitfaden für die Erstellung von Zielvereinbarungen wird für Schulleitungen und Verantwortliche der Schulaufsicht von der Qualitätsagentur zur Verfügung gestellt (Lankes und Huber 2014). In das laufende oder ein zusätzliches Evaluationsverfahren bei Schulen mit erkennbaren Entwicklungsdefiziten werden die Schulräte in Bayern nicht einbezogen. Die Einrichtung von Elementen schulaufsichtlichen Controllings ist auch im Saarland auf die zeitliche Phase nach Evaluationsende beschränkt; entsprechend sind ebenfalls nur zwei der vier genannten Bereichsfelder unter Beteiligung der Schulaufsicht konzipiert. Ausgehend von den analysierten Konzeptionsdokumenten sind sie weder bei der Auswahl der Schulen unter Dringlichkeitsgesichtspunkten stimmgebend,16 noch ist ihre Beteiligung während des laufenden Evaluationsprozesses vorgesehen. Auch die

16In

einer Vorabstimmung mit dem Evaluationsteam werden sie nur über die anstehende Evaluation informiert bzw. können ggf. aus aktuellen schulorganisatorischen Gründen auf eine Rückstellung des geplanten Besuchs hinwirken.

5  Externe Evaluation – Konzeption und Implementation …

123

Reflexion der Evaluationsergebnisse vor Ort erfolgt im Saarland als schulinterne Veranstaltung ohne eine vorgesehene Mitwirkung der Schulaufsicht. Für den hierzu eingerichteten „pädagogischen Tag“ wird stattdessen eine Moderation durch das ansässige Landesinstitut angeboten; den Schulen steht es alternativ frei, diesen Tag, der spätestens zwei Monate nach Übergabe des Endberichts stattfinden soll und eine entsprechende Ableitung von Entwicklungsmaßnahmen vorsieht, auch gänzlich eigenständig zu organisieren. Erst mit der Zusendung des Ergebnisberichts wird die operative Schulaufsicht planmäßig eingebunden (3. Merkmal). Bei dem spätestens zwei Monate danach erfolgenden obligatorischen Präsentationstermin im Saarländischen Ministerium für Bildung und Kultur, an dem die Schulleitungen die erarbeiteten Entwicklungsziele vorstellen17, ist sie – neben dem Evaluationsteam und dem örtlichen Personalrat – ebenfalls zur Teilnahme eingeladen (4. Merkmal). Infolge der nur in geringem Gesamtumfang und dabei inhaltlich auch wenig ausgearbeiteten Einsatzbeteiligung der operativen Schulaufsicht kann eine Controllingfunktion auch hier allenfalls in randständiger Konzeption festgestellt werden. Dem Schulfeedback-Verfahren in Schleswig-Holstein ist infolge der in diesem Land weder nach Erfordernisgesichtspunkten konzipierten Schulauswahl noch einer grundsätzlich vorgesehenen Berichterstattung an die Schulaufsicht und auch nicht fest institutionalisierter Zielvereinbarungen im Anschluss an die Evaluationen eine Controllingfunktion kaum zuzuordnen. In dem zur freiwilligen Durchführung vom IQSH angebotenen Verfahren wird – auch zur Stärkung der Teilnahmebereitschaft – vielmehr die schulische Datenhoheit betont. Auch während des laufenden Prozesses ist hier keine Beteiligung oder gar ein Eingreifen der SchulaufsichtsbeamtInnen vorgesehen. Nicht zuletzt mit Blick auf die Auswahl der eingesetzten Qualitätsdimensionen und dem methodischen Vorgehen zeigt sich, dass das dialogorientierte Verfahren in Schleswig-Holstein in besonderem Maße auf die Entwicklungsfunktion ausgerichtet ist. Unterstützungsmaßnahmen durch die Schulaufsicht, die an die Ergebnisrückmeldung anschließen, sind – ähnlich wie in Niedersachsen – nicht regelhaft konzipiert, sondern jeweils nach eigenem Ermessen flankierend vorzunehmen. Eine entsprechende Rechtsverordnung dazu existiert insofern hier auch nicht. Ob im Falle eines Beratungsgesprächs mit der Schulaufsicht Ergebnisse der externen Evaluation miteinbezogen werden, liegt damit letztlich im Entscheidungsspielraum der Beteiligten. Anders als in den übrigen Ländern ist in Schleswig-Holstein die Beratung und Unterstützung von Schulen zur Einleitung und Umsetzung von Entwicklungsvorhaben aber auch nicht der Schulaufsicht vorbehalten, sondern kann ebenfalls durch die MitarbeiterInnen des IQSH selbst erfolgen. Dazu werden vom Evaluationsteam „passgenaue Angebote zur Schul- und

17Vgl.

dazu auch den Saarländischen Erlass zur Durchführung eines pädagogischen Tages unter http://www.vorschriften.saarland.de/verwaltungsvorschriften/vorschriften/vv_03_05_1988.pdf. Zugegriffen: 15.01.2019.

124

J. Tarkian et al.

Abb. 5.4   Regelhaft vorgesehener Einbezug der operativen Schulaufsicht in die Verfahren externer Evaluation. (Länderauswahl zum Analysestichtag 31.01.2018)

Unterrichtsentwicklung gemacht, […] [die] auch in einer dauerhaften Prozessbegleitung bestehen“ können (Handbuch Schulfeedback.SH, 2016, S. 4). Abb. 5.4 fasst die Zuordnung der Länder zu den genannten Merkmalen einer Controllingfunktion nochmals zusammen.

5.2.3 Monitoringfunktion Neben der Qualitätsentwicklung der Einzelschulen und der zu ihrer Unterstützung einsetzbaren Controllingmaßnahmen können die Ergebnisse externer Evaluation auch für bildungspolitische Zwecke der Landesministerien bzw. der Senatsbildungsverwaltungen im Sinne einer (regionalen) Schulsystemsteuerung vorgesehen sein.

5  Externe Evaluation – Konzeption und Implementation …

125

In den Konzeptionsdokumenten der Länder finden sich in Teilen Aussagen, die verdeutlichen, dass die Inspektionsergebnisse für ein solches Bildungsmonitoring auf Systemebene auch vorgesehen sind. Nordrhein-Westfalen etwa spezifiziert auf der Website des Schulministeriums seine Absicht zur Qualitätssicherung des Schulsystems durch die „landesweite Auswertung der Ergebnisse der Qualitätsanalysen durch das MSW“18. Auch in einer vom IQ-MV 2015 erstellten Präsentation zur Konzeption des Instruments in Mecklenburg-Vorpommern wird die „Gewinnung gesicherter Informationen als Steuerungswissen zur Weiterentwicklung von Schule“ als ein Ziel externer Evaluation benannt. Im Berliner Handbuch zur Schulinspektion ist erläuternd festgehalten, dass neben der Anregung zu innerschulischen Entwicklungstätigkeiten

Inspektionsergebnisse auf Bezirks- und auf Landesebene zur Entscheidungsfindung und Steuerung von Reformprozessen beitragen [sollen]. Es geht also bei der externen Evaluation von Schulqualität um das System Schule – zunächst und direkt um jede einzelne Einrichtung, doch dann auch um verallgemeinerbare Aussagen zur Berliner Schule (BE_2012_Handbuch_Zweite_Runde_Schulinspektion_ in_Berlin, S. 3).

Im Rahmen einer kleinen Anfrage aus 2016 wird entsprechend informiert, dass „die Schulinspektion […] der Senatsverwaltung für Bildung, Jugend und Wissenschaft Ergebnisse der Schulen und thematische Auswertungen für das Bildungsmonitoring zur Verfügung“ stellt. Das Land Brandenburg wiederum betont in seinem Handbuch zur Schulvisitation mit Bezug auf den dort aktuell in den Blick genommenen Ausbau von Ganztagsschulen, dass

die Ergebnisse der Evaluation […] eine weitere Grundlage für das MBJS [sind], um bildungspolitische Entscheidungen zu treffen und gegebenenfalls die gesetzlichen Grundlagen und Rahmenbedingungen für ganztägige Bildungsangebote den veränderten Gegebenheiten anzupassen (BB_2017_Handbuch_zur_Schulvisitation, S. 5).

Das Kultusministerium in Hessen formuliert in seinem Handbuch zur Schulinspektion (2013) als ein Ziel der Schulinspektion, dass diese

18https://www.schulministerium.nrw.de/docs/Schulentwicklung/Qualitaetsanalyse/Stichworte. Zugegriffen: 24. Juli 2017.

126

J. Tarkian et al.

„auf übergeordneter Ebene, abgerückt von den Rückmeldungen an die Einzelschulen, […] Informationen in Form von aggregierten, d. h. unter bestimmten Gesichtspunkten zusammengefassten und anonymisierten Daten zur Verfügung [stellt], die einen Überblick über typische Qualitätsprofile hessischer Schulen bieten.“ Damit gibt die Inspektion „Rückmeldungen zur Qualität der Schulen auf Landesebene (Jahresberichte) und stellt Systemwissen für Steuerungsentscheidungen zur Verfügung (Monitoring-Funktion)“ (HE_2013_Handbuch_ Schulinspektion, S. 10).

Für die Hamburger Schulinspektion hält Norbert Maritzen in einem Beitragsband zum ersten Inspektionszyklus fest, dass diese zur Umsetzung jener Funktion auch „institutionell eingebunden worden [ist] in ein sukzessiv ausgebautes Bildungsmonitoring“ (Maritzen 2015, S. 17). Im Rahmen der vorliegenden Synopse soll Monitoring verstanden werden als Zusammenstellung aggregierter Ergebnisdaten, die über eine öffentliche Berichtslegung für die Systemebene aufbereitet sind. Eine solche Aufbereitung von landesweit oder lokal aggregierten Evaluationsergebnissen lässt sich als nachvollziehbare Grundlage für dateninformierte Steuerungsentscheidungen auf Ebene der obersten Schulaufsicht bzw. der Landesministerien verstehen. In der Praxis wird diese Berichtslegung von der Mehrzahl der Länder durch eine entsprechende Beauftragung ihrer Qualitätsagenturen bzw. Landesinstitute vorgenommen. Ergebnisdarstellungen speziell zur externen Evaluation finden sich aktuell in den Bildungsberichtslegungen und/oder in eigenen instrumentbezogenen Veröffentlichungen der Länder Berlin, Brandenburg sowie Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen und Nordrhein-Westfalen. Dabei erfolgt die Aufbereitung der Landesdaten in Mecklenburg-Vorpommern über komprimierte Teildarstellungen (beispielsweise zur Kompetenzorientierung im Schulalltag, der individuellen Förderung oder der Aktivierung der SchülerInnen im Unterricht) im Rahmen der Landesbildungsberichterstattung. Die Länder Niedersachsen, Hamburg, Hessen und Nordrhein-Westfalen stellen hingegen ihre Ergebnisse im Rahmen eigener (Jahres–)Berichtslegungen zur externen Evaluation dar. Berlin und Brandenburg wiederum setzen beide Varianten der Berichterstattung ein. Erkennbare Unterschiede bestehen bei den Ländern im Turnus der Veröffentlichung: Mancherorts existiert erst eine Berichtslegung (Landesbericht MV), in anderen Ländern sind hingegen theoretisch bereits Grundlagen für längsschnittliche Betrachtungen gelegt: Mit seinem Jahresbericht der Schulinspektion zum Schuljahr 2015/2016 hat etwa das Hamburger IfBQ im September 2017 den mittlerweile fünften Bericht in dem Stadtstaat vorgelegt, auch Berlin und Brandenburg sowie Hessen haben in den vergangenen Jahren regelmäßig berichtet. Der für Nordrhein-Westfalen einsehbare Bericht zur Qualitätsanalyse ist dagegen erst zweimal erschienen. Dargestellt werden in den Ausgaben von 2009 und 2016 dafür aber – neben detaillierten Angaben zum Verfahren und den zum Einsatz kommenden ­Teilinstrumenten – sehr umfangreiche Ergebnis-Analysen, mit denen neben den Schulen

5  Externe Evaluation – Konzeption und Implementation …

127

selbst vor allem die schulfachliche Aufsicht und die politisch Verantwortlichen im Land ausdrücklich adressiert werden (NW_2009_Qualitätsanalyse_in_Nordrhein-Westfalen, S. 4). Für Bayern sind inzwischen vier Landesbildungsberichte erstellt worden. Diese beinhalten allerdings keine konkreten Ergebnisse zur externen Evaluation, sondern beschränken sich auf Informationen zur Anzahl und Verteilung der jeweils evaluierten Schulen. Während in der Handreichung zum Instrument zwar darauf hingewiesen wird, dass jenseits der Entwicklungsfunktion „externe Evaluation […] zum anderen Informationen für Verbesserungsmöglichkeiten auf Systemebene bereitstellen“ soll und dazu „die Qualitätsagentur […] nach Abschluss der Evaluation ebenfalls Zugriff auf den Bericht“ erhält und „die Informationen zur Weiterentwicklung der Verfahren sowie für statistische Analysen“ nutzt, ist aber von einer Veröffentlichung im Rahmen der Bildungsberichte Abstand genommen worden. Als zentrale Berichtsinstanz für die Zusammenstellung von Ergebnissen dienen hier nach Auskunft der Landesexperten stattdessen regelmäßige Zusammenfassungen der Qualitätsagentur an das Ministerium und die regionale Schulaufsicht, die allerdings nicht öffentlich einsehbar sind. Für die hier durchgeführte Dokumentenanalyse konnten diese somit nicht mitberücksichtigt werden. Schleswig-Holstein und das Saarland beziehen im Rahmen ihrer öffentlichen Berichtslegungen ebenfalls keinerlei entsprechende Ergebnisauswertungen mit ein, die für eine evidenzbasierte Entwicklung bildungspolitischer Maßnahmen herangezogen werden könnten. Zwar wird für das Saarland in einem wissenschaftlichen Gutachten zum Verfahren kommuniziert, dass „Auswahl und Umfang der erfassten Informationen […] Aussagen zur Qualität von Schule und Unterricht [ermöglichen und] Informationsbedarfe des Auftraggebers (Ministerium) und der übrigen Anspruchsberechtigten […] durch angemessene Rückmeldeverfahren berücksichtigt [werden]“ (Wissenschaftliche Begutachtung der Universität Erfurt aus 2016, S. 8). Diese sind allerdings zumindest nicht im Rahmen klassischer (Bildungs–)Berichtslegung einsehbar. Schleswig-Holstein meldet in seinem letzten Landesbericht nur die Anzahl und Verteilung der Schulen, die sich für eine Teilnahme am Schulfeedback entschieden haben, nicht aber Ergebnisse zur festgestellten Schulqualität bzw. Entwicklungsbedarfen. Spezielle Berichtslegungen zu dem Instrument lassen sich in Schleswig-Holstein und dem Saarland nicht finden. In einer Publikation aus dem Jahr 2016 stellt Niedersachsen Ergebnisse aus dem früheren Verfahren der Schulinspektion in einem eigenen Berichtsformat dar. Eine neue Berichtslegung zur Fokusevaluation wird voraussichtlich im Jahresverlauf 2018 erscheinen – dort soll die bisher vorgenommene Veröffentlichung aggregierter Ergebnisse der externen Evaluation voraussichtlich auch analog weitergeführt werden, wie im Erlassentwurf des Niedersächsischen Kultusministerium vom 15.03.2018 ausgewiesen ist (Punkt 1, Abs. 4).

128

J. Tarkian et al.

5.2.4 Informationsfunktion Jenseits der Entwicklungsfunktion sowie der sie flankierenden schuladministrativen Controllingmaßnahmen und eines für informierte Steuerungsentscheidungen eingerichteten Bildungsmonitorings können externe Schulevaluationen aber auch der Information weiterer Anspruchsgruppen über die Qualität der Einzelschule dienen. Mit einer Offenlegung des einzelschulischen Ergebnisberichts gegenüber Gremienmitgliedern, Schülern, Eltern oder schulischen Kooperationspartnern kann den Erwartungen dieser Personengruppen nach Transparenz und schulischer Rechenschaftslegung entgegengekommen werden (Peters 2015, S. 362). Damit steht ihnen beispielsweise im Falle entsprechender Wahlfreiheiten, die vor allem im weiterführenden Schulbereich eine Rolle spielen, im Sinne einer Marktlogik eine Basis für Schulwahlentscheidungen zur Verfügung (Harris und Herrington 2006, S. 221). Erhalten sie Einblick in die festgestellte Qualität „ihrer“ Einzelschule sind zudem Grundlagen für eine elterliche Mitwirkung im Sinne einer zielgerichteten Schulentwicklung geschaffen (Peters 2015). Dabei lassen sich in den meisten Ländern schriftlich formulierte Grundsätze zumindest für eine schul-/gremienöffentliche Bekanntmachung der Ergebnisberichte finden, die teilweise von den Landesverwaltungen auch ausdrücklich, d. h. durch entsprechende rechtliche Vorgaben geregelt sind. So ist in Hamburg eine innerschulische Ergebnisvorstellung durch den Schulleiter vorgesehen, die als öffentliche Veranstaltung insbesondere auch die Eltern- und Schülerschaft miteinschließt. Ein solches Vorgehen wird in dem Stadtstaat schulgesetzlich durch § 32, Absatz 1, Satz 8 in der Regelung der Informationsrechte für Erziehungsberechtigte und Schüler festgelegt. Berlin weist in seinem Handlungsrahmen zur Schulqualität darauf hin, dass der Inspektionsbericht den schulischen Gremien und der Schulöffentlichkeit bekannt zu geben ist (S. 41) und sichert diese Praxis zugleich in § 5 II der Verordnung über schulische Qualitätssicherung und Evaluation, während Brandenburg in einem vom MBJS und der Schulvisitation gemeinsam herausgegebenen Informationspapier gleichermaßen klarstellt, dass der Bericht der gesamten Schulgemeinschaft zur Verfügung stehen soll (2012). Die entsprechende Informationspflicht des Schulleiters ist in § 5 III der Brandenburger Verwaltungsvorschrift zur Schulvisitation geregelt. Das Saarländische Ministerium weist die Schulen an, die Ergebnisse im Sekretariat für die Schulöffentlichkeit vorzuhalten und überlässt ihnen dazu entsprechende Ausdrucke, sodass letztlich jedes Elternteil im Saarland den Bericht „seiner“ Schule einsehen bzw. ausleihen können sollte. Eine Rechtsgrundlage dafür ist nicht gegeben, die Adressierung der Elternschaft wird aber in einer ministeriellen Kurzdarstellung (2015) entsprechend aufgeführt. In Mecklenburg-Vorpommern sieht das Ministerium für Bildung, Wissenschaft und Kultur gemäß einem Konzeptpapier zur internen und externen Evaluation für allgemeinbildende Schulen in öffentlicher Trägerschaft analog vor, dass der „Bericht […] der Schulleitung übergeben und […] durch sie verpflichtend der Schulkonferenz

5  Externe Evaluation – Konzeption und Implementation …

129

(­einschließlich Schulträger) vorzustellen“ ist19; hier sind also zumindest ausgewählte Elternvertreter zu informieren. Ein entsprechendes Vorgehen ist durch die Schulqualitätsverordnung des Landes seit 2015 auch rechtsverbindlich geregelt. Eine Berichtsübermittlung, die über die Schulkonferenz, den Schülerrat und die Schulpflegschaft hinausgeht, ist gemäß der Qualitätsverordnung in Nordrhein-Westfalen nur mit Zustimmung der Schulkonferenz zulässig. Ähnlich verhält es sich in Hessen, wo geregelt ist, dass der Schulleiter den Bericht der Schulkonferenz zur Kenntnis zu geben hat20. In Niedersachsen ist eine entsprechende Weitergabe an die schulischen Gremien per Runderlass21 vorgesehen, zugleich ist der Schulelternrat und Schülerrat über die Ergebnisse zu informieren. Auch hier sind also (ausgewählte) Eltern und Schüler planmäßig in Kenntnis zu setzen. Die Bayerische Landesregierung betont in der 2010 erstellten Handreichung, dass „alle Personengruppen an einer Schule, die zur externen Evaluation ansteht, […] über die Evaluationsmethoden und -instrumente, die zum Einsatz kommen, informiert [werden]. Durch diese Transparenz können Betroffene zu Beteiligten werden, nicht nur Lehrkräfte, sondern auch Schüler und Eltern.“ Zu den Resultaten selbst wird im Weiteren formuliert: „Etwa eine Woche nach den Schulbesuchstagen wird der Bericht vom Evaluationsteam an der Schule vorgestellt. In einer Konferenz mit Lehrerkollegium, Schülervertretern, Vertretern der Eltern bzw. Ausbildungsbetrieben und einem Vertreter des Sachaufwandsträgers präsentiert das Team seine Bewertungen und klärt Verständnisfragen“ (ebd.). Eine durch Rechtsnormen verankerte Verpflichtung zur schulöffentlichen Bekanntgabe in der Berichtskonferenz existiert hier nicht. Die Rückmeldungen zum Schulfeedback aus Schleswig-Holstein sind laut Darstellung im Verfahrenshandbuch (2016) für eine Vorstellung im Rahmen der Lehrerkonferenz vorgesehen, die Information der Schulkonferenz erfolgt zudem durch die Schulleitung, ggf. mithilfe des Evaluationsteams. Eine juristische Grundlage, die eine Benachrichtigung von Eltern vorschreibt, ist in den herangezogenen bildungsrechtlichen Dokumenten nicht auffindbar. Ob die Einzelschulergebnisse der externen Evaluation in Gestalt eines schulischen Endberichts auch über die schulischen Organisationsgrenzen hinaus, z. B. auf der Schulhomepage, veröffentlicht werden, wird in den Ländern – wie bereits angesprochen – zumeist den Schulen freigestellt und kann entsprechend von der Schulkonferenz beschlossen werden. Für Berlin, Brandenburg und Nordrhein-Westfalen ist dies auch im

19Konzept zur internen und externen Evaluation an allgemeinbildenden Schulen in öffentlicher Trägerschaft („Selbstständige Schulen“) in Mecklenburg-Vorpommern aus dem Juni 2017, S. 5. 20Siehe § 3 VIII QA-VO; Erlass „Zweite Inspektion hessischer Schulen“ v. 20. 08.2010. 21NI 4.3 RdErl v. 16.07.2014.

130

J. Tarkian et al.

Rahmen entsprechender Vorschriften bzw. Verordnungen22 festgehalten. Eine Ausnahme bildet in dieser Frage Bayern. In der bereits zitierten Handreichung wird ausdrücklich darauf hingewiesen, dass

der Evaluationsbericht […] Grundlage für interne Maßnahmen der Schulentwicklung und kein Instrument für die Außendarstellung von Schulen [ist]. Er darf deshalb nicht veröffentlicht werden. Er wird im Wortlaut nur der Schule und der Schulaufsicht zur Weiterarbeit überlassen. Eine Besonderheit stellen die Passagen des Berichts dar, die den klaren Zuständigkeitsbereich des Sachaufwandsträgers, also die Ausstattung der Schulen, betreffen. Diese Passagen dürfen in Auszügen im Wortlaut an den Vertreter des Sachaufwandsträgers weitergegeben werden (BY_ ISB/Staatsministerium_2010_Externe Evaluation an Bayerns Schulen – das Konzept, die Instrumente, die Umsetzung, S. 34).

Demgegenüber ist in Berlin, Brandenburg und Hamburg seit einigen Jahren eine schulscharfe Veröffentlichung der Ergebnisberichte obligatorisch.23 Entsprechende Kurzberichte, die nach datenschutzrechtlichen Grundsätzen erstellt sind und in diesem Sinne prinzipiell keine Angaben zum Schulleitungshandeln bzw. der professionellen Tätigkeit jeglicher Einzelpersonen enthalten, werden von den zuständigen Einrichtungen kurze Zeit nach Abschluss der Evaluation direkt in dafür vorgesehene Datenbanken eingespeist, die für jeden Interessierten über das Internet einsehbar sind. Für Berlin und Brandenburg können sie dann in sog. Schulporträts neben verschiedenen schulstatistischen Daten und Ergebnissen aus Abschlussprüfungen oder Daten zur internen Schulentwicklungsarbeit abgerufen werden24 Dabei erläutert Berlin in seinem Handbuch zur Schulinspektion die Entscheidung der Senatsbildungsverwaltung zur öffentlichen Darstellung sämtlicher Berichte explizit im Sinne der „Förderung eines Qualitätsverständnisses eigenständiger Schulen“, das in einer „Transparenz und Rechenschaftslegung über die Programmatik der Schulentwicklung und das Erreichen oder Nichterreichen von Zielen als selbstverständlichen Bestandteil der eigenen Arbeit“ zum Ausdruck komme.

22BE: § 5 III Verordnung über schulische Qualitätssicherung und Evaluation; BB: § 6 I VV-Schulvisitation; NW: § 3 IX QA-VO. Für BE und BB gilt darüber hinaus allerdings eine grundsätzliche Veröffentlichungspflicht von Kurzberichten durch die Schulbehörde bzw. die Schulvisitation (BE: § 5 IV Verordnung über schulische Qualitätssicherung und Evaluation; BB: § 6 II VV-Schulvisitation). 23Dies ist für BE ebenfalls in § 5 III Verordnung über schulische Qualitätssicherung und Evaluation geregelt. Im Hamburger Schulgesetz ist dies in § 100 Abs. 1 S. 2 festgelegt. BB regelt dies in § 6 II der VV-Schulvisitation. 24Vgl. https://www.bildung.berlin.de/Schulverzeichnis/Index.aspx und https://bildung-brandenburg.de/schulportraets/index.php?id=71. Zugegriffen: 15.01.2019.

5  Externe Evaluation – Konzeption und Implementation …

131

Eine grundsätzliche Gesamtdarstellung aller Schulergebnisse der zweiten Inspektionsrunde wird entsprechend als konsequente Folge benannt (Berliner Handbuch zur Schulinspektion von 2012, S. 12). In Hamburg sind für eine analoge Gewährleistung von Transparenz und Ergebnisverantwortung jeweils 5- bis 6-seitige Kurzberichte auf einer Website der Senatsbildungsverwaltung zur Einsicht für die Öffentlichkeit hinterlegt.25

5.3 Zusammensetzung und Qualifizierung des Evaluationsteams 5.3.1 Teamstärke Mit Blick auf die Umsetzung der Erhebungen in den Schulbesuchen vor Ort sind personelle Ressourcen in den Inspektoraten erforderlich. Dabei bestehen hinsichtlich der Vorgaben zur Personalstärke in den Evaluationsteams geringfügige Unterschiede zwischen den Ländern: Während in Berlin und Bayern grundsätzlich Teams aus 3 + 1 Personen zusammengestellt werden und auch Mecklenburg-Vorpommern für seine vollständigen Evaluationsbesuche prinzipiell vier EvaluatorInnen vorsieht, ist im Jahresbericht der Schulinspektion als Vorgabe für Hamburg eine Mindestanzahl von drei Personen pro Team formuliert. Brandenburg, Hessen, Niedersachsen, Nordrhein-Westfalen sowie das Saarland und Schleswig-Holstein gehen gemäß ihrer konzeptionellen Bestimmungen von (nur) mindestens zwei Personen aus. Dabei gilt für diese Länder, dass grundsätzlich – gerade bei größeren Schulen bzw. erweiterten Auftragsinhalten, die ein erhöhtes Maß an Unterrichtsbesuchen bedingen – zusätzliche, fachlich qualifizierte Personen hingezogen werden können.

5.3.2 Qualifikation der EvaluatorInnen In allen Ländern werden für die Durchführung der Evaluationen vorrangig erfahrene Schulpraktiker (Leitungspersonal wie Lehrkräfte), Seminarleiter, Studienleiter bzw. sonstige Personen aus den Unterstützungssystemen eingesetzt. Dabei gilt zumeist der Grundsatz, dass mindestens ein Teammitglied selbst aus der zu evaluierenden Schulform stammt. Zudem wird in der Regel ein Teamleiter benannt (teilweise auch bekannt als „Qualitätsprüfer 1“), der die Evaluation federführend leitet. Unterschiede zeigen sich in den Ländern allerdings hinsichtlich der Frage, ob auch Personen in den Teams beteiligt sein sollen, die aus der Schulaufsichtsebene stammen. Während Berlin, Brandenburg und

25http://www.hamburg.de/inspektionsberichte/.

Zugegriffen: 15.01.2019.

132

J. Tarkian et al.

Mecklenburg-Vorpommern eine Beteiligung von (ehemaligen oder aktiven) SchulaufsichtsbeamtInnen vorsehen26 und in Nordrhein-Westfalen die Mitwirkung eines BeamtInnen der Schulformaufsicht zumindest grundsätzlich weiterhin möglich ist, sehen Bayern, Hamburg, Niedersachsen, das Saarland und Schleswig-Holstein eine solche Beteiligung ausdrücklich nicht vor. Eine Besonderheit bei der qualifikatorischen Zusammensetzung des Evaluationsteams findet sich zudem in Berlin und Bayern mit der „ +1-Regelung“: Diese beiden Länder haben grundsätzlich eine Erweiterung ihrer Kernteams um einen Ehrenamtlichen eingerichtet, der aus dem Bereich der Elternschaft, Wirtschaft oder Wissenschaft stammen kann. In Hessen kann das Team gemäß Inspektionshandbuch „gelegentlich ergänzt werden durch sogenannte Externe, d. h. Vertreter von Eltern- oder Schülerverbänden, der Wirtschaft oder der Wissenschaft, die das Verfahren um eine außerschulische Perspektive bereichern.“ Teamerweiterungen durch spezielle Mitglieder sind in anderer Weise auch im Saarland (betrifft hier nur den Sekundarbereich), in Mecklenburg-Vorpommern und in Schleswig-Holstein vorgesehen: In diesen Ländern erhalten die Schulleiter der zu evaluierenden Schulen die Möglichkeit, einen sog. kritischen Freund (bzw. „critical friend“) zu nominieren, der in der Regel als Schulleiter einer benachbarten bzw. dem Schulleiter anderweitig bekannten Schule tätig ist. Ziel dieser Beteiligung ist es, die (zum Teil fehlende) Schulleitungsperspektive im Team herzustellen und zugleich das Vertrauensverhältnis zwischen der evaluierten Schule und dem Evaluationsteam zu fördern. Hamburg, Niedersachsen, Saarland, Schleswig-Holstein und Mecklenburg-Vorpommern betonen zudem in ihren Konzeptionsbeschreibungen, dass im Einzelfall die Kernteams auch durch EvaluatorInnen erweitert werden können, die besondere fachliche (gerade mit Blick auf die Schulform) oder auch überfachliche Qualifikationen vorweisen. Bei spezifischen (z. B. fachdidaktischen) Fragestellungen können diese als ausgewiesene ExpertInnen entsprechend besonders geeignete und für die schulischen Praktiker in besonderem Maße akzeptierte Ansprechpartner sein. Formalrechtlich beschäftigt werden die EvaluatorInnen in manchen Ländern (HH, HE, NI, SL) im Kern in hauptamtlicher Tätigkeit, wobei zusätzliche FachexpertInnen punktuell und auf Honorarbasis mitherangezogen werden können. Der Großteil der Länder (BE, BB, NW, MV und SH) setzt sowohl feste/unbefristet tätige EvaluatorInnen als auch temporär abgeordnete Personen ein. In Berlin werden diese jeweils für drei oder sechs Jahre befristet mit der Aufgabe der Schulinspektion betraut. Der damit kontinuierliche Austausch zwischen Inspektionsaufgabe und Schulpraxis ist im Sinne einer Förderung von Wissens- bzw. Erfahrungstransfer ausdrücklich beabsichtigt. Die Bayerische Schulaufsicht wählt geeignete Teammitglieder direkt aus und meldet diese für das weitere Vorgehen an die Qualitätsagentur. Alle schulischen EvaluatorInnen erhalten hier

26Dabei handelt es sich allerdings nicht um die/den für die jeweilige Schule zuständige/n Schulrätin/Schulrat.

5  Externe Evaluation – Konzeption und Implementation …

133

pro Evaluation eine Deputatsermäßigung von einer Schulwochenstunde, bleiben aber mit mindestens einem Tag pro Woche an ihrer Schule tätig. Auch hier ist das Ziel ein kontinuierlicher Austausch zwischen Unterrichtspraxis und Evaluationserfahrung. In Hessen werden die auf Abruf stattfindenden Evaluationen durch SchulberaterInnen durchgeführt, die früher als InspektorInnen tätig waren und heute an den staatlichen Schulämtern als MitarbeiterInnen der Hessischen Lehrkräfteakademie beschäftigt sind.

5.3.3 Qualifizierung der EvaluatorInnen Mit Blick auf die Qualifizierungsbedingungen der EvaluatorInnen finden sich in den Ländern kleinere Unterschiede: Die Mehrzahl der Länder sieht für neue Teammitglieder eine kompetenzorientierte Basisqualifizierung vor, die sich entweder über einen Zeitraum von fünf bis sechs Monaten erstreckt (HH, NI, NW; in BE betrifft dies die Ehrenamtlichen) oder in Fortbildungseinheiten in Höhe von ca. 120 h zum Ausdruck kommt (BE, BB). Dabei sind üblicherweise in Abhängigkeit von der Vorqualifizierung der Personen verschiedene thematische Module zu durchlaufen, die teilweise an Qualifizierungseinheiten von Schulleitungsweiterbildungen geknüpft werden (MV) bzw. an vorhandene Weiterbildungsstudiengänge zum Schulmanagement gekoppelt sind (SH). Für die häufig parallel stattfindenden bzw. abwechselnd eingerichteten Praxisphasen ist in Hamburg, aber auch in Berlin und Niedersachsen ein Vor-Ort-Mentoring-­System eingerichtet: Erfahrene EvaluatorInnen/TeamleiterInnen begleiten neue Kollegen bei ihren ersten eigenständigen Inspektionstätigkeiten im Rahmen eines „shadowing“, bei dem die erfahrenen KollegInnen aus dem Hintergrund die ersten eigenständigen Schritte neuer EvaluatorInnen beobachten und diese dabei gegebenenfalls beratend unterstützen. Externe EvaluatorInnen, die eine Probezeit abzuleisten haben, vollenden diese mit einer selbstständig durchgeführten „Prüfungsevaluation“ (HH, NI) bzw. „Ausbildungsinspektion“ (BE). Auch in Nordrhein-Westfalen wird die Qualifizierung mit der Durchführung einer Qualitätsanalyse in eigener Verantwortung abgeschlossen; zudem sind für die EvaluatorInnen hier pro Jahr sechs feste Fortbildungstage und regelmäßige Dienstbesprechungen in den jeweiligen Bezirksregierungen vorgesehen. Das NLQ in Niedersachsen nutzt seine Dienstbesprechungen zum Austausch und der Vertiefung von Fragen, die im Rahmen der Evaluationen entstehen. Dazu zählen laut dem vergangenen Pilotierungsbericht aus 2016 vor allem „Abstimmungsvorgänge zum Anforderungsniveau“ sowie „grundlegende Anforderungen“, z. B. bei den Unterrichtsbeobachtungen. Der Einsatz des dazu entwickelten Beobachtungsbogens wird in diesem Rahmen über videogestützte Schulungen trainiert. Die Qualifizierung der MitarbeiterInnen, die heute das Schulfeedback-Verfahren in Schleswig-Holstein umsetzen, erfolgte aus organisatorischen Gründen bei der Hamburger Schul-inspektion. Dabei zählte zu der Ausbildung zugleich das Durchlaufen verschiedener Module des Studiengangs „Schulmanagement“ der Kieler Universität und des IQSH sowie ein „training on the fly“ in der Praxis unter Begleitung erfahrener

134

J. Tarkian et al.

­ valuatorInnen. Mecklenburg-Vorpommern kann für seine Evaluationen auf einen groE ßen Stab an bereits ausgebildeten SchulpraktikerInnen zurückgreifen, sodass Neuausbildungen nach Auskunft des Landesministeriums derzeit kaum erforderlich werden. Auch im Saarland und in Hessen werden aktuell keine neuen EvaluatorInnen qualifiziert, da hier ein bestehender Stamm an entsprechend qualifizierten MitarbeiterInnen zum Einsatz kommt. Informationen zum früheren Qualifizierungsverfahren liegen für diese beiden Länder nicht vor. Mit einer einwöchigen Grundqualifizierung, die durch ein halbwöchiges Weiterqualifizierungsmodul im ersten Tätigkeitsjahr der Evaluation ergänzt wird, wählt Bayern ein vergleichsweise kompaktes Qualifizierungsformat. Die Ehrenamtlichen werden durch die Schulaufsicht, die Qualitätsagentur und spezielle Evaluationspraktiker im Rahmen einer halbtägigen Maßnahme geschult. Zusätzlich finden in Bayern für alle EvaluatorInnen zweimal jährlich Tagungen statt, die der Fortbildung und dem fachlichen Austausch dienen.

5.4 Auswahl der Verfahrensbeteiligten aus der Schulpraxis 5.4.1 Auswahl der Schulen Festlegungen zur Teilnahme der Schulen an den Evaluationsverfahren können grundsätzlich auf verschiedenen Wegen erfolgen. Dabei sind freiwillige Meldungen der Schulen ebenso wie eine begründete Auswahl durch die sie betreuenden Schulräte, aber auch eine Auswahl nach einem mathematischen Algorithmus möglich. Ebenfalls sind Kombinationen der drei Auswahlprinzipien denkbar. Eine ausschließlich auf Schulwunsch erfolgende Durchführung externer Evaluation ist in Schleswig-Holstein vorgesehen. Selbst wenn im Einzelfall die operative Schulaufsicht einer Schule innerhalb ihres Regionalbereichs zu einer Teilnahme raten mag, liegt hier das Entscheidungsrecht letztlich eindeutig bei den Praktikern selbst. Über die entsprechende Konzeption des Schulfeedbacks als „freiwilliges Angebot für die Schulen“, für die sich die Schulen „bewerben“, wird vom Staatssekretär im Handbuch zu dem Verfahren informiert.27 Die Möglichkeit, sich freiwillig zur Teilnahme zu melden und dann vorrangig berücksichtigt zu werden, besteht aber gemäß entsprechender Darstellungen der Landesinstitutionen auch in Bayern, Nordrhein-Westfalen und Mecklenburg-­ Vorpommern sowie in Hessen mit seinem Abrufverfahren. Mit Hamburg, Berlin, Bayern, Nordrhein-Westfalen, Niedersachsen und dem Saarland hat allerdings der Großteil der Länder als zentrales Prinzip einen mathematischen Algorithmus für die Auswahl der zu evaluierenden Schulen definiert. Sofern aus der Schulsituation heraus keine besonderen Umstände gegen eine aktuelle Terminierung

27SH_Handbuch_Schulfeedback.SH_2016,

S. 3.

5  Externe Evaluation – Konzeption und Implementation …

135

sprechen (z. B. Leitungswechsel, Umbaumaßnahmen, anstehende Schulfusion o. ä.), werden dabei die Schulen ausgehend vom längsten zeitlichem Abstand zu ihrer letzten Evaluation ausgewählt. Hamburg und Niedersachsen betonen dabei allerdings, dass zugleich in jedem Schuljahr bei der Auswahl der Schulformen eine möglichst repräsentative Abbildung der Grundgesamtheit zu bilden ist, damit für die Landesberichtslegungen größere Verzerrungen bei der Darstellung vermieden werden. Eine gezielte Auswahl von Einzelschulen wird in Brandenburg und Mecklenburg-­ Vorpommern vorgenommen; in Hessen ist dies im Abrufverfahren durch die Staatlichen Schulämter zumindest möglich. Schulaufsichtliche Erkenntnisse und/oder entsprechende Dokumentationen zum Stand der schulischen Leistungsentwicklung werden dabei bei der Terminierung der Evaluation berücksichtigt. In Berlin, Brandenburg, Nordrhein-Westfalen, Hessen und Mecklenburg-Vorpommern (hier mit dem Instrument der eintägigen Schulbesuche) existieren zudem geplante Nach- bzw. Zusatzevaluationen, die stets auf sachbegründeter Basis – im Sinne einer Nachprüfung zum letztbekannten Leistungsstand der Schule – erfolgen.

5.4.2 Auswahl der zu beobachtenden Unterrichtseinheiten Auch mit Blick auf die Auswahl der beim Schulbesuch zu beobachtenden Unterrichtsstunden zeigen sich Unterschiede in den Länderverfahren. Diese reichen von einer Vollerhebung, bei der alle (Fokus-)Lehrkräfte oder Klassen besucht werden, über eine von den Schulen vorgeschlagene Auswahl bis hin zu einer alleinigen Festlegung durch das Evaluationsteam, die sowohl geplant als auch spontan erfolgen kann. Die externe Evaluation im Saarland, Niedersachsen und Schleswig-Holstein ist konzeptionell auf eine Vollerhebung aller Lehrkräfte ausgerichtet. Für die Verfahren in Niedersachsen und Schleswig-Holstein sind damit sämtliche Lehrkräfte einbezogen, die angesichts ihres Fächerzuschnitts oder ihrer Funktion dem gewählten Untersuchungsfokus zugehörig sind. Das Saarland bildet einen entsprechenden thematischen Verfahrenszuschnitt bislang nicht. Hier wird „eine Bestandsaufnahme der pädagogischen Qualität der Schule insgesamt“ anvisiert,28 sodass von einer tatsächlichen Vollerhebung des Kollegiums an jeder Schule auszugehen ist. In Bayern können die zu besuchenden Unterrichtsstunden – unter Berücksichtigung spezifischer Kriterien wie etwa der gleichmäßigen Verteilung auf die Jahrgänge – von den besuchten Schulen selbst vorgeschlagen werden, das Evaluationsteam wählt aus dieser Vorauswahl aus. Auch in Schleswig-Holstein können gemäß Auskunft des IQSH bei zusätzlichen Wahlschwerpunkten von den Schulen Vorschläge zum Besuch der Unterrichtsstunden erteilt werden, in Hessen stimmen sich die beauftragten SchulberaterInnen

28SL_2015_

Handbuch_Qualitätssicherung_durch externe Evaluation, S. 4.

136

J. Tarkian et al.

mit den Schulen ab. Brandenburg, Berlin, Hamburg, Mecklenburg-Vorpommern und Nordrhein-Westfalen sehen gemäß ihrer Konzeptionsdokumente vor, dass die Auswahl der zu evaluierenden Unterrichtsstunden durch das Evaluationsteam getroffen wird; Mitsprachemöglichkeiten für die Schulen werden hier nicht benannt. In Niedersachsen, Brandenburg und Mecklenburg-Vorpommern, aber auch Hessen wird betont, dass die Unterrichtsbesuche grundsätzlich nicht im Vorfeld kommuniziert, sondern erst vor Ort offengelegt werden und damit von den EvaluatorInnen auch spontan erweitert/verändert werden können.

5.4.3 Auswahl der GesprächspartnerInnen für die Interviews Auch mit Blick auf die Auswahl der InterviewpartnerInnen, mit denen die EvaluatorInnen vor Ort sprechen, unterscheiden sich die Länder. Mehrheitlich werden die GesprächspartnerInnen, die aus dem Kreis der Lehrkräfte, Eltern und SchülerInnen auszuwählen sind, durch die SchulpraktikerInnen selbst bzw. durch die schulischen Gremienmitglieder und VertreterInnen des Personalrats nominiert. Ein entsprechendes Vorgehen trifft auf die Länder Bayern, Hamburg, Hessen, Mecklenburg-Vorpommern (hier können allerdings in Abhängigkeit vom Evaluationszweck auch andere Auswahlregeln gelten), aber auch auf Niedersachsen, Nordrhein-Westfalen, Schleswig-Holstein und das Saarland zu. Für Berlin und Brandenburg ist festgelegt, dass das Evaluationsteam anhand bestehender Personenlisten autonom entscheidet – dies entspricht in der Praxis im Regelfall einer (kriteriengeleiteten) Zufallsauswahl.

5.5 Vorgesehene Untersuchungsbereiche/verwendete Qualitätstableaus Um bei einer externen Evaluation schulische wie unterrichtliche Prozesse trotz individueller Rahmenbedingungen der Einzelschulen auf Basis eines einheitlichen Qualitätsverständnisses in je ähnlicher Weise erfassen und beurteilen zu können, dienen in den Ländern die in Kap. 3 bereits in Umfang und Operationalisierungsgrad analysierten Referenzrahmen als grundsätzlicher Ausgangspunkt. In diesen zumeist als Orientierungs-,29 mitunter auch als Handlungs-,30 Evaluations-31 oder Referenzrahmen Schulqualität32 sowie auch direkt als Qualitätstableau33 bezeichneten Konzeptpapieren legen die Landesregierungen ihre Vorstellungen von ‚guter Schule‘ offen und schaffen damit

29So

genannt in BB, HH, NI, SH und SL. für den Referenzrahmen in BE. 31Bezeichnung in MV. 32Titel des Dokuments in NW. 33So die Begrifflichkeiten in BY. 30Bezeichnung

5  Externe Evaluation – Konzeption und Implementation …

137

für SchulpraktikerInnen einen Handlungs- und für EvaluatorInnen einen Bewertungsmaßstab, an dem die Qualität schulischer Arbeit gespiegelt bzw. vor Ort untersucht werden kann. Die Qualitätstableaus oder Inspektionsrahmen, die in den externen Evaluationsverfahren der Länder zum Einsatz kommen, können dabei entweder – wie in Bayern – deckungsgleich mit dem jeweiligen Landesreferenzrahmen sein oder nur spezifische Ausschnitte daraus als verbindliche Untersuchungsmerkmale vorsehen, wie es in Berlin, Brandenburg, Hamburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen und dem Saarland für seine Grundschulen34 der Fall ist. Das bayrische Tableau, das die vier Qualitätsbereiche ‚Rahmenbedingungen‘, ‚Prozessqualitäten Schule‘, ‚Prozessqualitäten Unterricht‘ und ‚Ergebnisse schulischer Arbeit‘ im klassischen Sinne der Produktionsfunktion unterscheidet, wurde direkt für die externe Evaluation entwickelt. Da es sich bei dem bayrischen Verfahren um eine umfassende Evaluation sämtlicher Merkmale schulischer Qualität handelt, existiert daneben kein eigener Referenzrahmen. Alle Kriterien und sogenannten Anforderungen, die zu diesen vier Bereichen aufgeschlüsselt sind, werden entsprechend grundsätzlich in jeder Evaluation untersucht und gehen teils bewertend, teils beschreibend in den schulischen Ergebnisbericht ein. Berlin und Nordrhein-Westfalen kennzeichnen ihre Auswahl obligatorischer Qualitätsbereiche durch eine farbliche Unterlegung im jeweiligen Landes-Referenzrahmen;35 für das Saarland sind entsprechende Hervorhebungen der ausgewählten Pflichtmerkmale zur exemplarischen Darstellung vom Autorenteam vorgenommen worden (siehe Abb. 5.4, 5.5, 5.6 und 5.7). Dabei wird für Berlin deutlich, dass der Inspektionsschwerpunkt im dritten Zyklus auf dem Unterricht sowie dem Schulleitungshandeln liegt, während Fragen der internen und externen Evaluation, der Schulkultur und -zufriedenheit sowie des Personalmanagements in den Hintergrund getreten sind. Das Thema ‚Inklusion‘ ist als Querschnittsthema modelliert – Indikatoren zu diesem Bereich sind in verschiedenen Qualitätsmerkmalen enthalten und werden grundsätzlich an allen Schulen verbindlich betrachtet. Nordrhein-Westfalen berücksichtigt bei seiner Qualitätsanalyse grundsätzlich nur drei der insgesamt fünf im Referenzrahmen Schulqualität enthaltenen Inhaltsbereiche. Die Bereiche 1 (‚Erwartete Ergebnisse und Wirkungen‘) sowie 5 (‚Rahmenbedingungen und verbindliche Vorgaben‘) sind in der Abbildung zum Qualitätstableau entsprechend gar nicht miterfasst und zählen damit ebenso wie einzelne Teilaspekte der übrigen Dimensionen nicht zu den standardmäßig evaluierten Themenfeldern. Die operative Schulaufsicht hat grundsätzlich die Möglichkeit, einzelne Untersuchungsmerkmale für die jeweilige Analyse hinzufügen zu lassen.

34Im Bereich der weiterführenden Schulen in SL waren zum Stichtag der Synopse die Schwerpunktsetzungen noch nicht offiziell festgelegt. 35Grün unterlegt ist hier der Kernbereich der verpflichtend vorgesehenen Untersuchungsgegenstände, die Gestaltung der Lehr- und Lernprozesse im Unterricht.

138

Abb. 5.5   Qualitätstableau der Berliner Schulinspektion

J. Tarkian et al.

5  Externe Evaluation – Konzeption und Implementation …

Abb. 5.6   Qualitätstableau der Qualitätsanalyse in Nordrhein-Westfalen

139

140

J. Tarkian et al.

Abb. 5.7   Qualitätstableau der Externen Evaluation im Saarland. (Grundschulbereich)

Mit Blick auf das Saarland zeigt sich, dass im zweiten Zyklus für die erneut besuchten Grundschulen der erste Qualitätsbereich ‚Ergebnisse der schulischen Arbeit‘ weitestgehend kein verpflichtender Evaluationsbestandteil mehr ist. Stattdessen sind mit den Bereichen ‚Schulmanagement und Qualitätsentwicklung‘, ‚Unterricht‘ und ‚Schulkultur‘ gewünschte Schwerpunktsetzungen vorgenommen worden (vgl. Abb. 5.7). Für die weiterführenden Schulen des Saarlands steht ein konzeptioneller Zuschnitt des Orientierungsrahmens noch aus. Auch für die Hamburger Schulinspektion wurden leichte Anpassungen des Referenzrahmens vorgenommen. Laut eines 2017 veröffentlichten Konzeptpapiers bilden die in der Gesamtdarstellung zur Schulqualität aufgeführten Teilbereiche 1.5 ‚Die Finanz- und Sachmittel gezielt einsetzen‘, 1.6 ‚Kommunikation nach innen und außen gewährleisten‘, 1.7 ‚Regionale Bezüge ermöglichen und die Vernetzung sichern‘, 1.8 ‚Organisatorische Rahmenbedingungen sichern‘, 2.9 ‚Regionale Vernetzung gestalten‘ und 3.1 ‚Kompetenzen‘ keine entscheidenden Bewertungsgrundlagen für die InspektorInnen und sind somit aus dem Tableau entfallen. Die Kriterien, die hingegen als verpflichtend festgelegt wurden, sind für alle Schulformen in dem Stadtstaat zum Einsatz vorgesehen (vgl. Abb. 5.8). Brandenburg stellt seine Auswahl verpflichtender Profilmerkmale in Anlage 3 des Handbuchs Schulvisitation (2017) analog zu der Hamburger Darstellung tabellarisch mit Bezug auf ihre Verankerung im Orientierungsrahmen Schulqualität dar. Dabei ­werden

5  Externe Evaluation – Konzeption und Implementation …

141

Quelle: Mod. nach IfBQ-Jahresbericht der Schulinspektion Schuljahr 2015 / 2016, S. 19

Abb. 5.8   Qualitätstableau der Hamburger Schulinspektion

die sechs Basismerkmale ‚Unterricht‘, ‚Schulmanagement‘, ‚Qualitätsentwicklung‘, ‚Förderung‘, ‚Professionalisierung der Lehrkräfte‘ und ‚Schulformspezifik‘ infolge einer neuen bildungspolitischen Schwerpunktsetzung im Land um das frühere Wahlmerkmal ‚Medien‘ als einem siebten obligatorischen Untersuchungsbereich ergänzt. Aspekte der im Brandenburger Orientierungsrahmen (2016) außerdem vorhandenen Qualitätsbereiche ‚Schulkultur‘ und ‚Ergebnisse der Schule‘ sind im Rahmen der Visitation hingegen nicht mehr zwingend zu erfassen. Auf Hinweis der zuständigen Schulräte können allerdings einzelne Merkmale hinzugefügt werden. Über den Pflichtbereich hinausgehende Qualitätsmerkmale kommen in den vorgenannten Ländern nur noch unter bestimmten Voraussetzungen zum Einsatz, etwa wenn es sich um Wahlmerkmale handelt, die von den schulischen Anspruchsgruppen

142

J. Tarkian et al.

nach eigenem Ermessen hinzugefügt werden können (wie in BE,36 BB, NW und SL der Fall) oder wenn ihr Einsatz an besondere schulspezifische Rahmenbedingungen bzw. Umstände gebunden ist: Etwa an der Schulform37 oder dem früheren Inspektionsergebnis, das speziell für Berliner Schulen mit erheblichem Entwicklungsbedarf eine Untersuchung zusätzlicher Indikatoren des Qualitätsmerkmals 1.3 (= ‚Externe Evaluation‘) auslöst. Darüber hinaus kann in Berlin auch die untere Schulaufsicht für einzelne Schulen gezielt Untersuchungsmerkmale ergänzen lassen oder es werden Bereiche vom Inspektionsteam selbst hinzugefügt, zu denen sich im Rahmen der schriftlichen Vorabbefragungen (vgl. Abschn. 5.6.2) Auffälligkeiten gezeigt haben. Ein entsprechendes Mitspracherecht der Schulaufsicht bei der Zusammenstellung der Untersuchungsmerkmale wird auch den SchulrätInnen in Mecklenburg-Vorpommern grundsätzlich eingeräumt. Sofern keine besonderen Auffälligkeiten bestehen, die eine entsprechende Hinzunahme von Merkmalen erforderlich erscheinen lassen,38 sind für die dortige „vollständige Evaluation“ derzeit die Qualitätsbereiche 2 (‚Unterricht‘) und 4 (‚Schulmanagement‘) verpflichtend zum Einsatz vorgesehen; weitere Aspekte werden jeweils auf Anforderung der besuchten Schule hinzugefügt. Der 2006 für Mecklenburg-Vorpommern veröffentlichte Kriterienkatalog zur Erfassung von Schulqualität, der insgesamt sechs Qualitätsbereiche unterscheidet, ist auf dem Landesbildungsserver als Konzeptpapier aktuell noch abrufbar,39 befindet sich aber nach Auskunft des Ministeriums in Überarbeitung. Eine aktuellere Version des Qualitätsrahmens sowie eine gesonderte Aufbereitung eines Qualitätstableaus für die externe Evaluation ist zum Stichtag allerdings nicht öffentlich verfügbar. Auch in Niedersachsen und Schleswig-Holstein existieren derzeit keine eigens im Instrumentzusammenhang veröffentlichten Qualitätstableaus. Stattdessen orientieren sich bei den hier stärker durch die Schulen akzentuierbaren Verfahren die EvaluatorInnen in ihrem Vorgehen primär an den Qualitätskriterien, die in den jeweiligen Landes-Referenzrahmen für den Schwerpunkt ‚Lehren und Lernen‘ operationalisiert sind.40 Neben diesem in beiden Ländern einzig verpflichtend durchzuführenden 36Auf

Wunsch der Schule kann im dritten Zyklus stets ein Wahlmerkmal ausgesucht werden, das nur der Schule selbst zurückgemeldet, aber nicht in der Kurzform des Ergebnisberichts veröffentlicht wird. Unter diesem Schutz erhofft man sich, dass die Schulen, die bisher überwiegend Merkmale gewählt haben, zu denen sie eine positive Rückmeldung erwarten, ihre Bereitschaft verstärken, auch „blinde Flecken“ aufzudecken. 37Diese ist in BB als Basismerkmal mitkonzipiert, wohingegen sie in dem modularisierten Berliner Verfahren seit kurzem mit den E-Merkmalen abgedeckt wird. 38Dies können etwa Beschwerden schulischer Anspruchsgruppen sein oder Auffälligkeiten in der Leistungsentwicklung an der Schule. 39Siehe https://www.bildung-mv.de/export/sites/bildungsserver/downloads/Ext_Evaluation_GuteSchule.pdf. Zugegriffen: 15.01.2019. 40Diese sind abrufbar über: https://www.bildungsserver.de/Referenzrahmen-Schulqualitaet-10098-de.html. Zugegriffen: 06.02.2018.

5  Externe Evaluation – Konzeption und Implementation …

143

Untersuchungsbereich können die Schulen aber nach eigenem Ermessen zusätzliche Qualitätsdimensionen als Fokusthemen hinzufügen wie beispielsweise spezielle Fachschwerpunkte. Ausgangslage der externen Evaluation ist hier weniger ein Tableau fester Kriterien, die es in ihrer Gesamtheit zu untersuchen gilt, als vielmehr der konkrete Entwicklungsbedarf bzw. die Entwicklungsziele, die eine Schule für sich und im Austausch mit dem Evaluationsteam beispielsweise aus der Schulprogrammarbeit oder den Ergebnissen interner Evaluationsvorhaben heraus generiert. In Hessen hängt der inhaltliche Fokus der Evaluation von dem jeweiligen Auftraggeber-Interesse (Schule oder Schulaufsicht) ab. Ein standardisiertes Vorgehen existiert hier nicht, mit Blick auf die schulischen Entwicklungsbedarfe wird jeweils ein individualisiertes Vorgehen festgelegt. Anders als in den übrigen hier betrachteten Ländern, in denen die Qualitätsdimension ‚Unterricht‘ fest zum Einsatz für jede Evaluation vorgesehen ist, muss in Hessen auch der Qualitätsbereich ‚Lehren und Lernen‘ nicht zwangsläufig zum Einsatz kommen.

5.6 Eingesetzte Teilinstrumente im Gesamtprozess Anders als die Vergleichsarbeiten (VERA), für die vergleichsweise feste Terminzyklen bei der Durchführung und Datenrückmeldung gelten, können sich die Verfahren externer Evaluation bereits in ihrem zeitlichen Ablauf erkennbar voneinander unterscheiden. Dabei ist der Umfang des Gesamtprozesses hier zu verstehen als der Zeitraum von der Erstbesprechung/Erstinformation der Schule bis zur Aushändigung des Endergebnisberichts an die Schulleitung. Sechs der zehn analysierten Länder (BY, BE, HH, HE, MV, SL, SH) sehen für diese Zeitspanne rund 12 bis 16 Wochen vor. Damit sind vergleichsweise komprimierte Evaluationskonzepte implementiert, die darauf abzielen, den Schulen ein zeitnahes Ergebnis zurückzumelden, sodass der Bezug zwischen Evaluationsprozess und Ergebnis eng bleibt und bewusst von der nachfolgenden Entwicklung getrennt wird. Brandenburg plant, vor allem um die Schulen bei ihrer Vorbereitung des Schulbesuchs zu entlasten, mittlerweile etwas mehr Zeit für seine Visitationsdurchgänge ein und geht für seinen dritten Zyklus von insgesamt 6–8 Monaten für den gesamten Verfahrensablauf aus. Niedersachsen sieht für sein Verfahren der Fokusevaluation einen zusätzlichen Besuchszeitpunkt der EvaluatorInnen sowie zwei schulische Arbeitsphasen von jeweils zehn und sechs Monaten innerhalb des Prozesses vor und kalkuliert insofern nun rund 18 Monate bis zum Abschluss des Verfahrens. Damit wird hier nun etwa fünf Mal so viel Zeit für den Evaluationsdurchgang eingeplant wie in den meisten anderen Ländern. Mit einer anvisierten Gesamtdauer von bis zu zweieinhalb Jahren räumt nur Nordrhein-Westfalen einen längeren Zeitrahmen für die externe Evaluation ein. Hier ist durch die Einführung einer neuen Vorphase ein zeitlicher Raum vor dem eigentlichen Schulbesuch geschaffen worden, der an sich schon bis zu zwei Jahre in Anspruch nehmen kann. Ausgehend von Hinweisen des Landesministeriums, die sich in den einschlägigen Konzeptpapieren zum

144

J. Tarkian et al.

Instrument finden lassen,41 ist diese Zeit gezielt für eine Phase der internen Reflexion/ internen Evaluation der Schulen in Vorbereitung auf die Qualitätsanalyse vorgesehen. In diesen beiden zeitlich recht umfangreichen Verfahren werden somit gezielt Zeiträume für eine Entwicklungsarbeit vor der eigentlichen Evaluation geschaffen bzw. für eine Begleitung und Unterstützung des Prozesses eingeräumt. Alle Verfahrensgänge starten grundsätzlich mit der Erstinformation bzw. Kontaktaufnahme zur anstehenden Evaluation, auf die ein Vorgespräch/Planungsgespräch mit der Schule folgt. In der anschließenden Phase werden üblicherweise von der Schule, z. T. in Verbindung mit dem Evaluationsteam, die jeweils erforderlichen Daten und Dokumente zusammengestellt. Zudem findet eine Fragebogenerhebung mit den zentralen schulischen Anspruchsgruppen (Lehrkräfte, SchülerInnen, Eltern, ggf. weiteres pädagogisches Personal) statt. Die Auswertung der Daten, Dokumente und Fragebögen erfolgt noch vor dem eigentlichen Schulbesuch, der – je nach Konzeption des Verfahrens und der ­Schulgröße – zwischen zwei und fünf Tagen dauert. Im Anschluss an den Schulbesuch werden die Gesamtdaten vom Evaluationsteam ausgewertet und (aggregierte) Ergebnisse zurückgemeldet. Dabei wird ein entsprechender Rückmeldebericht erstellt, der den Schulen sowie ggf. weiteren Akteuren zur Verfügung gestellt wird, um Maßnahmen zur Schul- und Unterrichtsentwicklung einzuleiten bzw. voranzutreiben. In den Verfahren aller Länder kommen mit a) Daten- und Dokumentenanalysen, b) (Online-)Befragungen, c) einem Schulrundgang, d) Unterrichtsbesuchen und e) Interviews mit allen am Schulleben beteiligen Gruppen innerhalb des Evaluationsprozesses prinzipiell die gleichen Teilinstrumente zum Einsatz. Es bestehen allerdings Unterschiede hinsichtlich des Umfangs, des Standardisierungsgrades und auch der inhaltlichen Schwerpunktsetzung der Datenerhebungen. In manchen Konzeptionen sind – etwa infolge eines entsprechenden Feedbacks durch die Schulen nach früheren Durchgängen – zudem Teilinstrumente konzeptionell angepasst worden bzw. gelangen derzeit nicht (mehr) zur Umsetzung.

5.6.1 Daten- und Dokumentenanalysen Die meisten Länder fordern im Vorfeld des Schulbesuchs verschiedene Unterlagen von den zu evaluierenden Schulen ein. Die Analyse dieser Angaben bzw. Dokumente wird von den EvaluatorInnen zumeist zur Vorbereitung des Schulbesuchs vorgenommen oder

41Vgl.

Schule NRW 10/2013 zur Neuausrichtung der Qualitätsanalyse unter https://www.schulministerium.nrw.de/docs/Schulentwicklung/Qualitaetsanalyse/Download/Qualitaetsanalyse-allgemein/Neuausrichtung-der-Qualitaetsanalyse.pdf. Zugegriffen: 14.02.2019.

5  Externe Evaluation – Konzeption und Implementation …

145

erfolgt während des Besuchszeitraums, um informierte Abstimmungsmaßnahmen zu gestalten oder die Angaben zur direkten Verwendung für den Ergebnisbericht nutzen zu können. Dabei sind in manchen Ländern recht umfangreiche Zusammenstellungen erforderlich, während andere Länder die Bereitstellungspflicht für die Schulen bewusst geringhalten bzw. stark eingeschränkt haben. Für Berlin gilt entsprechend gemäß aktuellem Schulentwicklungsplan (2015), dass bereits im zweiten Inspektionszyklus

die Anzahl der Dokumente, die eine Schule dem Inspektionsteam zur Verfügung stellt, […] deutlich reduziert [wurde]. Innerhalb des zweiten Inspektionszyklus wird der Gestaltung der innerschulischen Prozesse ein deutlich größerer Wert beigemessen als der Verschriftlichung in Form von Konzepten. Verbindlich reichen die Schulen nun vor einer Inspektion ihr Schulprogramm, Ergebnisse der internen Evaluation sowie das schulinterne Curriculum ein. Während der Inspektion liest das Team weitere Dokumente der Schule, insbesondere die Gremienprotokolle (BE_02.07.2015_Schulentwicklungsplan, S. 36).

Die drei genannten Dokumentgattungen sind laut Auskunft der befragten Berliner Landesvertretung auch für den derzeit laufenden, dritten Zyklus obligatorisch. Dabei steht mittlerweile das schulinterne Curriculum im Zentrum der Analysen. Da Schulen dieses teilweise in ihr Schulprogramm integrieren, fragen die InspektorInnen grundsätzlich beide Dokumente bei den Schulleitungen ab. In Brandenburg werden neben dem Schulprogramm auch im dritten Zyklus weiterhin sämtliche an der Schule vorhandenen Konzeptpapiere und Entwicklungs-Vereinbarungen zur Einsicht angefordert, dazu zählen auch die letzten Protokolle der Gremien sowie Lernentwicklungspläne. Die als „Schulreport“ von den Schulleitungen zusammenzustellenden Unterlagen sind zehn bis elf Wochen nach der Teilnahmebenachrichtigung an das Visitationsteam zu senden und können gerade bei größeren Schulen einen sehr umfangreichen Dokumentenkorpus bilden. Auch bayerische Schulen sind angewiesen, im Rahmen der externen Evaluation breite Einsicht in ihre Dokumentationen zu gewährleisten: Dazu geht den Schulen im Vorfeld ein mehrseitiges schulformspezifisches Datenblatt zu, das entsprechende Angaben und Dokumente bei den Schulleitungen erfragt (vgl. Abb. 5.9). Manche der erforderlichen Daten wie die Ergebnisse der VERA- und Orientierungsarbeiten werden dabei automatisch eingespielt, alle weiteren im sog. Schulportfolio zusammenzustellenden Dokumentationen sind den EvaluatorInnen im Vorfeld der Schulbesuchstage zur Verfügung zu stellen. Mecklenburg-Vorpommern arbeitet ebenfalls mit einem Schulportfolio, in das zahlreiche Dokumente zur evaluierten Schule eingehen können (vgl. Abb. 5.10). Dabei wird hier zwischen einer verpflichtenden und einer optionalen Bereitstellung unterschieden: Während gerade Planungspapiere verbindlich vor der Evaluation einzureichen sind, müssen andere Dokumente nur eingeschickt werden, sofern sie vorhanden sind. Eine dritte Gruppe von Dokumenten, zu denen vor allem Konzept- und Maßnahmenpapiere zählen,

146

J. Tarkian et al.

Zu den nun folgenden Prozessqualitäten von Schule und Unterricht legen Sie dem Schulportfolio bitte Nachweise über Ihre Schule bei. Es sind beispielhaft Dokumentationen aufgelistet, über welche eine Schule verfügen sollte.

Prozessqualitäten Schule Leitung der Schule

▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪

Protokollbogen Mitarbeitergespräch (Vorlage) Fortbildungsplan (inkl. schulinterne Fortbildungen, Pädagogische Tage) Liste der Unterstützungsangebote für Lehrkräfte (z. B. Supervision, Kollegiale Beratung, Coaching) Sprechzeiten der Schulleitung Verfahrensbeschreibung für die Einführung / Betreuung neuer Kollegen/-innen Leitbild / Maßnahmenplan Dokumentation von Beschlüssen (Dokumentationsbogen) Übersicht über Aufgabenverteilung / Zuständigkeiten der Lehrkräfte Aufgabenbeschreibungen für Funktionen Geschäftsverteilungsplan der Schulleitung Erfahrungsberichte / Best-Practice-Dokumentationen Richtlinien für die Vergabe von Anrechnungsstunden / Regelung von Vertretungsstunden, Aufsichten, Unterrichtsverteilung Planung der Leistungserhebungen dokumentierte Vorgaben für die Informationsweitergabe (z. B. Leitfaden) …

Falls vorhanden, bitte Nachweise beilegen. (alternativ: Hinweis auf Homepage der Schule)

Arbeit des Kollegiums

▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪ ▪

Aufstellung der Partnerschaften (Schulen, externe Partner) Liste der externen Referenten/-innen Aufstellung der Aktionen / Initiativen in der Nachbarschaft schulinterne fachliche und fächerübergreifende Curricula (z. B. zur Entwicklung überfachlicher Kompetenzen) fächer- und jahrgangsübergreifende Projektarbeit jahrgangsübergreifende Konzepte zur Sicherung von Grundwissen; Systeme der Überprüfung (z. B. Checklisten, Berichterstattung) Dokumentation über schulinterne jahrgangsbezogene und jahrgangsübergreifende Abstimmung (z. B. Teilnehmerkreis, Themen) Pädagogische Ziele (Leitfaden) Regelwerk für das Verhalten in der Schule (z. B. Schulverfassung, verschriftlichte Umgangsregeln) …

Falls vorhanden, bitte Nachweise beilegen. (alternativ: Hinweis auf Homepage der Schule)

Abb. 5.9   Auszug aus dem Datenblatt zur Analyse des Schulportfolios in Bayern

sind ebenfalls, sofern verfügbar, an den Besuchstagen vorzuzeigen. Das Schulprogramm gilt hier als im Vorfeld erwünschtes Dokument, ist aber nicht verbindlich vorzulegen. Die Hamburger Schulinspektion fordert die Schulen des Stadtstaats auf, als Ausgangslage einen Entwicklungsbericht zu erstellen. Dort sind insbesondere die Maßnahmen seit der letzten Inspektion zu beschreiben und in Beziehung zu den Ziel- und Leistungsvereinbarungen zu setzen, die im letzten Durchgang mit der Schulaufsicht verschriftlicht worden sind. Der Entwicklungsbericht wird nach Auskunft der Schulinspektion auch im kommenden, dritten Zyklus als wichtiges Dokument bestehen bleiben. Zum Abgleich der schulischen Angaben werden in Hamburg die Ziel- und Leistungsvereinbarungen der letzten drei Jahre herangezogen, die vom Inspektionsteam unmittelbar über ein Datentool abgerufen werden können. Angefordert wird bei den Schulen hingegen das Förder- und das Ganztagskonzept und – sofern vorhanden – das Qualitäts(management)handbuch der Schule. Dieser Dokumentenkorpus wird im Weiteren ergänzt über Kenndatenblätter, die schulstatistische Daten wie Übergangsquoten, Anmeldezahlen oder die Zuordnung zu den schulischen Einzugsgebieten erfassen. Von den Schulen in Mecklenburg-Vorpommern wiederum wird, so die Angabe aus 2011, neben dem Schulprogramm und den Protokollen der Gremien ebenfalls das schulische Qualitätshandbuch abgefordert; schulstatistische Daten werden über ein entsprechendes Datenblatt abgefragt. Im Zuge der Neuausrichtung der Qualitätsanalyse in Nordrhein-Westfalen sind die Anforderungen an die schulische Bereitstellung von Dokumenten im Vorfeld der Evaluation stark gesenkt worden, um die Schulen zu entlasten und damit auch die Akzeptanz

5  Externe Evaluation – Konzeption und Implementation …

147

Schulportfolio

AnlageNr.

Dokument

Zusendung erforderlich

Zusendung sofern vorhanden

vor Ort bereitstellen sofern vorhanden

Schulentwicklung und Schulprofil 1.

Die pädagogischen Leitziele der Schule (Schulprogramm)

2.

Schulinterne Lehr– und Fachpläne

3.

Beschluss über Grundsätze der Zensierung und Bewertung

X

4.

Jahresarbeitsplan

X

5. 6.

X X

Dokumente zu Unterrichtskonzepten (Stationenlernen, Wochenplan etc.) Konzept für die Ganztagsschule, die Volle Halbtagsschule, ggf. die Zusammenarbeit mit dem Hort

X X X

7.

Konzept zur Berufsorientierung

8.

Schul– und Modellversuche

X

9.

Projekte

X X

10.

Konzept zur Sozialarbeit, Konfliktbewältigung

11.

Fördermaßnahmen (z.B. Diagnose–Förder–Klassen, Lese–, Sprachförderung)

X

12.

Arbeitsgemeinschaften und deren Wahrnehmung

X

13.

Maßnahmen zur Kooperation mit Einrichtungen in der Region

X

14.

Schulpartnerschaften

X

15.

Teilnahme an Wettbewerben und erzielte Erfolge

X

16.

Traditionelle schulische Veranstaltungen und Feste

X

17.

Informationen für Eltern/ Erziehungsberechtigte

18.

Öffentlichkeitsarbeit (Elternbriefe, Schülerzeitung, Homepage, Flyer etc.)

X X

Schulleitung und Schulmanagement 19.

Leitungsstrukturen (Geschäftsverteilungsplan)

X

20.

Aufgabenverteilung/ Zuständigkeiten der Lehrkräfte

X

21.

Vertretungsregelung

22.

Ausfallstatistik

23.

Aufsichtsplan mit Durchführungsbestimmungen

24.

Schul– und Hausordnung

25.

Aktenkundige Belehrungen

X X X X X

Arbeit des Kollegiums 26.

Fortbildungsplanung

X

27.

Jahresterminplan

X

28.

Themen der SCHILF–Tage

X

29.

Kontakt zu Fachberatern

30.

Zusätzliche Dokumente (z.B. Informationen/Aktivitäten), die die Schule auf eigenen Wunsch zur Verfügung stellen möchte:

X

Quelle: www.bildung-mv.de, Instrumente für die Externe Evaluation in Mecklenburg-Vorpommern, S. B-1.

Abb. 5.10   Im Rahmen der externen Evaluation von Schulen in Mecklenburg-Vorpommern erfragte Dokumente des Schulportfolios

148

J. Tarkian et al.

des Verfahrens in der Praxis zu fördern. Anstelle von ursprünglich 23 Dokumenten werden aktuell nur noch 4 Pflichtdokumente eingefordert. Dazu zählen das Schulprogramm, die schulinternen Lehrpläne, das Leistungsbewertungskonzept und die Fortbildungsplanung. Hessen, Niedersachsen und Schleswig-Holstein stellen es den Schulen inzwischen letztlich frei, selbst zu entscheiden, ob und falls ja: welche Dokumente für die Evaluation von Bedeutung sind. Zwar ist in Niedersachsen beim Vorgespräch mit der Schulleitung ein gemeinsamer Blick in das Schulprogramm obligatorisch, da hierzu auch ein entsprechendes Feedback der EvaluatorInnen laut Angaben des Kultusministeriums vorgesehen ist; und im Rahmen der Auftragsklärung werden zudem in der Praxis regelmäßig thematisch einschlägige Dokumente herangezogen – eine eigentliche Verpflichtung zur Zusendung oder Bereitstellung von Dokumenten vor dem Schulbesuch existiert hier aber ausdrücklich nicht. Gleiches gilt für das Schleswig-Holsteinische Schulfeedback und dem Hessischen Abrufverfahren für Schulen, denen mittlerweile das Selbstverständnis zugrunde liegt, dass die Schule die Fragestellung(en) der Evaluation definiert anstelle Gegenstand eines standardisierten Vorgehens zur Qualitätsfeststellung zu werden. Teilweise ausgehend von der früheren Beobachtung, dass Konzeptpapiere von den Schulen stärker zur Vorlage bei der Inspektion entwickelt als für die Entwicklungsarbeit genutzt wurden, ist hier entschieden worden, keine Dokumente mehr einzufordern, sondern flexibel mit dem zu arbeiten, was an den Schulen an Dokumentation vorhanden ist und von den Beteiligten für aussagekräftig befunden wird. Im Saarland wird laut einer Information des Ministeriums aus 2015 durchaus eine „stichprobenartige Dokumenteneinsicht z. B. in Klassenarbeiten, schulinterne Arbeitspläne, Förderunterlagen“ vorgenommen. Zudem sind laut Auskunft des Landesvertreters von den Schulen statistische Angaben wie „Informationen über Klassenfrequenzen, Schulgebäude und Ausstattung der Schule, Betreuungsangebot, Förderung, Schulleben, Schulentwicklung, Fortbildung“ in einem Erhebungsbogen zu benennen. Im Weiteren gilt aber auch hier der Grundsatz, die Schulen im Rahmen der externen Evaluation von vorbereitenden Aufgaben größtmöglich zu entlasten. Entsprechend bestehen in diesem Bundesland auch generell keine festen juristischen Vorgaben zur Erstellung von Schulprogrammen oder Entwicklungsberichten.

5.6.2 Standardisierte Befragungen Mit Ausnahme von Hessen, Niedersachsen und Nordrhein-Westfalen, bei denen standardisierte Befragungen aller schulischen Akteursgruppen aktuell nicht als feste Bestandteile in die Verfahren integriert sind,42 haben alle übrigen Länder mit laufender externer

42Für NI liegt daher bisher nur der Bogen für Schülerbefragungen vor. In NW und HE befinden sich entsprechende Fragebögen gerade in der Entwicklung.

5  Externe Evaluation – Konzeption und Implementation …

149

Evaluation entsprechende Erhebungen im Vorfeld des Schulbesuchs etabliert. Dabei wird neben Lehrkräften, Eltern und SchülerInnen zum Teil auch weiteres pädagogisches sowie nicht-pädagogisches Schulpersonal wie Kooperationspartner befragt. Die Organisation und Auswertung erfolgt üblicherweise über die Landesinstitute oder Qualitätsagenturen. Beim schleswig-holsteinischen Schulfeedback wie auch in Hessen wird es den Schulen grundsätzlich eingeräumt, auch eigene Fragestellungen in die Befragungen miteinzubringen; alle übrigen Länder arbeiten mit Fragebögen, die in Inhalt und Umfang festgelegt sind. Im saarländischen Verfahren sind die Befragten aber explizit aufgerufen, über ein offenes Antwortformat auch weiterführende Kommentare zu ihren Antworten, Angaben zu fehlenden Themen sowie ein Feedback zur Befragung selbst zu hinterlassen. Ein entsprechendes Angebot findet sich auch im Lehrerfragebogen in Schleswig-Holstein. Alle Erhebungen erfolgen anonym und sind z. T. elektronisch, gerade aber für die Gruppe der Eltern häufig weiterhin über Papierbögen organisiert, wobei die Bewertungen meist auf Basis einer 4er-Skala (mit zusätzlicher Ankreuzmöglichkeit für Fragen, die nicht beantwortet werden können), in Bayern auch auf einer entsprechenden 5er-Skala43 und in Mecklenburg-Vorpommern grundsätzlich auf einer 6er-Skala vorzunehmen sind. Weniger komplexe Items werden teilweise auf einer dichotomen Skala mit nur zwei Antwortmöglichkeiten erfragt („Ja“ – „Nein“). In Mecklenburg-Vorpommern und im Saarland finden die Befragungen sämtlicher zentraler Gruppen (Lehrkräfte, Eltern, Schüler) noch über das Paper-pencil-Verfahren statt; in Bayern können Eltern auf Schulentscheidung hin seit dem Schuljahr 2017/2018 auch online befragt werden. Für Lehrkräfte und SchülerInnen ist dies inzwischen ausschließlich der Fall. Zur Sammlung von Papier-Rückmeldungen stehen üblicherweise Boxen in der Schule zur Verfügung, Bayern organisiert die Rückgabe der Elternfragebögen in einem verschlossenen Umschlag über die SchülerInnen. Die Auswertung erfolgt beim Einsatz von Papierbögen stets im Anschluss an deren maschinelle Digitalisierung. Vor- und Nachteile der beiden Erhebungsweisen beschreibt von Saldern (2011, S. 145 f.). Mit Blick auf die formale Gestaltung und Strukturierung der Bögen zeigt sich, dass die Befragung in allen Ländern standardisiert aufgebaut ist, dabei aber im Umfang variiert: So erhalten bayerische und niedersächsische Grundschüler komprimierte zweiseitige Bögen mit rund 20 Fragen, während Schülern in Mecklenburg-Vorpommern auf acht Seiten fünf Mal so viele Fragen gestellt werden. Hamburger Lehrkräfte werden in umfangreichen 13-seitigen Heften mit rund 130 Items befragt. Die Fragen für diese beiden unmittelbar am Schulgeschehen beteiligten Akteure sind zumeist in zwei Themenkomplexe gliedert: Ein erster Bereich betrifft die Ebene der Schule als Gesamtorganisation, während in einem zweiten Bereich Angaben zum Unterricht abgefragt werden. In Mecklenburg-Vorpommern und Schleswig-Holstein erhalten – dort bei Wahl

43Ausnahme: Bayerische Grundschüler erhalten nur vier Antwortmöglichkeiten. Die 22 Items (statt 61 wie an weiterführenden Schulen) werden hier auch nicht nach Themenkomplexen sortiert.

150

J. Tarkian et al.

eines fachlichen Schwerpunkts – beide Befragungsgruppen zudem in einem dritten Teil fachspezifische Fragen. Hamburg befragt in seinem Lehrerfragebogen das Kollegium sehr differenziert nach 15 Themenkomplexen, zu denen neben kollegialen Kooperationsformen oder dem Umgang mit Veränderungen bzw. Innovationen auch die instruktionale Führung der Schulleitung oder die Partizipationsmöglichkeiten von LehrerInnen bei steuerungsrelevanten Entscheidungen zählen. Eltern beurteilen entweder ausschließlich die Schulorganisation oder werden zusätzlich gebeten, auch unterrichtsbetreffende Aussagen vorzunehmen, die sich in der Regel auf ihre Erfahrungen mit den KlassenlehrerInnen bzw. denjenigen Lehrkräften beziehen, zu denen ihnen am meisten Informationen vorliegen (so in BY, HH, MV und SL). Teilweise erhalten sie in manchen Ländern einen zusätzlichen Fragekomplex zum Thema „Ganztag“ (SH und SL). Der Fragebogen für Hamburger Eltern enthält jenseits der üblichen Items zu Schule und Unterricht in gesonderten Blöcken auch Fragen zur Berufs- und Studienorientierung der Einrichtung sowie ihrer Entwicklung zu einer inklusiven Schule. Zudem werden die Eltern hier, wie auch in Bayern und Mecklenburg-Vorpommern, analog zur Lehrer- und Schülerbefragung um eine Gesamteinschätzung zu ihrer Zufriedenheit mit der schulischen Arbeit gebeten. Lehrkräfte und SchülerInnen beurteilen diese ebenfalls mit Blick auf die Unterrichtsebene. Ausgewählte aggregierte Ergebnisse aller Befragungsgruppen werden den Schulen üblicherweise im Anhang der Ergebnisrückmeldung zur externen Evaluation zurückgespiegelt.

5.6.3 Schulhausrundgang Über Rundgänge durch die Schulgebäude und die schulischen Flächen können sich die EvaluatorInnen ein erstes Bild von den baulichen Gegebenheiten und der Ausstattung der zu evaluierenden Schule verschaffen. Die räumlichen Voraussetzungen einer Schule gelten als eine Einflussgröße auf die Lehr- und Lernprozesse innerhalb der Organisation (von Saldern 2011). Entsprechend kommen Rundgänge über das Schulgelände und durch ihre zentralen Räumlichkeiten auch bis auf Niedersachsen und Schleswig-Holstein in allen Ländern grundsätzlich zum Einsatz, folgen dabei allerdings nicht zwangsläufig einem standardisierten Schema. Während etwa in Bayern, ­Mecklenburg-Vorpommern und dem Saarland hierzu durchaus ein fester Protokollbogen existiert, der die Dokumentation des Schulgeländes und der Sportanlagen, der Gebäudeeinheiten für den Verwaltungs-, Verpflegungs- und Ganztagsbereich sowie sämtlicher Fachräume und Klassenzimmer wie auch Sanitäranlagen mit Blick auf die ästhetische Gestaltung, Funktionalität und Sauberkeit vorsieht44 und dabei auch Aspekte wie die Einrichtung

44In

MV ist neben dem Bogen zur Erfassung der Räumlichkeiten zu Implementationsbeginn (2006) zusätzlich ein zweiter Beobachtungsbogen entwickelt worden, mit dem die Organisation und der Ablauf des Schulalltags von den EvaluatorInnen einzuschätzen ist (abrufbar unter: https:// www.bildung-mv.de/export/sites/bildungsserver/downloads/Externe_Evaluation_Instrumente.pdf). Zugegriffen: 25.09.2018.

5  Externe Evaluation – Konzeption und Implementation …

151

von Fluchtwegen und das Sicherheitskonzept der Schule miteinschließt, wird in anderen Ländern der Schulhausrundgang weniger als eine für den Ergebnisbericht relevante Datenerhebung denn als ein Gesprächsanlass für den Austausch sowie für die Stärkung der Vertrauensbeziehung mit den schulischen Akteuren betrachtet. Hamburg setzt entsprechend keinerlei feste Formblätter hierfür ein, die EvaluatorInnen erstellen hier freie Notizen zu ihren Eindrücken. Brandenburg stellt seinen Visitatoren derzeit ausschließlich einen Erfassungsbogen für die räumlichen Gegebenheiten der zwischenzeitlich eingeschobenen Fokusevaluation von Ganztagsschulen zur Verfügung. Werden umfangreichere Angaben in einem Bogen erfasst und für den Ergebnisbericht aufbereitet, ist häufig auch vorgesehen, dass die entsprechenden Berichtspassagen an den zuständigen Schulträger weitergegeben werden. Dies ist in Brandenburg, Niedersachsen und Nordrhein-Westfalen so auch schulrechtlich festgehalten45. Im Saarland soll grundsätzlich ein Vertreter des Schulträgers an dem Rundgang selbst beteiligt sein.

5.6.4 Unterrichtsbesuche Unterrichtsbesuche stellen den Kernbereich externer Evaluation dar (Bos et al. 2007), nicht zuletzt weil „zunehmend deutlich [wird], dass über Schulqualität in den Klassenzimmern entschieden wird“ (Terhart 2010, S. 257). Bis auf Hessen, wo zum Analysestichtag keine systematischen Unterrichtsbeobachtungen durch die EvaluatorInnen durchgeführt werden,46 steht dieses Teilinstrument bei allen laufenden Verfahren im Zentrum der Datenerhebungen. Dabei unterscheiden sich die Beobachtungen, die üblicherweise von je zwei EvaluatorInnen gemeinsam, teilweise aber auch von einem einzelnen Teammitglied durchgeführt werden, zwischen den Ländern bereits formal mit Blick auf ihren jeweils vorgesehenen Mindestumfang: Dieser ist für das Saarland stets als Besuch des Gesamtkollegiums konzipiert (bei kleineren Schulen kann dies auch mehr als eine Unterrichtsstunde pro Lehrkraft umfassen), während in Niedersachsen und ­Schleswig-Holstein zumindest alle mit dem gewählten Fokusthema betrauten LehrerInnen beim Unterrichten beobachtet werden sollen. Berlin und Brandenburg erteilen ihren EvaluatorInnen eine Besuchsvorgabe von mindestens 70 % der Lehrerschaft, während in Nordrhein-Westfalen wenigstens die Hälfte des Kollegiums beim Unterrichten gesehen werden soll, was zumindest 20 beobachteten Stunden zu entsprechen hat. Hamburg definiert für Grundschulen nicht weniger als 40 und für Stadtteilschulen und Gymnasien mindestens 80 Unterrichtsbesuche; EvaluatorInnen in Bayern sollen in jedem Fall 18 Unterrichtsstunden bewerten. Mecklenburg-Vorpommern erteilt hier aktuell keine festen

45BB:

§ 129 III Bbg SchulG; NI: § 123a IV NSchG; NW: § 3 VIII QA-VO. eine themenbezogene Neuerstellung des früheren Unterrichtsbeobachtungsinstruments aus der hessischen Schulinspektion wird nach Auskunft des befragten Landesvertreters derzeit noch beraten. 46Über

152

J. Tarkian et al.

Vorgaben, sondern lässt seine Evaluationsteams die erforderliche Anzahl der Unterrichtsbesuche in Abhängigkeit vom Erkenntniszweck der Evaluation und der Schulgröße selbst bestimmen. Auch hinsichtlich der Dauer der Besuche sind in den Ländern verschiedene Vorgehensweisen festgelegt: Mit Berlin, Brandenburg, Nordrhein-Westfalen, Hamburg und Schleswig-Holstein folgt der größere Teil der Länder dem wissenschaftlichen Befund, dass 20 min zur Erfassung der Unterrichtsgüte ausreichend sind (Perels und Zahn 2013). EvaluatorInnen im Saarland, Bayern und Mecklenburg-Vorpommern besuchen für ihre Beurteilungen hingegen volle Schulstunden von 45 min oder sogar länger, Niedersachsen taktet in seinem neuen Verfahren je nach Schulsituation Beobachtungssequenzen von 60, 80 oder 90 min ein. Zur Beurteilung des Unterrichts sind in allen Ländern mehr oder weniger standardisierte Beobachtungsbögen entwickelt worden. Diese wurden dem Autorenteam sowohl von den Ländern, die zum Stichtag aktiv ein Verfahren der externen Evaluation betreiben als auch von denjenigen, die aktuell keine externen Evaluationen vornehmen oder derzeit keinen Bogen zum Einsatz bringen, zur Verfügung gestellt, sodass an dieser Stelle die Bögen in ihrer letztgültigen Fassung flächendeckend für alle 16 Länder dargestellt werden. Dabei zeigt sich, dass die Bögen sich insbesondere hinsichtlich des Umfangs, der Form und des Detaillierungsgrads der Operationalisierung und in Teilen auch hinsichtlich der inhaltlichen Schwerpunktsetzungen unterscheiden. Was den Umfang betrifft, umfassen die Bögen zwischen einer und vier Seiten. In einigen Fällen liegen dazu mehr oder weniger umfangreiche Erläuterungen oder Handreichungen vor. Die Bögen aus Bayern, Brandenburg, Bremen, Hessen und Nordrhein-Westfalen weisen zwischen 10 und 13 übergeordnete Dimensionen der Unterrichtsqualität aus. In einer Reihe von Beobachtungsbögen (dies gilt für die Länder BE, NI, SH und SN) sind drei bis fünf Globaldimensionen definiert, wobei in Schleswig-Holstein und Niedersachsen explizit oder implizit auf die in der aktuel­ len Unterrichtsforschung identifizierten drei Basisdimensionen des Unterrichts Bezug genommen wird. Die Globaldimensionen werden in der Regel durch Items/Merkmale und/oder Indikatoren spezifiziert. In Hamburg, dem Saarland und Sachsen-Anhalt werden 14 bis 30 einzelne Merkmale im Bogen gelistet. Es ist anzumerken, dass Globaldimensionen die Funktion der Systematisierung von Einzelmerkmalen haben. Nicht in allen Bögen werden allerdings Globaldimensionen ausgewiesen bzw. werden Items gruppiert. Aus inhaltlicher Sicht wirft die Zuordnung von Items zu übergeordneten Dimensionen teilweise durchaus Fragen auf: So wird etwa im Berliner Bogen das Merkmal „Problemorientiertes Lernen“ der Dimension „Individualisierung von Lernprozessen“ zugeordnet. Unterhalb der Globaldimensionen sind häufig einzelne Merkmale guten Unterrichts in Form von Items beschrieben. Der Grad der Einschätzung eines Merkmals/Items auf einer entsprechenden Skala ist dabei als Urteil über die Qualität des Unterrichts zu interpretieren. Bei Indikatoren handelt es sich im Unterschied zu Items um zusätzliche Einschätzhilfen. Sie geben insbesondere bei hoch-inferenten Merkmalen Hinweise darauf,

5  Externe Evaluation – Konzeption und Implementation …

153

welche möglichen Ereignisse oder Verhaltensweisen auf ein bestimmtes Merkmal schließen lassen. Indikatoren haben damit im Unterschied zu Merkmalen/Items vor allem beispielgebende oder veranschaulichende Funktion. Wenn einer von mehreren Indikatoren nicht beobachtet werden kann, bedeutet es nicht, dass das Merkmal nicht (bzw. nicht in einer bestimmten Ausprägung) erfüllt ist. Es macht also einen erheblichen Unterschied, ob ein Aspekt des Unterrichts als Dimension, Merkmal oder Indikator der Unterrichtsqualität operationalisiert ist. In den analysierten Unterrichtsbeobachtungsbögen werden diese Unterscheidungen häufig nicht trennscharf gehandhabt. Manchmal sind zu einem Item anstatt Indikatoren weitere differenzierende Items formuliert, die teilweise anzukreuzen sind wie etwa im niedersächsischen Bogen. Ein Urteil erfolgt dann aber auf der Ebene des übergeordneten Items, das wiederum einer Dimension zugeordnet ist. Aufgrund der nicht trennscharfen Operationalisierung sowie der fehlenden Informationen über Skalenkennwerte ist nicht immer eindeutig nachvollziehbar, wie ein Urteil über Unterricht gebildet wird. Auch hinsichtlich der Beurteilungsvorgaben unterscheiden sich die Bögen. In Schleswig-Holstein wird auf eine standardisierte Ratingskala verzichtet. Die InspektorInnen sind vielmehr aufgefordert, ihre an den Indikatoren orientierte Einschätzung des beobachteten Unterrichts frei zu formulieren. Die Bögen aus Berlin, Brandenburg, Hamburg, Niedersachsen, Rheinland-Pfalz sowie Sachsen-Anhalt und dem Saarland sehen vier Beurteilungskategorien vor, also ein Forced-choice-Format, wobei sich die Bezeichnungen der Urteilskategorien teilweise deutlich unterscheiden. Vier Bögen (aus BY, BW, NW und TH) sehen nur zwei Beurteilungskategorien vor; in Bremen, Mecklenburg-Vorpommern und Sachsen beurteilen die InspektorInnen mittels fünf Urteilsvorgaben. Eine explizite Kategorie „nicht beurteilbar“ oder „nicht relevant“ bzw. eine Angabe, wie mit nicht-beobachtbaren Merkmalen zu verfahren ist, ist in der Hälfte der Unterrichtsbeurteilungsbögen enthalten; die anderen Bögen machen dazu keine Angaben, was das Problem aufwirft, dass zwischen nicht-beobachteten Merkmalen und nicht-beobachtbaren Merkmalen nicht klar unterschieden werden kann. Anmerkungsfelder oder – spalten zu den Beurteilungen der Einzelmerkmale bzw. Items sind in sechs Bögen vorhanden, in einigen weiteren Bögen sind Felder für allgemeine Anmerkungen am Anfang oder Ende des Bogens enthalten (vgl. Abb. 5.13 im Anhang des Beitrags). Was die Vorgaben zur Erfassung von Rahmenbedingungen oder Gestaltungsmerkmalen des Unterrichts betrifft, sind ebenfalls deutliche Unterschiede erkennbar. So wird das Fach in den meisten Fällen auf dem Bogen notiert, häufig auch das Thema. In einigen Fällen werden zudem Sozialformen mit Zeitangaben sowie die Redeanteile von Lehrkraft und SchülerInnen erfasst. Mit Blick auf die inhaltliche Konkretisierung von Unterrichtsqualität in den Unterrichtsbögen lässt sich analog zu den Rahmenkonzepten zur Schulqualität (vgl. Kap. 3) eine Schnittmenge geteilter Qualitätsmerkmale identifizieren. So finden sich in allen Bögen (explizit oder implizit) Dimensionen oder Merkmale, die auf eine effektive Nutzung der Lernzeit oder eine effektive Klassenführung abstellen. Ebenso scheint Einigkeit darüber zu bestehen, dass Strukturiertheit bzw. Klarheit und Zielorientierung zentrale Merkmale von Unterrichtsqualität bilden. Ähnliches

154

J. Tarkian et al.

gilt für den Aspekt des Unterrichtsklimas bzw. den wertschätzenden oder respektvollen Umgang, die Individualisierung bzw. Differenzierung sowie das selbstständige Lernen. Seltener ist dagegen das Üben als Merkmal für die Qualität von Unterricht aufgeführt. Auch der Indikator „Variabilität der Unterrichtsformen/Methoden“, der eindeutig ein Oberflächenmerkmal des Unterrichts darstellt, findet sich nur in einigen Bögen. Die Beteiligung von SchülerInnen an der Planung des Unterrichts beschreiben ebenfalls nur wenige Bögen als explizites Merkmal eines qualitätsvollen Unterrichts. Auch die Ermöglichung fächerübergreifenden Lernens – wie im Berliner Bogen operationalisiert – ist nicht in allen Ländern als Merkmal zur Beurteilung von Unterrichtsqualität in die Beobachtungsbögen der externen Evaluation aufgenommen. Insbesondere was den Bereich der Lernmotivation betrifft, zeichnet sich in einigen Fällen eine Vorstellung von Motivierungsqualität ab, die nahezu ausschließlich auf Aspekte der intrinsischen Motivation (Interesse, Autonomiespielräume) abstellt. Der Aspekt der Verdeutlichung des Nutzens des Lerngegenstands wird dagegen eher selten einbezogen. Einige Bögen operationalisieren die Qualität des Unterrichts mithilfe von detailgenauen Items (Beispiel: „Die Schülerinnen und Schüler wenden eine einheitliche Vorgehensweise an, wenn sie bei Lern- und Verstehensproblemen Unterstützung benötigen“ in dem Unterrichtsbogen aus BW oder „Der Unterricht stellt das Schreiben in einen funktionalen und anwendungsbezogenen Kontext“ im Bogen aus NI). Andere dagegen beschränken sich – wie etwa im Fall von Schleswig-Holstein – auf zentrale Merkmale wie kognitive Aktivierung, konstruktive Unterstützung und Klassenführung. Hier werden nur wenige Merkmale zur Konkretisierung der Basisdimensionen beschrieben, die Einschätzung bleibt dem Expertenurteil der InspektorInnen überlassen. Einige Inspektionsteams nutzen verschiedene Varianten von (Teilen von) Unterrichtsbögen für die Beurteilung. In Niedersachsen werden gegenwärtig beispielsweise Parallelversionen für mehrere Fächer/Bereiche erprobt. Im schleswig-holsteinischen Bogen ist eine fachliche Spezifizierung einzelner Qualitätsaspekte vorgesehen. In Sachsen-Anhalt liegen Varianten für Grundschulen und weiterführende Schulen vor. Für Rheinland-Pfalz wurden unterschiedliche Items für unterschiedliche Sozialformen operationalisiert. – Eine Übersicht zu den genannten Analyseaspekten für alle Beobachtungsbögen bietet Abb. 5.13 im Kapitelanhang.

5.6.5 Interviews/Vor-Ort-Gespräche Die Vor-Ort-Gespräche mit ausgewählten Vertretern der verschiedenen schulischen Gruppen (Schulleitung, Lehrkräfte, Eltern, SchülerInnen, weiteres schulisches Personal oder Kooperationspartner) erfolgen in den meisten Ländern als qualitative, leitfadengestützte (Gruppen–)Interviews, allerdings mit unterschiedlichem Strukturierungsgrad: Während Hamburg, Mecklenburg-Vorpommern und das Saarland für die Gespräche mit der Schulleitung, Lehrkräften, SchülerInnen und Eltern stärker strukturierte I­nterviews

5  Externe Evaluation – Konzeption und Implementation …

155

vorsehen, sind in Bayern, Berlin, Brandenburg, Hessen, Niedersachsen und Nordrhein-Westfalen offenere halbstandardisierte Gespräche angesetzt. Dabei existieren teilweise Vorlagen, die von den EvaluatorInnen genutzt werden sollen, um selbstständig im Prozess spezifische Leitfäden zu entwickeln: Nach Angaben der Handreichung der bayerischen Qualitätsagentur (2010) werden im Qualitätstableau kriteriengeleitete Anforderungen aufgeführt, die als Istzustände formuliert sind. Das Evaluationsteam ist dann aufgefordert zu entscheiden, ob für die jeweilige Anforderung mit Blick auf die Befragungsgruppe bereits ausreichend Informationen vorliegen oder ob hier im persönlichen Gespräch nachgefasst werden muss. Die gruppenspezifisch zu entwickelnden Leitfäden sollen dabei stets flexibel um neue Aspekte ergänzt werden. Neu erhaltene Informationen zu diesem Qualitätsmerkmal oder weiterführende Angaben sind in der Datensammlung zu dokumentieren. Analog verfährt Brandenburg, wo ein internes Arbeitspapier den VisitatorInnen als Grundlage für die Eigenentwicklung von Gesprächsleitfäden zur Verfügung gestellt wird. Eine Ausnahme bildet Schleswig-Holstein, deren EvaluatorInnen in dem dialogorientierten Schulfeedbackverfahren bewusst keine (Vorlagen für) Leitfäden zum Einsatz bringen, sondern themenfokussiert-offene Gesprächssituationen schaffen, die von den EvaluatorInnen individuell gesteuert werden. Auch Berlin stellt in seinem dritten Zyklus keine Befragungsleitfäden mehr für die InspektorInnen zur Verfügung, sondern überlässt es den Teammitgliedern, die Gespräche auf Basis der zu untersuchenden Qualitätsdimensionen selbst zu gestalten.

5.6.6 Erfassung und Aggregation der verschiedenen Bewertungsbestandteile Das jeweilige methodische Vorgehen bei der Erfassung und Aggregation der Auswertungsbestandteile für die Darstellung in den Ergebnisberichten kann im Rahmen dieser Publikation nicht erfasst werden. Wie in den Evaluationsteams aus den verschiedenen Einschätzungen der Teammitglieder sowie aus den Ergebnissen der einzelnen Teilinstrumente zu Gesamturteilen gefunden wird, ist in jüngerer Vergangenheit Gegenstand verschiedener Studien gewesen (Lankes et al. 2013; Sowada und Dedering 2014; Tosana et al. 2011; Vaccaro und Lankes 2014). Die Validität und Reliabilität speziell von Urteilen zur Unterrichtsqualität wurde von Pietsch und Tosana (2008) unter Einsatz eines differenzierten methodischen Designs untersucht (vgl. Gärtner und Pant 2011). Altrichter und Kemethofer stellen ausgehend von der Befundlage zu diesen Fragen zusammenfassend fest, dass in Fällen, „wenn in Inspektionsteams unterschiedliche Bewertungen bestehen, […] in Aushandlungsprozessen versucht [wird], zu einer einvernehmlichen Beurteilung der Schule zu kommen“ (Altrichter und Kemethofer 2016, S. 499). Zugleich wurde in Analysen zu den ersten Inspektionsdurchläufen in Deutschland, aber auch für die niederländische Inspektion erkennbar, dass trotz umfangreicher Qualifizierung EvaluatorInnen teilweise dazu neigen, Beurteilungstendenzen im Sinne einer besonderen

156

J. Tarkian et al.

Milde oder auch Strenge zu entwickeln (Gärtner und Pant 2011; Jong und Reezigt 2007; Pietsch und Tosana 2008). Auch zeigte sich, dass die Teams verschiedene Datenquellen durchaus unterschiedlich gewichten: Eigene Beobachtungen werden von den EvaluatorInnen gegenüber Befragungsdaten offenbar tendenziell bevorzugt (Sowada und Dedering 2014). Inwiefern hierzu aber systemseitig durch die Länderministerien und Inspektorate konzeptionelle Vorstellungen bestehen, die gegebenenfalls auch in verschriftlichte Vorgaben münden, ist derzeit ein Forschungsdesiderat. Dies zu durchleuchten bedarf einer eigenen Erhebung, die auch forschungsmethodisch über das hier durchgeführte Studiendesign hinausgehen dürfte.

5.7 Form der Ergebnisrückmeldung Damit Schulen im Anschluss an die externe Evaluation zielgerichtete Maßnahmen zu ihrer Entwicklung einleiten können, erhalten diese – wie bei allen Verfahren datenbasierter Qualitätssicherung und -entwicklung – eine Ergebnisrückmeldung zu den festgestellten Ergebnissen. Die Rückmeldung erfolgt in allen Ländern grundsätzlich schriftlich durch die Zustellung eines entsprechenden Ergebnisberichts, z. T. sind darüber hinaus auch Rückmeldegespräche durch das Evaluationsteam vorgesehen oder zumindest angeboten. Beim Rückmeldegespräch besuchen die EvaluatorInnen die Schulen zur persönlichen Vorstellung der (zentralen) Ergebnisse. Dies kann in einem separat organisierten Rückmeldetermin in zeitlichem Abstand zum Schulbesuch mit der Schulleitung und den schulischen Fachgruppen sowie zusätzlich der Schulaufsicht erfolgen (BY, BE, MV, NI, SL, SH) oder auch im Rahmen einer für Interessierte offenen Schulveranstaltung eingerichtet sein (HH47). Teilweise spiegeln die EvaluatorInnen den Schulen erste Ergebnisse auch im Sinne einer Sofortrückmeldung unmittelbar zum Ende der Besuchsphase zurück (NW, SL) oder es sind direkt im Anschluss an die Unterrichtsbeobachtungen Kurzfeedbacks an die besuchten Lehrkräfte vorgesehen bzw. als Empfehlung kommuniziert (BY, NI48). In manchen Ländern ist ein Rückmeldegespräch vor Ort nicht obligatorisch eingerichtet, sondern erfolgt optional auf Schulwunsch (in BB als zu Visitationsbeginn vereinbartes Rückmeldegespräch, in NW und HE als fakultatives Erläuterungsgespräch). Hier sind es dann im Anschluss an den Schulbesuch direkt die zuständigen SchulaufsichtsbeamtInnen, die in den Zielvereinbarungsgesprächen an die Ergebnisse der externen Evaluation anschließen.

47In HH ist die Rückmeldung derzeit zweigeteilt organisiert: Zunächst findet ein Gespräch mit der Schulleitung statt, im Anschluss erfolgt eine schulöffentliche Präsentation unter Beteiligung der Schulaufsicht. 48Diese werden meist von den Lehrkräften abgerufen (NI).

5  Externe Evaluation – Konzeption und Implementation …

157

Der schriftliche Ergebnisbericht unterscheidet sich in den Ländern sowohl in Umfang, Struktur und Detaillierungsgrad als auch mit Blick auf die – durch die unterschiedlichen Qualitätstableaus mit je verschiedenen Akzentsetzungen ausgerichteten – rückgemeldeten Inhalte. Dabei fällt zunächst die unterschiedliche methodische Darstellungsform auf, in der die Ergebnisse in den Ländern präsentiert werden. Im Kern kommen hier zwei Kategorialmodelle zur Anwendung, die einer je unterschiedlichen Logik folgen: So existieren vergleichsweise stark quantitative Ergebnisberichte, die „auf eine Konfrontation der Schule mit möglichst objektiven und validen Daten“ abzielen und „vor allem der Administration nutzen“ (Altrichter und Kemethofer 2016, S. 495). Andererseits zeigen sich „qualitative, argumentativ-abwägende Diagnosen“ (ebd.), die stärker den Charakter des Verfahrens als ein aus der Perspektive der Schule gedachtes Entwicklungsinstrument unterstreichen, dessen Ergebnisse entsprechend vordergründig den Bedürfnissen der Praxis entsprechen sollen. Zum letztgenannten Modell zählen vor allem die Ergebnisberichte aus dem Saarland und Schleswig-Holstein, die als reine Textberichte aufgebaut sind und in denen die Ergebnisse ausschließlich beschreibend, nicht aber bewertend oder gar benotend zurückgemeldet werden.49 Auch der Schulbericht in Mecklenburg-Vorpommern sowie die Hamburger Kurzberichts-Variante sind zur erleichterten Rezeption als qualitative Textrückmeldungen aufgebaut. Dem stehen die Berichte aus Nordrhein-Westfalen gegenüber, die einen hohen Grad der Standardisierung bei der Datenerhebung und ­-darstellung aufweisen; qualitative Bestandteile sind hier in geringerem Umfang jeweils zur Erörterung der Grafiken enthalten. Auch die Berichte der Brandenburger Schulvisitation, der externen Evaluation aus Bayern, der Berliner Schulinspektion sowie die ausführlichen Schulberichte der Hamburger Inspektion sind insgesamt stark geprägt von standardisierten, tabellarischen Aufbereitungen der Prozessbewertungen, wenngleich hier qualitative Erläuterungen stets flankierend hinzukommen (Brandenburger Lang- wie Kurzberichte), teilweile auch Textteile zur Beschreibung der Rahmenbedingungen (BE, BY) und der Schulergebnisse (BY) ergänzt werden. In manchen Fällen sind zusätzliche Zusammenfassungen der Gesamtergebnisse in Textform enthalten (Berliner Lang- wie Kurzberichte, Hamburger Langberichte). In seinen Langberichten erfolgt in Hamburg eine detaillierte Aufschlüsselung der Bewertungsergebnisse in quantitativer Darstellungsform. Zudem wird umfangreiches tabellarisches Material zusammen mit den Befragungsergebnissen ausgegeben. Niedersachsen stellt seinen Schulen für die im Verfahren vorgesehenen zwei Besuchszeitpunkte entsprechend auch zwei Berichtslegungen zur Verfügung. Dabei beschränkt sich der erste Kurzbericht auf reine Datenrückmeldungen zum Unterricht, die auf Grundlage der Beobachtungsergebnisse grafisch aufbereitet sind, während der abschließende Bericht darüber hinaus auch einen Textteil beinhaltet, in dem Deutungszusammenhänge

49Fragebogenergebnisse

im Anhang des Berichts werden auch hier tabellarisch dargestellt.

158

J. Tarkian et al.

z­ wischen der festgestellten Unterrichtsqualität und den schulischen Prozessen in Form von Wirkungshypothesen gebildet werden. Für die folgenden Detailauswertungen wurde zu jedem Land beispielhaft ein Ergebnisbericht herangezogen, der aus den Jahren 2011 (MV), 2016 (NW, HH) und 2017 (BY, BE, BB) stammt. Für Niedersachsen, das Saarland und Schleswig-Holstein konnten keine Original- oder Musterberichte eingesehen werden, sodass die Darstellungen zu diesen Ländern ausschließlich gemäß den Angaben der InterviewpartnerInnen vorgenommen werden konnten. Eine hessische Rückmeldung zum Abrufverfahren, die als stets individualisiert aufbereitet beschrieben wird, stand ebenfalls nicht zur Verfügung, sodass hierzu an dieser Stelle keine Detail-Angaben erfolgen. Detailauswertungen: Mit Blick auf den Gesamtumfang der Hauptberichte für die Schulgemeinschaft haben Schleswig-Holstein, das Saarland und Niedersachsen ein eher kompaktes Format gewählt, während in Mecklenburg-Vorpommern je nach gewählten Untersuchungsschwerpunkten zwischen 10 und 40 Seiten Berichtslänge erreicht werden. Für Bayern, Nordrhein-Westfalen, Berlin, Brandenburg und Hamburg umfassen die Rückmeldeberichte (Langberichte) rund 50 Seiten und mehr. Der Aufbau des Schulberichts ist für diese Länder üblicherweise in mehrere Teile gegliedert, wobei den Berliner Langberichten sowie den Brandenburger, Hamburger und Nordrhein-Westfälischen Ergebnisberichten zunächst ein „mission statement“ vorangestellt wird, in dem der Zweck der Evaluation und das Vorgehen kurz skizziert und daneben teilweise auch das methodische Vorgehen erläutert wird (HH, BY). Bayern und Mecklenburg-Vorpommern weisen an dieser Stelle zudem einige relevante Daten zur Vorbereitung und Durchführung der Evaluation aus. Als Kurzübersicht zum Gesamtabschneiden der Schule werden in den Berichten aus Berlin, Brandenburg und Nordrhein-Westfalen gleich zu Beginn spezielle Stärken-Schwäche-Profile bzw. Schnellübersichten zum Qualitätsprofil aufgeführt, in denen besondere Auffälligkeiten als Ergebnisüberblick herausgestellt und zusätzlich erläutert werden. In den Ergebnisberichten aus Hamburg und Mecklenburg-Vorpommern werden vergleichbare Stärke-Schwächen-Analysen jeweils abschnittsweise mit Bezug zu den Qualitätsmerkmalen dargestellt, wobei diese in Mecklenburg-Vorpommern ausschließlich per Fließtext dargestellt sind. Der Hauptteil dient der Darstellung der Einzelauswertungen, die wie oben skizziert in den Ländern mal stärker über Diagramme und Tabellen (unter Einordnung der Schulergebnisse) kommuniziert werden, mal textlastiger ausfallen. In Brandenburg werden dabei im Bewertungsteil die verpflichtenden Merkmale von den Wahlmerkmalen getrennt aufgeführt. Die Ergebnisdarstellungen sind dabei jeweils gerahmt von schulischen Standortbedingungen und Schulcharakteristika. Während mit Berlin und Brandenburg (Kurz- und Langberichte), Hamburg (Langberichte) und Nordrhein-Westfalen der überwiegende Teil der Länder die zu bewertenden Qualitätsaspekte auf einer 4er-Skala einordnet, wird in Bayern eine 5er-Skala zugrunde gelegt. Mecklenburg-Vorpommern, das Saarland und Schleswig-Holstein verzichten bei der Darstellung der Untersuchungsbefunde grundsätzlich auf einen Einsatz von Skalen. Für Niedersachsen lagen zum Analysezeitpunkt zu dieser Frage keine Informationen vor.

5  Externe Evaluation – Konzeption und Implementation …

159

Im Schlussteil der Ergebnisberichte werden schließlich neben Angaben zum Evaluationsteam (BY, MV, NW) als Anhang auch (ausgewählte) Befragungsergebnisse ausgewiesen (BE, BB, SL). Hamburger Schulen erhalten diese auch über eine separate CD. Besonderheit: In Bayern wird in Abhängigkeit vom Evaluationsergebnis seit mehreren Jahren eine sogenannte MODUS-Empfehlung im Bericht vermerkt. Schulen, denen mit Blick auf ihre Prozessqualitäten (Schule und Unterricht) ein besonderes Maß an Qualitätsgüte bescheinigt wurde, können mit diesem Vermerk beim Kultusministerium erweiterte Autonomiespielräume beantragen, die vor allem den Bereich der Unterrichtsund Personalentwicklung im Rahmen einer Teilnahme an einem entsprechenden Modellversuch betreffen.

5.8 Einbindung der operativen Schulaufsicht Eine Einbindung der operativ zuständigen Schulaufsicht in das Verfahren der externen Evaluation ist, wie bereits in Abschn. 5.2 stellenweise gezeigt werden konnte, in den Ländern in unterschiedlichem Umfang und in verschiedener Weise vorgesehen. Die nachstehenden Abschnitte stellen die wesentlichen Anbindungspunkte noch einmal in einer Gesamtschau dar:

5.8.1 Festlegung des Schulbesuchs Während gerade in Brandenburg und Mecklenburg-Vorpommern, aber auch im hessischen Verfahren die AufsichtsbeamtInnen gemäß offizieller Angaben in den Landesdokumenten bereits die Auswahl der Schulen (im Sinne einer sachbegründeten Terminierung des Evaluationbesuchs) mitbestimmen können, sehen die übrigen Länder bei diesem Schritt aktuell kein spezielles Mitspracherecht für die Schulaufsicht vor, sondern orientieren sich hier bewusst an Auswahlprinzipien, die stärker den Bedürfnissen der Schulen oder den Erfordernissen der Landesberichtslegung o. ä. entgegenkommen. Die in Berlin, Brandenburg, Hessen,50 Hamburg, Nordrhein-Westfalen und (durch sein zweigliedriges System aus eintägigem Schulbesuch und vollständiger Evaluation51) auch

50Hier

allerdings als auslaufendes Verfahren. Konzeptpapier von MV zur internen und externen Evaluation (2017, S. 5) findet sich entsprechend der Hinweis, dass „die Erkenntnisse des eintägigen Schulbesuchs […]für das Evaluationsteam Grundlage weiterer Vereinbarungen oder der Festlegung sich eventuell anschließender Schritte [bilden]. So können etwa, wenn erforderlich, eine vollständige Evaluation angesetzt oder die Wahrnehmung von Unterstützungsangeboten empfohlen oder auch festlegt ­werden“. 51Im

160

J. Tarkian et al.

in Mecklenburg-Vorpommern möglichen Nachinspektionen bzw. – visitationen werden ergebnisabhängig terminiert. Hier ist die zuständige Schulaufsicht an der Festlegung des nächsten Besuchszeitpunkts grundsätzlich mitbeteiligt. Für das neue Verfahren der Fokusevaluation in Niedersachsen gilt laut Hinweisen des NLQ die Vereinbarung, dass der schulfachliche Dezernent der Niedersächsischen Landesschulbehörde zum Evaluationsende den kommenden Evaluationstermin für die gerade besuchte Schule selbst festlegt. Im ersten Durchlauf hingegen soll bewusst keine nach schulindividuellen Entwicklungsgesichtspunkten beeinflusste Teilnahmeentscheidung durch die Schulaufsicht getroffen werden.

5.8.2 Zusammenstellung der Untersuchungsmerkmale Bei der Entscheidung über die Gestaltung des jeweiligen Landes-Qualitätstableaus ist die für strategische Fragen zuständige Ebene der Schulaufsicht prinzipiell beteiligt. Mit Blick auf die Festlegung der für die Einzelschulen eingesetzten Untersuchungsmerkmale können in manchen Ländern aber auch die operativen AufsichtsbeamtInnen ergänzend mitwirken: Eine entsprechende Möglichkeit ist grundsätzlich in Berlin, Brandenburg, Hessen, Mecklenburg-Vorpommern und Nordrhein-Westfalen gegeben, in Mecklenburg-Vorpommern wird dies zusätzlich für den eintägigen Schulbesuch eingeräumt.

5.8.3 Mitwirkung am Vor- bzw. Rückmeldegespräch sowie Adressierung des Rückmeldeberichts Eine Teilnahme der zuständigen Schulräte am Vorgespräch bzw. Lageeinschätzungsgespräch mit der Schule ist in Brandenburg obligatorisch und findet entsprechend auch in den Räumlichkeiten der Schulaufsichtsbehörde statt. In Nordrhein-Westfalen wird die untere Schulaufsicht zu diesem Gespräch, das am Standort der Schule organisiert ist, zumindest miteingeladen. Für die übrigen Länder ist eine Vorbesprechung der externen Schulevaluation allein zwischen dem Evaluationsteam und den schulischen Akteuren („der Schulfamilie“) vorgesehen. Die Mitwirkung der SchulaufsichtsbeamtInnen beim Rückmeldegespräch mit der Schule zu Evaluationsende ist hingegen häufiger konzipiert – nur Bayern, Nordrhein-Westfalen, Hessen und das Saarland sehen eine Teilnahme der SchulrätInnen hier nicht ausdrücklich vor. Abgesehen von Schleswig-Holstein erhält die operative Schulaufsicht in allen Ländern standardmäßig den Ergebnisbericht; in Nordrhein-Westfalen gibt das jeweilige Dezernat 4Q daneben auch das aktuelle Schulprogramm und die ggf. nach früherer Evaluationsrunde verschriftlichten Zielvereinbarungen an die zuständige Schulaufsicht weiter. Da das Schulfeedbackverfahren den Schulen in Schleswig-Holstein eine Datenhoheit zuspricht, ist eine automatisierte Ergebnisrückmeldung hier nicht ausdrücklich festgelegt, sondern an individuelle Absprachen mit den Schulen gebunden.

5  Externe Evaluation – Konzeption und Implementation …

161

5.8.4 Einbezug in das laufende Verfahren Während der Evaluation selbst werden die zuständigen AufsichtsbeamtInnen nur in Brandenburg und in Hamburg in ein laufendes Inspektions- bzw. Visitationsverfahren miteinbezogen – und dieser Schritt erfolgt auch nur für den besonderen Fall, dass ein erheblicher Entwicklungsbedarf im laufenden Verfahren festgestellt wird (vgl. dazu Abschn. 5.9). In den übrigen Ländern ist keine entsprechende Unterbrechung des Evaluationsablaufs mit Einbezug der Schulaufsicht vorgesehen. Spezielle Fortbildungen für die SchulaufsichtsbeamtInnen zur Nutzung der Evaluationsergebnisse im Rahmen der Weiterarbeit mit den Schulen sind dem Autorenteam zumindest für die Länder Berlin, Brandenburg und Hamburg benannt worden.

5.8.5 Umsetzung von Zielvereinbarungsgesprächen Die häufig an die Evaluation angeschlossenen Bilanz- bzw. Zielvereinbarungsgespräche zwischen der operativen Schulaufsicht und den Schulen sind neben Berlin und Brandenburg auch in Bayern, Hamburg, Hessen und Nordrhein-Westfalen sowie im Saarland grundsätzlich institutionalisiert und teilweise auch schulrechtlich festgelegt.52 In Bayern existiert für die Erstellung dieser Vereinbarungen auch eine eigene Handreichung (Lankes und Huber 2014). Für das Land Mecklenburg-Vorpommern sind Zielvereinbarungen laut Auskunft der Landesvertretung aktuell nicht flächendeckend institutionalisiert, sondern werden jeweils ergebnisabhängig vorgenommen, auch wenn ein solches Vorgehen im Grundsatz eingerichtet wurde (Kleine Anfrage aus 2010) und auch im Bildungsbericht (2011) genannt wird. In Niedersachsen und Schleswig-Holstein sind entsprechende Gespräche mit angeschlossenen schriftlichen Vereinbarungen zwischen den SchulaufsichtsbeamtInnen und den Schulleitungen prinzipiell nicht fest institutionalisiert; die niedersächsische Schulbehörde hat in einem Runderlass53 allerdings ersatzweise festgelegt, dass diese auf Schulwunsch hin getroffen werden können. Abb. 5.11 fasst die fest vorgesehenen Einbindungspunkte der operativen Schulaufsicht in die Verfahren externer Evaluation zusammen.

52Entsprechende

Festlegungen ließen sich für folgende Länder finden: BB: § 5 V VV-Schulvisitation; BY: Art. 113c IV BayEUG; NW: § 3 X QA-VO. 535. Abs. 3 RdErl v. 16.707.2014.

162

J. Tarkian et al.

Abb. 5.11   Einbindungspunkte der operativen Schulaufsicht in den Prozess der externen Evaluation. (Länderauswahl zum Analysestichtag 31.01.2018)

5.9 Definition kritischer Schwellenwerte Anders als bei den Vergleichsarbeiten werden für die Ergebnisse der externen Evaluation in den Konzeptpapieren mancher Länder kritische Schwellen definiert, die von den EvaluatorInnen für die Einleitung eines spezifischen Vorgehens im weiteren Verlauf zu berücksichtigen sind. Sofern während des Besuchs erkennbar wird, dass in der Einzelschule erwartete Mindestergebnisse mit Blick auf das schulische Management oder die unterrichtlichen Prozesse nicht erzielt werden, tritt ein verändertes Verfahren in Kraft. Im Rahmen der Dokumentenanalysen zeigte sich, dass mit Berlin, Brandenburg und Hamburg derzeit drei Länder für ihre laufenden Verfahren entsprechende kritische Schwellen beschreiben, die mit einer speziellen Kennzeichnung der Schule als besonders unterstützungsbedürftige Organisation einhergehen. So benennt etwa Berlin diese als Schule, die einen erheblichen Entwicklungsbedarf aufweist und erläutert die entsprechende Feststellung und das daraufhin angeschlossene Prozedere, das unter Einbezug einer prozessbegleitenden Beratung und Unterstützung (proSchul) vorgesehen ist, wie folgt:

5  Externe Evaluation – Konzeption und Implementation …

163

Schule mit erheblichem Entwicklungsbedarf

Wenn festgestellt wird, dass an einer Schule ein erheblicher Entwicklungsbedarf besteht, kann der Zeitraum bis zur nächsten Inspektion auf zwei Jahre verkürzt werden. Entscheidungen darüber, ob an einer Schule erheblicher Entwicklungsbedarf vorliegt, werden insbesondere bei folgenden Problemlagen getroffen: 1. Schlechte Ergebnisse in Schulleistungsuntersuchungen bleiben ohne schulische Konsequenzen. 2. Es werden Mängel im Schul- bzw. Konflikt- und Beschwerdemanagement festgestellt. 3. Es gibt eine besondere, schulspezifische Problemlage, gegen die keine geeigneten Maßnahmen ergriffen werden. 4. Es gibt gravierende Mängel im Schulleitungshandeln. 5. Der überwiegende Teil der Bewertungen im Unterrichtsprozess lautet „C“ und „D“. Die Entscheidung über den erheblichen Entwicklungsbedarf und die damit verbundene Verkürzung des Zeitraums bis zur nächsten Inspektion trifft die Leitung der Schulinspektion gemeinsam mit dem zuständigen Inspektionsteam nach ausführlicher Einzelfallberatung (BE_2012_Handbuch Schulinspektion, S. 17).

Im Land Brandenburg sind „zur Sicherung von Mindeststandards für Schulqualität […] Schwellenwerte definiert worden, der [sic!] die Schulen identifiziert, bei denen auf der Basis landesweiter Festlegungen ein dringender Handlungsbedarf gegeben ist“ (BB_ Handbuch_Schulvisitation 2017, S. 10). Dabei werden gleich zwei Maßstäbe gesetzt, die sich einerseits auf die bei der Visitation beurteilten Pflichtmerkmale insgesamt und anderseits auf die speziell bei den Unterrichtsbeobachtungen festgestellten Ergebnisse beziehen. Entsprechend bestehen hier als Arbeitsgrundlage für die VisitatorInnen klare Definitionen zu den erhobenen Merkmalen, die den Status einer Schule insgesamt als kritisch ausweisen oder spezifische Defizite in der Qualität des Unterrichts quittieren: Schule in kritischer Lage

Wird bei der Visitation festgestellt, dass 50 % oder mehr aller Wertungen in den pflichtigen Merkmalen B 1 bis B 6 (W 1) nicht den normativen Erwartungen (Wertung 3 oder 4) entsprechen, erhält die Schule die Einstufung „Schule in kritischer Lage“. Sie wird nach zwei Jahren erneut visitiert.

164

J. Tarkian et al.

Schule mit Entwicklungserfordernissen in der Unterrichtsqualität

Wird bei der Visitation festgestellt, dass sechs oder mehr Kriterien des Basismerkmals B 1 [min. 50 %, Anm. d. Autorenteams] Wertungen aufweisen, die nicht den normativen Erwartungen (Wertungen 3 oder 4) entsprechen (zusammengefasste Wertungen aus den Unterrichtsbeobachtungen und Schülerfragebogenergebnisse), erhält die Schule die Einstufung „Schule mit Entwicklungserfordernissen in der Unterrichtsqualität“. Der Visitationsprozess wird unterbrochen. Im Zeitraum eines Jahres erfolgt eine Folgevisitation ausschließlich zum Basismerkmal 1. Danach wird die Visitation mit dem Endbericht abgeschlossen. Die zuständige Schulaufsicht berät mit der Schulleitung die Unterstützungsmöglichkeiten und legt das weitere Vorgehen fest (BB_2017_Handbuch Schulvisitation, S. 10).

Für den Hamburger Raum ist im letzten IfBQ-Jahresbericht der Schulinspektion eine ähnliche Festlegung veröffentlicht. Mit Blick auf die Kennzeichnung der unterstützungsbedürftigen Schulen steht hier die beim Unterschreiten von Mindeststandards einzuleitende Maßnahme im Vordergrund: Schulen mit Fallkonferenz

Wenn die Schulinspektion die Bereiche „Die Entwicklung der Schule und des Lernens steuern/Qualitätsmanagement etablieren“, „Die Lehr- und Lernprozesse gestalten“ sowie „Den Unterricht kontinuierlich weiterentwickeln: Feedback und Daten für die Unterrichtsentwicklung nutzen“ mit „eher schwach“ oder schlechter bewertet, weist sie die Schulaufsicht darauf hin, dass ein besonderes Verfahren einzuleiten ist. Gemeinsam mit weiteren Vertretern aus der Behörde für Schule und Berufsbildung und dem Landesinstitut für Lehrerbildung und Schulentwicklung wird daraufhin eine Fallkonferenz zur betroffenen Schule einberufen. Auf der Grundlage des Inspektionsberichts sowie der Kenntnislage der Schulaufsicht beraten die an der Fallkonferenz Beteiligten über einzuleitende Maßnahmen. Anschließend hat die Schule etwa anderthalb Jahre Zeit, um mit Unterstützung des Landesinstituts an ihrer weiteren Entwicklung zu arbeiten und die beobachteten Schwächen zu beheben. Anders als noch im 1. Zyklus geht es nun darum, Schulen mit einer geringen Schulentwicklungskapazität davor zu bewahren, in eine gravierende Problemlage zu geraten (HH_2017_IfBQ Jahresbericht, S. 17).

In Hessen ist bislang für die Entscheidung zur Durchführung von Nachinspektionen, die bis Ende des Schuljahres 2017/2018 vorgesehen sind, ein entsprechender kritischer Schwellenwert definiert, wenn es heißt, dass

5  Externe Evaluation – Konzeption und Implementation …

165

Schulen, die sich bei der Inspektion als „unter Standard“ erweisen, […] zwei Jahre später erneut inspiziert [werden]. Als Kriterium für eine „Schule mit Nachinspektion“ ist dabei festgelegt, dass mindestens die Hälfte der Kriterien aus den Qualitätsbereichen II bis V und/oder mindestens die Hälfte der Kriterien des Qualitätsbereichs VI mit 2,0 oder darunter bewertet werden. Das etwa zwei Jahre nach der regulären Inspektion erfolgende Nachinspektionsverfahren sieht eine fokussierte Evaluation der als schwach erkannten Bereiche durch das Inspektorat vor (HE_Handbuch_Schulinspektion, 2013, S. 21).

Während in den vorgenannten Ländern – teils in klar definierter, instruktiver Weise, teils unter Gewährung eines Beurteilungsspielraums für die InspektorInnen – Festlegungen existieren, die eine gezielte Identifikation von dringend entwicklungsbedürftigen Schulen sowie ihre weitere Begleitung vorschreiben, sind in den übrigen Ländern zumindest keine verfahrensbegleitenden landesweiten Definitionen bzw. Indikatoren ergebniskritischer Schwellenwerte für besonders unterstützungsbedürftige Schulen festgesetzt. Daraus ließe sich ableiten, dass Schulräte im Rahmen ihrer Beratungs- und Unterstützungsaufgaben hier stärker gefragt sind, die Ergebnisse jeweils schulindividuell zu interpretieren. Mecklenburg-Vorpommern unterscheidet zwar auf Basis einer datengestützten Vorabanalyse, ob jenseits des Standardverfahrens ein gesonderter eintägiger Schulbesuch einzuleiten ist, feste Indikatoren zur Identifikation der zusätzlich zu besuchenden Schulen werden hierbei von der Landesschulbehörde aber in den veröffentlichten Dokumenten nicht kommuniziert. In Bayern ist mit Bezug auf ein besonders positives Abschneiden von Schulen seit einigen Jahren ein entsprechend ergebnisbetreffender Schwellenwert im Verfahren der externen Evaluation verankert: Die EvaluatorInnen vergeben hier im Rahmen des Rückmeldeberichts bei der Feststellung „großer Stärke“ bzw. „Stärke“ der Schule in ausgewählten Prozessmerkmalen (Voraussetzung: 13 ausgesuchte Merkmale weisen die oberste oder eine der beiden obersten Ausprägungen auf der Bewertungsskala aus) eine schulbetreffende Qualifizierung für die Vergabe des sog. MODUS-Status. Schulen mit diesem Ergebnis können auf Antrag beim Staatsministerium zur Teilnahme an spezifischen Weiterentwicklungsmaßnahmen berechtigt werden. Eine entsprechende Gesetzesgrundlage schafft Art. 82 Abs. 5 Satz 2 des Bayerischen EUG.

5.10 Verbindung mit weiteren Instrumenten und Verfahren der datenbasierten Qualitätssicherung und -entwicklung Verbindungsstellen zwischen der externen Evaluation und weiteren Instrumenten der datenbasierten Qualitätssicherung und -entwicklung können bereits im Vorfeld, d. h. in der Planungsphase des Evaluationsbesuchs eingerichtet sein, außerdem während

166

J. Tarkian et al.

des laufenden Verfahrens in der Anlage der Untersuchung bzw. beim Einsatz der Teilinstrumente entstehen und schließlich im Rahmen der Ergebnisrückmeldung erkennbar werden. Wie bereits im Zusammenhang mit der Analyse der Länderkonzeptionen zu den Vergleichsarbeiten (VERA) dargestellt (vgl. Kap. 4), darf auch aus der Perspektive der Inspektionsverfahren davon ausgegangen werden, dass mit der gezielten Verknüpfung zu weiteren Steuerungsinstrumenten die Idee eines ‚Gesamtkanons Schulqualität‘ unterstützt und in diesem Sinne den Schulen die Bedeutsamkeit einer Ergebnisnutzung im Gesamtzusammenhang verdeutlicht wird. Im Folgenden werden die in den Länderkonzeptionen erkennbaren Anknüpfungsstellen der externen Evaluation mit den Vergleichsarbeiten sowie mit der internen Evaluation skizziert.

5.10.1 Verbindung zwischen der externen Evaluation und den Vergleichsarbeiten Seitdem für das Brandenburgische Verfahren datenbasierte Lageeinschätzungsgespräche vorgesehen sind, die zwischen der Schule, dem Evaluationsteam und der Schulaufsicht durchgeführt werden, erhalten die Ergebnisse der Vergleichsarbeiten hier im Vorfeld des Evaluationsbesuchs ihre zentrale Bedeutung. Der primäre Verknüpfungspunkt zwischen den Instrumenten ist dabei also in der Planungsphase der Visitation angelegt. Dabei dient ein Datenblatt, in dem die Ergebnisse der letzten drei VERA-Durchgänge neben weiteren Schulleistungsdaten erfasst sind, als Gesprächsgrundlage und wird von den zuständigen SchulrätInnen für die Einschätzung des schulischen Entwicklungsstands und damit für die Terminierung (ggf. auch Schwerpunktsetzung) des Schulbesuchs herangezogen. Die Landesregierung in Mecklenburg-Vorpommern unterstreicht in ihrem Konzeptpapier aus 201754 die gewünschte Verbindung der Steuerungsinstrumente mit den Worten, dass „zur Evaluation […] gemäß Schulgesetz neben der internen und externen Evaluation auch die Auswertung von Prüfungen und Vergleichsarbeiten sowie zentrale Schulleistungsuntersuchungen“ gehören. Ähnlich wie in Brandenburg sind die VERA-Testergebnisse auch in diesem Land Teil einer strukturiert-datenbasierten Schuleinschätzung und stehen dazu der Bildungsverwaltung neben anderen schulbezogenen Daten für die Planung passender Interventionen zur Verfügung. Durch eine Zusammenschau der Daten, die an verschiedenen Stellen im System vorliegen, wird das Ziel ­verfolgt,

54Zu

finden unter https://www.bildung-mv.de/downloads/Evaluation_Gesamtkonzept_Evaluation7. pdf. Zugegriffen: 15.01.2019.

5  Externe Evaluation – Konzeption und Implementation …

167

eine transparente und robuste Bewertungsgrundlage zu erzeugen. Eine solche datenbasierte Schuleinschätzung wird sukzessive für jede Schule in Mecklenburg-Vorpommern erarbeitet. Die enthaltenen Daten werden Grundlage einer begründeten Ersteinschätzung, sie dienen dazu, zwischen risikobehafteten und nicht risikobehafteten Schulen zu unterscheiden. Diese Unterscheidung wiederum ist handlungsleitend für anschließende Schritte in der Evaluation und Qualitätsentwicklung: Je höher das Risiko einer Schule, desto dringender sind weiterführende Schritte einzuleiten, entweder in Form einer detaillierteren Evaluation oder aber aktiver Hilfestellungen, gegebenenfalls auch beides zusammen (MV_2017_ Konzeptpapier _der_internen_und_externen Evaluation, S. 4 f.).

In Bayern und Hamburg zeigt sich die Schnittstelle zwischen der externen Evaluation und den VERA-Ergebnissen hingegen innerhalb der bereits angelaufenen Evaluation, wenn für die Dokumentenanalyse zentrale Konzeptpapiere, Protokolle und schulische Daten als Grundlage für die Evaluation und den Abschlussbericht zusammengestellt werden. Während dabei in Bayern die Ergebnisse der Vergleichs- und Orientierungsarbeiten direkt in das jeweilige Schulportfolio eingespielt werden, sind die Hamburger Inspektoren darauf angewiesen, sämtliche schulischen Leistungsdaten, darunter auch die KERMIT-3 und -8-Ergebnisse, während des Evaluationsprozesses bei den Schulen abzufragen. Da im Hamburger Ergebnisbericht Angaben zum schulischen Umgang mit den Ergebnissen grundsätzlich vorgesehen sind, ist eine entsprechende Abfrage der Daten bei den Schulen im Rahmen der Dokumentenanalyse üblich. In Berlin wie auch Nordrhein-Westfalen werden im aktuellen Zyklus keine Schulleistungsdaten mehr in den veröffentlichten Ergebnisberichten ausgewiesen, entsprechend sind auch im Rahmen der Dokumentenanalysen keine Abfragen von VERA-Daten durch die EvaluatorInnen konzeptionell vorgesehen. Für eine Beurteilung der schulischen Leistung ziehen die Berliner InspektorInnen im Sekundarschulbereich stattdessen MSA- oder Abiturergebnisse heran, die sie mit dem Landesdurchschnitt vergleichen. Mit Blick auf VERA bildet der innerschulische Umgang mit den Ergebnissen das zentrale Kriterium, nicht (mehr) die erreichten Kompetenzstände selbst. Hessen, Niedersachsen, Schleswig-Holstein und das Saarland nutzen Daten der Vergleichsarbeiten im Rahmen ihrer Evaluationsverfahren nur im Einzelfall nach Vereinbarung. Eine regelhafte Verbindung zwischen den Instrumenten besteht hier dementsprechend weder im Vorfeld des Verfahrens noch im Rahmen der Auswertung von Dokumenten vor Ort. Häufiger finden sich hingegen Schnittstellen im Zusammenhang mit den schriftlichen Befragungen. So wird in Bayern, Brandenburg, Hamburg, Mecklenburg-Vorpommern wie auch dem Saarland die Nutzung der VERA-Daten auf Ebene der Fachkonferenzen oder vergleichbarer schulischer Arbeitsgruppen ermittelt; in Bayern ist zusätzlich auch der Umgang mit den Ergebnissen durch die Einzellehrkraft Teil der Erhebung. Zudem

168

J. Tarkian et al.

ist hier, wie auch in Brandenburg, ein Item im Elternfragebogen enthalten, über das eine Weitergabe der Lernstände an die Erziehungsberechtigten erfasst wird. Die Ergebnisse dieser Befragungen gehen den Schulen entweder im Haupttextteil des Ergebnisberichts zu oder sie werden im Anhang des Evaluationsberichts in Form von Auswertungstabellen zu den (zentralen) Items zurückgespielt. Für Lehrkräfte und Eltern aus Berlin und Schleswig-Holstein sind hingegen in den aktuellen Fragebögen keine Fragen zum Umgang mit VERA-Ergebnissen enthalten. Bei der niedersächsischen Fokusevaluation und der Qualitätsanalyse in Nordrhein-Westfalen sind derzeit standardisierte Befragungen dieser beiden Befragungsgruppen noch nicht fest eingerichtet, sodass auf Basis dieses Teilinstruments hier entsprechend prinzipiell keine Informationen ausgewertet werden können. Während der Großteil der Länder in den Rückmeldeberichten Angaben zur innerschulischen Nutzung der VERA-Testergebnisse macht, werden die Schulleistungsdaten selbst nur noch selten aufgeführt: Ausschließlich in Evaluationsberichten aus Bayern55 sind die aktuellen, auf Schulebene aggregierten Ergebnisse ausgewiesen und im Landeskontext verortet. Berlin und Brandenburg sowie Nordrhein-Westfalen berichten dagegen in ihren laufenden Evaluationszyklen keine Originaldaten mehr,56 Mecklenburg-Vorpommern, Hamburg, Niedersachsen, Schleswig-Holstein und das Saarland haben für ihre aktiven Verfahren grundsätzlich von einer Einspielung entsprechender Leistungsdaten abgesehen. In Mecklenburg-Vorpommern wird allerdings in einer kurzen Textpassage der allgemeine Ergebnisstand der Schule im Vergleich zum Landesdurchschnitt eingeordnet und das schulische Abschneiden bewertet,57 zugleich sind Angaben zur Nutzung der Daten durch das Kollegium aufgeführt. Solche Hinweise auf den innerschulischen Umgang mit den VERA-Ergebnissen sind auch in der Schulrückmeldung des Saarlands sowie in den hamburgischen und brandenburgischen Berichten (Langwie Kurzfassung) enthalten. Die saarländischen EvaluatorInnen erteilen den Schulen im Einzelfall Empfehlungen zur Nutzung der Testdaten, jedenfalls sofern sie bei den Fragebogenergebnissen zur Datennutzung Auffälligkeiten feststellen, die sich bei der Durchsicht schulischer Unterlagen vor Ort so auch bestätigen. Festgelegt im Sinne eines Standards ist dieses Vorgehen allerdings nicht. In Schleswig-Holstein, Niedersachsen und Nordrhein-Westfalen können, sofern in dem Prozess der externen Evaluation Informationen zur Nutzung generiert werden, entsprechende Passagen zur Datennutzung durchaus in die Berichtslegung eingehen, dies ist allerdings ebenfalls nicht regelhaft ­vorgesehen.

55Hier

bleiben Ergebnisberichte zur externen Evaluation auch grundsätzlich unveröffentlicht. begründet dies damit, dass diese mit Blick auf das aktuelle Qualitätstableau nicht mehr wertungsrelevant sind, stattdessen nun verstärkt im Vorfeld der Evaluation von Bedeutung sind. 57So zumindest in einem dem Autorenteam vorliegenden Beispielbericht aus 2010. 56BB

5  Externe Evaluation – Konzeption und Implementation …

169

5.10.2 Verbindung zwischen der externen und der internen Evaluation Auch Verbindungspunkte zwischen der externen und der internen Evaluation können im Vorfeld des Schulbesuchs, während des laufenden Verfahrens und im Anschluss daran vorgesehen sein. Dabei dienen im ersten Fall Dokumente bzw. Ergebnisdaten der internen Evaluation der passgenauen Konzeptionierung der Schulbesuchsverfahren, während bei einer Verknüpfung zu Evaluationsende der Ergebnisbericht als Impulssignal für eine schulinterne Aufnahme bzw. Weiterarbeit an der Qualitätsentwicklung verstanden werden kann. Während des laufenden Verfahrens ergibt sich das Zusammenspiel beider Evaluationsformen durch eine erkennbare Bezugnahme der Qualitätstableaus (und damit im Weiteren der eingesetzten Teilinstrumente) auf innerschulisch erfolgte bzw. laufend erfolgende Maßnahmen zur eigengesteuerten Schul- und Unterrichtsentwicklung.

5.10.3 Interne Evaluation als Grundlage der externen Evaluation Ergebnisse interner Evaluation können insbesondere in den Ländern, deren Schulbesuchsverfahren in vergleichsweise flexibilisierter Weise konzeptioniert sind, die also ausdrücklich schuleigene Untersuchungsbedarfe berücksichtigen, eine zentrale Basis für die Gestaltung der externen Evaluation bieten. Bei der Niedersächsischen Fokusevaluation soll die zu Prozessbeginn vorgesehene Evaluationsvereinbarung mit ihrer Verschriftlichung von Entwicklungszielen an entsprechende Festlegungen in dem jeweiligen Schulprogramm geknüpft sein.58 Dies enthält zwar nicht zwangsläufig Daten schulischer Selbstevaluation, gilt aber zumindest als programmatischer Angelpunkt der schulinternen Evaluationsarbeit (Thiel und Thillmann 2012; Thillmann et al. 2013). In einem sogenannten „Schulprogramm-kick-off“ wird hier eine bewusste Verbindung zwischen diesen beiden Instrumenten hergestellt, die nach Darstellung der Landesregierung dann weitere schematische Vorgaben für die Einleitung der Evaluation weitgehend entbehrlich macht. Ist kein Schulprogramm vorhanden, sind die EvaluatorInnen aufgerufen, eine vergleichbare Basis zu finden, aus der die aktuellen schulischen Entwicklungsziele hervorgehen. Nordrhein-Westfalen sieht gemäß einem Konzeptpapier zur Neuausrichtung des Verfahrens für seine Planungsphase der Qualitätsanalyse vor, dass vor dem Schulbesuch zunächst eine schulische Selbstevaluation zur Standortbestimmung durchgeführt wird; entsprechende Instrumente zur internen Qualitätsfeststellung werden den Schulen bereitgestellt. Für die festzulegenden Wahlmerkmale im Qualitätstableau sind laut

58siehe

unter http://www.nibis.de/uploads/2nlq-si/2017-05_aktuelle_Seite/Inspektion/abS/Weiterentwick-lung%20SI%203.0/Infomaterial/2018-04-06_Informationsveranstaltung_Schul%C3%B6ffentlichkeit_PDF.pdf. Zugegriffen: 25.09.2017.

170

J. Tarkian et al.

einem Informationspapier zum Verfahrensablauf (2016) die „aktuellen schulischen Entwicklungsvorhaben bzw. schulinternen Evaluationen“ zu berücksichtigen. Entsprechende Angaben sollen von der Schule in einem Portfolio (Teil I) zusammengestellt werden, das den QualitätsprüferInnen im Vorfeld des Besuchs zur Verfügung zu stellen ist. Auch in Schleswig-Holstein und Hessen sind die EvaluatorInnen angehalten, die Fragestellung des Schulfeedbacks aus schuleigenen Dokumenten mitabzuleiten, die im Zusammenhang mit Maßnahmen interner Evaluation entwickelt worden sind. Allerdings wird dafür nicht zwangsläufig ein Schulprogramm eingefordert. Es können ebenso die Fachcurricula oder auch grundsätzliche Informationsbedürfnisse, die von den beteiligten Akteuren als Gesprächs- und Evaluationsanlass angeführt werden, die Grundlage des Schulbesuchs bilden. Da die Schule in dieser Konzeption bewusst hohe Mitgestaltungsfreiheiten bei der Verfahrensplanung und -umsetzung erhält, können beide Verfahren letztlich selbst als eine Variante ‚extern unterstützter interner Evaluation‘ verstanden werden, die auf Schulwunsch hin datenbasiert angestoßen werden kann, aber nicht muss. In einem Konzeptpapier zur Qualitätsentwicklung allgemeinbildender Schulen in Mecklenburg-Vorpommern wird in etwas allgemeinerer Ausführung betont, dass schulinterne Evaluationsergebnisse eine Grundlage zur Bestimmung von Schulqualität bilden, die durch die externe Evaluation um eine objektivierte Sichtweise erweitert wird:

Externe Evaluation ergänzt die stark die individuelle Perspektive einer Schule abbildenden Ergebnisse der internen Evaluation um eine Sichtweise, die sich entweder auf vorhandene Daten stützt oder sie anhand akzeptierter Qualitätsstandards und durch die Einschätzungen von Expertinnen und Experten erhebt, die ihrerseits nicht unmittelbar Angehörige der zu evaluierenden Schule sind. Zudem berücksichtigt sie die Praxis der internen Evaluation an Schulen. Diese Konstellation bringt objektivierte und intersubjektiv nachvollziehbare Daten hervor. Beide Evaluationsformen zusammen sind in der Lage, ein umfassenderes Bild von der Praxis einer Schule zu zeichnen (MV_2017_Konzept der internen und externen Evaluation für allgemeinbildende Schulen in öffentlicher Trägerschaft [„Selbstständige Schulen“] in Mecklenburg-Vorpommern, S. 4).

In welcher Weise sich die externe Evaluation auf die internen Schuldaten stützt, bleibt an dieser Stelle offen. Es darf aber davon ausgegangen werden, dass damit das Teilinstrument der datenbasierten Schuleinschätzung angesprochen ist, über das in Mecklenburg-Vorpommern Entscheidungen zur Einleitung und Umsetzung der externen Evaluation vorbereitet werden. Eine entsprechende Übersendung von Ergebnissen aus interner Schulevaluation an die Schulaufsichtsbehörde ist im Rahmen einer Schulqualitätsverordnung festgelegt (SchQualiVO M-V § 5 Abs. 4).

5  Externe Evaluation – Konzeption und Implementation …

171

Für die übrigen Länder ließen sich keine Hinweise darauf finden, dass Maßnahmen schulinterner Evaluation den konzeptionellen Ausgangspunkt für die Ausgestaltung der Verfahren externer Evaluation bilden.

5.10.4 Externe Evaluation als Basis für Maßnahmen der internen Evaluation Deutlich häufiger als im vorgenannten Fall wird in den einschlägigen Konzepterläuterungen der Länder erkennbar, dass die Ergebnisse externer Schulqualitätsfeststellungen als Anstoß für schulinterne Bemühungen zur Verbesserung der Arbeitsprozesse im Sinne der Entwicklungsfunktion (vgl. Abschn. 5.2.1) dienen sollen. So ist etwa für Brandenburg auf dem Landesbildungsserver nachzulesen, dass die Ergebnisberichte der Schulvisitation „eine geeignete Grundlage für Aktivitäten der Selbstevaluation bilden“. In ähnlicher Weise betont die Berliner Senatsbildungsverwaltung in ihrem Bilanzbericht zur Schulinspektion den „Auftrag zur innerschulischen Evaluation, die sich logischerweise mit den Befunden externer Evaluationen auseinandersetzen sollte“ als eine zentrale Aufgabe für Berliner Schulleitungen.59 Bayern verortet in seinem letzten Bildungsbericht die interne Evaluationsarbeit sowohl im Anschluss an das Verfahren als auch als Grundlage für einen nächsten Schulbesuch. Damit wird hier eine Wechselseitigkeit zwischen interner und externer Ermittlung schulischer Entwicklungsstände im Sinne eines Evaluationskreislaufs konzipiert, wenn es heißt:

Nach der Umsetzung der Maßnahmen wird im Rahmen einer internen Evaluation, die von der Schule selbst verantwortet wird, geprüft, ob die Maßnahmen erfolgreich gewesen und die Ziele erreicht worden sind (Art. 113c BayEUG). Die Ergebnisse der internen Evaluation führen in eine erneute Phase der Zielfindung, der Planung und Umsetzung von Maßnahmen mit einer neuerlichen Erfolgskontrolle. Alle fünf Jahre findet eine umfassende Bestandsaufnahme in Form einer externen Evaluation statt (Bayern_2015_Bildungsbericht, S. 204).

Über eine Ziel- und Handlungsvereinbarung zum Ende der externen Evaluation werden dazu konkrete schulinterne Evaluationsmaßnahmen vereinbart, die mit Blick auf das Thema, die Zielsetzung, die einzusetzenden Instrumente, die Dokumentation sowie Grundsätze zur Maßnahmenbilanzierung festgehalten werden. Die erreichten Ergebnisse sind zwei Jahre nach Abschluss der Vereinbarung durch die Schulaufsicht zu beurteilen (vgl. Leitfaden zur Erstellung von Zielvereinbarungen, 2014).

59BE_2014_7_Jahre_Schulinspektion,

S. 9.

172

J. Tarkian et al.

Auch in einer Hamburger Handreichung zum Umgang mit dem Inspektionsbericht (2015) wird auf die Funktion der internen Evaluation hingewiesen, die nach Besuchsende einzuleitenden Schulentwicklungsmaßnahmen flankierend zu begleiten. Ergebnisse regelmäßiger Selbstevaluation sollen im Prozess einer zielgerichteten Entwicklungsarbeit „Kurskorrekturen und Nachbesserungen“ ermöglichen. Unter zusätzlichem Einbezug von KERMIT-Daten, Prüfungsergebnissen sowie weiteren, im Datenblatt „Schule im Überblick“ erfassten Schulstatistiken sind die Schulen aufgerufen, „die verschiedenen Befunde nebeneinander zu legen und daraufhin anzuschauen, ob sie in eine ähnliche Richtung weisen bzw. zueinander passen, oder ob sie Widersprüchliches aufzeigen“ (S. 5). Unterstützung beim Zusammenbringen der Daten bietet das IfBQ bzw. das Hamburger Landesinstitut an. Ausführliche Erläuterungen zur innerschulischen Weiterarbeit mit den Ergebnissen für die Entwicklung von Schule und Unterricht finden sich im Handbuch Schulfeedback aus Schleswig-Holstein. Im Rahmen der für dieses Land ausdrücklich eingerichteten Beratungsbefugnisse des Landesinstituts werden den Schulen hier zudem verschiedene Unterstützungsleistungen wie einer Prozessbegleitung durch das IQSH oder die Möglichkeit zur Beantragung von speziellen Mitteln aus einem eigenen Schulentwicklungsfonds angeboten. Speziell mit Blick auf die anschließenden Maßnahmen zur Selbstevaluation wird dazu angeregt, dass von den Schulen „im Rahmen des Verfahrens zum Schulfeedback weitere Instrumente der internen Evaluation aus LeOniE (leonie-sh.de) genutzt werden“ (SH_2016_Handbuch_Schulfeedback, S. 10). Im Rahmen einer kleinen Anfrage (2010) betont die Landesregierung in Mecklenburg-Vorpommern zwar die Bedeutung der externen Evaluation für die (inner–)schulische Qualitätsentwicklung, wenn sie resümiert, dass „durch die externe Evaluation […] eine völlig neue Kommunikationsebene zwischen Schule und Schulaufsicht zur qualitativen Entwicklung von Schule geschaffen [wurde und] der intensive Diskurs […] wesentliche Prozesse der internen Entwicklung in Selbstständiger Schule und in Schulaufsicht in Gang [setzt]“. Dass die Ergebnisse der externen Evaluation als Basis anschließender Maßnahmen schulinterner Evaluation dienen sollen, wird in dem Konzeptpapier (2017) zum „Gesamtkonzept der internen und externen Evaluation“ allerdings nicht explizit gefordert. Die hier eingenommene Blickrichtung zur „enge[n] Verzahnung interner und externer Evaluation“ betont in umgekehrter Weise „die Betrachtung der Arbeit einer Schule mit den Instrumenten der internen Evaluation ihrerseits [als] Bestandteil der externen Evaluation“ (S. 55 f.). Auch Niedersachsen und das Saarland weisen in allgemeiner Form auf die Aufgabe der evaluierten Schulen hin, nach Ende des Schulbesuchs Ansätze für die weitere Verbesserung der Unterrichtsqualität und die Weiterentwicklung der schulischen Prozesse zu formulieren. Ein ausdrücklicher Anschluss an die interne Evaluation ist dabei aber nur im niedersächsischen Verfahren erkennbar, wo im Zusammenhang mit der zweiten Unterrichtsbeobachtung eine erneute Überprüfung der Entwicklungsziele durch die Schule vorgesehen ist. Zur Unterstützung der dazu erwarteten internen Evaluation ist ein entsprechendes Portal (PIE) eingerichtet. Auch Nordrhein-Westfalen betont in seinem Konzeptpapier zur Neuausrichtung der Qualitätsanalyse aus 2013 zwar, dass

5  Externe Evaluation – Konzeption und Implementation …

173

die hierbei gewonnenen Erkenntnisse „noch intensiver für die Schulentwicklung nach der QA genutzt werden [sollen]“ und benennt im Zusammenhang der laufenden Überprüfung entsprechend anvisierter Entwicklungsziele ein „schulinternes Controlling“ als erforderliche Selbstüberprüfung. Gezielte Hinweise auf eine instrumentbasierte Selbstevaluation im Nachgang der Analyse erfolgen hier allerdings nicht – ausgehend von den vorliegenden Konzeptpapieren spielt die interne Evaluation bei der Qualitätsanalyse eine stärkere Rolle im Vorfeld bzw. während des laufenden Evaluationsprozesses.

5.10.5 Bezugnahme der Qualitätstableaus auf Maßnahmen interner Evaluation Eine im Evaluationsprozess selbst angelegte Verbindung zur internen Evaluation ergibt sich durch den Blick auf schulische Selbstevaluationsvorhaben (und in erweiterter Form auch auf die dazugehörende Schulprogrammarbeit) in der Untersuchungsanlage der externen Evaluation. Dies lässt sich bereits an den zum Einsatz kommenden Qualitätstableaus bzw. Untersuchungsschwerpunkten auf Indikatorenebene ablesen, wird aber spätestens in den jeweiligen Befragungsinstrumenten im Weiteren auch praktisch e­ rkennbar. Bei der Hamburger Schulinspektion werden die Erarbeitung eines Schulprogramms sowie die regelhaft erfolgende interne Evaluation samt Ergebnisnutzung, auch im Gesamtdatenkontext, in umfassender Weise als Maßstäbe für eine Bewertung des schulischen Steuerungshandelns und Qualitätsmanagements herangezogen (subsumiert unter den Qualitätsaspekten 1.2.2 ‚Instrumente der Schulentwicklung‘ und 1.3 ‚Qualitätsmanagement etablieren‘). Da die Schulprogrammarbeit (Punkt 1.1 des Qualitätstableaus) ebenso wie Punkt die interne Evaluation (Punkt 1.2) im dritten Zyklus des Berliner Schulinspektionsverfahrens nicht mehr verpflichtend vorgesehen sind, werden hier Fragen der internen Qualitätssicherung grundsätzlich nur in reduzierter Form unter 4.2.1 (‚Aufbau eines Qualitätsmanagements in der Schule‘) mituntersucht: Allein die Weiterentwicklung des Schulprogramms ist hier als begleitender Untersuchungsgegenstand für den Bereich der Selbstevaluation benannt. Ähnlich verhält es sich in Mecklenburg-Vorpommern: Im Qualitätsbereich 4 (‚Schulmanagement‘) wird weiterhin die Frage nach der Verantwortung für das Schulprogramm gestellt. Das Qualitätsmerkmal 5.1 selbst (‚Schulprogramm‘) ist aber ebenso wie der Bereich 5.2 (‚Selbstevaluation der Unterrichts- und Erziehungsarbeit‘) und der Bereich 5.3 (‚die Entwicklung der Schule als Ganzes‘), unter den auch die ‚planvolle Entwicklung und regelmäßige Evaluation‘ der Schule zählt, derzeit nicht mehr verpflichtend zum Einsatz vorgesehen. Das in Brandenburg eingesetzte Qualitätstableau bezieht sich im Basismerkmal 3 (‚Qualitätsentwicklung‘) auf schulisch umgesetzte Entwicklungsmaßnahmen. Unter diesem Bereich wird nicht nur hinterfragt, ob Ziele und Strategien der Schulentwicklung vereinbart sind (Schulprogrammarbeit), sondern auch konkret, ob die Schule eigene Entwicklungsvorhaben evaluiert, systematisch die Unterrichtsqualität erhebt und aus den Erkenntnissen Maßnahmen ableitet. Bayern bildet die Frage, inwiefern schulische

174

J. Tarkian et al.

Projekte intern evaluiert werden, im Qualitätstableau unter dem Punkt S7 (‚Systematik der Qualitätsentwicklung‘) ab, der zum Teilbereich „Entwicklung der Schule“ zählt. Dabei wird in ähnlicher Weise die methodische Entwicklung von Qualitätszielen (über Basisevaluationen und frühere Ergebnisse externer Evaluation), daran angeschlossene Prozessplanungen sowie die systematische Koordination und die kriteriengeleitete Wirksamkeitsüberprüfung von Maßnahmen der Qualitätsentwicklung erfasst. In Nordrhein-Westfalen stellt die Nutzung des Schulprogramms als internes Steuerungsinstrument ein obligatorisch zu untersuchendes Qualitätsmerkmal im Inhaltsbereich 4.7 dar (‚Strategien der Qualitätsentwicklung‘). Die inhaltliche Gestaltung des Programms wird über den Bereich 2.1 (Ergebnis- und Standardorientierung) ebenfalls standardmäßig bei jeder Qualitätsanalyse erfasst. Eine eindeutige Bezugnahme auf Maßnahmen interner Evaluation wird in dem Qualitätstableau hingegen nur in Punkt 2.5 mit Blick auf die Nutzung von Schülerfeedback als einem verpflichtend zu untersuchenden Merkmal erkennbar. Allerdings sind in dem Schulportfolio II unter Aspekt 7 ‚Evaluation, Ergebnisse und Konsequenzen‘ von den Schulen die abgeschlossenen und geplanten Evaluationsvorhaben zu skizzieren. Das Portfolio ist den Qualitätsprüfern gemeinsam mit dem (fortgeschriebenen) Schulprogramm sechs Wochen vor dem Schulbesuch zur Verfügung zu stellen. Im Saarländischen Qualitätstableau wird über den Qualitätsbereich 4 (‚Schulmanagement und Qualitätsentwicklung‘) in dem subsumierten Aspekt 5 (‚Schulentwicklung‘) Bezug auf Maßnahmen schulinterner Evaluation genommen: Hier dienen als Anhaltspunkte die Fragen, ob ein Schulprogramm vorhanden ist, ob die Schule Erfahrungen mit Evaluationsmaßnahmen zur Qualitätssicherung gemacht hat und wie die Schule mit Evaluationsergebnissen umgeht. Niedersachsen und Schleswig-Holstein sehen für ihre Verfahren jeweils ausschließlich den Qualitätsbereich ‚Lehren und Lernen‘ verbindlich vor. Der Teilbereich ‚Schulprogramm und konzeptionelle Vorstellungen‘ (1.1) kommt damit ebenso wie ‚Daten zur Schul- und Unterrichtsentwicklung‘ (1.2) beim Schulfeedback nicht zwangsläufig während der Untersuchung zum Einsatz. In den Lehrerfragebogen sind allerdings grundsätzlich zwei Items (23 & 33) enthalten, die sich auf die Durchführung von Schülerfeedbacks und auf die gemeinsame Weiterentwicklung des Schulprogramms beziehen. Auch die in Niedersachsen im Qualitätsbereich 4.1 ‚Schulprogramm‘ und 4.2 ‚Evaluation‘ erfassten Aspekte sind nicht flächendeckend für die Fokusevaluation vorgeschrieben, sodass für dieses Land mit Ausnahme des vorangestellten Schulprogramm-Feedbacks kein konzeptioneller Verbindungspunkt zur internen Evaluation im Prozess der externen Evaluation selbst fest vorgesehen ist. Eine hier noch nicht genannte Verbindung ergibt sich zudem in den Ländern über die von den Landesinstituten bzw. Qualitätsagenturen bereitgestellten Evaluationstools, die sowohl für die Online-Befragungen im Rahmen der externen Evaluation als auch für selbst bzw. gemeinsam entwickelte interne Evaluationserhebungen der Schulen zum Einsatz kommen können. Diese von den Ländern speziell zur Erarbeitung sowie Unterstützung schuleigener Entwicklungsvorhaben erstellten Unterstützungsangebote ­ sollen Gegenstand von Kap. 6 sein und werden daher an dieser Stelle nicht vertieft.

5  Externe Evaluation – Konzeption und Implementation …

175

5.11 Zusammenfassung Die Verfahren externer Evaluation unterscheiden sich innerhalb der Länder deutlich erkennbar, insbesondere in der jeweiligen Ausgestaltung der verfolgten Funktionen sowie mit Blick auf die Konzeption der dabei zum Einsatz kommenden Teilinstrumente und ihrer konkreten Implementationsbedingungen in der schulischen Praxis. Eine Gesamtzusammenfassung der im vorangegangenen Textteil den Länderverfahren zugeordneten vier Teilfunktionen externer Evaluation bietet Abb. 5.12. Dabei

Abb. 5.12   Mit der externen Evaluation in den Landeskonzeptionen verbundene Funktionen. (Länderauswahl zum Analysestichtag 31.01.2018)

176

J. Tarkian et al.

ist eine Zuordnung zu der zentralen Entwicklungsfunktion für alle Länder grundsätzlich durch entsprechende Festlegungen gegeben, die in den Konzeptpapieren aller Länder in vielfachen Ausführungen gefunden werden konnten. Die Zuordnung zur Funktion des Systemmonitorings wird an einer Ergebnisaufbereitung der aggregierten Evaluationsdaten im Rahmen öffentlich einsehbarer (Bildungs–)Berichterstattung festgemacht, während eine Informationsfunktion dann als gegeben gewertet wird, wenn in dem Land Festlegungen zur gesamt- bzw. zumindest zur innerschulischen Offenlegung der einzelschulischen Ergebnisberichte vorliegen, die betroffene Eltern (und SchülerInnen) als Berichtsadressaten grundsätzlich miteinschließen. Eine solche Offenlegung der Ergebnisberichte, die zumindest GremienteilnehmerInnen in Kenntnis setzt, ist in allen Ländern bis auf das Saarland schriftlich verankert. Für eine Zuordnung zur Controllingfunktion müssen mindestens drei der vier in dem betreffenden Textabschnitt genannten Merkmale gegeben sein (vgl. Abschn. 5.2.2). Es zeigt sich, dass ausgehend von den gewählten Operationalisierungen die Inspektions- bzw. Visitationsverfahren der Länder Brandenburg, Berlin und Hamburg sämtliche Teilfunktionen externer Evaluation bedienen (vgl. Abb. 5.12). Eine Informationsfunktion ist in allen Ländern für den schulöffentlichen Raum festgelegt, beschränkt sich dabei allerdings üblicherweise auf die Teilnehmer der schulischen Konferenzen, in deren Rahmen der Evaluationsbericht bzw. die zentralen Ergebnisse vorgestellt werden. Nur in Brandenburg, Berlin und Hamburg werden die Ergebnisse darüber hinaus auch der Gesamtöffentlichkeit über das Internet zur Verfügung gestellt. Das Verfahren der externen Evaluation in Bayern wie auch im Saarland und in Schleswig-Holstein fokussiert in seiner derzeitigen Konzeption die innerschulische Entwicklung und Information, eine Controlling- und Monitoringfunktion ist hier nicht im vergleichbarem Maße wie in den vorgenannten Ländern gegeben.

Anhang Abbildung zur Gegenüberstellung der Unterrichtsbeobachtungsbögen der Verfahren externer Evaluation (Abb. 5.13)

5  Externe Evaluation – Konzeption und Implementation …

177

Abb. 5.13   Unterrichtsbeobachtungsbögen der Verfahren externen Evaluation in den 16 Ländern

178

Abb. 5.13   (Fortsetzung)

J. Tarkian et al.

5  Externe Evaluation – Konzeption und Implementation …

Abb. 5.13   (Fortsetzung)

179

180

Abb. 5.13   (Fortsetzung)

J. Tarkian et al.

5  Externe Evaluation – Konzeption und Implementation …

181

Literatur Altrichter, H., & Kemethofer, D. (2016). Stichwort. Schulinspektion. Zeitschrift für Erziehungswissenschaft, 19(3), 487–508. https://doi.org/10.1007/s11618-016-0688-0. Blok, H., Sleegers, P., & Karsten, S. (2008). Looking for a balance between internal and external evaluation of school quality: Evaluation of the SVI model. Journal of Education Policy, 23(4), 379–395. Bos, W., Dedering, K., Holtappels, H.-G., Müller, S., & Rösner, E. (2007). Schulinspektion in Deutschland – Eine kritische Bestandsaufnahme. In J. van Buer (Hrsg.), Qualität von Schule. Ein kritisches Handbuch (S. 241–257). Frankfurt a. M.: Peter Lang. de Jong, R., & Reezigt, G. (2007). Interraterreliability of inspectors, Herne. Zugegriffen: 10. Apr. 2018. Döbert, H., & Dedering, K. (Hrsg.). (2008). Externe Evaluation von Schulen. Historische, rechtliche und vergleichende Aspekte. Münster: Waxmann. Füssel, H.-P. (2007). Erweiterte Autonomie der Einzelschule und externe Evaluation. Entwicklungen in der deutschen Schulpraxis und Schulgesetzgebung. In J. van Buer (Hrsg.), Qualität von Schule. Ein kritisches Handbuch (S. 229–240). Frankfurt a. M.: Peter Lang. Füssel, H.-P. (2008). Schulinspektion und Schulaufsicht, Schulinspektion oder Schulaufsicht, Schulinspektion versus Schulaufsicht, Schulinspektion als Schulaufsicht? In H. Döbert & K. Dedering (Hrsg.), Externe Evaluation von Schulen. Historische, rechtliche und vergleichende Aspekte (S. 153–164). Münster: Waxmann. Füssel, H.-P., & Leschinsky, A. (2008). Der institutionelle Rahmen des Bildungswesens. In K. S. Cortina (Hrsg.), Das Bildungswesen in der Bundesrepublik Deutschland. Strukturen und Entwicklungen im Überblick: [der neue Bericht des Max-Planck-Instituts für Bildungsforschung] (Rororo, Orig.-ausg., vollst. überarb. Neuausg, S. 131–204). Reinbek bei Hamburg: Rowohlt. Gärtner, H., & Pant, H. A. (2011). Validierungsstrategien für Verfahren und Ergebnisse von Schulinspektion. In S. Müller, M. Pietsch, & W. Bos (Hrsg.), Schulinspektion in Deutschland. Eine Zwischenbilanz aus empirischer Sicht (S. 9–31). Münster: Waxmann. Gärtner, H., & Wurster, S. (2009). Befragung zu Wirkung von Schulinspektion in Berlin. Ergebnisbericht. https://www.ssoar.info/ssoar/bitstream/document/34736/1/ssoar-2009-gartner_et_ al-Befragung_zu_Wirkung_von_Schulinspektion.pdf. Gärtner, H., Wurster, S., & Pant, H. A. (2014). The effect of school inspections on school improvement. School effectiveness and school improvement, 25(4), 489–508. https://doi.org/10.1080/09 243453.2013.811089. Harris, D. N., & Herrington, C. D. (2006). Accountability, standards, and the growing achievement gap: Lessons from the past half-century. American Journal of Education, 112(2), 209–238. https://doi.org/10.1086/498995. Kuhn, H.-J. (2015). Rechtliche, strukturelle und politische Rahmenbedingungen für externe Evaluation in Deutschland. In M. Pietsch, B. Scholand, & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (HANSE – Hamburger Schriften zur Qualität im Bildungswesen, Bd. 15, S. 385–418). Münster: Waxmann. Kultusministerkonferenz (KMK)  =  Sekretariat der Ständigen Konferenz der Kultusminister. (2008). Stellungnahme der Kultusministerkonferenz zu den Ergebnissen des Ländervergleichs von IGLU 2006 (Pressemitteilung vom 09.12.2008, o. S.). https://www.kmk.org/presse/pressearchiv/mitteilung/stellungnahme-der-kultusministerkonferenz-zu-den-ergebnissen-des-laendervergleichs-von-iglu-2006.html. Zugegriffen: 15. März 2018. Kultusministerkonferenz. (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin.

182

J. Tarkian et al.

Landwehr, N. (2011). Thesen zur Wirkung und Wirksamkeit der externen Schulevaluation. In C. Quesel, V. Husfeldt, N. Landwehr, & P. Steiner (Hrsg.), Wirkungen und Wirksamkeit der externen Schulevaluation (S. 35–69). Bern: Hep. Lankes, E.-M., & Huber, F. (2014). Leitfaden für die Erstellung von Zielvereinbarungen. Erarbeitet im Auftrag des Bayrischen Staatsministeriums für Unterricht und Kultus (Qualitätsagentur am Staatsinstitut für Schulqualität und Bildungsforschung, Hrsg.). https://d-nb. info/1027793878/34. Zugegriffen: 21. Dez. 2017. Lankes, E.-M., Vaccaro, D., & Gegenfurtner, A. (2013). Wie kommen Evaluationsteams zu ihrer Einschätzung der Unterrichtsqualität bei externen Evaluationen? Unterrichtswissenschaft: Zeitschrift für Lernforschung, 41(3), 197–215. Maritzen, N. (2006). Schulinspektion zwischen Aufsicht und Draufsicht – Eine Trendanalyse. In H. Buchen, L. Horster, & H.-G. Rolff (Hrsg.), Schulleitung und Schulentwicklung (S. 7–26). Stuttgart: Raabe, Fachverlag für Bildungsmanagement. Maritzen, N. (2008). Schulinspektionen. Zur Transformation von Governance-Strukturen im Schulwesen. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 100(1), 85–96. Maritzen, N. (2015). Schulinspektion – Aspekte der Transformation von Governance-Strukturen. In M. Pietsch, B. Scholand, & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (HANSE – Hamburger Schriften zur Qualität im Bildungswesen, Bd. 15, S. 13–36). Münster: Waxmann. Perels, F., & Zahn, A. (2013). Auswirkungen der Variation der Dauer von Unterrichtsbeobachtungen im Rahmen der Hessischen Schulinspektion – Vergleich von 20- und 45-minütigen Unterrichtsbeobachtungen. Unterrichtswissenschaft: Zeitschrift für Lernforschung, 03, 235–251. Peters, S. (2015). Eltern als Stakeholder von Schule – Erkenntnisse über die Sichtweise von Eltern durch die Hamburger Schulinspektion. In M. Pietsch, B. Scholand, & K. Schulte (Hrsg.), Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (HANSE – Hamburger Schriften zur Qualität im Bildungswesen, Bd. 15, S. 341–365). Münster: Waxmann. Pietsch, M., & Tosana, S. (2008). Beurteilereffekte bei der Messung von Unterrichtsqualität. Zeitschrift für Erziehungswissenschaft, 11(3), 430–452. https://doi.org/10.1007/s11618-008-0021-7. Rürup, M. (2008). Typen der Schulinspektion in den deutschen Bundesländern. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 100(4), 467–477. Saldern, M. v. (2011). Schulinspektion. Fluch und Segen externer Evaluation (Schule in Deutschland, Bd. 5). Norderstedt: Books on Demand. Sowada, M. G., & Dedering, K. (2014). Ermessensspielräume in der Bewertungsarbeit von Schulinspektor/innen. Zeitschrift für Bildungsforschung, 4(2), 119–135. https://doi.org/10.1007/ s35834-014-0091-y. Terhart, E. (2010). Personalauswahl, Personaleinsatz und Personalentwicklung an Schulen. In H. Altrichter & K. Maag Merki (Hrsg.), Handbuch Neue Steuerung im Schulsystem (Educational governance, Bd. 7, S. 255–275). Wiesbaden: VS Verlag. Zugegriffen: 4. Apr. 2018. Thiel, F., & Thillmann, K. (2012). Interne Evaluation als Instrument der Selbststeuerung von Schulen. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung: Empirische Befunde und forschungsmethodische Implikationen (S. 35–55). Wiesbaden: VS Verlag für Sozialwissenschaften. https://doi.org/10.1007/978-3-53194183-7_2. Thillmann, K., Bach, A., Gerl, C., & Thiel, F. (2013). Schulische Selbststeuerung durch interne Evaluation. Eine Analyse von Evaluationsprogrammen Berliner und Brandenburger

5  Externe Evaluation – Konzeption und Implementation …

183

Gymnasien. Paralleltitel: Schools’ self-governance by using internal evaluation. Die deutsche Schule – DDS. Beiheft, 12 (12), 197–225. Tosana, S., Lambrecht, M., Perels, F., & Bardowiecks, S. (2011). Die Protokollierung von Interviews im Rahmen von Schulinspektionen. In S. Müller, M. Pietsch, & W. Bos (Hrsg.), Schulinspektion in Deutschland. Eine Zwischenbilanz aus empirischer Sicht (S. 57–78). Münster: Waxmann. Vaccaro, D., & Lankes, E.-M. (2014). Triangulation im Kontext von Schulevaluation – Werden bestimmte Informationsquellen bevorzugt? In K. Drossel, R. Strietholt, & W. Bos (Hrsg.), Empirische Bildungsforschung und evidenzbasierte Reformen im Bildungswesen (1. Aufl., S. 349–366). Münster: Waxmann. Wendt, H., & Bos, W. (2011). Indikatoren zur Kontextuierung von Inspektionsergebnissen. In S. Müller, M. Pietsch, & W. Bos (Hrsg.), Schulinspektion in Deutschland. Eine Zwischenbilanz aus empirischer Sicht (S. 217–236). Münster: Waxmann. Wurster, S., & Gärtner, H. (2013). Schulen im Umgang mit Schulinspektion und deren Ergebnissen. Zeitschrift für Pädagogik, 59 (3), 425–445. http://www.pedocs.de/volltexte/2016/11944/ pdf/ZfPaed_2013_3_Wurster_Gaertner_Schulen_im_Umgang_mit_Schulinspektion.pdf. Zugegriffen: 17. Apr. 2018.

6

Interne Evaluation – Konzeption und Implementation in den 16 Ländern Jasmin Tarkian, Thomas Riecke-Baulecke und Felicitas Thiel

6.1 Übersicht: Einrichtung der schulischen Eigenverantwortlichkeit Wesentlicher Ansatz neuer Steuerung im Schulsystem ist – so die vielzitierte Konsequenz nach den frühen PISA-Testungen – nicht mehr ein inputorientierter, sondern ein an den tatsächlich erreichten Ergebnissen ausgerichteter Blick, der Evaluation als Grundlage für die Schulentwicklung in den Mittelpunkt rückt (Wacker et al. 2012; Altrichter und Maag Merki 2010). Mit der systematischen Erhebung, Dokumentation und Auswertung von Daten, die dazu dienen, Systeme, Entwicklungen und Maßnahmen zu analysieren und einzuschätzen (Köller 2009, S. 334), wird eine Kernfrage von Professionalität berührt, nämlich die Frage nach der Wirksamkeit von Prozessen und Interventionen (Riecke-Baulecke 2016). Diese stellt sich neben dem Bildungssystem gleichermaßen für das System der Profession der Medizin, in der über Wirkungen, Risiken und Nebenwirkungen von Therapien geforscht und debattiert wird, oder auch für die Profession der Jurisprudenz, die mit den Wirkungen von Recht und Rechtssprüchen befasst ist. Durch Evaluationen sollen Bewertungen vorgenommen werden können, die genauer und zuverlässiger sind als subjektive Eindrücke einzelner Personen. Evaluationen relativieren die Macht der Unmittelbarkeit von persönlichen Einschätzungen und J. Tarkian () · F. Thiel  Berlin, Deutschland E-Mail: [email protected] F. Thiel E-Mail: [email protected] T. Riecke-Baulecke  Kronshagen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_6

185

186

J. Tarkian et al.

scheinbaren Selbstverständlichkeiten. Gerade für Führungskräfte, die Verantwortung für weitgehende Entscheidungen und eine große Anzahl von Personen tragen, sind Evaluationen daher besonders wichtig. Sie sind insofern kein Selbstzweck, sondern der Entwicklung verpflichtet: Sie sollen Handlungsmöglichkeiten eröffnen und Beschränkungen überwinden helfen. Evaluation im Schulbereich ist deshalb von Bedeutung, weil es um die Wirkungen des institutionellen Lehrens und Lernens geht, das wesentlichen Einfluss auf die Handlungsmöglichkeiten der gesamten nachwachsenden Generation hat. Im Sinne des Bildungsund Erziehungsauftrags gehört es zum Ethos der Profession der Lehrkraft, alles dafür zu tun, SchülerInnen angemessen zu fordern und zu fördern. Wer Lehr- und Lernprozesse möglichst optimal gestalten will, muss fragen, welche Wirkungen mit welchen Zielen, Inhalten, Methoden, Lern- und Leistungskontrollen verbunden sind. In diesem Sinne ist Evaluation nicht als modischer Trend zu verstehen, sondern als integraler Bestandteil professioneller Tätigkeit in Schule und Bildungseinrichtungen. So heißt es in den KMK-Standards für die Bildungswissenschaften: „Lehrerinnen und Lehrer beteiligen sich an der Schulentwicklung, an der Gestaltung einer lernförderlichen Schulkultur und eines motivierenden Schulklimas. Hierzu gehört auch die Bereitschaft zur Mitwirkung an internen und externen Evaluationen“ (Kultusministerkonferenz [KMK] 2004, S. 3). Dem Anspruch an ein professionelles Handeln von Lehrkräften, das eigene Vorgehen mit Blick auf erreichte Lernergebnisse kontinuierlich mithilfe wissenschaftlicher Verfahren zu analysieren und weiter zu verbessern (Stichweh 1992; Terhart 1997), wird in allen Ländern einerseits durch die Einrichtung standardbasierter Vergleichsarbeiten begegnet. Zugleich werden aber auch die verschiedenen innerschulischen Prozesse zur Sicherung und Entwicklung von Schulqualität selbst fokussiert. Um diese auf der Ebene der Organisation sowie mit Blick auf den Unterricht zumindest in gewissen Zeitabständen zu erfassen, sind – wie in Kap. 5 gezeigt wurde – in den Ländern mehr oder weniger stabile Verfahren der externen Evaluation eingerichtet worden. Ergänzt werden diese beiden Instrumente durch den Auftrag an die einzelne Schule, sich auch selbst ein Bild von der Qualität ihrer Arbeit zu machen und den daraus resultierenden Entwicklungsbedarf eigenverantwortlich anzugehen. Die dafür in einem „systematischen Prozess zyklischer Qualitätsentwicklung“ (Gärtner 2017a, S. 52) per schulinterner Evaluation zu ermittelnden Daten stehen in einem engen Zusammenhang zum schulischen Alltag und erweitern damit die extern administrierten Rückmeldungen bewusst um eine innerschulische Perspektive. Sie sollen an den jeweiligen Organisationszielen und damit an den Nutzungsinteressen der SchulpraktikerInnen ausgerichtet sein und von diesen selbst in einem dazu geeigneten Evaluationsverfahren erfasst, beurteilt und im Weiteren optimiert werden (Thiel und Thillmann 2012). Dabei ist das Verfahren, das als Selbstevaluation der einzelnen Lehrkraft zu ihrem Unterricht oder als Evaluation innerhalb der gesamten Schulgemeinschaft erfolgen kann, an „gegenstandsspezifisch ausgewiesenen und theoretisch begründeten Standards“ (Thiel und Thillmann 2012, S. 37) zu orientieren, wie sie in den Qualitätsrahmen zur Schulqualität festgehalten sind (vgl. Kap. 3).

6  Interne Evaluation – Konzeption und Implementation …

187

Der Auftrag zur Durchführung interner Evaluation steht in einem engen Zusammenhang zu dem Konzept der eigenverantwortlichen Schule, das etwa zeitgleich zur Einführung der Steuerungsinstrumente in den Ländern als behelfsweise Begrifflichkeit für den im strengen Sinne nicht angemessenen Terminus von Schulautonomie implementiert worden ist (Krause 2015, S. 101). Staatliche Schulen sind, da für eine Schulautonomie keine verfassungsrechtliche Grundlage besteht, einem juristischen Verständnis nach nicht autonom. Sie verfügen nur über ein eingeschränktes Recht zur Selbstverwaltung und sind insofern eher als „heteronome professionelle Organisationen“ (Thiel 2007, 2008, S. 223) zu bezeichnen (vgl. dazu auch die Kontroverse Maritzen 1996, 1997; Radtke 1997). Die in den Ländern vor diesem Hintergrund in ihren Positionspapieren bemühten Begriffe „schulische Selbstständigkeit“, „Eigenverantwortung“, „Eigenständigkeit“ oder „Selbstverantwortung“ zeugen allerdings sämtlich von einer lang erhobenen Forderung nach stärkeren Gestaltungsfreiheiten für die Einzelschule. Mit einer solchen Verlagerung von operativer Verantwortung auf die Ebene der Leistungserbringung ist zugleich verbunden, dass Schule „nun selbst zentraler Akteur [wird], Daten über die Qualität der Schule zu erheben und auszuwerten“ (Gärtner 2017b, S. 108). In ihrer neu profilierten Rolle als Steuerungsakteure erhalten die Schulen seit einigen Jahren in allen Ländern erweiterte Handlungsspielräume, die pädagogische, administrative und finanzielle Bereiche betreffen. Im Ergebnis bilden sie schuleigene Profile aus, erstellen spezifische Schulprogramme und interne Curricula, verantworten die Entwicklung des Schulpersonals und verwalten bedarfsorientiert Budgets (Thiel und Thillmann 2012). Um die Rechte und Verantwortlichkeiten der im Weiteren auch per Schulgesetz „normativ fixierten eigenverantwortlichen Schule“ (Wacker et al. 2012, S. 9) gerade zwischen Schulaufsicht, Schulträger, Schulleitung, Lehrkräften und Gremien sinnvoll zu verteilen und die für Schulen zunächst ungewohnten Aufgaben auch praktisch erproben zu können, sind in den vergangenen zwei Jahrzehnten in fast allen Ländern Modellvorhaben bzw. Projekte zur erweiterten Eigenverantwortlichkeit von Schulen durchgeführt worden. Im Vorfeld oder in paralleler Entwicklung dazu wurde ebenfalls fast flächendeckend eine Verpflichtung zur Durchführung von interner Evaluation und der damit korrespondierenden Schulprogrammarbeit in die Schulgesetze aufgenommen, in den meisten Fällen in ausdrücklicher Weise, teilweise in stärker auslegungsbedürftiger Form (vgl. Kap. 7). Zudem sind in manchen Ländern die Modalitäten zur Umsetzung schulinterner Evaluation und der Schulprogrammarbeit in untergesetzlichen Erlassen oder Verordnungen bzw. Verwaltungsvorschriften näher geregelt. Abb. 6.1 verortet die in den 16 Ländern eingerichteten Modellvorhaben und Projekte zur eigenverantwortlichen Schule (evaS) bzw. zur Schulprogrammarbeit (SP) im Zusammenhang mit ihrer schulrechtlichen Verankerung. Zugleich wird die Einführung der internen Evaluation (IE) im Rahmen der Landesschulgesetzgebungen und – sofern vorhanden – ihre Konkretisierung in untergesetzlichen Normen abgebildet. Es zeigt sich, dass Bayern und Berlin bereits früh erste Modellvorhaben zur eigenverantwortlichen Schule durchgeführt haben. Während in dem Berliner Vorhaben „Schule in erweiterter Verantwortung“, das von der Senatsbildungsverwaltung Ende der

188

J. Tarkian et al.

vor 2001

2001

2002

2003

2004

2005

2006

2007

2008

BW BY

1999 – 2004

BE

1995 – 98

„Schule gestalten“

MODUS 21

„Schule in erweiterter Verantwortung“

MeS

BB

MoSeS

HB HH

„Eigenverantwortliche Schule“

HE MV

„Mehr Selbstständigkeit an Schulen“

NI

§

„Eigenverantwortliche Schule“

NW

„Selbstständige Schule“

„Schule 21“

RP

„Projekt erweiterte Selbstständigkeit“

SL SN ST

(KES) Schulprogramm

SH

(EVA S-H) Schulprogramm

TH

„Eigenverantwortliche Schule“ (EVAS)

vor 2001

2001

2002

2003

2004

2005

2006

2007

2008

Abb. 6.1   Meilensteine bei der Einrichtung der schulischen Eigenverantwortlichkeit in den 16 Ländern

6  Interne Evaluation – Konzeption und Implementation …

2009

2010

2011

2012

2013

2014

2015

189

2016

2017

2018

2019

2018

2019

„Selbstständige Schule“

MODUS F

MODUS

„Eigenverantwortliche Schule“

Eva Q-B

„Eigenverantwortliche Schule“

„Mehr Selbstverantwortung“

QVP

2009

2010

2011

2012

2013

2014

2015

2016

2017

Gesetzliche Einführung – § intern. Evaluation (ausdrückl.) § intern. Evaluation (implizit) § Schulprogrammarbeit § Konzept evaS Verordnungen & Verwaltungsvorschriften – Schulprogrammarbeit Konzept evaS intern. Evaluation Erlasse & Rundschreiben – Schulprogrammarbeit Konzept evaS Modellphasen

Abb. 6.1   (Fortsetzung)

© Freie Universität Berlin - AB Schulpädagogik / Schulentwicklungsforschung, brandart design

„Selbstständige Schule“ (SES)

190

J. Tarkian et al.

1990er-Jahre im Vorfeld des späteren Modellprojekts MeS (2003–2006) gefördert wurde, 14 Schulen neue Freiräume zur Entwicklung ihrer Schulqualität erprobten, war in einem fast zeitgleich stattfindenden Schulversuch in Bayern speziell vorgesehen, SchülerInnen bei der Mitgestaltung der Schulkultur zu beteiligen. Schulrechtlich eingeführt wurde das Konzept ‚eigenverantwortliche Schule‘ in Berlin allerdings erst mit der Schulgesetzreform 2004; in Bayern ist ein entsprechender Passus erst im Jahr 2013 zusammen mit der Schulprogrammarbeit in das Schulgesetz aufgenommen worden. Das Instrument der internen Evaluation hingegen ist dort gemeinsam mit der externen Evaluation seit 2008 schulgesetzlich verankert. Im Anschluss an den frühen Schulversuch wurde in Bayern mit MODUS (=MODell Unternehmen Schule) über einen längeren Zeitraum ein weiteres Modellprojekt in mehreren Phasen (MODUS 21, MODUS F, MODUS) implementiert, das zuletzt auch in Verbindung mit der externen Evaluation erweiterte Rechte für ausgewählte Schulen zur Entwicklung neuer Führungsmodelle vorsah. Ende der 1990er-Jahre wurden auch in Sachsen-Anhalt („KES“: 1999–2004) und Schleswig-Holstein („EVA.S-H“: 1999–2002) bereits Modellversuche eingerichtet, in denen Schulen versuchsweise Schulprogramme entwickelten und fortschrieben. In ­Sachsen-Anhalt mündeten die Erfahrungen zunächst in einen Erlass zur Schulprogrammarbeit vom 1. Juni 2003, während sie auf schulgesetzlicher Ebene dann im Jahr 2005 als „Kann-Regelung“ eingeführt und seit dem 1. März 2009 schließlich für alle Schulen verbindlich aufgenommen wurde. Daneben ist in einem weiteren Runderlass aus 2012 die „Schule als professionelle Lerngemeinschaft“ nochmals explizit in die Pflicht genommen, sich selbstständig Ziele im Rahmen bildungspolitischer Vorgaben zu setzen. In Schleswig-Holstein bildete der Erlass vom 25. März 1999 den Auftakt zu dem 80 Schulen umfassenden Projektvorhaben zur Umsetzung von Schulprogrammen. Die Schulprogrammarbeit an sich war ebenso wie das Konzept der eigenverantwortlichen Schule bereits 1990 in einer ersten Form in das schleswig-holsteinische Schulgesetz aufgenommen worden. Eine Verpflichtung zur schulinternen Evaluation ist hier bislang allerdings nicht in ausdrücklicher Form gegeben, sondern lässt sich dem § 33 des Schulgesetzes aus 2007 zu den Aufgaben der Schulleitung nur implizit entnehmen. Die Eigenverantwortlichkeit von Schulen bei gleichzeitiger Verpflichtung zur internen Evaluation ist in Rheinland-Pfalz seit 2004 schulgesetzlich verankert. Zu dieser Zeit lief bereits das Modellprojekt „Personalmanagement Erweiterter Selbstständigkeit (PES)“, an dem aktuell über 800 Schulen aus dem weiterführenden Bereich speziell mit dem Ziel einer Reduzierung von Unterrichtsausfall erweiterte Handlungsmöglichkeiten in Anspruch nehmen. In dem vor einigen Jahren zusätzlich eingerichteten Schulversuch „Mehr Selbstverantwortung an rheinland-pfälzischen Schulen (SvS)“, der mit Beginn des Schuljahres 2014/2015 gestartet und nach einer einjährigen Vorbereitungsphase mit zweijähriger Laufzeit umgesetzt worden ist, war zudem eine kleine Zahl Schulen beauftragt, in verschiedenen Themenfeldern geeignete Verfahren zu ihrer pädagogischen Weiterentwicklung zu entwickeln, zu erproben und auf ­Alltagstauglichkeit

6  Interne Evaluation – Konzeption und Implementation …

191

zu prüfen. Dazu zählt laut Angaben des Ministeriums1 die Wahrnehmung von Budgetverantwortung, die stärkere Beteiligung der Schulen an der Personalplanung und –­ auswahl und der Einsatz von Verwaltungskräften mit dem Ziel, die Schulen pädagogisch weiterzuentwickeln und ihre Profilbildung zu fördern. Anders als in den meisten anderen Ländern ist die Schulprogrammarbeit in Rheinland-Pfalz nicht schulgesetzlich festgeschrieben, sondern im Rahmen einer untergesetzlichen Norm aus dem Jahr 2003 festgehalten. Ähnlich wie das Berliner „MeS“ (Modellvorhaben eigenverantwortliche Schule) ist auch im Nachbarland Brandenburg mit „MoSeS“ (Modellvorhaben Stärkung der Selbstständigkeit von Schulen) zum Schuljahr 2003/2004 ein vierjähriger Schulversuch unter der wissenschaftlichen Begleitung des DIPF eingerichtet worden. Der Begleitdokumentation kann entnommen werden, dass mit den Gestaltungsspielräumen, die den 18 Brandenburger Teilnehmerschulen (später bezeichnet als SeS-Schulen) in personalen, dienstrechtlichen, verwaltungstechnischen und betriebswirtschaftlichen Angelegenheiten übertragen worden sind, faktisch auch qualitative Verbesserungen erreicht werden konnten. Dies wurde als Bestätigung der 2001 schulgesetzlich eingeführten Selbstständigkeit für Brandenburger Schulen sowie der zeitgleich aufgenommenen internen Evaluation und Schulprogrammarbeit interpretiert. In einem Rundschreiben (8/09 vom 27. Juli 2009) sind die Details zur Fortschreibung der Schulprogramme sowie der enge Zusammenhang zu ihrer regelmäßigen Bewertung durch Maßnahmen der internen Evaluation festgelegt. Die Verwaltungsvorschrift „VV Ganztag“ vom 21. April 2011 regelt darüber hinaus, dass die pädagogischen Ziele und Arbeitsschwerpunkte speziell von Ganztagsschulen in einem festen Turnus evaluiert werden müssen. Auch dem Modellvorhaben „Mehr Selbstständigkeit an Schulen“, an dem zwischen 2004 und 2007 zwanzig Schulen aus Mecklenburg-Vorpommern beteiligt waren, werden positive Erfahrungen zugeschrieben. Die Ergebnisse bildeten die zentrale Voraussetzung, um mit der Novellierung des Schulgesetzes 2006 das Konzept der selbstständigen Schule auf alle Schulen des Bundeslandes auszuweiten. Zugleich wurden die interne Evaluation und die Schulprogrammarbeit in diesem Zusammenhang in § 39a schulgesetzlich aufgenommen. Nähere Bestimmungen zur Umsetzung der Instrumente sind im Rahmen einer detaillierten Schulqualitätsverordnung festgelegt, die im Jahr 2015 veröffentlicht worden ist. Im Saarland ist 2005 das mehrstufige Modellvorhaben QVP („Qualitätsverbesserungsprozess an saarländischen Schulen“) als gemeinsames Projekt des Ministeriums für Bildung und Kultur, der Vereinigung Saarländischer Unternehmensverbände und der Fortbildungsinstitute LPM und ILF aufgesetzt worden. Knapp 70 Schulen haben in vier Projekt-Staffeln in den Kernbereichen Unterricht und Erziehung,

1Siehe

unter https://www.landtag.rlp.de/landtag/drucksachen/5807-17.pdf. Zugegriffen: 07.September 2018.

192

J. Tarkian et al.

­ooperationskultur und Schulmanagement Maßnahmen zur Qualitätsverbesserung K geplant, umgesetzt und evaluiert. Zusätzlich ist ab dem Schuljahr 2007/2008 auf Grundlage einer Verordnung zur Stärkung der Selbstständigkeit und Eigenverantwortung von Schulen vom März 2007 der Modellversuch „Selbstständige Schule“ mit 17 Teilnehmerschulen eingerichtet worden. Für die Dauer von mehreren Jahren wurden diesen Schulen erweiterte Handlungsspielräume in den Arbeitsfeldern Unterrichtsorganisation, Personalentwicklung und Qualitätsentwicklung eingeräumt mit dem Ziel, diese nach und nach auf weitere Schulen des Saarlands zu übertragen. Das Vorhaben endete mit Ablauf des Schuljahres 2017/2018. Eine ausdrückliche schulrechtliche Verpflichtung existiert im Saarland zum Stichtag weder für die Schulprogrammarbeit noch für die interne ­Evaluation. Hessen hat als erstes Land das Konzept der eigenverantwortlichen Schule zusammen mit einer Verpflichtung zur Schulprogrammarbeit und der Durchführung schulinterner Evaluation schulgesetzlich eingeführt, entsprechende Festlegungen wurden bereits 1993 getroffen. Bremen nahm die interne Evaluation und Schulprogrammarbeit im Folgejahr im Rahmen einer Schulgesetznovellierung auf, dabei ist allerdings das Konzept der eigenverantwortlichen Schule nicht explizit festgelegt worden. Entsprechende Modellvorhaben, die es in beiden Ländern gab, wurden erst deutlich später implementiert. Die hessischen Modellschulen werden dabei zum Erreichen ihrer Schulentwicklungsziele bis zum heutigen Stand fortlaufend mit besonderen Entscheidungsrechten ausgestattet. Nachdem ihnen bereits flächendeckend grundlegende Möglichkeiten für eigenständige organisatorische Entscheidungen eingeräumt worden waren (beispielsweise mit Blick auf die Verwaltung ‚kleiner‘ Schulbudgets oder Freiheiten bei der Klassenbildung), erhielten 23 hessische Schulen im Jahr 2012 nochmals erweiterte Handlungsspielräume im Bereich der Unterrichtsgestaltung und -organisation, der Einstellung und dem Einsatz von Personal sowie in Fragen der Bewirtschaftung von Personal- und Sachmitteln. Alle Schulen, denen auf Antrag ihrer Gesamtkonferenz vom Kultusministerium seitdem der Status „SES“-Schulen verliehen wurde, verfügen bis heute über ein ‚großes Budget‘ und können somit ihre Personalmittel eigenständig verwalten. Der im Weiteren laut Information des Kultusministeriums auf 76 Schulen vergrößerte Kreis (Stand: 2017) ist neben der internen Evaluation auch zu einer separaten externen Evaluation verpflichtet, die ansonsten in Hessen nur noch in wenigen Einzelfällen bedarfsweise („on demand“) durchgeführt wird (vgl. Kap. 5). In Bremen ist im Anschluss an ein mehrjähriges Entwicklungsvorhaben der berufsbildenden Schulen (ReBiz) zum Januar 2008 zunächst unter Beteiligung von vier allgemeinbildenden Schulen eine Pilotphase „Eigenverantwortliche Schule (EVS)“ eingerichtet worden. Ziel war es nach Angaben im Bremer Schulentwicklungsplan (2011), die Regelungsdichte für das innerschulische Handeln zu verringern und damit ein „Steuern auf Abstand“ in den Handlungsfeldern ‚pädagogische Eigenverantwortlichkeit‘, ‚organisatorische Eigenverantwortung‘, ‚Personalverantwortung‘ und ‚Budgetierung‘ zu

6  Interne Evaluation – Konzeption und Implementation …

193

ermöglichen (S. 61). Ein erweiterter Modellversuch zur eigenständigen Schule (Eva Q-B) startete am 1. Oktober 2014 bei zweijähriger L ­ aufzeit. Ob nach der Teilnahme der 16 weiterführenden Schulen für diese und die restlichen allgemeinbildenden Bremer Schulen erweiterte Entscheidungs- und Handlungsrechte fortbestehen, ist zum Stichtag nicht bekannt. Auch die Hamburger Bürgerschaft hat bereits in den 1990er-Jahren die schulische Eigenverantwortlichkeit zusammen mit einer Verpflichtung zur Durchführung interner wie externer Evaluation sowie der Schulprogrammarbeit per Schulgesetz verabschiedet (April 1997), um eine bedarfsgerechtere pädagogische Arbeit an den Schulen zu ermöglichen. Auf dieser Grundlage wurden den Schulen im Weiteren mit dem Fokus auf Festlegungen im Orientierungsrahmen Schulqualität pädagogische Profilbildungen freigestellt, die Personalauswahl überantwortet und Budgets zur eigenen Verantwortung zur Seite gestellt. In dem dazu eingerichteten einjährigen Schulversuch „selbstverantwortete Schule“ (Schuljahr 2005/2006) sind zunächst 18 Schulen probehalber mit den zusätzlichen Merkmalen der Selbstständigkeit ausgestattet worden, die ab dem Folgejahr auch allen übrigen Schulen im Stadtstaat zur Verfügung standen. Während die Schulprogrammarbeit in Nordrhein-Westfalen ebenfalls schon früh durch einen Runderlass vom 25. Juni 1997 eingeführt wurde2 und somit jede Schule in diesem Land zur Erstellung eines Schulprogramms inklusive der Planung damit verbundener Evaluationsvorhaben verpflichtete, erfolgte eine entsprechende Regelung im Schulgesetz erst mit dessen Novellierung am 1. August 2005 (in § 3). An dieser Stelle ist auch das Instrument schulinterner Evaluation – beschrieben als Erfolgsüberprüfung der schulischen Arbeit – erstmalig erwähnt. Das Konzept schulischer Selbstständigkeit findet sich vorher schon im sog. Schulentwicklungsgesetz von Nordrhein-Westfalen (vom 27.11.2001, in § 3), bevor es 2005 dann in das neue Schulgesetz integriert wurde. Im Vorfeld eines mehrphasigen Modellvorhabens, das im Schuljahr 2002/2003 zunächst als „Schule 21“ eingerichtet, später dann als „selbstständige Schule“ weitergeführt wurde und aktuell unter dem Begriff „eigenverantwortliche Schule“ weiter existiert, ist eine Durchführungsverordnung erlassen worden (12.04.2002), die wesentliche Fragen der auf die Schulen zu übertragenen Entscheidungsbefugnisse regelt. Dazu zählen vor allem die Unterrichtsorganisation und -gestaltung, Abweichungen von den Bestimmungen des Schulmitwirkungsgesetzes und die Übertragung der Dienstvorgesetztenfunktion auf die Schulleiter. Ein weiterer Erlass vom 2. Juli 2012 eröffnet den eigenverantwortlichen Schulen Möglichkeiten, besondere innovative Vorhaben zu erproben wie die Bildung spezieller Lerngruppen, eine eigene Ausgestaltung von Leistungsnachweisen oder neue Modelle der Unterrichtsgestaltung.

2Eine

Rechtsgrundlage dafür findet sich allerdings bereits in § 5 des Schulmitwirkungsgesetzes v. 13.12.1977.

194

J. Tarkian et al.

Im Land Sachsen wurde mit dem Schulgesetz vom 1. August 2003 sowohl die schulische Selbstständigkeit eingeführt als auch die Schulprogrammarbeit mitsamt der internen Evaluation als verpflichtende Maßnahmen zur Qualitätsentwicklung aufgenommen. An dem Modellversuch „PROFIL-Q“, der innerhalb des BLK-Programms QuiSS zur Förderung innovativer Lernprozesse bundesweit eingerichtet war, haben ab 1999 auch 14 sächsische Mittelschulen und Gymnasium teilgenommen. Ein eigenes Modellprojekt zur Erprobung besonderer schulischer Gestaltungsmöglichkeiten bzw. Entscheidungsrechte ist aus Sachsen nicht bekannt. In Niedersachsen wie auch Thüringen sind Vorhaben zu erweiterten Verantwortungsspielräumen für Schulen seit 2005 auf den Weg gebracht worden. Während in Niedersachsen unter der Bezeichnung „evaS“ zunächst ein dreijähriger Modellversuch mit rund 40 Schulen eingerichtet war, der ab August 2007 zu einer schulgesetzlich verankerten Ausweitung schulischer Entscheidungsbefugnisse in Leitung, Organisation und Verwaltung führte,3 wird die eigenverantwortliche Schule in Thüringen in ihrer Verbindung mit schulischer Evaluation schon früh als „ein Kernstück Thüringer Bildungspolitik“ bezeichnet. Entsprechend ist die Entwicklungsstrategie hier nicht als Modellprojekt mit wenigen Vorreiterschulen, sondern unmittelbar für alle Thüringer Schulen festgelegt worden. Laut Angaben im Thüringer Schulportal endete der Projektstatus des Entwicklungsvorhabens im Juni 2009 mit der Verankerung der eigenverantwortlichen Schule in § 40b des Thüringer Schulgesetzes vom 31. Dezember 2008. Hier ist zugleich die interne Evaluation als verbindliches Verfahren der innerschulischen Qualitätsentwicklung erfasst. Eine Schulprogrammarbeit ist in Thüringen hingegen nicht verpflichtend geregelt. Baden-Württemberg hat infolge eines Ministerratsbeschlusses die interne Evaluation 2006 mit der Einführung des § 114 als verbindliches Verfahren in die Schulgesetzgebung aufgenommen. Im Rahmen einer zwei Jahre später erlassenen Evaluationsverordnung (1. August 2008) wurden die Modalitäten der Durchführung im Zusammenhang mit der Schulprogrammarbeit festgelegt. Das Modellvorhaben „Selbstständige Schule“ ist als gemeinschaftlich mit Wirtschaftsverbänden und weiteren Partnern initiiertes Projekt 2011 auf den Weg gebracht worden und dauert für die beteiligten Versuchsschulen offiziell bis heute an. Zentrale Bestandteile des Projektleitfadens bilden Themenfelder wie Strategie- und Personalentwicklung, Finanz- und Qualitätsmanagement sowie individuelle Förderung und Berufsorientierung. Schulrechtlich verankert ist das Konzept der Eigenverantwortung bislang nicht.

3Vgl.

§ 32 Abs. 1 NSchulG. Die Übertragung der erweiterten Rechte wird unter Kostengesichtspunkten allerdings im Jahresbericht 2016 des Landesrechnungshofes sehr kritisch beurteilt. Siehe dazu unter: https://www.lrh.niedersachsen.de/download/107689, S. 110 ff. Zugegriffen: 13. November 2018.

6  Interne Evaluation – Konzeption und Implementation …

195

6.2 Funktionen interner Evaluation Auch die innerschulische Evaluation kann – wenngleich nicht im selben Umfang wie bei den Vergleichsarbeiten und der externen Evaluation – verschiedenen Zwecken dienen. Ausgehend von den zum Analysestichtag (31.01.2018) konzeptuell vorgesehenen Einsichtnahmen bzw. der Berichterstattung über die Ergebnisse lassen sich neben der Entwicklungsfunktion in den Ländern teilweise auch für dieses Instrument eine Rechenschaftslegungs- und eine Informationsfunktion feststellen. Alle drei Funktionen werden im Folgenden skizziert.

6.2.1 Entwicklungsfunktion Das zentrale Ziel landespolitischer Einrichtung und Unterstützung interner Evaluation als Instrument schulischer Selbststeuerung besteht darin, der Schule „für wesentliche Entscheidungen der Qualitätsentwicklung die notwendigen Daten zur Verfügung zu stellen“ (Thiel und Thillmann 2012, S. 38). Der einzelnen Lehrkraft oder der Schule als pädagogischer Handlungseinheit (Fend 1986) soll auf Grundlage der für die Praktiker relevanten Fragestellungen ein Instrument an die Hand gegeben werden, mit dem sie selbst Informationen generieren können, die der kontinuierlichen Optimierung oder auch Unterlassung bzw. Neugestaltung ihrer Arbeitsprozesse dienen (Gollwitzer und Jäger 2007; vgl. Thillmann et al. 2013, S. 204). Dies erfolgt üblicherweise in Form von Rückmeldungen der verschiedenen am Schulleben beteiligten Akteure über die Stärken und Schwächen ihrer Organisation und soll dabei helfen, Entwicklungsbedarf im schulischen Alltag zu erkennen und damit Zielklarheit über die weitere Entwicklung von Schule und Unterricht zu gewinnen (Gollwitzer und Jäger 2007). Wird interne Evaluation zu einem festen Bestandteil professionellen Handelns in der Organisation, ist die Basis für eine Feedback- und Evaluationskultur gelegt, in der kritische Selbstreflexion eine selbstverständliche Grundlage zur Sicherung und Entwicklung der Qualität pädagogischer Arbeit leisten kann (Peek 2009, S. 149). Die Entwicklungsfunktion schulinterner Evaluation, zu der an dieser Stelle auch die häufig (in der folgenden oder ähnlichen Form) benannten Aspekte ‚Selbstvergewisserung und -reflexion der Beteiligten‘, ‚angestrebter Erkenntnisgewinn‘ oder ‚gezielter Einbezug verschiedener Sichtweisen auf Schule‘ zählen soll (vgl. Holtappels 2003; Peek 2009, S. 142), wird bundesweit in den Konzeptionsdokumenten aller Ministerien und Qualitätsinstitute wie Referenzrahmen, Handreichungen, Leitfäden o.ä. ausgeführt. Dabei wird regelmäßig Bezug genommen zum Konzept der eigenverantwortlichen Schule, häufig aber auch ein direkter Zusammenhang zu weiteren, strategischen Instrumenten der Steuerung von Schulqualität hergestellt. Beispielsweise wird im Hessischen Referenzrahmen Schulqualität und im Berliner Handlungsrahmen mit Blick auf die Schulprogrammarbeit ausdrücklich darauf hingewiesen, dass diese sowohl die Basis als auch den Anschluss schulinterner Evaluation bilden sollte. Auch Zielvereinbarungen mit der Schulaufsicht, zumindest aber die Weiterarbeit an schulinternen Zielstellungen sind in der Denkweise eines „Aktions-Reflexions-Kreislaufs“ (Altrichter und Feindt 2008, S. 449) dabei oft mitgenannt, wie folgende Beispiele zeigen:

196

J. Tarkian et al.

Schulinterne Evaluation dient dabei sowohl der Selbstkontrolle als auch der Selbstentwicklung der Einzelschule und führt zu Konsequenzen im Schulprogramm und damit verbundenen Zielvereinbarungen mit der Schulaufsicht. Ohne sachgerecht durchgeführte interne Evaluationen als Basis konstruktiver Schulprogrammarbeit ist die eigenständige, selbstgesteuerte Schule nicht denkbar (HE_2011_Referenzrahmen_Schulqualität, S. 3).

Mit der internen Evaluation überprüft die Schule, ob und inwiefern die im Schulprogramm gesetzten Entwicklungsziele erreicht wurden (BE_2013_Handlungsrahmen_Schulqualität, S. 40).

Damit die Schule erfolgreiche Schritte zur Zielerreichung gehen kann, benötigen die Akteure genaue Informationen über den bereits erreichten Stand. Durch Selbstevaluation kann der Entwicklungsstand von Unterricht und Schule festgestellt werden, und zwar gemessen anhand der in der Schule vereinbarten Qualitätsansprüche (BW_2010_Handbuch_OES_Selbstevaluation, S. 6).

Eine Durchführung schulinterner Evaluation ist, wie bereits im Übersichtsteil gezeigt wurde, nahezu flächendeckend schulgesetzlich verankert. Allerdings wird mit Blick auf den Umfang und die Aktualität der landesspezifischen Konzeptionsdokumente erkennbar, dass der Ansatz, Schul- und Unterrichtsentwicklung über die von den Schulen selbst zu initiierenden Befragungen und Reflexionsmaßnahmen einzuleiten, in den Ländern offenbar durchaus einen unterschiedlichen Stellenwert erfährt. Dies scheint teilweise abhängig von der Ausgestaltung der weiteren Verfahren zur datenbasierten Sicherung und Entwicklung von Schulqualität zu sein. In Hamburg etwa sind fast ausschließlich veraltete Dokumente zur Konzeption schulinterner Evaluation auffindbar, die schwerpunktmäßig in den Jahren 2000 bis 2002 erstellt wurden. Der Bereich innerschulischer Evaluation steht gegenüber dem in der Hansestadt stark ausgearbeiteten Testsystem von Schülerleistungen (vgl. Kap. 4) sowie der seit langem stabil eingerichteten Schulinspektion (vgl. Kap. 5) auch nach Auskunft der befragten Landesvertretung derzeit erkennbar zurück. Das Pädagogische Landesinstitut in Rheinland-Pfalz hingegen erklärt in seinem KODEX-Länderbericht vom 6. Februar 2017,4 dass die schulinterne Qualitätsentwicklung gerade nach dem Wegfall der dortigen externen Evaluation an Bedeutsamkeit gewonnen hat. Um eine entsprechende

4http://www.kodex.schule/wp-content/uploads/2017/03/Rheinland-Pfalz.pdf.

2019.

Zugegriffen: 30. Januar

6  Interne Evaluation – Konzeption und Implementation …

197

Nutzung in den Schulen zu erhöhen, wird seitdem gezielt am Ausbau bzw. an einer engeren Verzahnung mit den Fortbildungs- und Beratungsangeboten des Landesinstituts gearbeitet; das Landesportal soll perspektivisch um zusätzliche Instrumente zur internen Befragung erweitert werden. Auch Hessen versteht die interne Evaluation gewissermaßen als datengestützte Kompensationsmaßnahme nach dem dortigen Wegfallen der flächendeckenden Schulinspektion. Ähnlich wird in Bremen in einem kürzlich veröffentlichten ‚Bericht über die Weiterentwicklung der Qualitätsentwicklung im Bremer Bildungssystem‘ mitgeteilt: „Befunden der Schulentwicklungsforschung folgend, dass die Anwendung von Verfahren der internen Evaluationen eher Schulentwicklungsprozesse begünstigt, wurde parallel zur Neukonzipierung der externen Evaluation der Fokus auf die stärkere Unterstützung von internen Evaluationen gelegt“ (Mitteilung des Senats vom 27. Februar 2018, S. 8). Das Saarland wiederum plant eine Aufwertung der internen Evaluation, die bislang allein auf freiwilliger Basis durchzuführen ist, durch die perspektivische Verzahnung mit der externen Evaluation. In den Darstellungen anderer Länder wird das bewusste Zusammenspiel von interner und externer Evaluation bereits betont, wie etwa aus dem 2017 veröffentlichten Konzeptpapier zum Zusammenwirken der Verfahren in Mecklenburg-Vorpommern oder der bayrischen Handreichung aus dem Jahre 2010 beispielhaft hervorgeht:

Evaluation stellt, neben weiteren Elementen wie beispielsweise der Schulprogrammarbeit, einen zentralen Baustein der Qualitätsentwicklung und -sicherung an Schulen dar. Sie findet regelmäßig auf Grundlage der Schulqualitätsverordnung statt und setzt sich aus interner und externer Evaluation zusammen, die sich gegenseitig ergänzen (MV_2017_Konzept der internen und externen Evaluation für allgemeinbildende Schulen, S. 1).

Übersicht

Zusammenwirken von interner und externer Evaluation: Interne und externe Evaluation gehören – wie zwei Seiten einer Medaille – grundsätzlich zusammen. Sie sind nicht Alternativen, sondern sie ergänzen sich gegenseitig. Interne Evaluation im Zusammenhang mit externer Evaluation dient • der Vorbereitung der externen Evaluation, • der Evaluation der in den Ziel- und Handlungsvereinbarungen im Anschluss an eine externe Evaluation festgelegten Maßnahmen und • der Analyse von Detailbereichen. Insofern sollen interne und externe Evaluationsmaßnahmen im Wechsel durchgeführt werden (BY_2010_Leitfaden_Interne_Evaluation_an_Bayerns_Schulen, S. 8).

198

J. Tarkian et al.

Schleswig-Holstein konzeptioniert die interne Evaluation als einen von zwei prinzipiell vergleichbaren Wegen von Evaluation, die laut Angaben in der Landesbroschüre (2014, S. 9) in beiden Fällen über einen Konferenzbeschluss durch die Schule selbst auf den Weg gebracht werden. Interne Evaluation unterscheidet sich von der hier stets auf Schulwillen hin beauftragten externen Evaluation also letztlich nur dahin gehend, dass im zweitgenannten Fall die Umsetzung der Datenerhebung an ein Expertenteam delegiert wird, während im ersten Fall die Datengewinnung und -rückmeldung ausschließlich über innerschulische Feedbackgeber organisiert ist. Anders als in Hessen oder Sachsen, wo in den letzten Jahren mehrere Broschüren mit Informationen und Materialien zur Gestaltung interner Evaluation für die Schulpraxis herausgegeben wurden, sind für Brandenburg, Bremen oder das Saarland keine eigenen Handreichungen verfügbar. Hier finden sich die verfügbaren Informationen zum Vorgehen in einem Glossar auf dem gemeinsam mit Berlin betriebenen Bildungsserver (BB) bzw. auf den Websites der Landesinstitute (HB, SL). Die Bedeutung, die interne Evaluation als Entwicklungsinstrument in den Ländern insgesamt erfährt, wird aber auch an den dazu von den Ministerien und Landesinstituten eingerichteten Durchführungsvorgaben, den dazu bereitgestellten Instrumenten sowie den von den Landesinstituten oder Qualitätsagenturen angebotenen Unterstützungsmaßnahmen erkennbar. Diese werden in den folgenden Teilkapiteln im Anschluss an die Funktionsbeschreibung vorgestellt.

6.2.2 Rechenschaftslegung/Controlling Schulinterne Datenerhebungen, die als Bestandsaufnahme und Maßnahmenplanung zur Verbesserung von Schulqualität eingerichtet sind, können neben ihrer primären innerschulischen Steuerungsfunktion, der Schul- und Unterrichtsentwicklung, zugleich auch einer Rechenschaftslegung dienen. Dabei wird allgemein verstanden, dass die schulische Arbeit einzelner Personen, Personengruppen oder der gesamten Organisation gegenüber weiteren Mitgliedern der Schulgemeinde oder der Organisationsumwelt transparent gemacht sowie zur Diskussion gestellt wird und in diesem Zusammenhang schulische oder unterrichtliche Entscheidungen legitimiert oder hinterfragt werden (Gollwitzer und Jäger 2007). Auf die Funktion der Rechenschaftslegung im Zusammenhang mit schulischer Evaluation wird in den Dokumenten mehrerer Bundesländer grundsätzlich hingewiesen. So ist etwa im Sächsischen Bildungsportal mit Verweis auf einen wissenschaftlichen Beitrag eine Definition von interner Evaluation einzusehen, die Rechenschaft als ein mögliches Ziel neben dem Erkenntnisgewinn, der Selbstreflexion sowie allgemein der

6  Interne Evaluation – Konzeption und Implementation …

199

Schulentwicklung und der Partizipation der Betroffenen benennt5. Auch Thüringen unterscheidet in seinem Handbuch zur Selbstevaluation (2003) entsprechende Zwecke, wenn es heißt, dass „je nach dem, an welcher ‚Stelle‘ eines Schulentwicklungsprozesses Evaluation eingesetzt wird, […] entweder der Aspekt der Rechenschaftslegung oder der Entwicklungsaspekt stärker im Vordergrund stehen“ (S. 8). Schleswig-Holstein stellt in einer Handreichung des IQSH (2014, S. 7) in ähnlicher Weise klar, dass „die interne Evaluation […] zunehmend an Bedeutung [gewinnt]. Sie dient der Vergewisserung nach innen, aber auch der Rechenschaftslegung nach außen.“ Auch im bereits genannten Leitfaden zur internen Evaluation aus Bayern wird die Frage, wozu innerschulische Stärken-Schwächen-Analysen dienen, gleich an erster Stelle mit „der Rechenschaftslegung durch Bestandsaufnahme/Bewertung“ beantwortet (S. 7). Aus den vorgenannten Textstellen wird jedoch nicht unmittelbar deutlich, auf welcher Beziehungsebene die genannte Rechenschaftslegung jeweils genau angelegt ist, sind ja grundsätzlich verschiedene Rechenschaftsbeziehungen im Mehrebenensystem Schule denkbar. In einem auf dem Internetauftritt des Sächsischen Landesinstituts LSA angebotenen, extern erstellten Handbuch wird der zunächst unscharfe Begriff der Rechenschaftslegung anhand schulpraktischer Beispiele weiter konkretisiert. Dabei werden drei Beziehungsebenen aufgezeigt, denen gegenüber im Rahmen interner Evaluation prinzipiell Rechenschaft durch schulische Akteure geleistet werden kann6. Dazu zählt die Rechenschaft, die 1. eine Arbeitsgruppe gegenüber einer Steuergruppe leistet, 2. eine Steuergruppe gegenüber demokratisch gewählten Vertreterinnen und Gremien vornimmt und die 3. eine Schulleiterin/ein Schulleiter dem Schulträger und den Landesbehörden gegenüber abzuleisten hat. In Anbindung an Kap. 4 und 5 soll auch in diesem Beitrag bei der Definition der Rechenschaftsfunktion die interessierende Beziehungsebene auf den dritten Aspekt ausgerichtet sein, d. h. die Rechenschaftslegung und damit die Berichts-/Informationspflicht der Schule gegenüber der Schulbehörde fokussieren. Mit der Umsetzung interner Evaluationsvorhaben ist dann verbunden, dass Schulleitungen den für sie zuständigen Schulrätinnen und Schulräten über dazu eingerichtete Kommunikationsanlässe gezielt Auskunft über die evaluierten Gegenstandsbereiche sowie über die im Anschluss geplanten Entwicklungsaktivitäten geben. Dies ist insbesondere dann der Fall, wenn die Notwendigkeit zur Abgabe einer Evaluationsberichtslegung besteht (vgl. Rückmann 2016).

5Siehe

unter https://www3.sachsen.schule/sbi-eva/index.php?id=253.

6https://www.bildung-lsa.de/files/a47df4406ebe8b4a0792cf1ee98b8486/Teil_5_TP_II_Handbuch_

Heft_Evaluation_end.pdf, S. 120 f. Zugegriffen: 07. September 2018.

200

J. Tarkian et al.

Um zu ermitteln, inwieweit diese Funktion in den Ländern eine Rolle spielt, bietet es sich weniger an, allein die in den Landesdokumenten benannten Textstellen zur Interpretation heranzuziehen als vielmehr die regelhaft eingerichteten Kommunikationsformen, also die institutionalisierte Berichterstattung an die Schulaufsicht zu erfassen, die im Weiteren in Zielvereinbarungen münden kann. Eine solche lässt sich zum Stichtag in den Ländern Berlin, Brandenburg, Hamburg, Hessen und Mecklenburg-Vorpommern nachzeichnen. In Berlin sind die Schulen aufgefordert, mindestens alle drei Jahre einen „internen Evaluationsbericht“ zu erstellen, der die evaluierten Bereiche, das Vorgehen, die Ergebnisse, die Interpretation und die abgeleiteten Maßnahmen beinhaltet. Die Senatsbildungsverwaltung macht im Berliner Handbuch zur internen Evaluation (2013, S. 6) deutlich, dass der Evaluationsbericht in diesem Turnus auch der operativen Schulaufsicht vorgelegt werden muss. Die Verbindlichkeit zur Erstellung eines solchen Berichts sowie die Vorlagefrist ist zugleich Bestandteil einer Ausführungsvorschrift zur Schulprogrammarbeit und internen Evaluation (AV Schulprogramm v. 11.06.2008). Auf Basis der Berichtslegung (in Verbindung mit zentralen schulstatistischen Daten) sind gemäß des neuen Berliner Indikatorenmodells bilanzierende Gespräche zwischen der Senatsbildungsverwaltung und der Schulleitung vorgesehen, aus denen im Weiteren Schulverträge mit Zielvereinbarungen hervorgehen.7 In diesem Bundesland kann also mit Blick auf die interne Evaluation erkennbar von einer Rechenschaftsfunktion gegenüber der Schulbehörde gesprochen werden. Diese wird sogar letztlich noch um eine Funktion des Systemmonitorings erweitert: In der bereits zitierten Ausführungsvorschrift „AV Schulprogramm“ wird unter „3 – interne Evaluation“ zusätzlich darauf hingewiesen, dass „bis zu einem von der Schulaufsichtsbehörde festgelegten Termin […] die zuständige Schulaufsicht auf der Grundlage der einzelschulischen Evaluationsberichte einen regionalen Gesamtbericht zur Evaluation in den Schulen ihres Aufsichtsbereichs [erarbeitet], der insbesondere die Auswertungsergebnisse und die vereinbarten Maßnahmen zur Qualitätsentwicklung beinhaltet“ (S. 3). Ein entsprechender schriftlicher Evaluationsbericht der Schule wird in Brandenburg nicht offiziell eingefordert. Allerdings sieht auch das hier zunächst als DAQ-Gespräch bezeichnete, ab dem Schuljahr 2018/2019 dann unter dem Begriff ‚Schulbilanzierung‘ (SchuB) erweiterte Austauschformat zwischen Schule und Schulaufsicht laut einem vom MBJS diesbezüglich erstellten Informationspapier (2018) einen Einbezug von Ergebnissen aus schulinterner Evaluation regelhaft vor. Für die zur jährlichen Durchführung angelegten Statusgespräche erfolgt prinzipiell ein Zugriff auf sämtliche Daten aus dem landeseigenen ZENSOS-System, wozu offiziell auch die Schulprogrammarbeit und

7Dieses

Vorgehen ist im Anschluss an die Berliner Koalitionsvereinbarung 2016–2021 neu für den gesamten allgemeinbildenden Bereich installiert worden. Zielvereinbarungen waren vorher nur zwischen der Schulaufsicht und solchen Schulen vorgesehen, die am BONUS-Programm teilnehmen (besondere sozioökonomische Belastung der Schülerschaft).

6  Interne Evaluation – Konzeption und Implementation …

201

die Ergebnisse schulischer Evaluation zählen. Sie sind von den Schulen direkt in das IT-System einzuspeisen. Eine schulische Rechenschaftslegung gegenüber der Bildungsadministration erfolgt hier also – über Schülerleistungs- und Visitationsdaten hinaus – grundsätzlich auch mit Blick auf die schulintern ermittelten Daten. In Hamburg gehen gemäß eines von der Schulbehörde im Jahr 2015 zuletzt überarbeiteten Konzeptpapiers zur Umsetzung von Ziel- und Leistungsvereinbarungen (ZLV) neben verschiedenen Leistungsdaten der Schule ebenfalls interne Evaluationsergebnisse in Verabredungen zwischen der Schule und der Schulaufsicht ein. Mindestens jährlich sollen mit dem erweiterten Leitungsteam einer Schule, zu dem neben der Schulleiterin bzw. dem Schulleiter auch seine Stellvertretung und ggf. weitere für die Umsetzung schulischer Vorhaben verantwortliche Personen zählen, datengestützte Statusgespräche geführt werden (ab Mitte 2018 als Qualitätsentwicklungsgespräche bzw. ‚QE-Gespräche‘ bezeichnet). Bei diesem Gesprächsanlass, der neben einem Schulentwicklungsteil auch klar einen Rechenschaftslegungsteil vorsieht, sind schulinterne Evaluationsergebnisse, die in einem Share-Point-System (ZLV-Tool) hinterlegt sind, ebenfalls als eine Information neben anderen Datenquellen vorgesehen. Die operative Schulaufsicht berichtet in gesonderten jährlichen Terminen wiederum der Behördenleitung über die Ergebnisse der QE-Gespräche, sodass letztlich in der Hamburger Schulbehörde ein großes Maß an Transparenz mit Blick auf die schulischen Ergebnisse hergestellt ist. Auch in Mecklenburg-Vorpommern soll die Schulaufsicht regelhaft über die Ergebnisse der internen Evaluationsmaßnahmen unterrichtet werden. Im Konzeptpapier zur internen und externen Evaluation aus 2017 wird mit Blick auf beide Evaluationsformen klargestellt, dass „um die Schulleitung bei der Wahrnehmung ihrer Verpflichtungen zu unterstützen und um die Qualitätsentwicklung landesweit steuern und sicherstellen zu können, […] weitere Akteure mit den Ergebnissen der Evaluation [arbeiten]“ (S. 1). Dabei werden hier gleich an erster Stelle die Schulrätinnen und Schulräte der staatlichen Schulämter genannt. Weiter ist in dem Papier festgehalten, dass eine Auswertung und Berichtslegung an der einzelnen Schule zu erfolgen hat und die Schulbehörden über die Ergebnisse der internen Evaluation unterrichtet werden. Entsprechend ist auch in der Evaluationsverordnung SchQuali VO-MV v. 2015 schulrechtlich festgehalten, dass die Ergebnisse von der Schulbehörde und dem Landesinstitut IQ MV jederzeit angefordert werden können (§ 5 Abs. 4). In den Ländern Schleswig-Holstein und Sachsen-Anhalt ist zwar schulgesetzlich festgelegt, dass das Schulprogramm der Aufsichtsbehörde vorzulegen ist8 bzw. dieser über die Umsetzung und Fortschreibung berichtet werden muss,9 auf diesem indirekten Wege können also die Ableitungen aus schulischer Evaluation der Schulaufsicht grundsätzlich ebenfalls bekannt werden. Eine eigenständige, regelhafte Information der Ergebnisse an

8SH: 9ST:

SchulG § 3 Abs. 1, S. 2. SchG § 24 Abs. 4.

202

J. Tarkian et al.

die SchulaufsichtsbeamtInnen ist hingegen nicht eingerichtet. Zielvereinbarungen zwischen der Schulleitung und der Schulaufsicht, in die entsprechende Daten unmittelbar eingehen würden, sind in Schleswig-Holstein jedenfalls juristisch nicht verbindlich vorgesehen. Auch für Sachsen-Anhalt wird hierbei keine grundsätzliche Berücksichtigung schulinterner Evaluationsergebnisse erwartet, sondern ist jeweils in der Verantwortung der Schule zu regeln. Eine Rechenschaftslegung im hier definierten Sinne kann insofern für beide Bundesländer mit Blick auf die schulinterne Evaluation zumindest nicht in derselben Weise wie in den vorgenannten Ländern festgestellt werden. Aus dem im Webportal der Hessischen Lehrkräfteakademie hinterlegten Formular „Zielvereinbarung zum Schulprogramm“10 (2016) wird hingegen erkennbar, dass in jährlichen Bilanzierungsgesprächen die diesbezügliche Zielerreichung hessischer Schulen regelhaft an ihren internen Evaluationsergebnissen gemessen wird. Nur in beantragten Ausnahmefällen werden stattdessen die Ergebnisse der nur auf Abruf stattfindenden externen Evaluation („on demand“-Verfahren, vgl. Kap. 5) herangezogen. In Bayern sind Zielvereinbarungen gemäß des dazu öffentlich einsehbaren Formulars11 ausschließlich auf der Grundlage der externen Evaluation zu treffen. Die schulinterne Evaluation wird hier nicht als ein einzubeziehendes Datum benannt, sondern dient laut Information im entsprechenden Leitfaden von 2014 dazu, die Zielerreichung im Weiteren zu überprüfen. Für die bislang nicht genannten Länder konnten (ebenfalls) keine Hinweise darauf gefunden werden, dass eine regelhafte Berichtslegung bzw. Informationsweitergabe zu den Erkenntnissen aus schulinterner Evaluation an die zuständige Schulaufsicht institutionalisiert ist. Hier steht es offenbar der Einzelschule frei, ihre internen Ergebnisdaten auf eigenen Entschluss in Qualitätsgespräche bzw. Zielvereinbarungen mit den Schulräten einzubringen bzw. diese auf Anfrage bereitzustellen. Eine Rechenschaftsfunktion gegenüber der Schulverwaltung ist damit zumindest nicht in konzeptioneller Form gegeben. In manchen Dokumenten wie dem Handbuch Selbstevaluation (2012), das den Schulen aus Sachsen-Anhalt Erläuterungen zum Verfahren bietet, wird eine informationelle Selbstbestimmung der Schule dabei auch explizit betont, wenn es etwa heißt, dass „eine Schule […] ihre SEIS-Ergebnisse keinesfalls in der Schulbehörde vorlegen [muss]. Vielmehr dienen die gewonnenen Daten und daraus resultierenden Ergebnisse der Schulentwicklung vor Ort, sozusagen schulintern“ (S. 6). Auch für Rheinland-Pfalz ist auf dem Landesbildungsserver kommuniziert, dass „die Datenhoheit […] bei den Institutionen [liegt]. Sie entscheidet selbst, wer Zugang zu den Evaluationsergebnissen hat

10https://lehrkraefteakademie.hessen.de/schule-unterricht/instrumente-zur-qualitaetsentwicklung. Zugegriffen: 8. November 2018. 11https://www.isb.bayern.de/gymnasium/materialien/l/leitfaden-zielvereinbarung/. Zugegriffen: 7. Dezember 2018.

6  Interne Evaluation – Konzeption und Implementation …

203

und welche Personen über die Ergebnisse informiert werden“.12 Formen der institutionalisierten Weitergabe der Ergebnisse an die schulaufsichtlichen Ansprechpartner sind entsprechend hier nicht fest eingerichtet.

6.2.3 Informationsfunktion Neben der Rechenschaftslegung gegenüber der operativen Schulaufsicht sind aber auch innerhalb der Schulgemeinschaft Rückmeldungen zu den Ergebnissen von Befragungen und anderen Formen interner Evaluation vorgesehen. Abgesehen von der schon aus ethischen Gesichtspunkten angezeigten Adressierung der an den Erhebungen direkt beteiligten Personengruppen, auf die entsprechend auch in allen Ländern hingewiesen wird, ist aus Steuerungsgesichtspunkten insbesondere bedeutsam, inwiefern vorgesehen ist, die schulischen Gremien über die Ergebnisse und Schlussfolgerungen zu informieren bzw. auch aktiv in den Entwicklungsprozess einzubeziehen. Speziell mit Blick auf die Schulkonferenz, die als oberstes Mitwirkungs- bzw. Beschlussgremium an Schulen im Unterschied zur Gesamtkonferenz (auch genannt: Lehrerkonferenz) stets auch Eltern und SchülerInnen miteinschließt,13 wäre hiermit gewährleistet, dass jedenfalls die gewählten Vertreter dieser Bildungsabnehmer an der datenbasierten Entwicklungsarbeit in der Organisation mitbeteiligt sind bzw. eine umfassende Einsicht in den Prozess der schulischen Qualitätsarbeit erhalten. Die regelhafte Festlegung einer Transparenz gegenüber der Elternschaft und ggf. weiterer Personengruppen durch die Aufbereitung von Ergebnissen der innerschulischen Datenerhebungen für die Schulkonferenz soll – angelehnt an die Ausführungen in den beiden vorangegangenen Themenkapiteln – auch an dieser Stelle als ‚Informationsfunktion‘ verstanden werden. Sofern aus den schriftlichen Festlegungen erkennbar ist, dass eine Mitbestimmung der Elternschaft bei der Planung, Umsetzung und Ableitung von Konsequenzen zur internen Evaluation regelhaft eingerichtet ist, kann dies als eine Erweiterung der Informationsfunktion hin zu einer ‚Partizipationsfunktion‘ verstanden werden. In Schleswig-Holstein wird die Informationsfunktion schon seit langer Zeit erkennbar verfolgt: Schulleitungen dieses Bundeslandes sind bereits seit 20 Jahren aufgerufen, der Schulkonferenz jährlich einen Rechenschaftsbericht auszuhändigen, der seit Einrichtung der Instrumente auch konkrete Mitteilungen über mögliche Ergebnisse schulinterner Evaluation und die Verwirklichung des Schulprogramms einschließt. Eine entsprechende

12https://ines.bildung-rp.de/ines-online/antragsformular-fuer-ines-zugang.html. Zugegriffen: 8. November 2018. 13Zur Zusammensetzung der jeweiligen Schulkonferenzen s. Kap. 7.

204

J. Tarkian et al.

Vorlage dazu ist auf der Website des IQSH verlinkt.14 Das Schleswig-Holsteinische Landesschulgesetz sieht zudem vor, dass die Schulkonferenz zu Evaluationsende einen Beschluss über Folgerungen aus den Ergebnissen trifft (§ 63 Abs. 1 Nr. 29). Die ­innerschulische Beteiligung von Vertretern der Eltern- wie Schülerschaft wird in Schleswig-Holstein darüber hinaus auch dadurch gewährleistet, dass die Durchführung interner Evaluationen durch eine Projektgruppe umgesetzt und für die o.g. schulische Jahresbilanz dokumentiert werden soll, die „sich aus möglichst allen Bereichen der Schule zusammen[setzt]. In ihr sollten sowohl Lehrkräfte als auch Schülerinnen und Schüler und Eltern vertreten sein“ (SH_2014_IQSH_Handreichung Schulentwicklung, S. 21). Interne Evaluation wird entsprechend in diesem Land auch als ‚partizipative Evaluation‘ bezeichnet (S. 27). Für Berlin ist eine Information an das oberste Beratungs- und Beschlussgremium der schulischen Selbstgestaltung durch die Vorgabe eingerichtet, den bereits genannten obligatorischen Evaluationsbericht neben der Schulaufsicht auch der Schulkonferenz auszuhändigen. Im Handbuch Interne Evaluation (2013, S. 10) ist zudem nachzulesen, dass auch ein Evaluationsprogramm, das zu Beginn entsprechender Maßnahmen unter Angabe der genauen Vorhaben und einer konkretisierten Verfahrensbeschreibung zu erstellen ist, von der Schulkonferenz beschlossen werden soll. Das ISQ-Handbuch zum Selbstevaluationsportal (SEP) aus 2016 zeigt dabei detailliert auf, über welche Planungsschritte zur inhaltlichen Vorbereitung der Evaluation von der Schulkonferenz zu entscheiden ist. Schulische Anspruchsgruppen, die nicht zum Lehrpersonal zählen (Eltern, SchülerInnen und Externe), werden in dieser Konzeption insofern ebenfalls bereits von Beginn an beteiligt. In vergleichbarer Weise wird im Sächsischen Handbuch zur Schulprogrammarbeit (2016) betont, dass „gesamtschulische Evaluationsprozesse […] vor der Durchführung zur Information und Abstimmung in die Schulkonferenz einzubringen“ sind und „auf jeden Fall […] im Vorfeld durch die Schulkonferenz ein Beschluss zur internen Evaluation gefasst werden“ soll. Ziel ist es, an dieser Stelle die Modalitäten des Vorhabens insoweit zu klären, dass alle schulischen Akteure, die an der internen Evaluation beteiligt werden, „wissen, wozu diese Evaluation dient, wer sie durchführt, wie der Datenschutz gewährleistet wird, wie die Daten ausgewertet werden und wie mit den Ergebnissen umgegangen wird“ (S. 15). Für Hamburg ist ebenfalls vorgesehen, dass die Schulkonferenz im Vorfeld Anregungen zum Verfahren interner Evaluierung gibt und diesem zustimmt. Unter Verweis auf die schulgesetzlichen Bestimmungen wird für die Hansestadt ausdrücklich deutlich gemacht, dass die Beteiligung der Elternschaft bei innerschulischen Evaluationsmaßnahmen einen festen Bestandteil partizipativer Schulentwicklungsarbeit bildet. In dem im Jahr 2000 veröffentlichten Leitfaden der Behörde ist diesem Anspruch entsprechend ein eigener Passus enthalten:

14Siehe unter https://www.schleswig-holstein.de/DE/Landesregierung/IQSH/Arbeitsfelder/Schulentwicklung/Material/Downloads/Werkzeuge/Rechenschaftsbericht_lang.docx?__blob=publicationFile&v=2. Zugegriffen: 30. Januar 2019.

6  Interne Evaluation – Konzeption und Implementation …

205

Erziehungsberechtigte

Elternhaus und Schule haben einen gemeinsamen Erziehungsauftrag. Um diesen wahrzunehmen, müssen beide in Partnerschaft ihre Vorstellungen von relevanten Werten in einer pluralistischen Gesellschaft, von Funktionen der Schule, von Prioritäten in der Vermittlung von Wissen und Kompetenzen zur Kenntnis nehmen und die Verständigung suchen. Das Schulgesetz trägt dem unter anderem dadurch Rechnung, dass es neben den Schülerrechten auch die Elternrechte in der Schulkonferenz deutlich gestärkt hat. Für die schulinterne Evaluation bedeutet dies, dass Evaluationsvorhaben und -ergebnisse spätestens in der Schulkonferenz unter Beteiligung der Eltern thematisiert werden (vgl. § 53,1 HmbSG) (HH_2000_Leitfaden der Behörde zur IE, S. 27).

Gerade mit Blick auf die Festlegung von Konsequenzen aus den Befunden wird dabei in dem zitiertem Leitfaden allerdings ein mehrstufiges Verfahren kommuniziert: Entwicklungsschritte sollen zunächst im Rahmen der Lehrerkonferenz – d. h. ohne Beteiligung von Eltern, SchülerInnen bzw. weiteren Dritten – oder als Zwischenschritt in speziellen Untergruppen formuliert werden, bevor im Weiteren dann die Schulkonferenz einbezogen wird (S. 23), sodass trotz dieses Vorrangs der ‚Professionsentscheidung‘ letztlich beide Funktionsteile bedient sind. In der instrumentbetreffenden Handreichung aus Baden-Württemberg (2010) wird der Anstoß für ein schulinternes Evaluationsvorhaben unter Beteiligung der Elternschaft demgegenüber als eine Option unter mehreren beschrieben. Gleichermaßen kann dieses vom Kollegium im Rahmen eines pädagogischen Tages oder auf Beschluss der Gesamtkonferenz erfolgen oder durch Zielvereinbarungen mit der Schulaufsicht eingeleitet werden (S. 15). Eine kommunikative Validierung der Ergebnisse und ihre Aufnahme in einen schriftlichen Evaluationsbericht ist zum Abschluss der Maßnahme(n) zwar vorgesehen, die Schulkonferenz oder ein vergleichbarer Kommunikationsort, der eine Beteiligung der elterlichen Bildungsabnehmer fest vorsieht, wird dabei aber ebenfalls nicht als fester Adressat benannt, sondern stellt nur einen möglichen Weg der Auseinandersetzung und Bekanntgabe der Ergebnisse dar. Während in Thüringen schulgesetzlich festgelegt ist, dass der Schulkonferenz über die Ergebnisse der internen Evaluation zu berichten ist (SchG § 40 b Abs. 2), fokussieren Niedersachsen und Bremen in ihren schulrechtlichen Bestimmungen ausschließlich eine Berichtslegung über die Verwirklichung des Schulprogramms. Die interne Evaluation findet hierbei keine ausdrückliche Erwähnung. Geregelt ist aber, dass der Schulvorstand in Niedersachsen für einen Beschluss der Grundsätze zur internen Evaluation zuständig ist (NSchG § 38a Abs. 3 Satz 15d). Auch in Nordrhein-Westfalen entscheidet die Schulkonferenz über schulinterne Evaluationsmaßnahmen als Instrumente der Qualitätssicherung und -entwicklung ohne dass im Nachgang eine Berichterstattung zu den Ergebnissen als regelhaftes Vorgehen verschriftlicht ist (NRW-SchulG § 65 Abs. 2). Durch die Mitwirkungsvorschriften des Schulgesetzes sind ElternvertreterInnen hier über

206

J. Tarkian et al.

ihre Funktionen in den Pflegschaften und der Schulkonferenz prinzipiell aber in die Evaluationsmaßnahmen einzubinden. Wie die konkrete Umsetzung erfolgen soll, ist dabei allerdings nicht vorgegeben. Zu den weiteren, in dieser Aufzählung nicht genannten Ländern konnten keinerlei schriftliche Passagen gefunden werden, aus denen eine Vorgabe zur regelhaften Information der Schulkonferenz über die Ergebnisse schulinterner Evaluationsvorhaben oder eine anderweitig festgelegte Partizipation der Elternschaft im Prozess innerschulischer Evaluation hervorgeht. Neben der genannten Information und Einbindung von (ausgewählten) ElternvertreterInnen innerhalb der Organisationsstrukturen bieten auch die im Internet in manchen Ländern eingerichteten Landesschulporträts prinzipiell Informationen zu den Aktivitäten schulinterner Evaluation und der Schulprogrammarbeit für die gesamte Elternschaft sowie für interessierte Dritte an. In den entsprechenden Datenbanken der Länder Berlin, Brandenburg, Sachsen und Thüringen sind neben verschiedenen schulstatistischen Daten sowie teilweise auch Ergebnissen von Inspektions- bzw. Visitationsbesuchen oder Abschlussprüfungen grundsätzlich auch Angaben zur internen Evaluation sowie eine Verlinkung zum aktuellen Schulprogramm aller allgemeinbildenden Schulen vorgesehen. An dem Umstand, dass diese Angaben in der Praxis in recht unterschiedlicher Form vorliegen, insgesamt sehr lückenhaft enthalten sind und i. d. R. keine Evaluationsergebnisse im eigentlichen Sinne enthalten, wird allerdings erkennbar, dass den Schulen bei der Veröffentlichung ihrer Informationen (infolge der Selbsteingabe in die Datenbank) große Spielräume überlassen sind15. Eine Informationsfunktion für die Gesamtöffentlichkeit

15Das

Berliner Schulporträt der Senatsverwaltung für Bildung, Jugend und Familie hat in seiner Datenbank mit dem Punkt „Schulprogramm“ einen Bereich eingerichtet, in dem die Schulen ihre entsprechenden Dokumente teilweise beschreiben oder direkt verlinken. In der Unterkategorie „Interne Evaluation“ sind zum Abrufdatum nur in wenigen Fällen kurze Freitexte zu den Gegenständen interner Evaluation eingepflegt. Ergebnisse selbst konnten hier nicht aufgefunden werden, s. https://www.berlin.de/sen/bildung/schule/berliner-schulen/schulverzeichnis/Schulportrait. aspx?IDSchulzweig=%2019346. Zugegriffen: 29. Oktober 2018. In der Rubrik „Evaluation, Visitation“ sind neben den meistens verlinkten (Kurz-)Ergebnisberichten zur externen Evaluation auch Informationen zur Selbstevaluation vorgesehen. In den hierzu eingerichteten Freitextfeldern hat ein Teil der Schulen formlose Angaben zur Durchführung (ohne Benennung konkreter Ergebnisse) hinterlegt: https://bildung-brandenburg.de/schulportraets/ index.php?id=71. Zugegriffen: 29. Oktober 2018. Unter der Kategorie „Qualität“ finden sich in der Sächsischen Schuldatenbank zu fast jeder Schule Angaben zum Entwicklungsstand und den Schwerpunkten des Schulprogramms. Zur Kategorie „Evaluation“ konnten zum Abrufdatum nur in wenigen Fällen formale Angaben über Art und Zeitpunkt der letzten internen Evaluation aufgerufen werden, siehe https://schuldatenbank.sachsen. de/. Zugegriffen: 29. Oktober 2018. Im Bereich „Schulentwicklung“ lassen sich unter https://www.schulportal-thueringen.de/ schools (zugegriffen: 29. Oktober 2018) am Seitenende Angaben zur Nutzung der Instrumente für die Qualitätsentwicklung und -sicherung einsehen, die teilweise auch durch Kurzhinweise zu ergriffenen Maßnahmen ergänzt werden.

6  Interne Evaluation – Konzeption und Implementation …

207

und damit auch die komplette Elternschaft ist in diesen Ländern insofern zwar theoretisch gegeben, präsentiert sich praktisch allerdings infolge der Umsetzungsmodalitäten als stark eingeschränkt.

6.3 Durchführungsvorgaben zur internen Evaluation und Schulprogrammarbeit Schulinterne Evaluation steht als Instrument der schulischen Selbststeuerung in einer engen Wechselbeziehung zur Schulprogrammarbeit (Thillmann et al. 2013, S. 203). Diese bildet – neben systemseitigen Vorgaben aus Zielvereinbarungen mit der Schulaufsicht – mit der innerschulischen Festlegung von Entwicklungsschwerpunkten einen zentralen Ausgangspunkt für die Planung und Umsetzung interner Evaluationsvorhaben. Zugleich sind zum Abschluss entsprechender Evaluationsprojekte die gewonnenen Erkenntnisse auch bei der Fortschreibung des Schulprogramms zu berücksichtigen, um den aktuellen Entwicklungsstand und neue Entwicklungsziele abzubilden, sodass sich ein Kreislauf aus programmatischer Arbeit und Evaluationstätigkeit ergibt. Diese gezielte Verzahnung von schulischem Strategiepapier und fokussierter Datenerhebung kommt in den Handreichungen oder weiteren Informationsschriften fast aller Länder klar zum Ausdruck, wie beispielhaft an Sachsen, Sachsen-Anhalt und Hamburg erkennbar ist:

Interne Evaluation steht mit dem Schulprogramm in unmittelbarer Beziehung. Interne Evaluation ist Voraussetzung für programmatische Zielformulierungen, dient der ständigen Selbstkontrolle während der Umsetzung der Maßnahmen sowie der Rechenschaftslegung im Hinblick auf Geleistetes. Aus den Evaluationsergebnissen lassen sich wiederum Schlussfolgerungen für das weitere Handeln ableiten, womit der Prozess von vorn beginnt (SN_2008_Positionspapier_Interne_Evaluation_an_sächsischen_Schulen, S. 6).

Aus der Darstellung zur Schulprogrammarbeit wird deutlich, dass Sie innere Schulentwicklung ohne Evaluation als Bestands- und Erfolgsbilanzierung kaum langfristig und zielführend gestalten können. Wenn Sie sich auf den Weg gemacht haben, brauchen Sie ein regelmäßiges Feedback darüber, wo Sie stehen, ob Sie sich in die gewünschte Richtung bewegen, inwieweit Sie die gestellten Ziele erreichen und natürlich auch, ob Sie alle Beteiligten einbezogen haben (ST_2012_ KM_Handbuch Möglichkeiten schulinterner Evaluation, S. 15 f.).

208

J. Tarkian et al.

Schulinterne Evaluation ist die systematische Auswertung und Bewertung der im Schulprogramm gewählten Schwerpunkte und Zielsetzungen anhand vereinbarter Kriterien der Zielerreichung, die im Folgenden auch Indikatoren genannt werden. Schulinterne Evaluation ist als fester Bestandteil der Schulprogrammentwicklung ein wiederkehrender Prozessschritt (HH_2000_Schulbehörde_Leitfaden_Interne_ Evaluation, S. 10).

Auch daran anschließende Hinweise zum allgemeinen Aufbau eines schulinternen Evaluationszyklus’ mit den dazu erforderlichen Kernphasen der Zielsetzung, Maßnahmenplanung, Durchführung und Prüfung/Optimierung lassen sich grundsätzlich in den Dokumenten aller Länder finden. Im Portal des niedersächsischen Bildungsservers etwa ist dies als Entwicklungskreislauf in Anbindung an das Konzept der eigenverantwortlichen Schule modelliert (siehe Abb. 6.2), die wiederum im Zusammenhang mit weiteren

Orientierungsrahmen Schulqualität als Zusammenfassung der Anforderungen an Schule

Ergebnisse der externen Evaluation

Eigenverantwortliche Schule

Gespräch / Absprache über Entwicklungsziele mit der NLSchB

Schulprogramm Leitbild Entwicklungsziele (die angestrebten Ziele und Ergebnisse bestimmen)

Verbesserungsmaßnahmen vereinbaren

Konsequenzen ziehen

Schul- / Unterrichtsentwicklung Maßnahmenplanung erstellen

Maßnahmen evaluieren*

Maßnahmen durchführen

*Jährliche Überprüfung des Erfolges der eigenen Arbeit, (§ 32 NSchG) Quelle: Mod. nach Portal NiBiS, NLQ Hildesheim, http://portal.eval.nibis.de/userdata/moderator/140716_Zyklus abS.pdf.

Abb. 6.2   Qualitätszyklus in allgemeinbildenden Schulen in Niedersachsen

6  Interne Evaluation – Konzeption und Implementation …

209

Steuerungsinstrumente steht (Externe Evaluation, Absprachen mit der Schulbehörde und dem darüberliegenden Orientierungsrahmen Schulqualität). Unterschiede zwischen den Ländern bestehen allerdings in spezifischen Festlegungen, die mit Blick auf die praktische Umsetzung von interner Evaluation oder auch der Schulprogrammarbeit vorgenommen werden. So sind teilweise Vorgaben oder Hinweise zur Durchführung kommuniziert, die den erwarteten Turnus, den Einsatz spezieller Instrumente oder vorgesehene inhaltliche Bestandteile und Dokumentationsvorgaben betreffen. Entsprechende Erwartungen, die in den Ländern zu diesen Aspekten kommuniziert werden, sind im Folgenden aufgeführt.

6.3.1 Vorgegebener Turnus Ausgehend von schulgesetzlichen Bestimmungen benennen Niedersachsen im Handbuch des NLQ (2014) und Hessen (auf der Website des Kultusministeriums zu den selbstständigen allgemeinbildenden SES-Schulen) mit einem einjährigen Turnus die engste zeitliche Vorgabe zur Überprüfung der schulischen Arbeit auf Basis interner Evaluationsverfahren. Mecklenburg-Vorpommern und Berlin sehen für ihre Schulen einen Rhythmus von längstens drei Jahren für schulische Evaluationen vor, wobei für die Berliner Lehrkräfte zusätzlich eine Selbstevaluation ihres Unterrichts alle zwei Schuljahre durch eine Schülerbefragung vorgeschrieben ist. Eine entsprechende Bekanntgabe erfolgte 2011 durch eine Handreichung der Senatsbildungsverwaltung zum Selbstevaluationsportal (SEP) und fand gleichzeitig Eingang in die Berliner Verordnung über schulische Qualitätssicherung und Evaluation16. Der dreijährige Takt für die Evaluation auf Schulebene gilt im Nachbarland Brandenburg zwar auch, hier allerdings ausdrücklich nur für Schulen im Ganztagsbetrieb (VV Ganztag, 21. April 2011). Während Baden-Württemberg in seinem Handbuch OES (2010) zumindest für berufsbildende Schulen einen zeitlichen Abstand von „ca. vier Jahren“ für die Durchführung schulweiter Selbstevaluationsvorhaben benennt, ist in der Evaluationsverordnung (Eval VO vom 20. Juni 2008) ähnlich wie in den Dokumenten aus Rheinland-Pfalz und Sachsen-Anhalt allein von „regelmäßigen“ Überprüfungen/Evaluationen die Rede. Auch den Hamburger Schulen werden mit der in der Bewertungsgrundlage der Schulinspektion (2017) benannten Zustandsbeschreibung „ist regelhaft implementiert“ Auslegungsspielräume für die Durchführungszeitpunkte eingeräumt. In den übrigen Ländern konnten ebenfalls keine festen Zeitangaben für die erwartete Umsetzung schulinterner Evaluationsmaßnahmen gefunden werden.

16EvalV

BE v. 29. November 2011, § 6.

210

J. Tarkian et al.

6.3.2 Verbindlichkeit beim Einsatz von Instrumenten Die von den Ländern für die Durchführung interner Evaluationen zur Verfügung gestellten Instrumente (vgl. Abschn. 6.4) sind fast flächendeckend als Angebote zu verstehen, d. h. prinzipiell steht es den Schulen frei, auch andere Befragungswerkzeuge als die in den eigenen Landesportalen angebotenen Tools einzusetzen oder Verfahren für ihre Evaluationsvorhaben nach eigenen Wünschen selbst zu entwickeln. Zur Verwendung spezifischer Instrumente ist allein in den Ländern Berlin und Mecklenburg-Vorpommern sowie in Brandenburg ausdrücklich etwas festgelegt. Dabei sieht Berlin vor, dass für die Schülerbefragungen, die von den Lehrkräften zur professionellen Weiterentwicklung ihres eigenen Unterrichts durchzuführen sind, das Selbstevaluationsportal des ISQ (SEP-Klassik) zwingend zum Einsatz kommen muss. Nach einer entsprechenden Verankerung dieser Vorgabe im Rahmen der Berliner Verordnung über schulische Evaluation (2011) ist die Nutzung dieses Instruments in den Schuljahren 2012/13 und 2013/14 entsprechend deutlich angestiegen (siehe ISQ-Bericht zur Schulqualität 2016, S. 53). Bis zum Ende des Schuljahres 2015/16 sind gemäß dieser Berichtslegung in Berlin insgesamt 12.149 Unterrichtsbefragungen durchgeführt worden. In Brandenburg hingegen, wo durch die identische Anbindung an das ISQ das SEP zwar in gleicher Form angeboten wird, eine Nutzung allerdings nicht verpflichtend geregelt, sondern neben dem früher angebotenen Instrument SEIS nur „besonders empfohlen“ ist (Rundschreiben 8/09 v. 27. Juli 2009) sind zum Stichtag der Berichterstellung 2914 Unterrichtsbefragungen erfolgt. Eine Ausnahme betrifft hier allerdings die Ganztagsschulen: Für diese ist gemäß einer Anordnung des Ministeriums der Einsatz des Ganztagsmoduls von SEP-Schule fest vorgesehen, wobei zugleich auch – genau wie in Berlin – von den Schulen eigene Fragen in das SEP-Tool miteingebracht werden können, die in der automatisierten Rückmeldung allerdings separat ausgewiesen werden. Auch den Schulen in Mecklenburg-Vorpommern werden vom Landesinstitut IQ M-V Evaluationsinstrumente zur Verfügung gestellt, die laut dem dazugehörigen Konzeptpapier (2017) „als Mindestbestandteile der Konzeption jeder Schule zu nutzen sind. Hierzu gehören vorrangig das VerA-Scope und ausformulierte, internetgestützte Fragebögen“ (S. 3). Während das VerA-Scope für ein innerschulisches Datenmonitoring zur Entwicklung von Unterrichtsqualität die Ergebnisse aus den Vergleichsarbeiten in einer jahres-, klassen- und fachübergreifenden Darstellung über mehrere Schuljahre zusammenführt und sich damit insbesondere an Fachkonferenzen und Schulleitungen richtet, fokussieren die landeseigenen Fragebögen die Prozesse von Schul- und Unterrichtsqualität. Eine entsprechende Verpflichtung zur Nutzung der Fragebögen und des VerA-Scope im Rahmen interner Evaluation und der erwarteten Einsatzbereiche ist auch in der Schulqualitätsverordnung (§ 5 IE in SchulQuali VO) festgehalten. Bayern lässt seinen Schulen in dieser Hinsicht etwas mehr Entscheidungsspielraum, empfiehlt aber besonders die Nutzung der landeseigenen Instrumente, wenn es im Leitfaden zur internen Evaluation (2010) heißt, dass „nicht jeder aus dem Internet heruntergeladene Fragebogen geeignet [ist], schulspezifische Untersuchungsbereiche zu erfassen.

6  Interne Evaluation – Konzeption und Implementation …

211

In der Regel sollten deshalb bei internen Evaluationsmaßnahmen an bayerischen Schulen die von der Qualitätsagentur am Staatsinstitut für Schulqualität und Bildungsforschung entwickelten Instrumente zum Einsatz kommen, die dem Stand der Forschung zur Qualität von Schule und Unterricht entsprechen.“ (S. 16). In Schleswig-Holstein besteht ebenfalls kein direkter Instrumentenzwang. In der Handreichung aus 2014 wird aber für das grundsätzliche Vorgehen „empfohlen, verlässliche quantitative Verfahren (basierend auf Tests oder statistischen Daten) mit qualitativen Verfahren (Befragungen, Stärken-Schwächen-Analyse) zu verbinden“ (S. 13). Auch Hessen teilt seinen Schulen im Handbuch (2017) mit, dass „wenn es inhaltlich möglich ist, […] man auf vorliegende erprobte Instrumente zurückgreifen [sollte], da die Erstellung eines eigenen Fragebogens mit erheblichem Zeitaufwand verbunden ist und vielfach an der Schule die notwendige Expertise dafür fehlt“ (S. 4). Die sächsische Landesregierung nimmt auf ihrer Website eine Unterscheidung zwischen ‚wissenschaftlich geprüften Instrumenten‘ (mit Orientierung am Qualitätsrahmen) und ‚Methoden und Instrumenten aus verschiedenen Quellen‘ vor, stellt die Auswahl den Schulen aber letztlich ebenfalls frei. In den übrigen, oben nicht genannten Ländern sind keine Vorgaben für eine Nutzung spezifischer Instrumente erkennbar.

6.3.3 Verpflichtende Grundlagen bzw. Bestandteile und Dokumentationsvorgaben Auch mit Blick auf inhaltliche Aspekte, die bei internen Evaluationen als feste Bestandteile bei der Vorhabengestaltung zu berücksichtigen sind, bestehen in Mecklenburg-­ Vorpommern verbindliche Regelungen. Dabei ist neben dem eher grundsätzlichen Hinweis, dass die Schule ein eigenes Evaluationskonzept zu erarbeiten (Bildungsserver M-V) und auf dieser Basis zu prüfen hat, inwieweit die Zielstellungen aus dem Schulprogramm oder Qualitätsleitbild umgesetzt sind, im bereits zitierten Konzeptpapier auch eine Minimaldefinition des inhaltlichen Gegenstandsbereichs festgelegt: So soll in jeder Evaluation der im Landesreferenzrahmen enthaltene Qualitätsbereich ‚Unterrichts- und Erziehungstätigkeit‘ untersucht werden. Für die Anlage der Untersuchung wird dabei auch mit Blick auf den Umfang und die methodische Umsetzung ausgeführt:

Verpflichtende Bestandteile sind Unterrichtsbeobachtungen, Ergebnisse aus Schulleistungs-untersuchungen, Vergleichsarbeiten, Lehrer–, Schüler- und Elternbefragungen sowie an beruflichen Schulen Befragungen von Ausbildungspartnern. Über diese Mindestbestandteile hinaus können, je nach Konzeption der Schule, beliebige weitere Qualitätsbereiche oder Verfahren im Rahmen der internen Evaluation berücksichtigt und eingesetzt werden (MV_2017_ Ministerium _Konzept_ der_internen_und_externen_Evaluation, S. 3).

212

J. Tarkian et al.

Die bereits benannten internetgestützten Fragebögen, die durch das IQ M-V bereitgestellt werden, fokussieren jeweils unterschiedliche Qualitätsbereiche. Wie bei den externen Schulbesuchen ist auch bei der internen Evaluation ein Einsatz der Bögen für die Bereiche ‚Unterricht‘ und ‚Schulmanagement‘ fest vorgesehen, die gemeinsam den in der Schulqualitätsverordnung als verpflichtend festgelegten Bereich der Unterrichtsund Erziehungstätigkeit abdecken. Bögen für weitere, freigestellte Qualitätsbereiche liegen zum Teil vor, zum Teil sind sie noch in Erstellung. Die Schulen werden darauf hingewiesen, dass die Fragebögen dauerhaft zum Einsatz vorliegen, damit auch längsschnittliche Erhebungen durchgeführt werden können. Auf schulgesetzlicher Ebene wird in Mecklenburg-Vorpommern zudem betont, dass die „inhaltliche Ausgestaltung und das Verfahren des Schulprogramms, Verfahren und Zuständigkeit, Konzeption, Frequenz, Durchführung, Auswertung und Berichtslegung der internen Evaluation“ per Verordnung durch die Schulbehörde festgelegt werden (SchG 39 a Abs. 6). Dabei gilt für die interne Evaluation lt. § 5 der SchulQualiVO M-V (2015), dass unter der Verantwortung der Schulleitung eine Konzeption entwickelt und umgesetzt wird, die auf Basis der o.g. Bestandteile an der Schule ausgewertet und verschriftlicht wird. Auch die in Abschn. 6.2.2 aufgezeigte Rechenschaftsfunktion gegenüber der Schulbehörde ist in diesem Passus vorgeschrieben. Für Berlin ist, wie bereits angeführt, ebenfalls die Erstellung eines Evaluationsprogramms verbindlich. Dazu ist im Handbuch zur internen Evaluation nachzulesen, dass ein solches Programm die Auswahl der Evaluationsvorhaben enthalten und dazugehörige Verfahren mit Blick auf einen realistischen Umfang und einen zugänglichen Gegenstand konkretisieren soll (2013, S. 10). Zudem wird darauf hingewiesen, dass die Ziele eines auf Schulebene geplanten Untersuchungsvorhabens mithilfe von Leitfragen exakt bestimmt werden sollen. Bei der Auswahl der Evaluationsbereiche, – merkmale und -indikatoren wird empfohlen, die Bestimmungen des Schulprogramms selbst sowie den Handlungsrahmen Schulqualität als Orientierungsgrundlage zu nutzen. Anknüpfend an das Berliner Schulgesetz (§ 9 Abs. 1) ist zudem von der durchführenden Stelle schriftlich vorab festzulegen, welche Personen(kreise) einbezogen werden (SchülerInnen, Erziehungsberechtigte und außerschulische Partner sind grundsätzlich als Beteiligte vorgesehen); wann der Erhebungs- und Berichtszeitraum erfolgen soll, welche Art von Verfahren/Methode zum Einsatz kommt, welchen Zweck und Umfang die Befragungen oder Beobachtungen haben, welche Erhebungs- und Hilfsmerkmale für Befragungen kennzeichnend sind, wie die Daten erhoben und gespeichert werden und wer die Evaluationsmaßnahme leitet. Für die zum Evaluationsende zu erstellende Dokumentation kann das Selbstevaluierungsportal des Instituts für Schulqualität Berlin und Brandenburg genutzt werden. Die Dokumentation soll gemäß der Angabe im Handbuch auf einem sogenannten Evaluations-Portfolio basieren, das sämtliche Dokumente von der Planung bis zur Ergebnisauswertung jedes Evaluationsvorhabens beinhaltet (2013, S. 23). Inhaltliche Vorgaben zum Themenfeld interner Evaluation bestehen dahin gehend, dass alle Lehrkräfte ihren Unterricht durch eine Befragung ihrer SchülerInnen mit den bei SEP-Klassik enthaltenen Befragungsmodulen durchzuführen haben (Selbst-

6  Interne Evaluation – Konzeption und Implementation …

213

evaluation). Dabei stehen allgemeine Unterrichtsaspekte wie Qualität, Zeit, Anregung, Passung und Medienkompetenz als Bausteine zur Auswahl, die um fachspezifische Unterrichtsaspekte (schulformbezogen) erweitert werden. Die Schulleitungen sind gemäß Berliner Evaluationsverordnung (2011, § 6) über die grundsätzliche Durchführung der Selbstevaluationen zu informieren. Ergebnisse dieser Schülerbefragungen mit SEP-Klassik sollen allerdings – im Gegensatz zu den Evaluationen mit SEPSchule, für die eine Veröffentlichung innerhalb der Einrichtung fest vorgesehen ist –­ ausdrücklich nicht an der Schule dokumentiert werden, sondern dienen allein als Feedback für die einzelne Lehrkraft. Auch die Hamburger Schulbehörde macht in ihrem Leitfaden (2000, S. 23 f.) deutlich, dass eine schulinterne Evaluation zu dokumentieren ist und benennt dazu als Anforderungen neben der Schriftform eine klare Sprache, Vertraulichkeitsvereinbarungen, eine Orientierung am Schulprogramm und eine knappe Prozessdarstellung, in der Beteiligte, Bereiche, Ziele, Methoden, Ergebnisse und Konsequenzen dargestellt werden. Bei der Auswahl der Evaluationsgegenstände sollen die aktuellen Interessen der Schule sowie der Lernenden, aber auch der übergeordneten Instanzen (Schulbehörde) berücksichtigt und an den Vorgaben im Orientierungsrahmen ausgerichtet werden. Vorgaben für thematische Zuschnitte oder das methodische Vorgehen bestehen allerdings nicht. Schleswig-Holstein kommuniziert in seiner Handreichung zur Schulentwicklung des IQSH (2014) ebenfalls keine fest zu evaluierenden Bereiche, formuliert aber die Erwartung, dass diese dem pädagogischen (Förder-)Konzept oder Schulprogramm entstammen müssen. Der Evaluationsgegenstand sollte genau beschrieben und begründet, die Beteiligten identifiziert und informiert werden. Es wird aufgeführt, dass „die Ziele, Intentionen und Transparenz der Erhebung […] in Konferenzen erläutert [werden]. Wichtig ist die Klarheit darüber [vorab]: Wer bekommt wann welche Ergebnisse mit welchem Auftrag? Wer zieht Schlussfolgerungen, wann erfahren die Beteiligten, was daraus geworden ist?“ (S. 9). Als Referenzpunkt für die Auswahl von Gegenstandsbereichen benennen auch Nordrhein-Westfalen und Brandenburg das Schulprogramm. Die hier festgelegten Entwicklungsschwerpunkte sollen in Brandenburg laut Anweisung im Rundschreiben 8/09 zugleich den Zeitpunkt, die Art und Beteiligung an Evaluationsmaßnahmen definieren. Für die Ganztagsschulen ist zudem per Vorschrift geregelt, dass eine Evaluation ganztagsspezifischer Arbeitsschwerpunkte erforderlich ist, an der SchülerInnen, Eltern, Kooperationspartner sowie die Schulträger zu beteiligen sind (VV-Ganztag 2011, Abs. 6). Sachsen-Anhalt wiederum verweist auf seinen Qualitätsrahmen als Aufhänger für die Auswahl des Evaluationsgegenstands (Bildungsserver 2017) und sieht grundsätzlich vor, dass bei den Datenerhebungen Schulleitungen, Lehrkräfte, MitarbeiterInnen, AusbilderInnen, SchülerInnen sowie Eltern beteiligt werden, um „eine mehrperspektivische, ganzheitliche und differenzierte Momentaufnahme der beteiligten Befragungsgruppen in Bezug auf die Qualität ‚ihrer‘ Schule“ zu gewährleisten (Handbuch Selbstevaluation 2012, S. 19 f.).

214

J. Tarkian et al.

Von den Schulen in Bayern wird gemäß Leitfaden Interne Evaluation (2010) ein Projektplan gefordert, in dem die Arbeitsschritte hinterlegt werden und Meilensteine und Verantwortlichkeiten definiert sind (S. 13). Zudem ist hier mit Blick auf die Grundlagen für die interne Evaluation betont, dass „die Qualitätskriterien einer guten Schule und eines guten Unterrichts, die die externe Evaluation in Augenschein nimmt, […] auch für die interne Evaluation Gültigkeit [haben]; diese kann sich aber mit der Bewertung von Ausschnitten oder einzelnen Projekten begnügen“. In Hessen wird laut Angaben des Handbuches zur internen Evaluation (2017) eine angemessene Dokumentation und Präsentation der Ergebnisse erwartet. Dabei ist ein Raster für die Formulierung eines Entwicklungsvorhabens bereitgestellt, an dem sich die Dokumentation orientieren soll. Enthalten ist hierbei eine Beschreibung und Begründung, die Verschriftlichung der anvisierten Ziele, Angaben zu Handlungsschritten und Zeitrahmen, eine Ableitung von Fortbildung und/oder externer Unterstützung (sofern nötig), Methoden zur Überprüfung der Zielerreichung und eine Definition von Verantwortlichkeiten (S. 12). Ein Raster, das der Planung der Evaluationsinhalte dient, wird auch im Handbuch zu Materialien interner Evaluation (2003) in Thüringen bereitgestellt. Dabei ist dies allerdings ausdrücklich als Empfehlung, nicht als Vorgabe zu verstehen. In dem Handbuch wird die erwartete Entwicklung eines Evaluationskonzepts anhand eines Beispiels aufgezeigt, in der ähnliche Aspekte wie die für die Berliner Evaluationsprogramme genannten Merkmale abgefragt werden. In Baden-Württemberg ist laut Ausführungen im Handbuch OES (2010, S. 15) freigestellt, ob die Auswahl des Qualitätsbereichs und des konkreten Evaluationsgegenstands vom Kollegium (z. B. im Rahmen eines Pädagogischen Tags) getroffen wird, auf Beschluss der Gesamt- oder auch Schulkonferenz erfolgt oder auf Vorschlag der Qualitätsentwicklungsgruppe oder der Schulleitung festgelegt wird. Unabhängig von dieser Frage, die vornehmlich mit Blick auf den berufsbildenden Bereich verschriftlicht wurde, ist allerdings in der Evaluationsverordnung empfohlen, „nach und nach alle Bereiche der Schulqualität planmäßig zyklisch zu evaluieren“ (§ 5 Abs. 1 und 2). Niedersachsen teilt in seiner Handreichung zur schulischen Qualitätsentwicklung (2014) wiederum mit, dass „für die Durchführung einer internen Evaluation […] den allgemein bildenden Schulen keine verbindlichen Anforderungen vorgeschrieben“ sind (S. 14). Den Dokumenten der Länder Bremen, Nordrhein-Westfalen, Saarland, Sachsen und Rheinland-Pfalz können ebenfalls keine Festlegungen oder Erwartungen zur inhaltlichen Gestaltung von Evaluationsvorhaben entnommen werden.

6.3.4 Vorgaben zum Schulprogramm Schulprogramme sind als schulinterne Steuerungsinstrumente zur Qualitätsentwicklung, wie einleitend gezeigt wurde, seit einigen Jahren in fast allen Bundesländern verpflichtend implementiert worden; z. T. auch als Schulentwicklungsprogramm (BY, TH), Jahresarbeitsplan (SH), Schulkonzept (SN), Qualitätsleitbild (MV), Qualitätsprogramm

6  Interne Evaluation – Konzeption und Implementation …

215

(RP) oder Qualitätsdokumentation (BW) bezeichnet, bildet das Schulprogramm die konzeptionelle Basis zur Planung der langfristigen pädagogischen Entwicklungsarbeit jeder Schule. Ob die festgeschriebenen Ziele erreicht werden und eingeleitete Maßnahmen erfolgreich sind, soll dabei über interne (und externe) Evaluation überprüft werden. Mit Blick auf die Erstellung und Fortschreibung von Schulprogrammen existieren in den Ländern unterschiedlich starke Auflagen. In den Grundsätzen sind diese häufig schon auf schulgesetzlicher Ebene geregelt; inhaltliche Einzelheiten hingegen werden zumeist untergesetzlich bzw. in konzeptionellen Papieren der Landesregierungen ­festgehalten. So ist das Schulprogramm in Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Schleswig-Holstein laut gesetzlicher Bestimmungen hinsichtlich der enthaltenen Entwicklungsziele von der Schulkonferenz zu beschließen bzw. es muss darüber „im Einvernehmen“ mit diesem Gremium eine Annahme erzielt (BY und SN) oder zumindest ihr Vorschlagsrecht berücksichtigt werden (NI). Entsprechende Vorschlagsmöglichkeiten für ein Schulprogramm sind in Berlin, Brandenburg, Bremen, Hamburg und Hessen für die Gesamtkonferenz (Lehrerkonferenz) vorgesehen. Berlin, Bremen und Mecklenburg-­ Vorpommern regeln zudem schulrechtlich, dass die Programme aller Schulen in öffentlicher Trägerschaft grundsätzlich der Schulaufsicht zur Genehmigung vorgelegt werden müssen. Das Land Brandenburg sieht demgegenüber laut Darstellung des MBJS nur vor, dass die Schule in einem gemeinsamen Gespräch mit der zuständigen Schulaufsicht ihr Schulprogramm erörtert. Die Aufsicht gibt dabei „in geeigneter Weise Rückmeldungen zum Schulprogramm und den darin festgelegten pädagogischen Zielen“17; ausschließlich Schulen mit besonderer Prägung (wie einer Musikbetonung oder einer sportlichen Ausrichtung) müssen ihr Schulprogramm genehmigen lassen. Für die Erörterung sind laut Information des Ministeriums Produktkriterien (für die erstmalige Erstellung des Programms) und Prozesskriterien (zur Fortschreibung) festgelegt. Während für Hessen festgehalten ist, dass ein Beratungsgespräch zwischen Schule und Schulaufsicht über den Stand des Schulprogramms stattfinden soll, ist in der schulrechtlichen Bestimmung zu Schleswig-Holstein ausschließlich geregelt, dass der Schulaufsicht das Programm vorgelegt werden muss.18 Schulen aus Sachsen-Anhalt, Brandenburg, Mecklenburg-Vorpommern sowie dem Saarland sind ebenfalls verpflichtet, der Schulbehörde über die Weiterentwicklung ihrer Schulprogramme bzw. schulische Zielsetzungen zu berichten.19

17Siehe

unter https://mbjs.brandenburg.de/bildung/gute-schule/orientierungsrahmen-schulqualitaet-und-evaluation.html. Diese Entscheidung ist eingegangen in das Rundschreiben 8/09, zu finden unter: http://bravors.brandenburg.de/verwaltungsvorschriften/rs_8_09. Zugegriffen jeweils: 14. November 2018. 18Für die Gesamtangaben der Rechtsgrundlagen siehe Kap. 7 19ST: § 24 Abs. 4; BB: Rundschreiben 8/09; MV: SchulG M-V § 39a Abs. 2; SL: Erlass pädagogischer Tag unter 7.

216

J. Tarkian et al.

Über den Umstand, dass die Schulen in regelmäßigen Abständen eigenständig überprüfen sollen, inwiefern die Ziele ihres Schulprogramms erreicht bzw. fortzuschreiben sind, herrscht in den Ländern Einigkeit. Die Hamburger Schulbehörde betont in einer Großen Anfrage aus 2013 aber, dass – wie auch in Berlin und Brandenburg – eine Prüfung und Weiterentwicklung des Schulprogramms auch in jährlichen Bilanzgesprächen zwischen der Einzelschule und der Schulaufsicht thematisiert wird. Dabei wird zum Stichtag der Anfragenbeantwortung mitgeteilt, dass die Schulen des Stadtstaats in der Vergangenheit auch durchgängig Überarbeitungen ihrer Programme auf Basis von internen Evaluationen vorgenommen haben. Etwa ein Drittel der Schulen hat demnach bei seiner Überarbeitung Unterstützung durch die Schulaufsicht und die Fachreferate der zuständigen Behörde sowie aus dem Landesinstitut in Anspruch genommen, bspw. in Form von Einzelberatungen, innerschulischen Fortbildungen oder Einführungsmaßnahmen in das Instrumentarium interner Evaluation. Inhaltliche Anforderungen sind für die Schulprogramme in Hamburg ausdrücklich nicht vorgesehen. Die Schulbehörde verweist hier in ihrem Leitfaden (2000) auf den gesetzlichen Auftrag an die Schulen, die Schwerpunkte ihrer Entwicklung selbst festzusetzen, sofern sie berücksichtigen, die Umsetzung und Erfolg der pädagogischen Arbeit regelmäßig zu überprüfen (S. 4). Bremen setzt hingegen mit Blick auf die Schulprogrammarbeit vor Ort klare Vorgaben: Vom Landesinstitut LiS wird ein Arbeitsraster präsentiert, das in schulformspezifischen Varianten ab dem Schuljahr 2012/2013 für die (Weiter-)Entwicklung strukturierter Schulprogramme für alle Schulen verbindlich einzusetzen ist.20 Damit soll gewährleistet werden, dass das Schulprogramm eine einheitliche und „strukturierte Bestandsaufnahme und eine prägnante Übersicht der vorhandenen pädagogischen Konzepte (z. B. Sprachförderung, Förderkonzepte, Berufsorientierung u. a.), der Entwicklungsplanung mit den jährlichen Arbeitsschwerpunkten, Maßnahmen, Evaluationsvorhaben und der Fortbildungsplanung“ (ebd.) bietet. Als Anlage sind u. a. die bestehenden Zielvereinbarungen beizufügen, vom zuständigen Referat der Bildungsverwaltung werden außerdem Input- und Outputkennzahlen der Schule ergänzt. Auch für die in Schleswig-Holstein verbindlichen Jahresarbeitspläne kommuniziert das IQSH Aspekte zur Erstellung. Ein entsprechendes Muster (tabellarische Form) wird in der Handreichung des IQSH zur Verfügung gestellt (2014, S. 33 f.). Zudem wird dort darauf hingewiesen, dass die Schulkonferenz in regelmäßigen Abständen das Programm zu überprüfen hat (S. 21). Erwartungen an die Bestandteile von Schulprogrammen werden auch in der niedersächsischen Handreichung zur schulischen Qualitätsentwicklung des NLQ (2014) in dezidierter Weise, allerdings ohne spezielle Vorlage kommuniziert. Dabei wird unter Verweis auf das Schulgesetz (§ 32 Abs. 3 NSchG) insbesondere auf eine geforderte Maßnahmenplanung hingewiesen. Intendiert sind aber auch „Aussagen zur pädagogischen

20Siehe https://www.bildung.bremen.de/sixcms/media.php/13/Schulprogramm_Raster_Grundschulen.doc. Zugegriffen: 24.Oktober 2018.

6  Interne Evaluation – Konzeption und Implementation …

217

Grundorientierung, z. B. zu Leitzielen der pädagogischen Arbeit oder K ­ ooperations- und Partizipationsstrukturen“ (S. 4). Sachsen formuliert nach einer vormals sehr ausführlichen Darstellung in seiner kürzlich aktualisierten Handreichung zur Schulprogrammarbeit (2016) dass eine „Bestimmung der Ausgangssituation, der Werte, der Ziele, der Maßnahmen und der Verfahren zu ihrer Überprüfung enthalten sein sollten“ (S. 10). Schulen in Mecklenburg-Vorpommern werden in dem Leitfaden „Schulinterner Lehrplan“ (2006), der in der Serie „Gute Schule“ erhältlich ist, darauf hingewiesen, dass sich das Schulprogramm auf ausgewählte wesentliche Aufgaben in den ­ zentralen Qualitätsbereichen zu beziehen hat. Zu diesen zählen neben den Ergebnissen der ­ SchülerInnen, dem Unterricht und der Entwicklung pädagogischer Professionalität auch das Schulmanagement, Ziele und Strategien der Qualitätsentwicklung (Evaluation der Ergebnisse und Prozesse, Programme und Maßnahmen) sowie die Schulkultur und das Schulklima (S. 9). In der Handreichung zum Qualitätskonzept für die selbstständigen SES-Schulen (2016) zählt Hessen gleich zu Beginn verschiedene Anforderungen für das Programm auf: Dies soll Festlegungen zu dem Rahmen beinhalten, in dem die Schule eine pädagogische Verantwortung übernimmt, Ziele der pädagogischen Arbeit mitsamt Grundsätzen zu ihrer Erfüllung definieren, die wesentlichen Mittel zum Erreichen dieser Ziele benennen und die Zusammenarbeit der LehrerInnen festschreiben. Auch der Beratungsbedarf sowie Fragen der Organisations- und Personalentwicklung und ein Fortbildungsplan sind darzustellen. Brandenburg wiederum verweist darauf, dass die Schulprogramme entsprechend den Vorgaben nach § 7 Abs. 2 BbgSchulG fortzuschreiben sind. Das MBJS hat dazu am 27. Juli 2009 in dem Rundschreiben Nr. 8/09 einen umfangreichen Katalog mit Anforderungen definiert, zu welchen Inhaltsbereichen (a bis h) in einem Schulprogramm künftig auf der Basis von internen und externen Evaluationsergebnissen Aussagen zu treffen sind.21 Die Qualitätsmerkmale für das Schulprogramm selbst wie auch für den Prozess der Entstehung wurden im Anschluss an eine Analyse vorliegender Schulprogramme festgelegt (vgl. Rundschreiben 26/2004). Im bayerischen Leitfaden zum Schulentwicklungsprogramm (2014) wird betont, dass die Festlegung der schulinternen Entwicklungsziele unter besonderer Berücksichtigung der mit der Schulaufsicht vereinbarten Ziele im Nachgang der externen Evaluation zu erfolgen hat (S. 6). Aus Sachsen wird deutlich, dass eine Einhaltung der im Schulprogramm verschriftlichten Entwicklungsziele „auch von den Partnern eingefordert werden kann“, wozu neben dem Kollegium auch Eltern, SchülerInnen und Außenpartner aus der Schulumwelt zählen (Handreichung Schulprogramme 2004, S. 7). Die Berliner Senatsverwaltung definiert in ihrem Konzeptpapier als Bestandteile der Schulprogrammarbeit eine

21Siehe dazu http://bravors.brandenburg.de/verwaltungsvorschriften/rs_8_09. Zugegriffen: 24.Oktober 2018.

218

J. Tarkian et al.

Analyse der Unterrichtsentwicklung, Organisationsentwicklung, Personalentwicklung und des Bereichs ‚Erziehung und Schulleben‘. Diese soll in Form eines Stärken-­ Schwächen-Profils erfolgen und als Grundlage für schulische Entwicklungsvorhaben und -ziele dienen (2013, S. 7). In den meisten Ländern sind die Schulen aufgefordert, ihre Schulprogramme der Schulöffentlichkeit zur Verfügung zu stellen. Sachsen kommuniziert in der Handreichung Schulprogramme des SBI (2004, S. 21), dass es den Lehrkräften, den Eltern (zumindest den ElternvertreterInnen) und dem Schülerrat zur Verfügung gestellt ­werden sollte. Neben Berlin und Brandenburg die seit 2005 bzw. 2007 Schulporträts veröffentlichen, werden aber auch in Sachsen (seit 2003) die Schulen zugleich zur Weitergabe ihrer Programme im Rahmen strukturierter Datensammlungen aufgerufen, die im Internet frei abrufbar sind. So heißt es hier: „Das Schulprogramm spiegelt sich auch im Schulporträt wider. Schulporträts beinhalten das „Schulprogramm“ als ein eigenständiges Kriterium. […] [und] dienen vor allem einer transparenten Rechenschaftslegung gegenüber der Öffentlichkeit“ (S. 9). Auch Thüringen unterhält ein entsprechendes Schulporträt, in dem sich alle Schulen des Landes nach vergleichbaren Kriterien präsentieren. Dazu zählen auch Angaben, die die Schulentwicklung betreffen (Schwerpunkte, Instrumente, Ergebnisse, …). Schulprogramme selbst sind hier allerdings nur in einzelnen Fällen auszugsweise hinterlegt. Für die nicht genannten Länder konnten keine besonderen Vorgaben für die Gestaltung, Verabschiedung oder Kommunikation der Schulprogramme in den einschlägigen Landesdokumenten gefunden werden.

6.4 Instrumente interner Evaluation In den Landesportalen bzw. auf den Websites der Qualitätsinstitute werden den Schulen jedes Bundeslandes Instrumente oder methodische Verfahrenshilfen für eine interne Evaluation (Schulebene) oder Selbstevaluation (Ebene der Einzellehrkraft) angeboten. Dabei sind diese teilweise direkt von der Website abrufbar (Sofort-Download von Fragebögen o.ä. Dokumenten); teilweise ist ein Einloggen per Teilnehmercode erforderlich, um zunächst einen geschützten Bereich zu betreten. In diesem können dann üblicherweise individuelle Befragungsvorhaben über eine Datenbankmaske passgenau eingerichtet, durchgeführt und nach Abschluss von dem jeweiligen schulischen Auftraggeber (Schulleitung, Lehrkraft, …) ausgewertet werden. Abb. 6.3 zeigt auf, welche Befragungs-/ Analyseinstrumente von den Ländern zum Analysestichtag (31.01.2018) über ihre Landesportale bzw. die dort eingerichteten Online-Dienste zur Verfügung gestellt ­werden. Dabei gibt es Überblicksevaluationen wie das – inzwischen nicht mehr vom Anbieter unterstützte – SEIS (Selbstevaluation in Schulen), das IfS-Schulbarometer, das SEP (Selbstevaluationsportal) oder auch QUES, die Schulen als Gesamtsystem in

6  Interne Evaluation – Konzeption und Implementation …

219

Abb. 6.3   In den Ländern flächendeckend angebotene Verfahren zur Umsetzung schulinterner Evaluationen

220

J. Tarkian et al.

den Blick nehmen22, aber auch thematisch zugeschnittene Einzelinstrumente, die spezielle Bereiche schulischer Qualität fokussieren (Beispiel: Ganztagsschule, Index für Inklusion, Medienbildung). Zudem können die Schulen in den meisten Bundesländern mit Unterstützung der Landesinstitute durch die Formulierung eigener Items auch maßgeschneiderte Befragungen (‚offene Instrumente‘) selbst bzw. mitentwickeln, um den besonderen einzelschulischen Bedürfnissen gerecht zu werden. Neben landeseigenen Verfahren werden manche Instrumente auch als landesübergreifende Entwicklungen von mehreren Bundesländern angeboten (Beispiel: SEfU und EMU). Dabei bietet beispielsweise das von einigen Ländern in den vergangenen Jahren bereitgestellte Instrument SEIS als besonderes Merkmal eine Vergleichsmöglichkeit an: Über den automatischen Rückmeldebericht kann jede Schule prinzipiell ihre Ergebnisse in den sechs Qualitätsbereichen mit anderen Schulen des Bundeslandes vergleichen, sofern die entsprechende Bereitschaft erteilt wurde. Ausführungen zu den Landesangeboten Baden-Württemberg: Als zentrales Instrument zur flächendeckenden Unterstützung der schulinternen Entwicklungsprozesse ist derzeit das Evaluations- und Umfragesoftware-Tool „Electric Paper“ (EvaSys) vorhanden. Das Befragungsinstrumentarium QUES, wird bedingt durch eine Einstellung des technischen Supports nicht mehr aktiv als Unterstützungslösung kommuniziert. Auf Initiative des Landesinstituts sollen zukünftig modulare Instrumente zur Selbstevaluation und speziell dem Unterrichtsfeedback (v. a. zu Tiefenstrukturen, aber auch mit fachlichen Schwerpunkten) bereitgestellt werden, die wissenschaftliche Ansprüche erfüllen. Mittelfristig ist auch geplant, Instrumente zu weiteren Qualitätsbereichen des Referenzrahmens zu entwickeln. Die interne Evaluation wird im Rahmen der 2019 neu entstehenden zwei Landesinstitute verankert werden. Bayern: Für das auch von der Bayerischen Qualitätsagentur derzeit noch angebotene Befragungsinstrumentarium QUES ist entsprechend ebenfalls eine Migration auf einen anderen Anbieter geplant. Auf dem Internetportal wird aktuell auch verwiesen auf die Fragebogensammlung der Datenbank zur Qualität von Schule (DaQS) und auf EMU (Evidenzbasierte Methoden der Unterrichtsdiagnostik und -entwicklung), das 2011 im Auftrag der Kultusministerkonferenz an der Universität Koblenz-Landau entwickelt wurde und kostenfrei von Schulen zur Bestimmung ihrer Unterrichtsgüte eingesetzt werden kann. Berlin/Brandenburg: Bei dem für die Länder Berlin und Brandenburg vom ISQ angebotenen Selbstevaluationsportal (SEP) handelt es sich um eine eigenständige, wissenschaftlich fundierte Entwicklung, die mithilfe technischer Unterstützung der Firma Outermedia realisiert wurde und am Rahmenlehrplan für Berlin und Brandenburg ausgerichtet ist. Sie besteht aus einem verpflichtenden Teil (SEP-KLASSIK), der von Lehrkräften zur Evaluation ihres Unterrichts verwendet werden kann, und einem Part, der die Organisationsebene als Ganzes in den Blick nimmt (SEP-SCHULE). Zur Nutzung des ISQ-Portals

22Wobei hier von den Schulen individuelle Interessensbereiche als Blöcke ausgewählt und zusammengestellt können.

6  Interne Evaluation – Konzeption und Implementation …

221

besteht eine Kooperation mit dem Land Nordrhein-Westfalen, sodass Unterrichtsfragebögen des ISQ auch dort zum Einsatz kommen können. Auch Schleswig-Holstein nutzt entsprechende Analyseinstrumente des Instituts für Schulqualität mit. Die Bremer Methodenbox zur Selbstevaluation enthält eine Fülle an unterschiedlichen Verfahren bzw. Techniken für innerschulische Bestandsaufnahmen, die sich auf die Qualitätsbereiche Lernkultur, Schulkultur und Schulmanagement des Bremer Orientierungsrahmens beziehen. Über den Erwerb einer Landeslizenz der Schweizer Unterrichtsentwicklungs- und Selbstevaluationsplattform IQES-online werden außerdem wissenschaftlich erprobte Feedback- und Evaluationsinstrumente, Unterrichtsmaterialien und Methoden für einen kompetenzorientierten Unterricht bereitgestellt. Zudem findet sich auf der Website des Landesinstituts eine Verlinkung auf das kostenlose Angebot des oben bereits erwähnten Programms EMU zur Unterrichtsdiagnostik. Hamburg bietet seinen Schulen derzeit ebenso wie Baden-Württemberg, Bayern und auch Rheinland-Pfalz formal noch das Programm QUES zur Nutzung an. Nachdem der Anbieter Spiritec das Verfahren technisch nicht weiter unterstützt, wird vom IfBQ Hamburg seit kurzem auf das SEP der Länder Berlin und Brandenburg verwiesen. Ergänzend steht schwerpunktmäßig den Stadtteilschulen für ihre Qualitätsentwicklung im Oberstufenbereich das Instrument KESS (Kompetenzen und Einstellungen von SchülerInnen) zur Verfügung. Auf Anfrage der Schulen werden gemeinsam mit dem hierfür zuständigen IfBQ Evaluationsschwerpunkte festgelegt und dazu passende Tests oder Schülerfragebögen zum Einsatz gebracht. In Hessen kommen selbstentwickelte Online-Fragebögen in einem Excel-basierten Tool zum Einsatz, die zentrale Bereiche des Hessischen Referenzrahmens Schulqualität in den Blick nehmen. Wünschen Schulen eine angepasste Befragung, können einzelne Items ausgewählt und in einem eigenen Instrument zusammengestellt werden. Zu beiden Vorgehensweisen werden Auswertungshilfen angeboten. Auf der Website der Hessischen Lehrkräfteakademie stehen außerdem einige Feedback-Instrumente als Kopiervorlagen zur Verfügung. Mittelfristig ist der Einsatz von LimeSurvey anvisiert, einer freien Online-Umfrage-Applikation, die eine Entwicklung von Online-Umfragen ermöglicht. Eine eigene Evaluationsplattform ist in Planung. Neben VerA-Scope ist für die Schulen in Mecklenburg-Vorpommern der Einsatz eigenentwickelter Fragebögen vorgesehen. Die für die Qualitätsbereiche Unterricht und Schulmanagement verbindlichen Online-Bögen werden durch zusätzliche themenspezifische Bögen ergänzt, die sich aktuell in Entwicklung befinden. Niedersachsen: Die Befragungssoftware „Electric Paper“ (EvaSys), die auch in Baden-Württemberg zum Einsatz kommt, bildet das zentrale Unterstützungsinstrument für Evaluationsvorhaben im gesamten Land Niedersachsen. Die enthaltenen Fragebögen, die nach Angaben der Landesvertretung wissenschaftlichen Mindeststandards entsprechen, beziehen sich auf den Orientierungsrahmen und können von den Schulen in einem geschützten Raum genutzt werden. Zusätzlich werden hausintern entwickelte Instrumente der externen Evaluation zur Verfügung gestellt wie der Unterrichtsbeobachtungsbogen für allgemeinbildende Schulen.

222

J. Tarkian et al.

In Nordrhein-Westfalen stehen verschiedene eigenständig entwickelte Instrumente, die unterschiedlichen Anlässen und Verwendungszwecken dienen, kostenlos zur freiwilligen Nutzung bereit. Das Angebot an Selbstreflexionsbögen und der schulinternen Bestandsaufnahme SIBA wird aktuell um weitere fachbezogene Fragebögen für den Unterricht ausgebaut. Zudem werden den Schulen die extern entwickelten Instrumente SEfU (Schüler als Experten für Unterricht) und SEfU im Team, aber auch Edkimo und EMU angeboten. Auch in Rheinland-Pfalz ist das Instrument QUES abgelöst. Über das Evaluationsportal InES können webbasierte Befragungen mit bestehenden oder schulisch angepassten Fragebögen durchgeführt und ausgewertet werden. In dem Portal erhalten Schulen zusätzlich Zugang zu den von der AQS (ehemalige Einrichtung der externen Evaluation) entwickelten Befragungsinstrumenten, die an dem Landesorientierungsrahmen Schulqualität ausgerichtet sind. Mit dem Saarland besteht eine Kooperation zur Mitnutzung von InES, vom ISQ wurden wiederum Instrumente zum kompetenzorientierten Fachunterricht übernommen. Die in Schleswig-Holstein im Landesportal LeOniE3 angebotenen Checklisten, Vordrucke und Instrumente zur Onlinebefragung stammen z. T. infolge von Kooperationsvereinbarungen aus anderen Bundesländern wie Brandenburg (Instrumente zur Evaluation von Fachunterrichten), zum großen Teil sind die zur Verfügung gestellten 76 Fragebogenvorlagen aber Eigenentwicklungen des Landes. In Zusammenarbeit mit dem IQSH entwickeln die Schulen auch neue Befragungen oder modifizieren bestehende Instrumente, die nach einer wissenschaftlichen Begutachtung im IQSH dann anderen Schulen zur Verfügung gestellt werden. Das LeOniE3-Befragungstool ist um ein Testtool ergänzt worden, in dem Lehrkräfte jederzeit für die VERA-Fächer die Kompetenzen ihrer SchülerInnen ermitteln lassen können. Für das Saarland wird mitgeteilt, dass sich ein eigenes Tool zur Durchführung interner Evaluationen derzeit in Entwicklung befindet. Zurzeit können die Schulen das Instrument InES aus Rheinland-Pfalz im Rahmen einer Kooperationsvereinbarung mitnutzen. Evaluationen werden auf Anfrage mithilfe der Evaluationsagentur umgesetzt, die am Landesinstitut für Pädagogik und Medien eingerichtet ist. Sachsen stellt eine Sammlung eigener Fragebögen im Serviceportal ‚Interne Evaluation‘ zur Verfügung. Im geschützten Bereich des Portals besteht die Möglichkeit, zwischen „wissenschaftlich geprüften Instrumenten“ und „Methoden und Instrumenten aus verschiedenen Quellen“ auszuwählen. Struktur und Inhalte der validierten Instrumente orientieren sich an der Kriterienbeschreibung des Sächsischen Referenzrahmens. Zugleich wird auf SEfU und die kostenfreie Fragebogensoftware Grafstat zur eigenen Entwicklung von (Schüler-)Befragungsprojekten verlinkt. Sachsen-Anhalt bietet aktuell noch eine Nachnutzung von Fragebögen für schulische (Selbst-)Evaluationen an, die dem von der Bertelsmann-Stiftung geförderten und später vom Länderkonsortium „SEIS Deutschland“ übernommenen Selbstevaluationsinstrument SEIS (Selbstevaluation in Schulen) entstammen. Dabei ist ein Schülerfeedback zum Unterricht erhältlich. Inwiefern künftig ein neues Instrument zum Einsatz kommt, ist infolge der derzeitigen Schließung des zuständigen Fachbereichs, der sowohl für die externe als auch interne Evaluation am Landesinstitut zuständig war, noch ungeklärt.

6  Interne Evaluation – Konzeption und Implementation …

223

Mit ThüNIS (Thüringer Netzwerk innovativer Schulen) stellt Thüringen ein Instrument zur prozessbezogenen internen Evaluation zur Verfügung, das durch ein Verfahren zur Kompetenztestung von SchülerInnen ergänzt wird. Auf dem Landesportal ist zudem das Instrument SEfU verlinkt; zugleich wird auf das IfS-Schulbarometer verwiesen, einem Instrument zur Erfassung von Schulwirklichkeit, das vom Institut für Schulentwicklungsforschung der Technischen Universität Dortmund entwickelt wurde. Neben dem Fragebogenteil sind hier auch Angaben zur sog. IfS-Durchschnitts-Schule enthalten. Damit besteht für die Einzelschule im Rahmen ihrer Evaluation die Möglichkeit, sich mit den Ergebnissen des jeweils repräsentativen Bundesdurchschnitts zu vergleichen. Nachdem erkennbar geworden ist, dass für die Unterstützung schulischer Evaluationsvorhaben zu nicht unerheblichen Teilen landesindividuelle Lösungen unter teils hohem Ressourceneinsatz geschaffen wurden und zu administrieren sind, ist seit Frühjahr 2018 unter der Koordination der DeGEval (Deutsche Gesellschaft für Evaluation) eine Arbeitsgruppe mit dem Ziel eines Austauschs zu den Instrumenten entstanden. Elf der 16 Bundesländer haben hier bislang ihr Interesse signalisiert, zu den bestehenden Verfahren Nutzungskooperationen zu vereinbaren und perspektivisch auch an einer gemeinsamen (Weiter-)Entwicklung von Instrumenten arbeiten zu wollen. Mit Blick auf die erkennbar große Schnittmenge an Qualitätsmerkmalen in den Landesreferenzrahmen (vgl. Kap. 3), die eine gemeinsame Nutzung von Fragebögen für die schulinterne Evaluation aus Sicht der Beteiligten prinzipiell gut ermöglicht, sind in den Ländern bereits erste Kooperationen entstanden. Diese haben teilweise zu einer Lizenzierung der Bögen als Open-Source-Instrumente geführt, werden aber auch mit Blick auf eine stärkere Validierung als gewinnbringend eingeschätzt.

6.5 Unterstützungsangebote der Landesinstitute und Qualitätsinstitute Zur Unterstützung schulinterner Evaluation werden in fast allen Ländern (nachfrageorientierte) Beratungs- und Qualifizierungsleistungen angeboten, die der Entwicklung und Anwendung der Instrumente und Verfahren in den Schulen dienen. Die Evaluierenden sollen auf diesem Weg mit dem benötigten Wissen ausgestattet werden, um in ihren Einrichtungen Maßnahmen zielgerichtet und methodisch angemessen zu planen, durchzuführen und auszuwerten. Dabei werden für die Bildungsregion Berlin-Brandenburg vom Institut für Schulqualität (ISQ) Workshops zur Durchführung interner Evaluationen mit dem Selbstevaluationsportal SEP und der Auswertung der automatisch erstellten Rückmeldeberichte durchgeführt, die laut Auskunft des Instituts insbesondere in Brandenburg eine deutliche Nachfrage erfahren. Unterstützung bei der Übertragung der Ergebnisse in die einzelschulische Entwicklungsarbeit werden vom ISQ ansatzweise ­vorgenommen, sind aber gemäß vorgesehener Aufgabenteilung primär von den regionalen SchulentwicklungsberaterInnen zu leisten. Für Brandenburg gilt außerdem laut einer Website-Information des MBJS, dass sich die Schulen „in allen Phasen der Schulprogrammarbeit unterstützen lassen [können, Anm. d. Verf.].

224

J. Tarkian et al.

Im Rahmen des Beratungs- und Unterstützungssystems (BUSS) stehen den Schulen sowie der Schulaufsicht ausgebildete Beraterinnen und Berater für die Schulentwicklung und Schulevaluation zur Verfügung.“23 Auch im Berliner Raum erhalten Schulberater (perspektivisch auch Schulräte) durch das ISQ Fortbildungen, damit sie die Schulen bei der evaluationsbasierten Entwicklungsarbeit unterstützen können. In Schleswig-Holstein wird auf das Angebot des ISQH zur Schulentwicklungsberatung hingewiesen, das Fortbildungen zur Durchführung interner Evaluationen zunehmend als individuelle Maßnahmen an der Schule vor Ort organisiert. Hierbei bieten die BeraterInnen auch gezielte Unterstützung bei der Jahresarbeitsplanung bzw. der Überarbeitung von Schulprogrammen an. Schulen, die eigene ReferentInnen zur Unterstützung von Evaluationsvorhaben beauftragen möchten, können – ähnlich wie beim Schulfeedback – eine Finanzierung zur Umsetzung entsprechender Projekte beantragen. Insgesamt sind laut aktuellem IQSH-Jahresbericht im Schuljahr 2017/2018 von den Schulen 116 Beratungsaufträge zur Unterstützung ihrer Schulentwicklung erteilt worden, von denen der überwiegende Teil durch die IQSH-MitarbeiterInnen übernommen wurde, entweder im Anschluss an das Schulfeedback oder als direkt angefragte Entwicklungsberatung zur internen Evaluation. Laut Angaben der Landesregierung unterstützt das Institut im Sachgebiet 40 auch das Ministerium bei der Fortbildung der Schulaufsicht in den entsprechenden Themenfeldern24. Nach Abwicklung der früheren Schulinspektion stehen in Hessen die ehemaligen SchulinspektorInnen – verteilt auf die 15 staatlichen Schulämter – als SchulberaterInnen der Hessischen Lehrkräfteakademie zur Verfügung. Die Unterstützung bei der schulischen Evaluation bildet dabei einen Schwerpunkt, der gemeinsam mit der Schulprogrammarbeit, der Entwicklung von Zielvereinbarungen oder dem Aufbau ­ einer systematischen Fortbildungsplanung auf Anfrage der Schulen erfolgen kann. Die Umsetzung ist hier ebenfalls an den Schulen vor Ort organisiert. Auch in Nordrhein-Westfalen erfolgt durch ModeratorInnen der Schulentwicklungsberatung, die über die fünf Bezirksregierungen hinweg in Kompetenzteams organisiert sind, bei Bedarf eine schulinterne wie schulexterne Unterstützung. Dabei bildet die Schulprogrammarbeit mitsamt angeschlossener Erfolgskontrolle durch Selbstevaluation eines der Handlungsfelder/Beratungsschwerpunkte im Bereich der Organisationsentwicklung (Broschüre Schulentwicklungsberatung 2018, S. 13). Aufgrund der Landesgröße werden ­Qualifizierungsmaßnahmen auch über Verfahren online-gestützter Fortbildung organisiert. Rheinland-Pfalz und Mecklenburg-Vorpommern weisen ebenfalls darauf hin, dass ­Fortbildungen, Beratung und Begleitung sowie Unterstützungsmaterialien zum Themenfeld interne Evaluation in umfangreicher Weise angeboten werden. Dabei erfolgen diese in Rheinland-Pfalz mehrmals im Jahr an dezentralen Standorten, aber auch in Form von

23https://mbjs.brandenburg.de/bildung/gute-schule/orientierungsrahmen-schulqualitaet-und-evalua-

tion.html. Zugegriffen: 24. Oktober 2018. 24https://www.schleswig-holstein.de/DE/Landesregierung/IQSH/Arbeitsfelder/Schulentwicklung/

schulentwInterneEval.html. Zugegriffen: 24. Oktober 2018.

6  Interne Evaluation – Konzeption und Implementation …

225

ortsunabhängigen Webinaren. Schulspezifische Beratungsangebote, z. B. zur „Planung und Durchführung von Workshops oder Studientagen zu den Themen interne Evaluation, Feedbackgespräch, kollegiale Hospitation“25, aber auch zur Auswertung der Evaluationsergebnisse und der daran anschließenden strategischen Planung von Veränderungen werden auch vor Ort angeboten, etwa im Rahmen einer Fach- oder Gesamtkonferenz bzw. Schulleiterdienstbesprechung. Das Hamburger Landesinstitut LI bietet Beratungen und Unterstützung bei innerschulischen Entwicklungsvorhaben an und richtet sich auch mit Fortbildungsangeboten gezielt an Funktionsträger wie Schulleitungen oder Evaluationsbeauftragte. Daneben erhalten die Schulen vom IfBQ regelhaft schulspezifische Datenaufbereitungen, die z. T. mit Hinweisen zur Nutzung für die Unterrichtsentwicklung versehen sind. Aktuell wird an Kommunikationsformaten gearbeitet, die eine innerschulische Nutzung vorhandener Daten (wie der Kennwerte aus dem Datenreport „Schule im Überblick“) erleichtern sollen. Per Anfrage werden außerdem Lernausgangslagen und Lernentwicklungen mit dem Instrumentarium der KESS-Studie untersucht. Auch in Sachsen und Thüringen besteht das Angebot an Schulen, im Rahmen von Fortbildungsangeboten Grundlagen für ein Evaluationsvorhaben aufzubauen oder sich von SchulreferentInnen und ProzessmoderatorInnen (SN) bzw. FachberaterInnen (TH) bei der Gestaltung ihres Entwicklungsprozesses begleiten zu lassen. Per Antrag können über das Thillm-Schulbudget zu einem Grundbetrag von 500 EUR auch eigenverantwortlich durchgeführte schulinterne Fortbildungen gefördert werden. Die Evaluationsagentur Landesinstitut für Pädagogik und Medien im Saarland unterstützt ebenfalls über Informationsveranstaltungen und Fortbildungen zum Thema Evaluation, auch bietet sie in der Rolle eines „critical friend“ Hilfe bei der Planung von Evaluationsmaßnahmen, bei Methodenberatungen und der Durchführung entsprechender Evaluationen in sämtlichen Arbeitsschritten an. Beratung und Begleitung von Schulen finden hier speziell in Form Pädagogischer Tage bzw. schulinterner Fortbildungen statt. Für Niedersachsen gilt, dass die Schulen eigene Befragungsvorhaben durch das NLQ administrieren lassen können. Dabei ist es auch möglich, schuleigene Instrumente zum Einsatz zu bringen. Für technische Probleme steht eine Hotline zur Verfügung, eine weiterführende inhaltliche Beratung wird derzeit nicht angeboten. Auch das zur Auflösung vorgesehene Landesinstitut (LS) in Baden-Württemberg beantwortet nur einzelne Anfragen von Schulen telefonisch oder per E-Mail. Eine weiterführende Beratungs- und Unterstützungsfunktion übernimmt infolge der institutionellen Umstrukturierungen aktuell die Schulaufsicht der Regierungspräsidien (Referate 77). In Bremen zeigt sich, dass für persönliche Beratungs- und Unterstützungsangebote zur internen Evaluation derzeit keine öffentlichen Aufträge vergeben sind. Das Unterstützungsangebot ist insofern aktuell auf die schriftlichen Verfahrensanregungen aus der Methodenbox sowie die Bereitstellung des extern eingekauften Tools IQES-online

25https://ines.bildung-rp.de/fortbildung-und-beratung/beratungsangebote.html.

2018.

Zugegriffen: 24.Oktober

226

J. Tarkian et al.

beschränkt. Eine Änderung ist mit der geplanten Neueinrichtung des Instituts für Qualitätsentwicklung in Bremen (IQHB) zu erwarten, das als Dienstleistungszentrum für Schulen aufgebaut werden und in Zusammenarbeit mit dem bestehenden Landesinstitut und der Schulaufsicht Unterstützungsangebote zur datenbasierten Schulentwicklung bereitstellen soll. Auch Bayern bietet ressourcenbedingt aktuell keine Beratungsangebote für das allgemeinbildende Schulsystem an. Nach Auskunft der Landesvertretung ist es perspektivisch hier allerdings geplant, ein verbessertes Online-Tool zur Verfügung zu stellen und ein Beratungsangebot einzurichten.

6.6 Zusammenfassung Der in allen Ländern (in unterschiedlichem Formalisierungsgrad) gegenüber den Schulen kommunizierte Auftrag, ihre Arbeit systematisch durch interne Evaluation zu hinterfragen, zu prüfen und im Sinne einer Optimierung von Schul- und Unterrichtsqualität anzupassen, wird – wie aufgezeigt – von den Landesregierungen durch ein spezifisches Angebot an unterschiedlichen Instrumenten und Fördermaßnahmen unterstützt. Dabei hat sich gezeigt, dass mit diesem Steuerungsinstrument der innerorganisationalen Qualitätsentwicklung jenseits seiner Entwicklungsfunktion, die naturgemäß überall das vordergründige Ziel schulischer Evaluation bildet, in Berlin, Brandenburg, Hamburg, Hessen und Mecklenburg-Vorpommern durch eine Rückbindung der Maßnahmenergebnisse an die operative Schulaufsicht auch eine Rechenschaftslegung gegenüber der Schulaufsicht regelhaft eingerichtet ist. Diese erfolgt entweder durch die Auflage an die Schule, nach Abschluss der Maßnahme einen Evaluationsbericht zu erstellen und an die zuständige Schulrätin/den zuständigen Schulrat weiterzuleiten oder durch den grundsätzlich vorgesehenen Einbezug der Ergebnisse schulinterner Evaluation in Controllingmaßnahmen, die in eine Verabredung von Entwicklungszielen zwischen Schule und Schulaufsicht münden sollen (Zielvereinbarungen bzw. Schulverträge). In den Ländern Berlin, Brandenburg, Bremen, Hamburg, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Sachsen, Schleswig-Holstein und Thüringen ist zudem verschriftlicht oder durch eine institutionalisierte Informationssammlung auf Landesebene vorgesehen, dass die Eltern(vertreterInnen) im Rahmen ihrer Teilnahme an Schulkonferenzen oder über ihre Einsichtnahme in Schulporträtdarstellungen grundsätzlich über die Evaluationsmaßnahmen und -ergebnisse in Kenntnis gesetzt werden (Informationsfunktion). Berlin, Hamburg, Niedersachsen, Nordrhein-Westfalen und Schleswig-Holstein haben außerdem festgehalten, dass Eltern auch aktiv am Evaluationsverfahren zu beteiligen sind, bspw. durch ihre Mitentscheidung bei der Bewilligung von Vorhaben oder durch die vorgesehene Beteiligung an einer für die Umsetzung verantwortlichen Steuergruppe (Transparenz). In den Ländern, für die keine Markierungen in Abb. 6.4 vergeben worden sind, mag ein entsprechendes Vorgehen in der Praxis ebenfalls üblich sein, ausgehend von den analysierten Dokumenten ließ sich dazu allerdings keine vereinheitlichte Festlegung ermitteln.

6  Interne Evaluation – Konzeption und Implementation …

Abb. 6.4   Funktionen interner Evaluation in den 16 Ländern

227

228

J. Tarkian et al.

Literatur Altrichter, H., & Feindt, A. (2008). Handlungs- und Praxisforschung. In W. Helsper & J. Böhme (Hrsg.), Handbuch der Schulforschung (S. 449–468). Wiesbaden: VS Verlag. Altrichter, H., & Merki, K. M. (Hrsg.). (2010). Handbuch Neue Steuerung im Schulsystem (Educational governance, Bd. 7). Wiesbaden: VS Verlag. https://doi.org/10.1007/978-3-531-92245-4. Fend, H. (1986). „Gute Schulen – Schlechte Schulen“. Die einzelne Schule als pädagogische Handlungseinheit. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 78(3), 275–293. Gärtner, H. (2017a). Das ISQ-Selbstevaluationsportal. In ISQ-Bericht zur Schulqualität 2016. Qualitätssicherungsverfahren, Prozess- und Ergebnisqualität an Schulen in Berlin und Brandenburg (S. 52–56). Berlin: Institut für Schulqualität der Länder Berlin und Brandenburg (ISQ). Gärtner, H. (2017b). Referenzrahmen für Schulqualität, interne und externe Evaluation und ein Model evidenzbasierter Steuerung. In P. Dobbelstein, B. Groot-Wilken, & S. Koltermann (Hrsg.), Referenzsysteme zur Unterstützung von Schulentwicklung (Beiträge zur Schulentwicklung) (S. 105–123). Münster: Waxmann. Gollwitzer, M., & Jäger, R. S. (2007). Evaluation. Workbook. Weinheim: Beltz PVU. Holtappels, H. G. (2003). Schulqualität durch Schulentwicklung und Evaluation. Konzepte, Forschungsbefunde, Instrumente. München: Luchterhand. Köller, O. (2009). Evaluation pädagogisch-psychologischer Maßnahmen. In E. Wild & J. Möller (Hrsg.), Pädagogische Psychologie (Springer-Lehrbuch) (S. 333–352). Berlin: Springer. Krause, S. (2015). Die Funktion des Rechts bei der Steuerung schulischer Bildung: Eine rechtsvergleichende Untersuchung für Deutschland, Finnland und die Niederlande (Studien zur international und interkulturell vergleichenden Erziehungswissenschaft). Münster: Waxmann. Kultusministerkonferenz (=Sekretariat der Ständigen Konferenz der Kultusminister, Hrsg.). (2004). Standards für die Lehrerbildung: Bildungswissenschaften. Beschluss der Kultusministerkonferenz vom 16.12.2004 i. d. F. vom 12.06.2014. https://www.kmk.org/ fileadmin/veroeffentlichungen_beschluesse/2004/2004_12_16-Standards-Lehrerbildung-Bildungswissenschaften.pdf. Zugegriffen: 9. Febr. 2019. Maritzen, N. (1996). Im Spagat zwischen Hierarchie und Autonomie. Steuerungsprobleme in der Bildungsplanung. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 88(1), 22–36. Maritzen, N. (1997). Schule zwischen Staat und Markt? Für kritische Genauigkeit beim Reden über Schulautonomie. Eine Antwort auf Frank-Olaf Radtke. Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 89(3), 292–305. Peek, R. (2009). Interne Evaluation und einzelschulische Entwicklung – Spagat zwischen Mindeststandards und Machbarem. In J. van Buer & C. Wagner (Hrsg.), Qualität von Schule. Ein kritisches Handbuch (S. 141–149). Frankfurt a. M.: Lang. Radtke, F.-O. (1997). Schulautonomie und Sozialstaat. Wofür ist die Bildungspolitik (noch) verantwortlich? Die Deutsche Schule: DDS, Zeitschrift für Erziehungswissenschaft, Bildungspolitik und pädagogische Praxis, 89(3), 278–291. Riecke-Baulecke, T. (2016). Schulentwicklung. In J. Möller, M. Möller, T. Riecke-Baulecke, J. Baumert, J. Fleckenstein, B. Hannover, et al. (Hrsg.), Basiswissen Lehrerbildung. Schule und Unterricht – Lehren und Lernen (S. 170–188). Seelze: Klett Kallmeyer.

6  Interne Evaluation – Konzeption und Implementation …

229

Rückmann, J. (2016). Interne Evaluation und Schulentwicklung zwischen bildungspolitischen ­Vorgaben und individueller Entwicklung von Einzelschulen – Befunde aus einer empirischen Studie an Berliner beruflichen Schulen. [email protected] Berufs- und Wirtschaftspädagogik – Online (31), 1–21. http://www.bwpat.de/ausgabe31/rueckmann_bwpat31.pdf. Zugegriffen: 12. Dez. 2016. Stichweh, R. (1992). Professionalisierung, Ausdifferenzierung von Funktionssystemen, Inklusion. In B. Dewe, W. Ferchhoff, & F. Olaf-Radtke (Hrsg.), Erziehen als Profession. Zur Logik professionellen Handelns in pädagogischen Feldern (S. 36–48). Wiesbaden: VS Verlag. https://doi. org/10.1007/978-3-663-09988-8_3. Terhart, E. (1997). Berufskultur und professionelles Handeln bei Lehrern. In A. Combe & W. ­Helsper (Hrsg.), Pädagogische Professionalität. Untersuchungen zum Typus pädagogischen Handelns (Suhrkamp-Taschenbuch Wissenschaft, Bd. 1230, 2. Aufl., S. 448–471). Frankfurt a. M.: Suhrkamp. Thiel, F. (2007). Profession als Lebensform. Entwürfe des neuen Lehrers nach 1900. Zeitschrift für Pädagogik, 53(1), 74–91. Thiel, F. (2008). Die Organisation der Bildung – Eine Zumutung für die Profession? In Y. ­Ehrenspeck & F. Thiel (Hrsg.), Bildung: Angebot oder Zumutung? (S. 211–228). Wiesbaden: VS Verlag. Thiel, F., & Thillmann, K. (2012). Interne Evaluation als Instrument der Selbststeuerung von Schulen. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung: Empirische Befunde und forschungsmethodische Implikationen (S. 35–55). Wiesbaden: VS Verlag. https://doi.org/10.1007/978-3-531-94183-7_2. Thillmann, K., Bach, A., Gerl, C., & Thiel, F. (2013). Schulische Selbststeuerung durch interne Evaluation. Eine Analyse von Evaluationsprogrammen Berliner und Brandenburger Gymnasien. Die deutsche Schule – DDS. Beiheft, 12, 197–225. Wacker, A., Maier, U., & Wissinger, J. (2012). Ergebnisorientierte Steuerung – Bildungspolitische Strategie und Verfahren zur Initiierung von Schul- und Unterrichtsreformen. In A. Wacker, U. Maier, & J. Wissinger (Hrsg.), Schul- und Unterrichtsreform durch ergebnisorientierte Steuerung: Empirische Befunde und forschungsmethodische Implikationen (S. 9–34). Wiesbaden: VS Verlag.

7

Bildungsrechtliche Grundlagen datenbasierter Qualitätssicherung und -entwicklung Anna Kroupa, Jasmin Tarkian, Hans-Peter Füssel, Claudia Schewe und Felicitas Thiel

7.1 Einleitung Durch die am 01.09.2006 in Kraft getretene Föderalismusreform wurde in der Bundesrepublik Deutschland das Grundgesetz (GG) hinsichtlich der Beziehungen zwischen Bund und Bundesländern geändert und die Verantwortung für das Bildungswesen und die Bildungspolitik noch weitreichender, als bis zu diesem Zeitpunkt bereits der Fall, als Angelegenheit der Länder definiert. Die Rahmengesetzgebungskompetenz des Bundes wurde mit der Föderalismusreform abgeschafft. Danach durfte der Bund in einem Bundesrahmengesetz ausfüllungsfähige und ausfüllungsbedürftige Regelungen erlassen, deren Ausfüllung dann durch die Länder in den Landesgesetzen erfolgte. In Ausübung der „Kulturhoheit“ sind die Länder der Bundesrepublik Deutschland demnach insbesondere für die Gestaltung des Schul-, Hochschul- und sonstigen Erziehungswesens allein zuständig. Die Kulturhoheit ergibt sich aus der geringen Regelungskompetenz, die das Grundgesetz dem Bund einräumt (Art. 74 Abs. 1 Nr. 13; 91a Abs. 1 Nr. 1 GG) und der grundsätzlichen Zuweisung staatlicher Aufgaben an die A. Kroupa (*) · J. Tarkian · H.-P. Füssel · C. Schewe · F. Thiel  Berlin, Deutschland E-Mail: [email protected] J. Tarkian E-Mail: [email protected] H.-P Füssel E-Mail: [email protected] C. Schewe E-Mail: [email protected] F. Thiel E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_7

231

232

A. Kroupa et al.

Länder durch Art. 30 Grundgesetz. Dabei dürfen landesgesetzliche Regelungen dem Bundesrecht nicht widersprechen. In Anbetracht der föderalen Grundstruktur des deutschen Bundesstaates (Art. 20 Abs. 1; 28 Abs. 1 GG) bedarf es jedoch zugleich einer Abklärung und Abstimmung der Schulpolitiken der einzelnen Länder, die über die Ständige Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland ­(Kultusministerkonferenz – KMK) erfolgt. Deren Ziel ist es, ein Mindestmaß an Einheitlichkeit und Vergleichbarkeit der Bildungs- und Schulsysteme innerhalb der einzelnen Bundesländer zu schaffen und die gemeinsame Meinungs- und Willensbildung zwischen den Ländern zu fördern. Auch wenn die Beschlüsse der KMK lediglich politische Verabredungen ohne bindenden rechtlichen Charakter sind, erlangen sie in der Regel durch Transformation in entsprechende Regelungen des jeweiligen Landesrechts (Gesetz, Verordnung, Verwaltungsvorschrift) Verbindlichkeit. Zum Thema Qualitätssicherung und -entwicklung von Schulen hat die Kultusministerkonferenz eine Reihe von Beschlüssen gefasst. Die in der vorliegenden Publikation untersuchten Maßnahmen der Vergleichsarbeiten sowie von externer und interner Evaluation waren Gegenstand der Beschlüsse der KMK zum Bildungsmonitoring (Kultusministerkonferenz [KMK] 2012, 2016). Erfolgte in der „Gesamtstrategie der KMK zum Bildungsmonitoring“ von 2006 primär die Regelung von Vergleichsarbeiten, so wurde in der fortgeschriebenen Fassung der Gesamtstrategie von 2015 auch auf Maßnahmen der externen und internen Evaluationen eingegangen (KMK 2006, 2016). Mit Einführung von Vorschriften zu diesen neuen Steuerungsinstrumenten (Vergleichsarbeiten, externen und internen Evaluationen) in die Landesschulgesetze wurde die Qualitätssicherung und -entwicklung fester und verbindlicher Bestandteil der Schulpolitik der betreffenden Länder. Dabei stellen die schulgesetzlichen Regelungen das Ergebnis eines seit mehreren Jahren andauernden Entwicklungs- und Gestaltungsprozesses dar. Die durch die Kultusministerkonferenz definierte Strategie der datenbasierten Qualitätssicherung wurde allerdings in den Ländern auf unterschiedliche Weise umgesetzt. Maßgeblich für die Implementation waren auch die bestehenden unterschiedlichen schulrechtlichen, strukturellen und bildungspolitischen Rahmenbedingungen. Die genaue Analyse der schulgesetzlichen und der untergesetzlichen Normen (Verordnungen und Verwaltungsvorschriften) lässt die jeweiligen landesspezifischen Strategien zur Qualitätssicherung und -entwicklung deutlich werden. Sie zeigt, dass die Länder die Maßnahmen der Qualitätssicherung auf unterschiedlichen Ebenen und in unterschiedlicher Detailschärfe regeln. So werden bestimmte Maßnahmen in einem Bundesland im Gesetz beschrieben, in einem anderen Bundesland dagegen in einer Verordnung oder Verwaltungsvorschrift. Nach der vom Bundesverfassungsgericht im Zusammenhang mit dem Vorbehalt des Gesetzes entwickelten „Wesentlichkeitstheorie“ oder „Wesentlichkeitslehre“ ist der Gesetzgeber aufgrund des Rechtsstaats- und Demokratieprinzips verpflichtet, „in grundlegenden normativen Bereichen, zumal im Bereich der Grundrechtsausübung, soweit diese staatlicher Regelung zugänglich ist, alle wesentlichen Entscheidungen [für den Regelungsbereich Schule] selbst zu treffen“ und nicht

7  Bildungsrechtliche Grundlagen datenbasierter …

233

der Verwaltung zu überlassen (seit BVerfGE 34, 165, 192 f., auch Staupe 1986). Die Wesentlichkeitstheorie und der Parlamentsvorbehalt gehören zusammen und der Parlamentsvorbehalt wird durch die Wesentlichkeitstheorie substanziiert. Den Kern des Parlamentsvorbehaltes bilden das mit ihm verbundene Delegationsverbot und das „Gebot verstärkter Regelungsdichte“. Jedoch besteht noch heute über das, was die Begrifflichkeit „wesentlich“ betrifft, kein Konsens (BVerfG, Urteil des Ersten Senats v. 19.12.2017 – 1 BvL 3/14 – Rn. 116; Sachs 2018). „Wann es einer Regelung durch den parlamentarischen Gesetzgeber bedarf, lässt sich nur im Blick auf den jeweiligen Sachbereich und die Eigenart des betroffenen Regelungsgegenstandes beurteilen“ (BVerfG, Urteil des Zweiten Senats v. 24.09.2003 – 2 BvR 1436/02 – Rn. 68). „Die verfassungsrechtlichen Wertungskriterien sind dabei den tragenden Prinzipien des Grundgesetzes, insbesondere den darin verbürgten Grundrechten, zu entnehmen“ (BVerfG, Urteil des Ersten Senats v. 14.07.1998 – Rn. 136). Danach bedeutet wesentlich im grundrechtsrelevanten Bereich in der Regel „wesentlich für die Verwirklichung der Grundrechte“ (BVerfG, Beschluss des Ersten Senats v. 21.12.1977 – Rn. 117). Wesentlichkeit ist in erster Linie also Grundrechtswesentlichkeit. Dieser Grundsatz hat noch heute seine Gültigkeit und findet Anwendung (BVerfG, Urteil des Ersten Senats v. 19.12.2017 – 1 BvL 3/14 – Rn. 116). Da diese Ausführungen dogmatisch jedoch sehr unpräzise sind, wird durch die Bildung von Fallgruppen versucht, Sicherheit zu gewinnen (Badura 2018). Die im Schulrecht gebildeten Fallgruppen werden als vorbildlich für das gesamte Verwaltungsrecht angesehen. Das Schulrecht hatte bei der Überwindung der Rechtsfigur der besonderen Gewaltverhältnisse eine zentrale Bedeutung (Isensee und Kirchhof 2007). Der Vorbehalt des Gesetzes konnte auf die gesamte Staatstätigkeit ausgedehnt werden und die Rechtsfigur der besonderen Gewaltverhältnisse konnte überwunden werden. Das Schulrecht war folglich der „wesentliche Motor“ der neuen Entwicklung um die Wesentlichkeitstheorie (Battis und Gusy 2011). Die Landesgesetzgeber vertreten – so zeigt die Analyse der Schulgesetze – ­offensichtlich ganz unterschiedliche Auffassungen des Begriffes der „Wesentlichkeit“. Auch wenn allein der äußere Maßstab des Umfanges eines Gesetzes keine allein hinreichenden inhaltlichen Aussagen zulässt, so zeigt sich gleichwohl eine Auffälligkeit insofern, als beispielsweise Thüringen mit insgesamt 62 Paragrafen das kürzeste Schulgesetz, Niedersachsen mit 197 Paragrafen das umfangreichste Schulgesetz unter den Ländern besitzt; wobei allerdings gleichzeitig hinzugefügt werden muss, dass allein auf das so bezeichnete „Schulgesetz“ abzustellen außer Betracht lässt, dass die Regelungsbereiche der jeweiligen Schulgesetze der Länder unterschiedlich ausgestaltet sind. Unter der Begrifflichkeit „wesentlich“ werden also in erster Linie die Sachverhalte verstanden, die wesentlich für die Verwirklichung der Grundrechte sind. Was zum „Wesentlichen“ gerechnet wird und damit gesetzlicher Normierung bedarf, lässt sich nicht in abstrakter Form fassen, sondern nur schrittweise, auf dem Wege der Einzelfallbezogenheit ermitteln. Nicht alles, was „wesentlich“ ist, wird in der Praxis durch Gesetz geregelt und nicht alles, was im Gesetz steht, ist „wesentlich“. Das Bundesverfassungsgericht versucht anhand der Wesentlichkeitstheorie einerseits die Erforderlichkeit

234

A. Kroupa et al.

eines Gesetzes und andererseits die erforderliche Regelungsdichte eines Gesetzes zu bestimmen. Der politische Konflikt spielt hierbei aber ebenfalls eine wichtige Rolle, denn auch das politisch Umstrittene eines Sachverhaltes kann ein zusätzliches Indiz für die Notwendigkeit einer gesetzlichen Regelung sein. Insofern sind die Grenzen des Gesetzesvorbehalts mit der Frage nach der Regelungsbefugnis und Regelungspflicht des Gesetzgebers verbunden, also wie viel darf der Gesetzgeber regeln und wie viel muss der Gesetzgeber regeln (Degenhart et al. 2007). Seine natürlichen Grenzen findet der Gesetzesvorbehalt aber dort, wo es für bestimmte Sachbereiche an der Kodifikationsreife fehlt, weil mit stetigen Veränderungen gerechnet werden muss oder Erkenntnisse und Erfahrungen fehlen. Die Schulgesetze der einzelnen Länder bilden die Grundlage des landesspezifischen Schulrechts. Sie sind im verfassungsmäßigen Gesetzgebungsverfahren vom Parlament verabschiedete und ordnungsgemäß im Gesetzblatt verkündete formelle Gesetze. Die Aufgabe schulischer Qualitätssicherung und -entwicklung ist in den Schulgesetzen der Bundesländer unterschiedlich abgebildet. In den meisten Bundesländern ist diese Aufgabe bereits im Zusammenhang mit der Beschreibung des Bildungs- und Erziehungsauftrags der Schule verankert. Jedoch sind unterschiedliche Akzente erkennbar je nach politischer Prägung des Landes und nach dem Zeitpunkt der Entstehung der Vorschriften. Aus der in den Landesschulgesetzen1 verbindlich geregelten Pflicht zur kontinuierlichen Qualitätsentwicklung und -sicherung leiten sich verbindliche Anforderungen für die Schulen und die Schulaufsicht ab. Qualitätsentwicklung und -sicherung erstrecken sich auf die gesamte Bildungs- und Erziehungstätigkeit einer Schule, auf die Organisation der Schule, das Schulleben sowie auf die außerschulischen Kooperationsbeziehungen. Eine Mitwirkungspflicht besteht für alle am Schulleben beteiligte Akteure. In den meisten Landesschulgesetzen werden die Instrumente der Qualitätssicherung und -entwicklung in eigenständigen Paragrafen präzisiert. Sie sind mit Titeln wie Selbstständigkeit/Eigenständigkeit,2 Qualitätssicherung und -entwicklung3 und/oder Evaluation4 versehen. In anderen Landesschulgesetzen sind Regelungen zu den Instrumenten in verschiedenen Abschnitten im Gesetz verankert.

1§ 114

bwSchG, Art. 2 Abs. 4 S. 2; BayEUG, § 4 Abs. 8; blnSchulG, § 7 Abs. 2; BbgSchulG, § 9 Abs. 1 S. 2 Nr. 2; BremSchulG, § 100; HmbSG, § 98; HSchG, § 4 Abs. 8; SchulG M-V, § 32 Abs. 3; NSchG, § 3 Abs. 3; nrwSchulG, § 23 Abs. 1 und 2; rpSchulG, § 1 Abs. 4; SchoG, § 3a Abs. 2; sächsSchulG, § 11a Abs. 1; SchulG LSA, § 11 Abs. 2; sh SchulG, § 40b Abs. 1 und 3; ThürSchulG. 2§ 7 BbgSchulG, § 9; BremSchulG, § 23; rpSchulG. 3§ 9 blnSchulG, § 98; HSchG, § 39a; SchulG M-V, § 3; nrwSchulG, § 20e; SchoG, § 3a; sächsSchulG, § 11a; SchulG LSA. 4§ 114 bwSchG, Art. 113c; BayEUG, § 100; HmbSG, § 123a; NSchG, § 40 b; ThürSchulG. In Schleswig-Holstein existiert kein eigenständiger Paragraf zur Qualitätssicherung und -entwicklung. Diesbezügliche Aufgaben werden den einzelnen Akteuren (Schulleitung, Lehrkräfte, Schulkonferenz) zugeschrieben, vgl. §§ 33 Abs. 2, 34 Abs. 1, 63 Abs. 1 Nr. 29 sh SchulG.

7  Bildungsrechtliche Grundlagen datenbasierter …

235

Einige Bundesländer regeln die Handhabung der betreffenden Instrumente bereits sehr detailliert in ihrem Schulgesetz. In Ländern mit eher knappen Ausführungen zum Gegenstand existieren oftmals spezielle Verordnungen und/oder ergänzende Verwaltungsvorschriften, in denen die Rahmenbedingungen zu den jeweiligen Instrumenten (Vergleichsarbeiten, externen Evaluationen, internen Evaluationen) präzisiert werden. Gerade in Bezug auf die externen Evaluationen betreffen einige Vorschriften nicht mehr das aktuell laufende Verfahren. Da diese Vorschriften aber weiterhin Gültigkeit besitzen und in Kraft sind, wurden sie bei der Analyse miteinbezogen. Ausgehend von den verfassungsrechtlichen Prinzipien des Grundgesetzes, der Bindung der Gesetzgebung an die verfassungsmäßige Ordnung und der Bindung der vollziehenden Gewalt an Gesetz und Recht, gibt es für die von der Exekutive erlassenen Rechtssätze, Rechtsverordnungen und Verwaltungsvorschriften eine hierarchische Rangfolge. Die Rechtsordnung weist folglich einen Stufenbau der Normen der Verfassung, des Gesetzes, der Verordnung und der Verwaltungsvorschriften auf (siehe Abb. 7.1). Die nachgeordnete Norm ist an die höherrangige Norm gebunden und im Fall einer Normenkollision ist die nachgeordnete Norm unwirksam. Die Verfassung soll die Einheit der Rechtsordnung organisatorisch und normativ sichern. Schulrechtlich relevante Belange können in Rechtsverordnungen näher ausgestaltet werden (vgl. Art. 80 GG). Rechtsverordnungen können von der Exekutive erlassen werden, um den Gesetzgeber vor allem auf technischen und schnell veränderlichen Gebieten zu entlasten (Badura 2018). Sie stellen ein flexibleres Instrument dar und ermöglichen häufig ein sachnäheres, detaillierteres und individuelleres Regeln gegenüber der

Schulgesetze

Rechtsverordnungen

Verwaltungsvorschriften Erlasse, Verwaltungsrichtlinien, Verwaltungsordnungen, Durchführungsbestimmungen, Verfügungen, Rundschreiben

Abb. 7.1   Normenpyramide zur Veranschaulichung der Normenhierarchie

236

A. Kroupa et al.

typischerweise stärker generalisierenden und typisierenden gesetzlichen Regelung. Insofern überwiegt auch die Anzahl an geltenden Rechtsverordnungen gegenüber der Anzahl an Gesetzen (Badura 2018). Diese detaillierten Regelungen werden, insbesondere von dem für die Schule zuständigen Landesministerium (Kultusministerium) oder bestimmten Behörden, auf der Grundlage einer ausdrücklichen Ermächtigung im Gesetz erlassen und im Gesetzblatt verkündet. Sie besitzen im Gegensatz zu Verwaltungsvorschriften eine sogenannte Außenwirkung auf Bürgerinnen und Bürger, wodurch ihre Rechtmäßigkeit durch Gerichte überprüft werden kann. Verwaltungsvorschriften (hierzu zählen bspw. Erlasse, Verwaltungsrichtlinien, Verwaltungsordnungen, Ausführungsvorschriften, Durchführungsbestimmungen, Verfügungen und Rundschreiben) sind generell-abstrakte Anordnungen einer Behörde an nachgeordnete Behörden oder eines Vorgesetzten an die ihm unterstellten Bediensteten. Es handelt sich bei ihnen also um Regelungen, die „innerdienstlich“ innerhalb der Verwaltungsorganisation erlassen werden. Sie bedürfen keiner gesetzlichen Grundlage, sollen im Rahmen des Gesetzes und der sonstigen Rechtsvorschriften die Organisation und Handlungsweise der Verwaltung näher bestimmen und werden nur in Amtsblättern, Rundschreiben oder weiteren amtlichen Sammlungen bekannt gemacht. Schulische Vorschriften können Rechte und Pflichten der an der Schule Tätigen (bspw. Schulleiter oder Lehrkräfte) begründen und verändern. Dagegen können Verwaltungsvorschriften ohne einen zusätzlichen Rechtsgrund Rechte und Pflichten einzelner Bürgerinnen und Bürger nicht begründen oder verändern. Allerdings hat die Rechtsprechung auch für diese, an sich internen Bestimmungen eine Art Außenwirkung entwickelt, und zwar dergestalt, dass Betroffene aus dem Grundsatz der Gleichbehandlung (Art. 3 GG) einen mittelbaren Anspruch auf Einhaltung der betreffenden Vorgaben haben. In allen Bundesländern werden bspw. die Termine und Fächer der Vergleichsarbeiten über Verwaltungsvorschriften bekannt gegeben. Daneben existieren in Baden-­ Württemberg, Berlin, Brandenburg, Bremen, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Saarland und Schleswig-Holstein Verordnungen5 bzw. Verwaltungsvorschriften6 über die Vergleichsarbeiten, in denen teilweise sehr ausführlich, teilweise eher

5Verordnung

über schulische Qualitätssicherung und Evaluation v. 29.11.2011; Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 6Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016; Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017; Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013; Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8 v. 01.08.2015; Vergleichsarbeiten für die Schuljahrgänge 3 und 8 RdErl. v. 17.07.2014; Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012; Erlass zur Leistungsbewertung in den Schulen des Saarlandes v. 06.07.2016; Erlass über die Durchführung von Vergleichsarbeiten in allgemein bildenden Schulen v. 04.12.2012.

7  Bildungsrechtliche Grundlagen datenbasierter …

237

knapp Grundsätze und Ziele, das Verfahren sowie Auswertung und Datenverarbeitung festgelegt sind. In Baden-Württemberg, Berlin, Brandenburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen und Nordrhein-Westfalen, Sachsen-Anhalt existieren zusätzliche Verordnungen7 bzw. Verwaltungsvorschriften8, in denen die externen Evaluationen genauer ausgestaltet sind und in Baden-Württemberg, Berlin, Brandenburg und Mecklenburg-Vorpommern existieren Verordnungen9 bzw. Verwaltungsvorschriften10 über die internen Evaluationen. Ungeachtet der rechtlichen Regulierungen bestehen in allen Ländern Handreichungen, Handlungsrahmen, Broschüren etc., welche die Instrumente konkretisierend ausführen. Im diesem juristischen Kapitel werden jedoch ausschließlich gesetzliche und aufgrund von Gesetzen ergangene Quellen genutzt. Die anderen konzeptionellen Textgattungen werden wiederum in den anderen Kapiteln im Fokus stehen. Thüringen bspw. regelt bereits schulgesetzlich die Zusammensetzung der Evaluationsteams bei der externen Evaluation sowie die Ergebnisübermittlung bei der internen Evaluation.11 Zugleich existieren in Thüringen keine weiteren Verordnungen und Verwaltungsvorschriften zur externen und internen Evaluation. Im Gegensatz dazu werden in Niedersachsen die Instrumente relativ knapp im Schulgesetz erwähnt,12 allerdings in gesonderten Verwaltungsvorschriften im Einzelnen beschrieben. Hamburg kann in dieser Hinsicht als verordnungsfreier und erlassfreier Raum bezeichnet werden, da in Hinsicht auf die Qualitätssicherung und -entwicklung keine Verordnungen und Verwaltungsvorschriften existieren, welche die drei Instrumente genauer präzisieren. Im Hamburgischen Schulgesetz werden die Instrumente dagegen behandelt. Berlin, Brandenburg, Nordrhein-Westfalen, Sachsen-Anhalt und Schleswig-­Holstein sind die Bundesländer, in welchen Verwaltungsvorschriften zum Schulprogramm

7Verordnung

des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 8Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; Einbeziehung von Funktionsträgern und Lehrkräften an Schulen in Schulbesuche durch Evaluationsteams – RdErl. des MK v. 01.08.2011. 9Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) vom 10.05.2008; Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 10Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008; Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009. 11§ 40b ThürSchulG. 12§§ 32, 123a NSchG.

238

A. Kroupa et al.

e­ xistieren.13 Dort werden Grundsätze und Ziele der Schulprogrammarbeit, ebenso wie die Genehmigung und Fortschreibung der Schulprogramme geregelt. Einige der Vorschriften sind zwar zum aktuellen Zeitpunkt außer Kraft, sollen aber in derselben Form oder nur leicht verändert, erneut in Kraft treten. Schulrechtliche Ausgestaltungen in den Ländern: Um die unterschiedlichen Regelungsbereiche zu veranschaulichen, wird im Folgenden exemplarisch aufgezeigt, wie die entsprechenden Instrumente, welche die schulische Qualität sichern und entwickeln sollen, schulgesetzlich geregelt werden. Um die große Varianz dieser Regelungen zwischen den Bundesländern zu verdeutlichen, werden einzelne Beispiele gegenübergestellt. Eine alle Bundesländer umfassende Analyse findet sich in den anschließenden Teilkapiteln. Die Verpflichtung zur Durchführung der Vergleichsarbeiten,14 Maßnahmen der internen Evaluation (auch Selbstevaluation genannt) sowie die Teilnahme an externen Evaluationen15 sind in den Schulgesetzen der Länder geregelt. Mit den schulgesetzlichen Regulierungen haben die drei Steuerungsinstrumente eine gewisse Stabilität erhalten und die gesetzlichen Verankerungen können durch die Landesparlamente im Rahmen der Schulgesetzgebung als ein Zeichen für Dauerhaftigkeit interpretiert werden, wobei Instrumente bspw. nach Landtagswahlen natürlich auch wieder abgeschafft werden können. Unterschiedliche Konkretisierungen zeigen sich im Grad der Festlegungen, wie die folgenden Beispiele veranschaulichen sollen. Dabei wird deutlich, dass einige Länder ausdrückliche Regelungen in ihren Schulgesetzen verankert haben, bei anderen können die betreffenden Instrumente nur unter andere „Maßnahmen“ subsumiert (untergeordnet) werden. Vergleichsarbeiten  Mecklenburg-Vorpommern ist eines der wenigen Länder, welches den Terminus Vergleichsarbeit begrifflich im Schulgesetz verankert hat (§ 39a Abs. 4):

13Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008 [derzeit in Überarbeitung]; Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009; Schulprogrammarbeit – RdErl. v. 16.09.2005; Entwicklung von Schulprogrammen an allgemein bildenden Schulen des Landes Sachsen-Anhalt – RdErl. des MK v. 14.05.2003 [derzeit in Überarbeitung]; Erstellung von Schulprogrammen – RdErl. v. 25.03.1999 [derzeit in Überarbeitung]. 14Der Begriff Vergleichsarbeit wird in den Ländern nicht überall verwendet. So kommen in den Schulgesetzen landesweite Lernstandserhebungen und Vergleichsuntersuchungen (BW, HE, NW, RP, SL, TH), Leistungsvergleiche (BY, HB), Tests und Erhebungen (BE, BB, MV, NI, SH), Testverfahren (HH), Untersuchungen zu Schülerleistungen, Kompetenztests (SN), Schulleistungsuntersuchungen (ST) zur Sprache. 15In einigen Ländern wird die externe Evaluation Schulinspektion (BE, HH, NI), Schulvisitation (BB) oder Qualitätsanalyse (NW) genannt.

7  Bildungsrechtliche Grundlagen datenbasierter …

239

Zur Evaluation gehören neben der internen und externen Evaluation die Auswertung von Prüfungen und Vergleichsarbeiten sowie zentrale Schulleistungsuntersuchungen.

Im Bremischen Schulgesetz werden die Vergleichsarbeiten dagegen nicht ausdrücklich erwähnt, können aber unter die „Maßnahmen der Qualitätsuntersuchung“ subsumiert werden. So heißt es in § 55 Abs. 8 des Bremischen Schulgesetzes: Die Schulpflicht verpflichtet ebenfalls zur Teilnahme an Maßnahmen der Qualitätsuntersuchung durch die Schulen und die zuständigen Schulbehörden sowie zur Angabe der von der Schule und den zuständigen Schulbehörden erhobenen Daten.

Externe Evaluation  Im Regelungsbereich zur externen Evaluation finden sich in den Ländern unterschiedliche gesetzliche Normierungen. Eine ausdrückliche Regelung ist beispielsweise im Schulgesetz in Brandenburg in§ 7 Abs. 2 geregelt: Sie [die Schulen] nehmen an den durch die Schulbehörden veranlassten Überprüfungen teil (externe Evaluation). Sie stimmen sich mit dem Schulträger in allen diesen betreffenden Angelegenheiten ab und erörtern mit dem staatlichen Schulamt die pädagogischen Ziele und Schwerpunkte ihrer Arbeit und das Schulprogramm.

Im Saarländischen Schulgesetz gibt es keine ausdrückliche Regelung zur externen Evaluation. Externe Evaluationen können auch hier lediglich unter die „sonstigen Maßnahmen“ subsumiert werden. Dazu heißt es in § 20e Abs. 1: Schülerinnen und Schüler und Lehrkräfte sind verpflichtet, an den von der Schulaufsichtsbehörde oder in deren Auftrag durchgeführten Vergleichsuntersuchungen sowie an sonstigen von der Schulaufsichtsbehörde vorgesehenen Maßnahmen zur Qualitätsentwicklung und Qualitätssicherung teilzunehmen.

Daneben haben Berlin und Niedersachsen bspw. auch die Ziele ausdrücklich schulgesetzlich aufgenommen: „Die externe Evaluation dient dazu, die Standards, die für die Schulen gelten, zu sichern, die Entwicklung und Fortschreibung der Schulprogramme zu unterstützen, Erkenntnisse über den Stand und die Qualität von Unterricht und Erziehung, Schulorganisation und Schulleben zu liefern sowie die Gleichwertigkeit, Durchgängigkeit und Durchlässigkeit des schulischen Bildungsangebots zu gewährleisten“16 bzw.: „Eine der obersten Schulbehörde nachgeordnete Behörde ermittelt die Qualität der einzelnen öffentlichen Schulen und darüber hinaus die Qualität des Schulsystems mit dem Ziel, Maßnahmen der Qualitätsverbesserung zu ermöglichen.“17 In Hamburg und Nordrhein-Westfalen wird dagegen die Unabhängigkeit der Inspektoren hinsichtlich der externen Evaluation ausdrücklich geregelt: „Schulinspektorinnen und Schulinspektoren sind in der Bewertung der Qualität einzelner Schulen an Weisungen

16§ 9 Abs. 3

blnSchulG. NSchG.

17§ 123a Abs. 1

240

A. Kroupa et al.

nicht gebunden.“18 Oder: „Sie sind hinsichtlich ihrer Feststellungen bei der Durchführung der Qualitätsanalyse und deren Beurteilung an Weisungen nicht gebunden.“19 Interne Evaluation Die meisten Schulgesetze verpflichten die Schulen zur Überprüfung der Qualität ihrer Arbeit, des Schullebens, des Unterrichts und der Organisationsentwicklung im Rahmen der internen Evaluation. Die interne Evaluation wird beispielsweise im Berliner Schulgesetz im § 9 Abs. 2 ausführlich beschrieben: Die interne Evaluation obliegt der einzelnen Schule und wird von Personen vorgenommen, die der Schule angehören. Bei der Konzeption, Durchführung und Auswertung kann sich die Schule Dritter bedienen. Für die Bereiche und Gegenstände der internen Evaluation sind von der Schule Evaluationskriterien und Qualitätsmerkmale zu entwickeln und anzuwenden. Die Schulkonferenz beschließt auf Vorschlag der Gesamtkonferenz ein Evaluationsprogramm für die Schule. Die Verantwortung für die interne Evaluation hat die Schulleiterin oder der Schulleiter. Die Schule legt der Schulkonferenz und der Schulaufsichtsbehörde einen schriftlichen Evaluationsbericht vor.

Dagegen wird im schleswig-holsteinischen Schulgesetz nur auf die Überprüfung eines selbstverfassten Schulprogramms eingegangen. Wörtlich wird die interne Evaluation nicht erwähnt. Unter § 3 Abs. 1 findet sich dort die folgende Formulierung: Die Schulen sind im Rahmen der geltenden Rechts- und Verwaltungsvorschriften selbstständig in der Durchführung des Auftrages der Schule und in der Verwaltung ihrer eigenen Angelegenheiten. Die einzelne Schule gibt sich zur Ausgestaltung ihrer pädagogischen Arbeit und des Schullebens ein Schulprogramm, das sie der Schulaufsichtsbehörde vorlegt. Vor der Beschlussfassung ist der Schulträger zu hören. Das Schulprogramm ist von der Schulkonferenz in regelmäßigen Abständen zu überprüfen.

Neben Schleswig-Holstein wird auch in den Schulgesetzen von Niedersachsen, Nordrhein-Westfalen und dem Saarland der Begriff der internen Evaluation nicht ausdrücklich erwähnt. So heißt es in Niedersachsen lediglich: „Die Schule überprüft und bewertet jährlich den Erfolg ihrer Arbeit.“20 In Nordrhein-Westfalen findet sich zu den Aufgaben der Fachkonferenzen nur die folgende Normierung: „Sie [die Fachkonferenz] trägt Verantwortung für die schulinterne Qualitätssicherung und -entwicklung der fachlichen Arbeit und berät über Ziele, Arbeitspläne, Evaluationsmaßnahmen und -ergebnisse und Rechenschaftslegung.“21 „Auf der Grundlage des Schulprogramms überprüft die Schule in regelmäßigen Abständen den Erfolg ihrer Arbeit, plant, falls erforderlich, konkrete Verbesserungsmaßnahmen und führt diese nach einer festgelegten ­Reihenfolge

18§ 85 Abs. 3

HmbSG.

19§ 86 Abs. 5

nrwSchulG. NSchG. 21§ 70 Abs. 3 S. 2 nrw SchulG. 20§ 32 Abs. 3 S. 1

7  Bildungsrechtliche Grundlagen datenbasierter …

241

durch.“22 Auch im Saarland findet sich allein die Regelung: „Die Schulen sind zur stetigen Entwicklung und Sicherung der Qualität ihrer Bildungs- und Erziehungsarbeit ­verpflichtet.“23 Fazit: Zusammenfassend kann hier gesagt werden, dass die schulgesetzlichen Normen eine deutliche Varianz aufzeigen. Einige Länder haben regelungstechnisch ähnliche Wege gewählt, andere Länder eigene Wege beschritten. Die Instrumente (Vergleichsarbeiten, externe und interne Evaluationen) wurden unterschiedlich stark in die Gesetze integriert bzw. in Verordnungen und Verwaltungsvorschriften präzisiert. In einigen Ländern gibt es bereits in den Schulgesetzen umfassende Regelungen, andere Länder gestalten die Instrumente durch Verordnungen oder Verwaltungsvorschriften konkretisierend aus. Dabei gibt es bei einigen Regelungen größere Interpretationsspielräume als bei anderen. Dies mag einerseits beabsichtigt sein, doch lässt es die genaue Bedeutungsabsicht im Ungewissen. Schulrechtliche Rahmenbedingungen besitzen im Unterschied zu untergesetzlichen Normen prinzipiell eine höhere Beständigkeit, doch können wechselnde politische Konstellationen nach Landtagswahlen die vereinbarten Zielsetzungen und Grundlagen verändern und dadurch ein beschlossenes Instrumentarium wieder infrage stellen. Schulgesetzlichen Regelungen geht eine intensive Diskussion im parlamentarischen Raum voraus, an der über die mediale Berichterstattung auch die Öffentlichkeit indirekt beteiligt wird – zumal die Landesschulpolitik, die sich dann in den entsprechenden gesetzlichen Reglungen niederschlägt, heute eines der wenigen Felder landesspezifischer Gestaltungsmöglichkeiten („Kulturhoheit“) geblieben und entsprechend umstritten ist. Demgegenüber findet bei Regelungen von Sachverhalten auf der Ebene untergesetzlicher Normen diese politische Diskussion in der Regel nicht statt; allerdings enthalten landesspezifische Vorgaben in unterschiedlichen Ausprägungen Mitwirkungsrechte von Gremien (z. B. über Landeschulbeiräte o. ä.) vor Erlass untergesetzlicher Bestimmungen, sodass damit eine fachliche, wenn auch eher selten öffentliche Beteiligung stattfindet. Ausdrückliche Regelungen in Gesetzen oder untergesetzlichen Normen ergeben eine größere Rechtssicherheit für alle Beteiligten, nicht nur im Falle von Verstößen und Beschwerden seitens der an der Schule Beteiligten; gleichzeitig kommt ihnen eine Signalwirkung zur Lösung von Konflikten zu, die bis hin zu Entscheidungen im Rahmen von gerichtlichen Auseinandersetzungen reichen. Im Folgenden werden anhand der landesspezifischen Schulgesetze, der Verordnungen und Verwaltungsvorschriften die Steuerungsinstrumente (Vergleichsarbeiten, externen Evaluationen und internen Evaluationen) genauer betrachtet. Dabei wurden die Vorschriften analysiert, welche zum Stichtag des 31.01.2018 Gültigkeit aufwiesen. Es werden die Regelungen zu den Aufgaben der Akteure (Schulaufsichtsbehörden, Landesinstitute, Schulleitungen, Lehrkräfte, Schulkonferenz, Gesamtkonferenz, Fachkonferenz)

22§ 3 Abs. 2 S. 2 23§ 1 Abs. 4 S. 1

nrw SchulG. SchoG.

242

A. Kroupa et al.

im Hinblick auf die Qualitätssicherung und -entwicklung sowie im Blick auf die Instrumente analysiert und veranschaulicht. Dabei wird auch auf die Rolle der Schulaufsicht in Bezug auf die Einrichtungen der externen Evaluationen eingegangen sowie auf den Datenschutz.

7.2 Aufgaben schulischer Akteure im Kontext datenbasierter Qualitätssicherung und -entwicklung Die Implementation des Konzepts der datenbasierten Schulentwicklung, wie sie in der Gesamtstrategie der KMK zum Bildungsmonitoring vom 11. Juni 2015 ­(Kultusministerkonferenz 2016) beschrieben ist, geht mit einer Verlagerung der operativen Entscheidungskompetenzen von der Ebene der Schulaufsicht auf die Ebene der Schule einher. Diese Verlagerung kommt in einer Stärkung der Rolle der Schulleitungen bzw. der schulischen Konferenzen gegenüber der traditionellen Schulaufsicht zum Ausdruck. Die Länder unterscheiden sich in der Festlegung der Aufgaben einzelner Akteure und damit in der Definition eines entsprechenden Entscheidungsgeflechts teilweise deutlich. Wie Aufgaben und Kompetenzen der unterschiedlichen an schulischer Qualitätsentwicklung beteiligten Akteure in den Schulgesetzen sowie in untergesetzlichen Normen definiert werden, ist Gegenstand des vorliegenden Kapitels. Nachfolgend werden die Regelungen zu den Aufgaben schulischer Qualitätssicherung und Qualitätsentwicklung für die Schulaufsichtsbehörden, die Einrichtungen der externen Evaluation, die mit der Qualitätssicherung und -entwicklung beauftragten Landesinstitute, die Schulleitung, die Lehrkräfte, die Schulkonferenz, die Gesamtkonferenz und die Fachkonferenz in den einzelnen Ländern zum Analysestichtag 31.01.2018 beschrieben.

7.2.1 Aufgaben der Schulaufsichtsbehörden Innerhalb der Schulaufsichtssysteme herrscht in den deutschen Ländern teilweise große Varianz. Die Organisation der Instanzen, die schulartspezifischen Zuständigkeiten oder Zuordnungen zu sonstigen Landesverwaltungen sind in den Ländern unterschiedlich geregelt (Füssel und Leschinsky 2008). Ein dreistufiger Verwaltungsaufbau in der Schulverwaltung (Ministerium – Landesschulämter/Bezirksregierungen – staatliche Schulämter) existiert nur noch in Baden-Württemberg, Bayern und Nordrhein-Westfalen. In dem Großteil der Länder ist dagegen ein zweistufiges Modell (Ministerium – Landesschulämter/Oberschulämter/staatliche Schulämter) vorzufinden (vgl. Abb. 7.2). In Niedersachsen, Rheinland-Pfalz, Sachsen und Sachsen-Anhalt gibt es keine Behörden der unteren Schulaufsicht; in Brandenburg, Hessen, Mecklenburg-Vorpommern, Schleswig-Holstein und Thüringen gibt es keine Behörden der oberen Schulaufsicht. Berlin, Bremen, Hamburg und Saarland haben ausschließlich eine oberste Schulaufsichtsbehörde (z. B. Senatsverwaltung, Ministerium).

7  Bildungsrechtliche Grundlagen datenbasierter …

Abb. 7.2   Aufbau der Schulaufsichtsbehörden in den 16 Ländern

243

244

A. Kroupa et al.

Die untere Schulaufsicht obliegt den staatlichen Schulämtern.24 Staatliche Schulämter gibt es in Baden-Württemberg, Bayern, Brandenburg, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Schleswig-Holstein und Thüringen. Die staatlichen Schulämter sind für die „inneren Schulangelegenheiten“ zuständig25 und nicht mit den kommunalen Schulverwaltungsämtern zu verwechseln, in denen die Kommunen als Schulträger ihre Verwaltungsaufgaben für die Schule erledigen (äußere Schulangelegenheiten). Obere Schulaufsichtsbehörden gibt es in Baden-Württemberg, Bayern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Sachsen und Sachsen-Anhalt. Die oberste Schulaufsichtsbehörde ist das für Schulwesen zuständige Ministerium bzw. in den Stadtstaaten die Senatsbehörde (vgl. Bogumil et al. 2016). In Bayern, Nordrhein-Westfalen und Schleswig-Holstein gibt es schulartspezifische Unterschiede bezogen auf die Ebenen der Schulaufsicht, in anderen Ländern nicht. Auch verläuft die Wahrnehmung der Rechts-, Dienst- und Fachaufsicht in den Ländern nicht einheitlich. Die Regelung der Schulaufsicht erfolgt in manchen Ländern direkt durch die Schulgesetze, in manchen zusätzlich durch Verordnungen und Verwaltungsvorschriften. Die klassische Aufgabe der staatlichen Aufsicht, welche die Schulaufsichtsbehörden innehaben, wurde in den letzten Jahren durch neue Aufgaben erweitert. Nunmehr zählen zu ihren Aufgaben auch die kontinuierliche Qualitätssicherung und -entwicklung, die Schulprogrammarbeit, der Abschluss von Zielvereinbarungen mit den Schulen bzw. Schulleitungen, die Beratung und Unterstützung der Schulen, die Veranlassung der Vergleichsarbeiten sowie die Veranlassung und Koordination von Evaluationen. Im Folgenden werden diese Aufgaben unter Berücksichtigung der länderspezifischen Unterschiede genauer betrachtet. In fast allen Ländern der Bundesrepublik Deutschland gehört zu den ausdrücklichen Aufgaben der Schulaufsichtsbehörden in den Schulgesetzen die Qualitätssicherung und -entwicklung der Schulen.26 In Baden-Württemberg ist eine solche Verpflichtung weder schulgesetzlich noch in untergesetzlichen Normen eindeutig verankert. Auch im Thüringer Schulgesetz gibt es keine Regelung über die Verpflichtung der Schulaufsichtsbehörden zur Qualitätssicherung und -entwicklung. Das in Thüringen daneben bestehende Gesetz über die Schulaufsicht beinhaltet ebenfalls keine konkrete Verpflichtung zur Qualitätssicherung und -entwicklung, dort wird nur die „Beratung und Unterstützung der Schulen bei der Erfüllung ihrer Bildungs- und Erziehungsaufgaben

24Einige

Länder kennen den Begriff der unteren Schulaufsichtsbehörde nicht, dieser ist aber von der Aufgabenwahrnehmung her identisch mit den staatlichen Schulämtern. 25Vgl. bspw. Nr. 4 Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006 (KWMBl. I 2006 S. 183). 26Art. 113c Abs. 1 S. 1 BayEUG; § 9 Abs. 1 S. 1 bln SchulG; § 129 Abs. 2 S. 1 BbgSchulG; § 3 Abs. 2 BremSchulVwG; § 85 Abs. 4 HmbSG; § 92 Abs. 2 S. 1 HSchG; § 39a Abs. 4 S. 4 SchulG M-V; § 123a Abs. 1 NSchG; § 3 Abs. 3 nrw SchulG; § 96 Abs. 2 S. 2 Nr. 2 rp SchulG; § 1 Abs. 4 SchoG; § 3a Abs. 2 S. 1 sächs SchulG; § 11a Abs. 1 SchulG LSA.

7  Bildungsrechtliche Grundlagen datenbasierter …

245

[…] und bei der Entwicklung eines eigenen Schulprofils“ erwähnt.27 Hingegen wird dem Thüringer Institut für Lehrerfortbildung, Lehrplanentwicklung und Medien (Thillm) die Verantwortung im Prozess von Qualitätsentwicklung und -sicherung im schulischen Bereich im Besonderen übertragen.28 Schleswig-Holstein stellt ebenfalls eine Besonderheit dar: Hier werden die SchülerInnen verpflichtet, an „vom für Bildung zuständigen Ministerium zugelassenen Tests, Befragungen und Erhebungen, die der Überprüfung der Qualität der schulischen Arbeit dienen, teilzunehmen“.29 Aus dieser Regelung lässt sich insofern letztlich indirekt ableiten, dass die dafür maßgeblichen Testverfahren und Instrumente auch für die Schulaufsichtsbehörden gelten. Diese drei Länder (BW, TH, SH) unterscheiden sich insofern hinsichtlich der Ausdrücklichkeit in ihren Festlegungen von den anderen Bundesländern. Schulprogramme bilden einen zentralen Bestandteil der schulischen Qualitätssicherung und -entwicklung. Darin werden die pädagogischen Grundsätze und Ziele im Rahmen der pädagogischen Freiräume festgelegt. Schulprogramme sind bildungspolitisch verordnete bzw. den Schulen nahegelegte Instrumente für die Systematisierung der schulischen Qualitätsentwicklung. Durch gesetzliche Vorgaben, zentrale Bildungsstandards und Rahmenpläne sowie durch schulartbezogene Erlasse werden einerseits klare Vorgaben für die pädagogische Arbeit der Schule geregelt. Andererseits erhält die Schule gerade durch diese Regelungen auch Gestaltungsspielräume, insofern sie über pädagogische Grundsätze selbst entscheiden kann. In den meisten Ländern sind Regelungen über das Schulprogramm auf schulgesetzlicher Ebene zu finden. Zusätzlich gibt es in Brandenburg das Rundschreiben zur Fortschreibung und Evaluation von Schulprogrammen an Schulen30, in Nordrhein-Westfalen den Runderlass zur Schulprogrammarbeit31 und in Berlin die Ausführungsvorschrift zur Erstellung der Schulprogramme.32 Auch in Sachsen-Anhalt33 und Schleswig-Holstein34 existierten entsprechende Runderlasse zur Schulprogrammarbeit, welche mittlerweile jedoch außer Kraft getreten sind. Nur im Saarland und in Thüringen ist Schulprogrammarbeit schulrechtlich nicht ­festgeschrieben, in allen anderen Ländern existieren Regelungen, die eine Anfertigung fest vorsieht. In einigen Ländern wird derzeit an einer Neufassung gearbeitet, daher

27§ 2 Abs. 2

Nr. 3 ThürSchAG. S. 1 ThürSchulG. 29§ 11 Abs. 2 S. 3 sh SchulG. 30Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009. 31Schulprogrammarbeit – RdErl. d. Ministeriums für Schule und Weiterbildung v. 16.09.2005. 32Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008. 33Entwicklung von Schulprogrammen an allgemein bildenden Schulen des Landes Sachsen-Anhalt – RdErl. des MK v. 14.05.2003. 34Erstellung von Schulprogrammen – RdErl. des MK v. 25.03.1999. 28§ 40a Abs. 1

246

A. Kroupa et al.

haben die außer Kraft getretenen Vorschriften weiter Bestand. Das Schulprogramm wird in Baden-Württemberg Qualitätsdokumentation, in Rheinland-Pfalz Qualitätsprogramm genannt. In Baden-Württemberg35 und Mecklenburg-Vorpommern36 existieren Regelungen über die Schulprogrammarbeit; diese sind jedoch nicht in eigenständigen Verwaltungsvorschriften bzw. Verordnungen festgelegt, sondern innerhalb der Vorschriften über die Qualitätssicherung und Evaluation untergebracht. In Rheinland-Pfalz finden sich über den Prozess der Schulprogrammerstellung ebenfalls keine präzisierenden Ausführungen, allein in der Übergreifenden Schulordnung (SchulO RP) wird der Terminus Qualitätsprogramm, welcher synonym für das Schulprogramm steht, im Zusammenhang mit der Information der Schule an SchülerInnen bzw. dem Zusammenwirken von Eltern und Schule erwähnt.37 Teilweise ist bei der Schulprogrammerstellung eine Abstimmung mit dem Schulträger vorgesehen. In Baden-Württemberg bezieht sich dies auf Angaben zu Leistungen des Schulträgers38; in Brandenburg ist die Abstimmung bei den Schulträger betreffenden Angelegenheiten39 und in Hessen bezüglich zusätzlichem Sachaufwand40 vorgesehen. Die Erarbeitung des Schulprogramms soll in Mecklenburg-Vorpommern in Zusammenarbeit mit dem Schulträger erfolgen41 und in Niedersachsen soll dieser bei der Entwicklung des Schulprogramms beteiligt werden.42 Zu den Aufgaben der Schulaufsichtsbehörden in Bezug auf das Schulprogramm existieren in einigen Ländern Regelungen. So ist in Berlin, in Bremen und Mecklenburg-­ Vorpommern verankert, dass die Schulprogramme durch die Schulaufsichtsbehörde zu genehmigen sind.43 Die Genehmigung gilt in Berlin und Mecklenburg-Vorpommern als erteilt, wenn sich die zuständige Schulaufsichtsbehörde nicht innerhalb von drei Monaten nach Vorlage des Schulprogramms äußert.44 Die Genehmigung der Schulprogramme darf nur versagt werden, wenn Verstöße gegen Rechts- oder Verwaltungsvorschriften vorliegen, eine Unvereinbarkeit mit dem Bildungs- und Erziehungsauftrag der Schule besteht oder die Gleichwertigkeit des schulischen Angebots nicht gewährleistet w ­ erden 35§ 5 Abs. 5 Verordnung

des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW). 36§ 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 37§ 3 Abs. 2; § 8 Abs. 6 Schulordnung für die öffentlichen Realschulen plus, Integrierten Gesamtschulen, Gymnasien, Kollegs und Abendgymnasien (SchulO RP 2009) v. 01.08.2009. 38§ 6 Abs. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW). 39§ 7 Abs. 2 S. 4 Bbg SchulG. 40§ 127b Abs. 2 HSchG. 41§ 39a Abs. 2 S. 6 SchulG M-V. 42§ 32 Abs. 2 S. 5 NSchG. 43§ 8 Abs. 4 bln SchulG; § 9 Abs. 1 S. 2 Nr. 1 BremSchulG; § 39a Abs. 3 SchulG M-V. 44§ 8 Abs. 4 S. 3 bln SchulG; § 39a Abs. 3 S. 3 SchulG M-V.

7  Bildungsrechtliche Grundlagen datenbasierter …

247

kann und insbesondere wenn die nach den Anforderungen der Bildungsgänge notwendigen Standards nicht sichergestellt werden können.45 Nicht geregelt ist dagegen, unter welchen Umständen eine solche Genehmigung wieder aufgehoben oder zurückgenommen werden darf. In Brandenburg werden die Schulen bei der Fortschreibung der Schulprogramme von der unteren Schulaufsichtsbehörde unterstützt.46 Eine Beratung zum Schulprogramm ist in Hessen47 festgelegt, während in Mecklenburg-Vorpommern eine inhaltliche Regelung und in Schleswig-Holstein eine reine Vorlage bei der Schulaufsicht vorgesehen ist. Ein weiteres Steuerungsinstrument der Qualitätssicherung und -entwicklung sind Zielvereinbarungen zwischen den Schulaufsichtsbehörden und den Schulen, welches im Großteil der Länder eingesetzt wird. Avenarius bezeichnete in Avenarius und Füssel (2010) Zielvereinbarungen noch als informelles Verwaltungshandeln. Zum informellen Verwaltungshandeln werden alle Verwaltungshandlungen gezählt, die sich nicht unter die herkömmlichen, rechtlich formalisierten Handlungsformen der Verwaltung einordnen lassen (Maurer, H. und Waldhoff, C. 2017). Bis auf Berlin, Sachsen, dem Saarland und Schleswig-Holstein, wo zumindest keine ausdrücklichen Regelungen über den Abschluss von Zielvereinbarungen zwischen den Schulaufsichtsbehörden und den Schulen in gesetzlichen oder untergesetzlichen Normen existieren, sind in allen Ländern Zielvereinbarungen zwischen Schulaufsichtsbehörden und Schulen vorgesehen. In Baden-Württemberg, Bayern, Brandenburg, Hessen, Mecklenburg-Vorpommern, ­Nordrhein-Westfalen, Thüringen erfolgt dies durch die staatlichen Schulämter, in Niedersachsen (auf freiwilliger Basis48), Rheinland-Pfalz und Sachsen-Anhalt durch die oberen Schulaufsichtsbehörden49, in Bremen und Hamburg werden diese Ziel- und Leistungsvereinbarungen genannt und zwischen oberster Schulaufsichtsbehörde und Schule abgeschlossen.50 In Hamburg, Mecklenburg-Vorpommern und Nordrhein-Westfalen

45§ 8 Abs. 4

bln SchulG; § 9 Abs. 1 S. 2 Nr. 1 BremSchulG; § 39a Abs. 3 SchulG M-V. Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009. 47§ 127b Abs. 2 S. 2 HSchG; § 39a Abs. 6 SchulG M-V; § 3 Abs. 1 S. 2 sh SchulG. 48§ 5 Abs. 3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 49§ 12 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); Art. 111 Abs. 1 S. 1 Nr. 2 BayEUG; Art. 113c Abs. 4 BayEUG; § 5 Abs. 5 VV-Schulvisitation, Anlage 3 zu Nr. 6 Verwaltungsvorschriften über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter (Verwaltungsvorschriften Staatliche Schulämter – VVStSchÄ) v. 07.03.2016; § 92 Abs. 3 HSchG; § 39a Abs. 2 S. 9 SchulG M-V; § 5 Abs. 3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 10 S. 7 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007; § 23 Abs. 2 S. 3 rp SchulG; Abschnitt 1 Nr. 2 Stärkung der Stellung der Schulleiterinnen und Schulleiter – RdErl. des MK v. 03.03.2010; § 40b Abs. 3 S. 2 ThürSchulG. 50§ 12 Abs. 2 S. 1 BremSchulVwG; § 85 Abs. 1 S. 3 HmbSG. 461.4

248

A. Kroupa et al.

werden beim Abschluss der Zielvereinbarungen ausdrücklich die Schulleitungen benannt, in allen anderen Ländern ist allgemein von den Schulen die Rede. Im Saarland werden im Rahmen des pädagogischen Tages konkrete Ziele für die weitere Arbeit herausgestellt, über die die Schulleitung, soweit diese über den Bereich der Schule ­hinaus von Bedeutung sind, dem Schulamt berichtet.51 Da es sich um einen partizipativen und kooperativen Prozess handelt, werden Zielvereinbarungen nicht einseitig von einem Akteur vorgegeben, sondern zwischen den SchulaufsichtsbeamtInnen und den Schulen bzw. Schulleitungen erarbeitet und vereinbart und bilden einen Maßstab für die Bewertung der zu erbringenden Leistung (Avenarius und Füssel 2010). In Mecklenburg-Vorpommern ist zusätzlich geregelt, dass Zielvereinbarungen mit dem Ziel geschlossen werden, einen transparenten und verbindlichen Prozess zu gestalten.52 In einigen Ländern liegen Regelungen zur Nutzung von Evaluationsergebnissen vor. So sollen in Baden-Württemberg, Bayern, Brandenburg, Hessen, Niedersachsen (freiwillig) und Thüringen Zielvereinbarungen auf Grundlage der Ergebnisse der externen Evaluation geschlossen werden53, was in Niedersachsen nur für die berufsbildenden Schulen festgelegt ist.54 In Brandenburg und Hessen sollen auch die Ergebnisse der internen Evaluation berücksichtigt werden.55 Eine enge Verzahnung der Instrumente Schulprogramm und Zielvereinbarungen zur schulischen Qualitätsentwicklung findet sich in Hessen, wo das Schulprogramm eine Grundlage für den Abschluss von Zielvereinbarungen ist56 und in Bayern, wo das Schulprogramm die Zielvereinbarungen berücksichtigen soll.57 In Bayern sollen die Schulaufsichtsbehörden darüber hinaus die Umsetzung unterstützen und überprüfen. Die Überprüfung ist in Rheinland-Pfalz ebenfalls vorgesehen.58 Eine Überprüfung in Form der

51Erlass

über die Durchführung eines Pädagogischen Tages an Schulen v. 03.05.1988 (GMBl. Saar S. 161). 52§ 39a Abs. 2 S. 9 SchulG M-V. 53§ 12 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); Art. 113c Abs. 4 S. 1 BayEUG; § 5 Abs. 5 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 92 Abs. 3 S. 1 HSchG, § 5 Abs. 3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 40b Abs. 3 S. 2 ThürSchulG. 54§ 5 Abs. 3 S. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 55§ 1 Abs. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 3 Abs. 4 Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008; Anlage 3 zu Nr. 6 Verwaltungsvorschriften über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter (Verwaltungsvorschriften Staatliche Schulämter – VVStSchÄ) v. 07.03.2016; § 92 Abs. 3 S. 1 HSchG. 56§ 127b Abs. 3 HSchG. 57Art. 2 Abs. 4 S. 4 BayEUG. 58§ 96 Abs. 2 Nr. 2 rp SchulG.

7  Bildungsrechtliche Grundlagen datenbasierter …

249

­ echenschaftslegung der Schule gegenüber der Schulaufsichtsbehörde findet sich in R Hessen, N ­ ordrhein-Westfalen und Thüringen.59 Die Regelungen zum Abschluss von Zielvereinbarungen finden sich in den meisten Ländern in den Schulgesetzen. In Baden-Württemberg und Nordrhein-Westfalen sind Regelungen hierzu nur in den Verordnungen zu finden, in Niedersachsen und Sachsen-Anhalt nur in Verwaltungsvorschriften. Nähere Ausgestaltungen, was in die Zielvereinbarungen aufzunehmen ist und für welchen Zeitraum diese geschlossen werden, sind gesetzlich bzw. untergesetzlich nicht festgelegt.60 Eine weitere Aufgabe der Schulaufsichtsbehörden ist in allen Ländern die Beratung und/oder Unterstützung der Schulen in der Wahrnehmung ihrer Aufgaben, insbesondere im Bereich der erweiterten Selbstverantwortung. In einem Großteil der Länder ist schulgesetzlich bzw. untergesetzlich ausdrücklich geregelt, dass die Schulaufsichtsbehörden im Kontext der Qualitätsentwicklung und -sicherung beraten und/oder unterstützen sollen. In Berlin und dem Saarland ist die oberste Schulaufsichtsbehörde verpflichtet, die Schulen bei der Qualitätssicherung zu unterstützen61. In Bremen soll die Schulaufsicht den Prozess der Auseinandersetzung mit den Ergebnissen der Vergleichsarbeiten begleiten und Unterstützungsangebote bereitstellen bzw. vermitteln.62 In Rheinland-Pfalz soll die Schulaufsicht beratend tätig werden und hat die Aufgabe, geschlossene Zielvereinbarungen zu überprüfen.63 In Sachsen-Anhalt ist die obere Schulaufsichtsbehörde, in Bayern, Brandenburg, Hessen, Mecklenburg-Vorpommern und Nordrhein-­Westfalen sind die staatlichen Schulämter (untere Schulaufsichtsbehörden) verpflichtet, die Schulen zu beraten und zu unterstützen.64 In Brandenburg sind mit der Beratung konkrete Ziele verbunden: Vorbereitung auf neue pädagogische Problemstellungen, Förderung pädagogischer Selbstverantwortung der Lehrkräfte und der Schulen, Erteilung von Rückmeldungen zu Berichtslegungen der Schule, Unterstützung von Schulleitung

59§ 92 Abs. 3 S. 3 HSchG; § 3 Abs. 10 S. 7 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007, § 40 b Abs. 3 S. 4 ThürSchulG. 60Zur Erstellung von Zielvereinbarungen gibt es in einigen Ländern Handreichungen oder Leitfäden. 61§ 4 Abs. 8 S. 2 bln SchulG; § 1 Abs. 4 S. 2 SchoG. 62Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013. 632.2.3 Die Schule als professionelle Lerngemeinschaft – RdErl. des MK v. 21.02.2015; § 96 Abs. 2 S. 2 Nr. 2 rp SchulG. 64Die Schule als professionelle Lerngemeinschaft – RdErl. des MK v. 19.11.2012 – 31-842/843; Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006 (KWMBl. I 2006 S. 183); § 129 Abs. 4 Bbg SchulG; § 92 Abs. 2 S. 2 HSchG; § 4 Abs. 8 S. 4 SchulG M-V; § 3 Abs. 1 S. 3 nrw SchulG iVm § 1 Abs. 3 S. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007.

250

A. Kroupa et al.

und ­schulischen Gremien, Förderung der Selbstständigkeit der Schulen bei ihrer pädagogischen, didaktischen, fachlichen und organisatorischen Tätigkeit, Förderung der Zusammenarbeit mit benachbarten Schulen, Beratung der Schulen bei der internen Evaluation sowie bei der Auswertung und Vermittlung von Ergebnissen der externen Evaluation.65 Die Verantwortung im Prozess von Qualitätsentwicklung und Qualitätssicherung liegt in Thüringen beim Institut für Lehrerfortbildung, Lehrplanentwicklung und Medien (Thillm), mit welchem vom zuständigen Ministerium Ziel- und Leistungsvereinbarungen zur Umsetzung der übertragenen Aufgaben abgeschlossen werden.66 In den übrigen Ländern ist nur allgemein geregelt, dass die Beratung (BW, SN, SH) bzw. Beratung und Unterstützung (HH, NI) der Schulen durch die Schulaufsichtsbehörde erfolgen soll.67 Eine spezifizierende Regelung in Richtung Qualitätssicherung und -entwicklung existiert dort nicht. In den meisten Ländern sind die Beratung und Unterstützung durch die Schulaufsichtsbehörden auf schulgesetzlicher Ebene geregelt, in Bayern, Bremen und Sachsen-Anhalt dagegen nur in den Verwaltungsvorschriften. Die obersten Schulaufsichtsbehörden sind in allen Ländern für die Veranlassung der Vergleichsarbeiten zuständig und können SchülerInnen sowie die Lehrkräfte verpflichten, daran teilzunehmen bzw. mitzuwirken. Dabei ist in den meisten Ländern festgelegt, dass die Termine und Fächer bzw. Lernbereiche durch die Schulaufsichtsbehörden bestimmt werden und den Schulen die Aufgaben und Auswertungsvorgaben zentral vorgegeben werden.68 Eine Ausnahme bildet Mecklenburg-Vorpommern, wo ausdrücklich geregelt ist, dass die Termine und Fächer der Vergleichsarbeiten durch das Institut für Qualitätsentwicklung, welches allerdings der obersten Schulaufsichtsbehörde unterstellt ist, vorgegeben und die Unterlagen den Schulen übermittelt werden.69 In Bayern ist zusätzlich geregelt, dass die staatlichen Schulämter die Ergebnisse der

65§ 129 Abs. 4

Bbg SchulG. a Abs. 1 ThürSchulG. 67§ 32 Abs. 1 S. 2 bw SchG; § 85 Abs. 2 HmbSG; § 120a NSchG; § 58 Abs. 1 S. 2 sächs SchulG; § 125 Abs. 3 Nr. 1 sh SchulG; § 2 Abs. 2 S. 2 Nr. 3 ThürSchlG. 68Nr. 4 Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016; Durchführung der Vergleichsarbeiten VERA-8 im Schuljahr 2016/17 – Erlass des Bayerischen Staatsministeriums für Bildung und Kultus, Wissenschaft und Kunst v. 25.11.2016; § 2 Abs. 1 S. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 2 Abs. 1 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017; Zentrale Vergleichsarbeiten in der 3. Jahrgangsstufe (VERA-3) im Schuljahr 2016/2017 – Verfügung Nr. 42/2016 v. 20.06.2016; Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8 v. 01.08.2015; Vergleichsarbeiten für die Schuljahrgänge 3 und 8 – RdErl. v. 17.07.2014; 2.4 Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012. 69§ 8 Abs. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 66§ 40

7  Bildungsrechtliche Grundlagen datenbasierter …

251

­ ergleichsarbeiten mit der Schulleitung erörtern sollen.70 Während die Verbindlichkeit V der Vergleichsarbeiten in allen Ländern auf schulgesetzlicher Ebene festgelegt ist, finden sich – mit Ausnahme von Hamburg – genauere Ausgestaltungen und die Bekanntgabe der Fächer und Termine in Verordnungen und Verwaltungsvorschriften. Die Verbindlichkeit zur Durchführung der einzelnen Fächer kann dabei variieren (vgl. Kap. 4). Die Steuerung der externen Evaluation der Schulen71 fällt in allen Ländern in den Zuständigkeitsbereich der obersten Schulaufsichtsbehörden.72 In 14 der 16 Länder ist die externe Evaluation in den Schulgesetzen begrifflich verankert73. Allein im Saarland und in Schleswig-Holstein finden sich diese Termini nicht. Die externe Evaluation ist im schleswig-holsteinischen Schulgesetz unter die von der obersten Schulaufsichtsbehörde „zugelassenen Tests, Befragungen und Erhebungen“ zu subsumieren, welche der „Überprüfung der Qualität der schulischen Arbeit dienen“.74 Im Saarland kann die externe Evaluation unter die „sonstigen von der Schulaufsichtsbehörde vorgesehenen Maßnahmen zur Qualitätsentwicklung und Qualitätssicherung“ subsumiert werden.75 Daneben ist in Bayern ausdrücklich festgelegt, dass die staatlichen Schulämter auch Unterrichtsbesuche durchführen, um sich ein umfassendes Bild von den schul- und unterrichtsbezogenen Prozessen zu machen, die anschließend gemeinsam mit den Schulen analysiert werden sollen.76 Ausschließlich in Berlin ist die Schulaufsichtsbehörde gesetzlich verpflichtet, einen Kurzbericht über die wesentlichen Ergebnisse der Schulinspektion zu veröffentlichen.77 In wenigen anderen Ländern ist zwar auch eine Veröffentlichung festgelegt, diese fällt aber nicht explizit in den Aufgabenbereich der Schulaufsichtsbehörden, sondern in die Verantwortung anderer Akteure (Schulleitung, Schulkonferenz, Leitung der ­Schulvisitation). In einigen Ländern finden sich Aufgaben der Schulaufsichtsbehörden in Bezug auf die interne Evaluation der Schulen. So sind in Bayern die Schulräte für die

703. Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006 (KWMBl. I 2006 S. 183). 71In einigen Ländern wird die externe Evaluation Schulinspektion (BE, HH, NI), Schulvisitation (BB) oder Qualitätsanalyse (NW) genannt. 72Die externe Evaluation ist derzeit ausgesetzt in Baden-Württemberg, Bremen, Hessen, Rheinland-Pfalz, Sachsen, Sachsen-Anhalt und Thüringen (vgl. Kap. 5). 73§ 114 bw SchG; Art. 113c BayEUG; § 9 bln SchulG; § 7 Abs. 2 Bbg SchulG; § 13 BremSchulVwG; § 85 Abs. 3 HmbSG; § 98 Abs. 5 HSchG; § 39a Abs. 4 SchulG M-V, § 123a Abs. 2 NSchG; § 86 Abs. 5 nrw SchulG; § 23 Abs. 2 rp SchulG; § 3a sächs SchulG; § 11a Abs. 1 SchulG LSA; § 40b Abs. 3 ThürSchulG. 74§ 11 Abs. 2 S. 3 sh SchulG. 75§ 20e Abs. 1 S. 1 SchoG. 763. Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006 (KWMBl. I 2006 S. 183). 77§ 5 Abs. 4 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011.

252

A. Kroupa et al.

­ icherstellung der Durchführung der internen Evaluation an den Schulen zuständig78, S in Brandenburg und Rheinland-Pfalz sollen die staatlichen Schulämter bei der internen Evaluation beraten und unterstützen79, in Nordrhein-Westfalen sollen Evaluationsmaßnahmen gefördert werden80. In Mecklenburg-Vorpommern wird die oberste Schulbehörde ermächtigt, inhaltliche Regelungen zu Verfahren, Zuständigkeit, Konzeption, Frequenz, Durchführung, Auswertung und Berichtslegung der internen Evaluation durch Rechtsverordnungen zu regeln.81 Des Weiteren sind in Berlin, Hessen, Mecklenburg-Vorpommern und Sachsen-Anhalt die Schulen gegenüber der Schulaufsichtsbehörde zur Berichts- bzw. Rechenschaftslegung betreffend der internen Evaluation verpflichtet82 (vgl. dazu Abb. 7.7 in diesem Kapitel). Abb. 7.3 zeigt die Aufgaben der Schulaufsichtsbehörden in einer Übersicht aller ­Länder.

7.2.2 Aufgaben der Einrichtungen der externen Evaluation/ Inspektorate Die externe Evaluation ist zum Stichtag in Baden-Württemberg, Bremen, Rheinland-Pfalz, Sachsen, Sachsen-Anhalt und Thüringen ausgesetzt.83 Den hessischen Schulen wird das Verfahren nur noch auf Anfrage zur Verfügung gestellt. Schleswig-Holstein bietet das Schulfeedback derzeit als für die Schulen freiwilliges Peer-Review-Verfahren an. Da Regelungen zur externen Evaluation aber trotzdem schulgesetzlich und untergesetzlich festgelegt sind und weiterhin Gültigkeit besitzen, werden im Folgenden auch die Länder bei der Darstellung der Aufgaben der Einrichtungen der externen Evaluation berücksichtigt, welche das Verfahren zum Analysestichtag ausgesetzt haben. Die institutionelle Verankerung der Schulinspektion (externe Evaluation) variiert zwischen den Ländern. Die oberste Schulaufsichtsbehörde (Ministerium bzw. Senatsbehörde) ist in allen Ländern für die Steuerung der externen Evaluation zuständig (s. o.). Die operative Umsetzung liegt in einem Großteil der Länder in der Verantwortung der jeweiligen Landesinstitute bzw. Organisationseinheiten (BW, BB, HH, HE, MV, NI, RP, SN, ST, SH) oder speziellen Qualitätsagenturen (BY) innerhalb der Landesinstitute (s. o.). In Berlin, Bremen, dem Saarland und Thüringen sind selbstständige

783. Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006 (KWMBl. I 2006 S. 183). 79§ 129 Abs. 4 S. 3 BbgSchulG; § 96 Abs. 2 Nr. 2 rp SchulG3. 80§ 86 Abs. 3 S. 3 nw SchulG. 81§ 39 a Abs. 6 SchulG M-V. 82§ 9 Abs. 2 S. 6 bln SchulG; § 92 Abs. 3 S. 3 HSchG; § 4 Abs. 2 SchQualiVO M-V; § 24 Abs. 4 S. 9 SchulG LSA. 83vgl. Kap. 5.

Abb. 7.3   Aufgaben der Schulaufsichtsbehörden in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 253

Abb. 7.3   (Fortsetzung)

254 A. Kroupa et al.

7  Bildungsrechtliche Grundlagen datenbasierter …

255

Organisationseinheiten innerhalb der obersten Schulaufsichtsbehörde für die Durchführung der externen Evaluation zuständig. Die Schulinspektion ist in diesen Ländern durch ein Referat an die oberste Schulaufsichtsbehörde angegliedert, wobei dieses organisatorisch und räumlich getrennt von der operativen Schulaufsicht organisiert ist. In Nordrhein-Westfalen wird die externe Evaluation durch selbstständige Organisationseinheiten innerhalb der oberen Schulaufsichtsbehörde wahrgenommen. Dort sind die mit der externen Evaluation betrauten Personen mit dem Dezernat 4Q in die Bezirksregierungen eingebunden und können auch bezirksübergreifend eingesetzt werden.84 Im Folgenden werden die Länder beschrieben, in denen die Aufgaben der externen Evaluation explizit als Aufgaben der jeweiligen Einrichtungen schulgesetzlich und untergesetzlich geregelt werden. Zu den Aufgaben der Einrichtungen der externen Evaluation gehört in Baden-Württemberg, Brandenburg, Hessen, Mecklenburg-­Vorpommern, Niedersachsen und Nordrhein-Westfalen die Festlegung der Termine und der Rahmenplanung für die externe Evaluation. Die jeweilige Einrichtung vereinbart mit der Schule den konkreten Ablauf der externen Evaluation und erstellt einen mit der Schule abgestimmten Evaluationsplan bzw. informiert die Schule über das bevorstehende Verfahren.85 Die Informationen sollen in Niedersachsen und Nordrhein-Westfalen drei Monate vor Durchführung erteilt werden.86 In Baden-Württemberg, Bremen, Hamburg, Mecklenburg-Vorpommern und Sachsen ist geregelt, dass die entsprechenden Einrichtungen der externen Evaluation Verfahren und Instrumente für die externe Evaluation entwickeln müssen.87 In Baden-Württemberg ist in diesem Zusammenhang von einer Entwicklung von Evaluationskonzepten die Rede, in Bremen sollen Grundsätze und

84§ 2 Abs. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. Die Instrumentenentwicklung und die Aggregation der Ergebnisse für die Berichtslegung werden hingegen von der Qualitäts- und Unterstützungsagentur (Qua-Lis) übernommen. 85§ 10 Abs. 2 S. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 4 Abs. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 6 Abs. 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 4.1 Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 2 S. 1 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 864.1 Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014, § 3 Abs. 2 S. 1 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 87§ 7 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008, § 3 Abs. 3 S. 2 Nr. 2 BremSchulVwG, Nr. 2 Anlage 1 zu Organisationsverfügung IFBQ v. 11.09.2012, § 6 Abs. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015, § 59a sächs SchulG.

256

A. Kroupa et al.

Maßnahmen für die Evaluation bestimmt werden, in Hamburg Grundlagen, Verfahren und Instrumente, in Mecklenburg-Vorpommern Maßstäbe und Verfahren und in Sachsen Verfahren.88 In den übrigen Ländern wird dazu nichts geregelt. Eine weitere Aufgabe der jeweiligen Einrichtungen ist in Baden-Württemberg, Brandenburg, Bremen, Hessen, Niedersachsen, Nordrhein-Westfalen und Thüringen die Bestimmung von Evaluationsteams für die externe Evaluation.89 In Baden-Württemberg, Brandenburg, Niedersachsen und Nordrhein-Westfalen ist zusätzlich geregelt, dass ein Evaluationsteam aus zwei Personen (BB, NI), mindestens zwei Personen (NW) bzw. zwei bis drei Personen (BW) bestehen soll. In Brandenburg, Hamburg und Nordrhein-Westfalen ist ausdrücklich geregelt, dass die betreffende Einrichtung der externen Evaluation bei der Bewertung der Bildungs- und Erziehungsarbeit der Schulen an Weisungen nicht gebunden ist.90 In Niedersachsen ist geregelt, dass die SchulinspektorInnen keine fach- bzw. dienstaufsichtlichen Befugnisse haben.91 Da die Schulinspektion in Niedersachsen – welche in der Verwaltungsvorschrift über Schulinspektionen in Niedersachsen erwähnt wird92 – nicht die Schulaufsichtsbehörde im Sinne des § 119 NSchG ist, hat sie auch nicht die Aufgaben und Befugnisse, welche der Schulaufsichtsbehörde zustehen, insbesondere kein Weisungsrecht gegenüber den Schulen (Bräth 2006). In einigen Ländern (BW, BB, NI, NW) werden genaue Ausgestaltungen zu den einzusetzenden Teilinstrumenten der externen Evaluation getroffen.93 Beispielsweise umfassen die externen Evaluationen in Niedersachsen „Unterrichtsbeobachtungen, die Einschätzung der Qualität der schulischen Prozesse durch die Schule, Gespräche bzw. Interviews mit der Schulleitung sowie mit Lehrkräften unter Einbeziehung des Schulpersonalrats, Eltern, SchülerInnen sowie ggf. mit anderen an der Schule Beteiligten, […]

88§ 7

Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 3 Abs. 3 S. 2 Nr. 2 BremSchulVwG; Anlage 1 zu Organisationsverfügung IFBQ v. 11.09.2012; § 6 Abs. 1 SchulQualiVO M-V; § 59 Abs. 2 sn SchulG. 89§ 10 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008, § 4 Abs. 1 S. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016, § 13 Abs. 1 S. 1 BremSchulVwG, Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010, § 1 Abs. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007, § 40b Abs. 4 ThürSchulG. 90§  3 Abs. 1 S. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 85 Abs. 3 S. 2 HmbSG; § 86 Abs. 5 S. 2 nrw SchulG. 913.2 Abs. 6 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 92Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 93§ 4 Nr. 2–7 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008, § 3 Abs. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; 3.2 Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007.

7  Bildungsrechtliche Grundlagen datenbasierter …

257

die Einschätzung der Qualität der schulischen Prozesse durch das Inspektionsteam, den Abgleich der Einschätzung der Qualität der schulischen Prozesse mit der Schulleitung, den Dialog über die Einschätzungen zu den Prozessen und zum Unterricht mit den Lehrkräften und dem Schulvorstand, die Übermittlung der Ergebnisse in einem schriftlichen Bericht“94. In Nordrhein-Westfalen ist der Wortlaut dagegen: Insbesondere umfasst sie [die externe Evaluation] 1. eine Analyse von Leistungs- und Entwicklungsdaten sowie weiterer Dokumente der Schule, 2. einen Schulrundgang, zu dem der Schulträger von der Schulleitung einzuladen ist, 3. Unterrichtsbeobachtungen bei mindestens der Hälfte der Lehrkräfte, 4. getrennt durchgeführte Interviews, für die die Vertraulichkeit gewährleistet wird, mit der Schulleitung sowie mit nach Satz 10 bestimmten Lehrkräften, Eltern, SchülerInnen, dem weiteren Personal der Schule sowie gegebenenfalls mit anderen an der Schule Beteiligten, auf dessen Wunsch mit dem Schulträger, bei Berufskollegs auch mit den dualen Ausbildungspartnern, 5. eine zunächst mündliche und dann schriftliche Rückmeldung.95

Die entsprechende Einrichtung wird in Hessen, Niedersachsen und Nordrhein-Westfalen befugt, eine Nachinspektion festzulegen.96 In Hessen97 ist geregelt, dass der Zeitpunkt der Nachinspektion in Abstimmung mit dem staatlichen Schulamt getroffen wird und in Niedersachsen98 entscheidet die Schulinspektion über Umfang und Zeitpunkt der Nachinspektion.99 In Nordrhein-Westfalen soll die Nachanalyse innerhalb eines Jahres durchgeführt werden.100 Der Umgang mit den Ergebnissen aus externen Evaluationen ist in den meisten Ländern ebenfalls geregelt. In Baden-Württemberg, Berlin, Brandenburg, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen und Nordrhein-Westfalen muss die entsprechende Einrichtung die Ergebnisse der externen Evaluation der Schulleitung vorlegen.101 In Brandenburg, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen,

943.2 Abs.

2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 96Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010 4. Abs. 5; Schulinspektionen in Niedersachsen – RdErl. d. MK v. 07.04.2006; § 3 Abs. 6 S. 3 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 97Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010. 983.4 Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 07.04.2006. 99Auch wenn die Verfahren derzeit nicht mehr aktuell sind, wurden die gültigen Regelungen trotzdem berücksichtigt. 100§ 3 Abs. 11 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 101§ 114 Abs. 1 S. 4 bw SchG; § 5 Abs. 2 S. 1 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 129 Abs. 3 S. 2 Bbg SchulG; § 85 Abs. 3 S. 1 HmbSG; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 4 Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 123a Abs. 4 NSchG; § 1 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 95§ 3

258

A. Kroupa et al.

Nordrhein-Westfalen müssen die Ergebnisse auch den Schulaufsichtsbehörden102 und in Brandenburg, Hessen, Niedersachsen und Nordrhein-Westfalen zusätzlich dem Schulträger103 vorgelegt werden. In Baden-Württemberg, Berlin, Brandenburg, Hamburg, Hessen, Niedersachsen, Nordrhein-Westfalen und Mecklenburg-Vorpommern sind die jeweiligen Einrichtungen und Organisationseinheiten verpflichtet, einen schriftlichen Evaluations-/Inspektionsbericht zu erstellen104. In Berlin und Brandenburg ist geregelt, dass der Schulinspektionsbericht in einer Kurzform veröffentlicht werden muss105. In den überwiegenden Ländern sollen externe Evaluationen mit der Zeitangabe „regelmäßig“ erfolgen. In Baden-Württemberg wird ein exakter Zeitraum von fünf Jahren festgelegt, in Brandenburg sollen externe Evaluationen in einem zeitlichen Abstand von zwei bis zehn Jahren stattfinden106. Regelungen zu den Aufgaben der Einrichtungen der externen Evaluation finden sich überwiegend in den entsprechenden Verordnungen und Verwaltungsvorschriften. In Baden-Württemberg, Berlin, Mecklenburg-Vorpommern und Nordrhein-Westfalen existieren spezielle Verordnungen zur externen Evaluation. In Brandenburg, Hessen und Niedersachsen sind spezielle Verwaltungsvorschriften erlassen worden. Abb. 7.4 zeigt die wesentlichen Aufgaben im Überblick.

102§ 129 Abs. 3 S. 2 Bbg SchulG; § 85 Abs. 3 S. 1 HmbSG; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 4 Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 1. Abs. 4 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 1 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 103§ 5. Abs. 3 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 85 Abs. 3 S. 1 HmbSG; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 123a Abs. 4 NSchG; § 1 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 104§ 11 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 5 Abs. 1 S. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 5 Abs. 1 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 85 Abs. 3 HmbSG; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; 4.3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 1 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007; § 4 Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 105§ 5 Abs. 4 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 6 Abs. 2 S. 1, Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016. 106§ 9 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 4 Abs. 5 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016.

Abb. 7.4   Aufgaben der Einrichtungen externer Evaluation in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 259

260

A. Kroupa et al.

7.2.3 Aufgaben der mit der Qualitätssicherung und -entwicklung beauftragten Landesinstitute Im Folgenden werden die Aufgaben der mit der Qualitätssicherung und -entwicklung beauftragten Landesinstitute beschrieben. Der Übersichtlichkeit halber werden zunächst die jeweiligen Institute benannt, welche in den Schulgesetzen und untergesetzlichen Normen mit Aufgaben zur Qualitätssicherung und -entwicklung versehen sind (Abb. 7.5). Diese Institute werden allerdings nicht überall erwähnt. So ist z. B. in den entsprechenden Vorschriften zur Qualitätssicherung des Saarlandes dessen Landesinstitut für Pädagogik und Medien nicht ausdrücklich genannt. Auch das Institut für Schulqualität der Länder Berlin und Brandenburg e. V. (ISQ) wird in Berlin schulgesetzlich und in den untergesetzlichen Normen zumeist nicht explizit benannt, sondern es wird von einem wissenschaftlichen Projektträger gesprochen.107 Da die externe Evaluation in Bayern, Brandenburg, Hamburg, Mecklenburg-­ Vorpommern und Niedersachsen durch Einrichtungen durchgeführt wird, welche teilweise als sogenannte Organisationseinheiten innerhalb der Landesinstitute bezeichnet werden, ist die externe Evaluation ebenfalls eine Aufgabe der Institute. Es sei an dieser Stelle auch auf die vorherigen Ausführungen zu den „Aufgaben der Einrichtungen der externen Evaluation“ verwiesen (Abschn. 7.2.2). Die Aufgaben im Bereich der kontinuierlichen Qualitätssicherung und -entwicklung werden in Baden-Württemberg, Berlin, Brandenburg, Hamburg, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Rheinland-Pfalz, Sachsen-Anhalt und Thüringen durch die Landesinstitute wahrgenommen, die Qualitätssicherung und -entwicklung kann als eine ihrer Aufgaben genannt werden.108 In Brandenburg wird in diesem Kontext von „Maßnahmen zur Feststellung und Sicherung von Schul- und Unterrichtsqualität“ gesprochen.109 In Mecklenburg-Vorpommern ist ausdrücklich festgelegt, dass für die Qualitätsentwicklung von Schulen auch die Evaluationsergebnisse vom Institut für Qualitätsentwicklung verwendet werden.110

107Vgl.

§ 3 Abs. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. Die Aufgaben der Landesinstitute werden in den entsprechenden Satzungen konkretisiert. 108§ 2 Abs. 1 Nr. 3 Gesetz zur Errichtung des Landesinstituts für Schulentwicklung v. 09.12.2004, § 108 bln SchulG, § 134 Bbg SchulG; Nr. 2 Anlage 1 zu Organisationsverfügung IFBQ v. 11.09.2012; § 16 Abs. 1 BremSchulVvG; § 99 Abs. 1 SchulG M-V; Errichtung einer Qualitätsund Unterstützungsagentur – Landesinstitut für Schule (QUA-LiS NRW) – Errichtungserlass des Ministeriums für Schule und Weiterbildung des Landes Nordrhein-Westfalen v. 25.11.2013; Errichtung eines Pädagogischen Landesinstituts Rheinland-Pfalz – Rundschreiben des Ministeriums für Bildung, Wissenschaft, Jugend und Kultur v. 17.06.2010 (942A-51 540/60, 53 831/20 und 51108/20); § 11a SchulG LSA; § 40a ThürSchulG. 109§ 134 Bbg SchulG. 110§ 4 Abs. 5 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015.

7  Bildungsrechtliche Grundlagen datenbasierter …

Abb. 7.5   Landes- und Qualitätsinstitute in den 16 Ländern

261

262

A. Kroupa et al.

Zur Schulprogrammarbeit ist in Hessen geregelt, dass die Schulen in Hessen die Beratung der Hessischen Lehrkräfteakademie und in Berlin bei der Entwicklung der Schulprogramme die Unterstützung des Landesinstituts für Schule und Medien Berlin-Brandenburg in Anspruch nehmen sollen.111 Darüber hinaus zählt zu den Aufgaben der Landesinstitute in einigen Ländern (BB, HB, HE, MV, NW, RP, SH, TH) ausdrücklich die Unterstützung und Beratung der Schulen. In Hessen wirken die Hessische Lehrkräfteakademie und die Schulaufsichtsbehörden zusammen, um die Schulen bei der Qualitätsentwicklung zu beraten und zu unterstützen.112 Hierzu zählt die „Planung, Durchführung und Auswertung landesweiter Vorhaben der Schulentwicklung und die Unterstützung des Kultusministeriums bei der Festlegung und Sicherung von Qualitätsstandards für Schulen, Gewinnung und Auswertung von Befunden der Schul- und Unterrichtsforschung, Berichterstattung zu Entwicklungsständen im Schulwesen, Konzeption von Instrumenten und Verfahren der Qualitätsentwicklung“.113 Das Landesinstitut für Schule hat in Bremen den Auftrag, die Schulen bei ihrer Qualitätsentwicklung zu unterstützen sowie im Auftrag der obersten Schulaufsichtsbehörde inhaltliche Rahmenvorgaben für die Schulen zu entwickeln.114 In ähnlicher Weise ist die Unterstützung der Schulen und der Schulaufsicht durch das ISQ in Brandenburg mit Blick auf die datengestützten Qualitätsgespräche festgelegt.115 In Mecklenburg-Vorpommern sollen die Landesinstitute (auf der Grundlage einer Vereinbarung mit der zuständigen Schulaufsichtsbehörde) Schulen beraten und Schulen mit besonderem Bedarf durch geeignete Angebote unterstützen.116 In Rheinland-Pfalz umfasst die Beratung des Pädagogischen Landesinstituts „sowohl die systembezogene Beratung bei Schulentwicklungsprozessen, bei der Qualitätsentwicklung […] als auch die Beratung einzelner Lehrkräfte“.117 In Schleswig-Holstein und Thüringen ist ebenfalls geregelt, dass zu den Aufgaben der Landesinstitute die Unterstützung von Schulen gehört, die sich in Thüringen auch auf die Koordinierung der Erfassung und Auswertung der im Prozess der Qualitätsentwicklung erhobenen Daten bezieht.118 Im Hinblick auf die Vergleichsarbeiten sind die Landesinstitute (in BY, HH, MV) mit der Organisation und operativen Durchführung der Vergleichsarbeiten betraut und

111§ 127b Abs. 2

S. 2 HSchG; § 8 Abs. 3 bln SchulG. HSchG. 113§ 99 Abs. 2 HSchG. 114§ 16 Abs. 1 BremSchulVwG. 115Anlage 3 zu Nummer 6 VVStSchÄ, Kernaufgabe A, 3. (Phasen und Aktivitäten), Punkt I. 116§ 4 Abs. 7 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 99 Abs. 2 Nr. 4 SchG M-V. 117§ 21 Abs. 2 rp SchulG. 118§ 134 Abs. 1 sh SchulG; § 40a Abs. 1 S. 2 Nr. 1 ThürSchulG. 112§ 99 Abs. 2

7  Bildungsrechtliche Grundlagen datenbasierter …

263

s­ tellen den Schulen die erforderlichen Informationen zur Verfügung.119 In Hessen werden die Vergleichsarbeiten von der Hessischen Lehrkräfteakademie administriert, wobei festgelegt ist, dass die Durchführung der Erhebung, die Korrektur und Ergebnisübermittlung in der Verantwortung der jeweiligen Schule liegt.120 Auch in Brandenburg ist die Durchführung in einem Rundschreiben geregelt.121 In Bremen ist das Landesinstitut bei Durchführung der Vergleichsarbeiten zur Unterstützung der obersten Schulaufsichtsbehörde tätig und in Sachsen-Anhalt werden die Vergleichsarbeiten vom Landesinstitut in Zusammenarbeit mit der Schulaufsichtsbehörde durchgeführt.122 Zur Auswertung der Ergebnisse der Vergleichsarbeiten ist in Berlin und Brandenburg ausdrücklich festgelegt, dass dies durch den wissenschaftlichen Projektträger (Institut für Schulqualität der Länder Berlin und Brandenburg e. V. (ISQ) geschieht.123 Außerdem muss dieser Vergleichsund Referenzwerte der Klasse oder Kurse, der Schule, des Bezirks des Landes und bei länderübergreifenden Arbeiten im Ländervergleich bestimmen. Diese Vergleichs- und Referenzwerte sollen den Schulen und Schulaufsichtsbehörden zur Verfügung gestellt werden.124 Allerdings darf die Schulaufsichtsbehörde in Berlin „die Vergleichs- und Referenzwerte nur zu Zwecken der Qualitätssicherung und Evaluation nach § 9 bln SchulG, nicht jedoch für operative Aufgaben der Schulaufsicht verwenden“.125 Die Festlegung der Fächer und Termine für die Vergleichsarbeiten wird von den Landesinstituten zwar regelmäßig kommuniziert, ist aber nur in Mecklenburg-­ Vorpommern im Rahmen einer Verordnung verbindlich geregelt.126 In Mecklenburg-­ Vorpommern ist in der entsprechenden Verordnung geregelt, dass das Landesinstitut empirische Daten für die Qualitätsentwicklung von Schulen erhebt, speichert, verändert,

119Hinweise zur Durchführung und Auswertung von VERA-3 und Orientierungsarbeiten im Schuljahr 2015/2016 des Bayerischen Staatsministeriums für Bildung und Kultus, Wissenschaft und Kunst v. 21.03.2016, Anlage 1 zu Organisationsverfügung IFBQ v. 11.09.2012; § 4 Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 120Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8 v. 01.08.2015. 121http://bravors.brandenburg.de/verwaltungsvorschriften/rs_7_18, Punkt 1 a. Zugegriffen: 15. Mai 2018. 122Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013; § 11a Abs. 2 S. 2 SchulG LSA. 123§ 3 Abs. 6 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 2 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017. 124§ 3 Abs. 6 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011, § 3 Abs. 2 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017. 125§ 3 Abs. 6 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. 126§ 8

Abs. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015.

264

A. Kroupa et al.

anonymisiert und pseudonymisiert und diese Daten an die Schulen und Schulaufsichtsbehörden übermittelt.127 Die externe Evaluation wird in einigen Ländern als eine Aufgabe der Landesinstitute festgelegt. In Bayern, Brandenburg, Hamburg, Mecklenburg-Vorpommern und Niedersachsen sind Abteilungen/Organisationseinheiten innerhalb der Landesinstitute für die Durchführung der externen Evaluationen an den Schulen verantwortlich.128 In Baden-Württemberg, Hessen, Rheinland-Pfalz, Sachsen, Sachsen-Anhalt und Schleswig-Holstein (EVIT) waren das Landesinstitut bzw. eine Abteilung im Institut mit der Konzeption, Durchführung und Evaluation der Schulinspektion betraut.129 In Mecklenburg-Vorpommern ist ausdrücklich festgelegt, dass die externe Evaluation „auf der Grundlage der vom Institut für Qualitätsentwicklung festgelegten Maßstäbe und Verfahren stattfindet“130 und das Landesinstitut die Termine und Schulen festlegt, die an der externen Evaluation beteiligt werden sollen.131 In Brandenburg heißt es wörtlich: „Die Schulvisitation untersucht mit transparenten, deutlich standardisierten und strukturierten Methoden und Instrumenten eine Schule als Gesamtsystem und nicht die Tätigkeit einzelner Lehrkräfte“.132 Die Landesinstitute in Baden-Württemberg, Brandenburg, Mecklenburg-­Vorpommern und Niedersachsen halten die Ergebnisse der externen Evaluation in einem schriftlichen Evaluationsbericht fest und übersenden ihn der Schulleitung bzw. der ­Schulaufsichtsbehörde.133 In Brandenburg ist geregelt, dass eine Zusammenfassung der

127§ 4

Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 128Art. 113c Abs. 2 S. 1 BayEUG; § 3 Abs. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016, Anlage 1 zu Organisationsverfügung IFBQ v. 11.09.2012; § 99 Abs. 2 Nr. 6 SchulG M-V, 1. Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 129Landesinstitut für Schulentwicklung (BW) vgl. § 114 Abs. 1 S. 2 bw SchG; Institut für Qualitätsentwicklung vgl. Zweite Inspektion hessischer Schulen – Erlass v. 20.8.2010; Aufsichts- und Dienstleistungsdirektion Rheinland-Pfalz; Sächsisches Bildungsinstitut; Landesinstitut für Schulqualität und Lehrerbildung Sachsen- Anhalt vgl. § 11a Abs. 2 S. 1 SchulG LSA; Institut für Qualitätsentwicklung an Schulen Schleswig-Holstein (IQSH). 130§ 6 Abs. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 131§ 6 Abs. 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 132§  3 Abs. 2 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016. 133§ 11 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 5 Abs. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 4 Abs. 4 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 1. Abs. 4 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014.

7  Bildungsrechtliche Grundlagen datenbasierter …

265

wesentlichen Ergebnisse der externen Evaluation (Kurzbericht) veröffentlicht werden soll.134 Die interne Evaluation stellt allein in Sachsen-Anhalt eine weitere Aufgabe des Landesinstituts dar.135 In Mecklenburg-Vorpommern stellt das Landesinstitut für die interne Evaluation die Instrumente zur Verfügung, welche von der Schule zu nutzen sind136. Außerdem werden Ergebnisse der internen Evaluationen im Landesinstitut unter Berücksichtigung der datenschutzrechtlichen Regelungen zentral erhoben, gespeichert, verändert, anonymisiert und gegebenenfalls pseudonymisiert und für Auswertungen herangezogen.137 Die Berliner Evaluationsverordnung regelt in ähnlicher Weise, dass die Evaluation von Lehrkräften (Selbstevaluation) „unter Nutzung eines automatisierten Datenverarbeitungssystems nach Vorgaben der Schulaufsichtsbehörde“ erfolgt. Die „Bereitstellung einer technischen Infrastruktur zur Durchführung und automatisierten Auswertung der Ergebnisse der Evaluationsmaßnahmen“ wird durch den wissenschaftlichen Projektträger umgesetzt, der dazu von der Behörde beauftragt wird.138 In vier Ländern (HH, NW, RP, TH) bestehen – häufig auf Erlassebene – Regelungen zum Abschluss von Ziel- bzw. Ziel- und Leistungsvereinbarungen zwischen der Schulaufsichtsbehörde und dem jeweiligen Landesinstitut. Für das Hamburger IfBQ sind diese mit der Behörde für Schule und Berufsbildung zu schließen, in Nordrhein-Westfalen und in Rheinland-Pfalz mit dem Ministerium. In Thüringen ist schulgesetzlich festgeschrieben, dass die oberste Schulaufsichtsbehörde mit dem Institut für Lehrerfortbildung, Lehrplanentwicklung und Medien (Thillm) Ziel- und Leistungsvereinbarungen zur Umsetzung der übertragenen Aufgaben schließt.139 Regelungen zu den Aufgaben der Landesinstitute finden sich überwiegend in den Schulgesetzen. Spezielle Aufgaben zu den Vergleichsarbeiten, externen und internen Evaluationen sind dagegen vorwiegend in den entsprechenden Verordnungen und Verwaltungsvorschriften zu finden. Alle Fundstellen zu den Aufgaben der Landesinstitute sind in Abb. 7.6 dargestellt.

134§  6 Abs. 2 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016. 135§ 82 Abs. 3 SchulG LSA. 136§ 5 Abs. 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 137§ 11 Abs. 6 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 138EvalV BE v. 16.12.2011, § 6 Abs. 2. 1393 Anlage 1 zur Organisationsverfügung IfBQ v. 11.09.2012; Errichtungserlass des Ministeriums für Schule und Weiterbildung des Landes Nordrhein-Westfalen v. 25.11.2013; Errichtung eines pädagogischen Landesinstituts Rheinland-Pfalz – Rundschreiben des Ministeriums für Bildung, Wissenschaft, Jugend und Kultur v. 17.06.2010; § 40a Abs. 1 S. 3 ThürSchulG.

Abb. 7.6   Aufgaben der Landes- und Qualitätsinstitute in den 16 Ländern

266 A. Kroupa et al.

267

Abb. 7.6   (Fortsetzung)

7  Bildungsrechtliche Grundlagen datenbasierter …

268

A. Kroupa et al.

7.2.4 Aufgaben der Schulleitung Die SchulleiterInnen sind in besonderem Maße für die Qualität von Schule verantwortlich. Von großer Bedeutung ist ihre Kooperation und Kommunikation mit allen an der Schule Beteiligten. Hinweise auf die grundsätzliche Funktion von Schulleitung lassen sich allen Schulgesetzen entnehmen. Der Schulleitung obliegt in der Regel die Verantwortung für die Erziehungs- und Bildungsarbeit an der Schule, für die sachgerechte Umsetzung von Rechts- und Verwaltungsvorschriften und Konferenzbeschlüssen sowie die innere und äußere Ordnung des Schulalltags. Formulierungen sind beispielsweise: „[Der Schulleiter oder die Schulleiterin] trägt die Gesamtverantwortung für die Arbeit der Schule“140 oder „Die Schulleiterin oder der Schulleiter leitet die Schule […] und ist verantwortlich für die ordnungsgemäße Durchführung der Unterrichts –, Erziehungs- und Verwaltungsarbeit“.141 Insbesondere zählen zu ihren Aufgaben die ­Fortentwicklung der Qualität schulischer Arbeit, die Arbeit am Schulprogramm, der Abschluss von Ziel- und Leistungsvereinbarungen mit der zuständigen Schulaufsichtsbehörde, die interne Evaluation und die Mitwirkung an der externen Evaluation. Hierzu müssen sie Entscheidungen verantwortungsvoll treffen, Prozesse initiieren und Problemlösungen aufzeigen. Die Schulleitung ist verantwortlich gegenüber den entsprechenden Schulaufsichtsbehörden, dem Schulträger, dem Kollegium und gegenüber den Eltern und SchülerInnen. Häufig finden sich in den Schulgesetzen und untergesetzlichen Normen Formulierungen wie „Die Schulen […] verfolgen das Ziel, die Qualität schulischer Arbeit zu sichern und zu verbessern“;142 da die Schulleiterin oder der Schulleiter aber die Schule nach außen vertritt143, sind sie in besonderem Maße für die angesprochene Zielverfolgung verantwortlich. Zu den Aufgaben der Schulleiterinnen und Schulleiter gehört insbesondere die Fortentwicklung der Qualität schulischer Arbeit. In fast allen Ländern finden sich hierzu auf schulgesetzlicher Ebene144 – in Baden-Württemberg auf Verordnungs-Ebene145 – ­Regelungen. Im überwiegenden Teil der Länder wird die Qualitätssicherung und -entwicklung ausdrücklich in das Aufgabenspektrum der Schulleitung gestellt, teilweise

140§ 69 Abs. 1

S. 2 Nr. 1 bln SchulG. S. 1 HmbSG. 142Art. 113c Abs. 1 S. 1 BayEUG. 143Vgl. Art. 57 Abs. 3 BayEUG. 144Art. 2 Abs. 4 S. 2 BayEUG; § 69 Abs. 2 S. 1 Nr. 2 bln SchulG; § 70 Abs. 1 Bbg SchulG; § 3 Abs. 1 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 63 Abs. 1 S. 3 BremSchulVwG; § 98 Abs. 2 S. 1 HSchG; § 101 Abs. 4 S. 2 Nr. 1 SchulG M-V; § 43 Abs. 1 NSchG; § 59 Abs. 2 S. 1 Nr. 3 nrw SchulG; § 26 Abs. 1 S. 1 rp 145§ 3 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008. 141§ 89 Abs. 1

7  Bildungsrechtliche Grundlagen datenbasierter …

269

wird von den Schulen allgemein gesprochen. Im Saarland und in Thüringen haben ­Formulierungen, wie: „Die Schulen sind zur stetigen Entwicklung und Sicherung der Qualität ihrer Bildungs- und Erziehungsarbeit verpflichtet“146 bzw. „[die Schule ist] zu einer kontinuierlichen Qualitätsentwicklung und Qualitätssicherung verpflichtet“147, eine allgemeine Gültigkeit für die Akteure der Schule. In Hamburg ist nur geregelt, dass für SchülerInnen eine Teilnahmepflicht an „Testverfahren und Unterrichtsbeobachtungen“ besteht148, hierdurch wird jedoch auch die Schulleitung indirekt zur Durchführung dieser qualitätssichernden Maßnahmen verpflichtet.

7.2.4.1 Schulprogramme Grundlage der Qualitätsentwicklung ist insbesondere die Arbeit am Schulprogramm (in Baden-Württemberg Qualitätsdokumentation, in Rheinland-Pfalz Qualitätsprogramm), da Schulprogramme ein zentrales Werkzeug der Schulentwicklung darstellen. Dabei sollen Schulprogramme auf den gesellschaftlichen Wandel reagieren und den im Rahmen der erweiterten Selbstständigkeit und Eigenverantwortung entstandenen Freiraum nutzen. Da einige Schulen ihr Schulprogramm den Schulaufsichtsbehörden oder der Öffentlichkeit zugänglich machen müssen, wird so die Vielfalt im Umgang mit dem gesetzlichen Auftrag von Schule sichtbar und diskutierbar (van Buer und Wagner 2014). Im Schulprogramm sollen typischerweise das Leitbild der Schule sowie die Ziele ihrer pädagogischen Arbeit konkretisiert und die für das Schulleben maßgeblichen Regeln und Schwerpunkte der Qualitätssicherung und -entwicklung festgesetzt werden. Es soll als Orientierungshilfe im Schulentwicklungsprozess dienen und verbindlichen Charakter für die Lehrenden und SchülerInnen entfalten. Der Beratungs- und Fortbildungsbedarf der Schule insgesamt sowie die erforderlichen Maßnahmen zur Organisationsentwicklung und zur Personalentwicklung sollen ebenfalls festgelegt werden. Hinsichtlich der Verpflichtung für die Schulen, ein Schulprogramm vorzulegen und hinsichtlich der Verbindlichkeit dieser Programme für die schulinterne Arbeit gibt es in den Ländern Unterschiede. In den meisten Ländern wird das Schulprogramm als Instrument schulischer Qualitätssicherung und -entwicklung angesprochen. In Baden-Württemberg, Rheinland-Pfalz und Schleswig-Holstein wird das Schulprogramm auf Verordnungsebene, im Saarland und in Thüringen weder auf schulgesetzlicher noch untergesetzlicher Ebene erwähnt.

146§ 1 Abs. 4

S. 1 SchoG. SchulG; § 42 Abs. 1 S. 6 Sächs SchulG; § 11a Abs. 1 S. 3 Nr. 1 SchulG LSA; § 33 Abs. 2 S. 3 sh SchulG. 147§ 40b Abs. 1 S. 2 ThürSchulG. 148§ 100 Abs. 3 S. 1 HmbSG.

270

A. Kroupa et al.

In einigen Ländern (Brandenburg, Berlin, Hessen, Hamburg, Mecklenburg, Rheinland-Pfalz, Sachsen-Anhalt) ist die Schulleitung für die Entwicklung, Fortschreibung, Umsetzung und Evaluation der Schulprogramme ausdrücklich verantwortlich.149 In den anderen Ländern wird der Zuständigkeitsbereich nicht ausdrücklich der Schulleitung zugeschrieben (Baden-Württemberg, Bayern, Bremen, Niedersachsen, Nordrhein-Westfalen, Sachsen).150 Die Schulgesetze und untergesetzlichen Normen vom Saarland und Thüringen enthalten keine Regelungen über das Instrument der Schulprogramme. Während das Schulprogramm in den meisten Vorschriften mit der Zeitangabe „regelmäßig“ fortzuschreiben ist, ist in Mecklenburg-Vorpommern ein exakter Zeitpunkt von drei Jahren festgelegt.151 In Bremen wird mit einer nur kurzen Benennung des Schulprogramms die Schule aufgefordert, mittels eines solchen das zu entwickelnde einzelschulische Profil zu gestalten und fortzuschreiben.152 Auch in Schleswig-Holstein wird das Schulprogramm nur kurz erwähnt.153 Hingegen werden in anderen Ländern (BE, BB, BW, HH, HE, MV, NI, NW, ST) die notwendig im Schulprogramm anzusprechenden Punkte detaillierter im Schulgesetz und den entsprechenden Verwaltungsvorschriften ausgestaltet.154 In Berlin wird beispielsweise im Abschnitt zur Selbstgestaltung, Eigenverantwortung, Qualitätssicherung das Instrument des Schulprogramms in seiner inhaltlichen Mindeststruktur mittels neun Punkten beschrieben.155 Im anschließenden Absatz

1491.2

Leitfaden Aufgaben des pädagogischen Personals an Schulen in öffentlicher Trägerschaft im Land Brandenburg; § 69 Abs. 2 S. 1 Nr. 2 bln SchulG; § 89 Abs. 3 S. 2 HmbSG; § 88 Abs. 2 S. 2 Nr. 1 HSchG; § 101 Abs. 4 S. 2 Nr. 1 SchulG M-V; Allgemeines Stellen- und Anforderungsprofil für die Schulleiterin und den Schulleiter; Abschnitt 4 Nr. 6 S. 1 Stärkung der Stellung der Schulleiterinnen und Schulleiter – RdErl. des MK v. 03.03.2010. 150§ 5 Abs. 5 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); Art. 2 Abs. 4 S. 4 BayEUG; § 7 Abs. 2 S. 1 Bbg SchulG; § 9 Abs. 1 S. 2 Nr. 1 BremSchulG; § 32 Abs. 2 S. 1 NSchG; § 3 Abs. 2 nw SchulG; § 3a Abs. 1 S. 3 sächs SchulG. 151§ 3 Abs. 3 S. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 152§ 9 Abs. 1 S. 2 Nr. 1 BremSchulG. 153§ 3 Abs. 1 sh SchulG. 154§ 8 Abs. 2 bln SchulG; 2.1 Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009; § 5 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 51 Abs. 1 S. 3 HmbSG, § 127b HSchG, § 39a Abs. 2 SchulG M-V, § 32 Abs. 2 NSchG, Schulprogrammarbeit – RdErl. v. 16.09.2005, § 24 Abs. 4 SchulG LSA. In Berlin gibt es spezielle Erläuterungen in der AV Schulprogramm, in Brandenburg sind im Rundschreiben zur Fortschreibung und Evaluation von Schulprogrammen an Schulen (Rundschreiben 8/09) und in Nordrhein-Westfalen im Runderlass zur Schulprogrammarbeit (RdErl. v. 16.09.2005) Regelungen enthalten. 155§ 8 bln SchulG.

7  Bildungsrechtliche Grundlagen datenbasierter …

271

erfolgt die gesetzliche Aufforderung, bei der Entwicklung die Unterstützung des Berliner Landesinstituts für Schule und Medien in Anspruch zu nehmen. Evaluationsergebnisse sollen in Baden-Württemberg, Berlin, Brandenburg, Hessen, Mecklenburg-Vorpommern und Sachsen-Anhalt im Schulprogramm berücksichtigt werden.156 Eine Verpflichtung zur Evaluation der Schulprogramme existiert mit Ausnahme von Bremen und Saarland in allen Ländern157. In Berlin, Bremen, Niedersachsen und Schleswig-Holstein ist die Schulleitung verpflichtet, jährlich einen Rechenschaftsbericht über die Realisierung des Schulprogramms gegenüber der Schulkonferenz abzulegen158. Die Schulleitung bzw. die Schule soll in Brandenburg, Berlin, Mecklenburg-Vorpommern und Sachsen-Anhalt auch über den Stand der Umsetzung des Schulprogramms und dessen Fortschreibung gegenüber der zuständigen Schulaufsichtsbehörde berichten, in Mecklenburg-Vorpommern und Saarland (auch) dem Schulträger.159 Außerdem finden sich schulgesetzliche Regelungen zur Veröffentlichung der Schulprogramme in Sachsen und Schleswig-Holstein160, in Berlin und Brandenburg sollen die Schulprogramme gegenüber der Schulöffentlichkeit und Interessierten zugänglich gemacht werden.161

156§ 5 Abs. 5 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 8 Abs. 5 S. 2 und § 2 Abs. 2 S. 2 Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008; 1.3 Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009, Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 2 Abs. 2 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 24 Abs. 4 S. 7 SchulG LSA. 1572.2 AV Schulprogramm; §  8 Abs. 5 bln SchulG; § 5 Abs. 1 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); Art. 2 Abs. 4 S. 4 BayEUG; § 127b Abs. 2 S. 3 HSchG; § 51 Abs. 3 HmbSG; § 3 Abs. 3 SchQualiVO M-V; § 32 Abs. 3 NSchG; RdErl. Schulprogrammarbeit (ABl. NRW S. 377). 158§ 69 Abs. 2 Nr. 2 bln SchulG; § 23 Lehrerdienstordnung v. 02.08.2005 (HB); § 38a Abs. 2 NSchG; § 33 Abs. 5 sh SchulG. 159Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009; 3 Abs. 3 AV Schulprogramm; § 39a Abs. 2 S. 8 SchulG M-V; Erlaß über die Durchführung eines Pädagogischen Tages an Schulen v. 3. Mai 1988 (GMBl. Saar S. 161); § 24 Abs. 4 S. 9 SchulG LSA. 160§ 3a Abs. 4 sächs SchulG; Runderlaß Erstellung von Schulprogrammen v. 25.03.1999 (NBl. MBWFK. Schl.-H. 1999, S. 111). 161§ 2 Abs. 3 Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008; 1.5 RS 8/09 Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg.

272

A. Kroupa et al.

7.2.4.2 Interne Evaluation Da die interne Evaluation mit dem Schulprogramm unmittelbar verknüpft ist, dienen Schulprogramme als Arbeitsgrundlage für eine systematische Schulentwicklung und für die kontinuierliche Überprüfung des Erreichten. In regelmäßigen Abständen sollen der Erfolg der pädagogischen Arbeit überprüft und erforderliche Verbesserungsmaßnahmen durchgeführt werden.162 Die Verantwortung für die interne Evaluation163 obliegt in Berlin, Brandenburg, Bremen, Hessen, Mecklenburg-Vorpommern, Rheinland-Pfalz und Sachsen-Anhalt der Schulleitung164, in den anderen Ländern wird die Schule allgemein benannt. Bei der Durchführung der internen Evaluation können sich die Schulen durch sachkundige Dritte unterstützen lassen.165 In Nordrhein-Westfalen ist die Fachkonferenz für die schulinterne Qualitätssicherung und -entwicklung zuständig und berät über Ziele, Arbeitspläne, Evaluationsmaßnahmen und -ergebnisse.166 In einigen Ländern taucht der Begriff der internen Evaluation in den schulgesetzlichen und untergesetzlichen Regelungen nicht wörtlich auf. So wird die interne Evaluation in Baden-Württemberg Selbstevaluation genannt, in Niedersachsen sollen „die Schule[n] […] den Erfolg ihrer Arbeit [überprüfen und bewerten]“ und diesbezüglich Verbesserungsmaßnahmen planen, über die Grundsätze für diese jährliche Überprüfung der Arbeit der Schule entscheidet die Schulkonferenz (Schulvorstand).167 Im Saarland und in Schleswig-Holstein finden sich keine speziellen Regelungen über die Verpflichtung der Schulleitung zur internen Evaluation. Im Saarland ist nur geregelt, dass die Schulen „zur stetigen Entwicklung und Sicherung der Qualität ihrer Bildungs- und Erziehungsarbeit verpflichtet“168 sind und in Schleswig-Holstein gehört zu den Aufgaben der Schulleitung insbesondere die „Fortentwicklung der Qualität schulischer Arbeit“169, sodass unter beide Regelungen die interne Evaluation subsumiert werden kann. Bei der internen Evaluation werden alle am Schulleben Beteiligten, insbesondere SchülerInnen und Eltern mit einbezogen.170 Während in den meisten Ländern nur allgemein festgelegt ist, dass die interne Evaluation in einem

162Vgl.

§ 3a Abs. 2 sächs SchulG; § 3 Abs. 2 S. 2 nrw SchulG. Baden-Württemberg wird die interne Evaluation Selbstevaluation genannt. 164§ 9 Abs. 2 S. 5 bln SchulG; 1.2 Leitfaden Aufgaben des pädagogischen Personals an Schulen in öffentlicher Trägerschaft im Land Brandenburg; § 88 Abs. 2 S. 2 Nr. 1 HSchG; § 101 Abs. 4 S. 2 Nr. 1 SchulG M-V; Allgemeines Stellen- und Anforderungsprofil für die Schulleiterin und den Schulleiter; Abschnitt 4 Nr. 6 Stärkung der Stellung der Schulleiterinnen und Schulleiter – RdErl. des MK v. 03.03.2010. 165§ 9 Abs. 2 S. 5 bln SchulG; § 7 Abs. 2 BbgSchulG; § 114 Abs. 1 bw SchG; § 98 Abs. 4 HSchG; § 100 Abs. 2 S. 2 HmgSG; § 11a Abs. 1 S. 3 Nr. 4 SchulG LSA. 166§ 70 Abs. 3 nrw SchulG. 167§ 32 Abs. 3 NSchG; § 38a Abs. 3 Nr. 15d NSchG. 168§ 1 Abs. 4 S. 1 SchoG. 169§ 33 Abs. 2 S. 3 sh SchulG. 170Vgl. § 6 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008. 163In

7  Bildungsrechtliche Grundlagen datenbasierter …

273

regelmäßigen Turnus durchzuführen ist, wird in Berlin, Brandenburg und MecklenburgVorpommern ein konkreter dreijähriger Turnus festgelegt171, in Hessen und Niedersachsen sogar ein jährlicher Turnus.172 Aufgrund eines mehrere Jahre fortdauernden Entwicklungsprozesses, können bei der jährlichen Überprüfung und Bewertung nur Teilaspekte evaluiert werden.173 Baden-Württemberg, Hessen und Mecklenburg-Vorpommern regeln ausdrücklich, dass Ergebnisse von zentralen Leistungsfeststellungsverfahren bei der internen Evaluation einzubeziehen sind.174 Mecklenburg-Vorpommern regelt, dass Ergebnisse der Vergleichsarbeiten sowie der externen und internen Evaluation eine Grundlage für die Bewertung schulspezifischer Entwicklungsprozesse bilden.175 In Hamburg unterrichtet die Schulleitung die Schulkonferenz über die Ergebnisse der Evaluationen, in Thüringen muss die Schulleitung die Schulkonferenz über die Ergebnisse der internen Evaluation unterrichten.176 In Berlin muss die Schulleitung der Schulkonferenz und der Schulaufsichtsbehörde nach Abschluss der internen Evaluation einen schriftlichen Evaluationsbericht vorlegen.177 Zusätzlich ist genau geregelt, wie der Evaluationsbericht ausgestaltet sein soll. So soll der Evaluationsbericht „a) Angaben zu den Methoden, Instrumenten und Ergebnissen der internen Evaluation, b) Darstellung und Auswertung der schulbezogenen Statistiken, vor allem über die Schülerzahlentwicklung, Abgänger, Wiederholer, Überspringer und Abschlüsse, c) Darstellung und Auswertung der Ergebnisse von Prüfungen, schul- und schulartübergreifenden Schulleistungsvergleichen, Schulleistungstests, Orientierungs- und Parallelarbeiten, Lernausgangslagenuntersuchungen u.ä., d) Analyse der Evaluationsergebnisse und Darstellung der Konsequenzen für die Fortschreibung des Schulprogramms“ enthalten.178 Neue Entwicklungsziele, die auf Basis der Ergebnisse der internen Evaluation formuliert werden, sollen den Kreislauf der Schulprogrammentwicklung schließen. Regelungen zur Durchführung der internen Evaluation sind fast überall auf schulgesetzlicher Ebene zu finden, nur in Baden-Württemberg und Mecklenburg-Vorpommern auch in den entsprechenden Verordnungen.

171§ 8 Abs. 5 S. 1 bln SchulG; § 6 Abs. 1 S. 1 Verwaltungsvorschriften über Ganztagsangebote an allgemeinbildenden Schulen (VV-Ganztag) v. 21.04.2011; § 5 Abs. 1 S. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 172§ 127d Abs. Abs. 11 HSchG; § 32 Abs. 3 S. 1 NSchG. 173https://www.mk.niedersachsen.de/startseite/schule/schulqualitaet/interne_evaluation/interne-evaluation-128039.html. Zugegriffen: 11. Dezember 2018. 174§ 5 Abs. 4 S. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8 (LSE 3/8Erl, HE) v. 01.08.2015; § 5 SchQualiVO M-V, Abs. 2. 175§ 4 Abs. 1 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015. 176§ 53 Abs. 4 HambSG; § 40b Abs. 2  S. 4 ThürSchulG. 177§ 9 Abs. 2 S. 6 bln SchulG. 178§ 3 Abs. 2 Ausführungsvorschriften zur Erstellung der Schulprogramme und zur internen Evaluation (AV Schulprogramm) v. 11.06.2008.

274

A. Kroupa et al.

7.2.4.3 Ziel- bzw. Ziel- und Leistungsvereinbarungen Ziel- bzw. Ziel- und Leistungsvereinbarungen, welche die Schulleitung mit der zuständigen Schulaufsichtsbehörde und dem an der Schule tätigen Personal abschließt, stellen eine Aufgabe der Schulleitung dar. In vier Ländern wird die Verpflichtung zum Abschluss von Zielvereinbarungen (BB, MV, NW) bzw. von Ziel- und Leistungsvereinbarungen (HH) mit der zuständigen Schulaufsichtsbehörde ausdrücklich in den Zuständigkeitsbereich der Schulleitungen gestellt.179 In sieben Ländern (BW, BY, HB, HE, NI, RP, TH) wird diese Aufgabe nicht ausdrücklich der Schulleitung zugeschrieben.180 Während in Bremen und Hamburg von Ziel- und Leistungsvereinbarungen gesprochen wird, ist in Baden-Württemberg, Bayern, Hessen, Rheinland-Pfalz und Thüringen ausschließlich von Zielvereinbarungen und in Niedersachsen sogar nur von „Absprachen über Entwicklungsziele“ die Rede. Keine Regelungen finden sich in Berlin, Saarland, Sachsen, Sachsen-Anhalt und Schleswig-Holstein. Im überwiegenden Teil der Länder sind Regelungen hierzu in den Schulgesetzen festgelegt. Baden-Württemberg und Nordrhein-Westfalen regeln dieses nur in den Verordnungen, Brandenburg und Niedersachsen nur in ihren Verwaltungsvorschriften. In der nordrhein-westfälischen Qualitätsanalyse-Verordnung ist ergänzend geregelt, dass die Schulleitung nach Abschluss der externen Evaluation verpflichtet wird, Zielvereinbarungen mit der Schulaufsichtsbehörde zu schließen und über die Ergebnisse der Umsetzung im Rahmen eines sogenannten Controllings zu berichten.181 7.2.4.4 Externe Evaluation Da die Steuerung und Koordination der externen Evaluation182 in den Zuständigkeitsbereich der Schulaufsichtsbehörden fällt (vgl. Abschn. 7.2.1), sind die Schulleitungen auch in fast allen Ländern zur Ermöglichung der Durchführung und Mitwirkung

179Anlage

3 zu Nr. 6 Verwaltungsvorschriften über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter (Verwaltungsvorschriften Staatliche Schulämter – VVStSchÄ) v. 07.03.2016; § 89 Abs. 1 S. 4 HmbSG; § 39a Abs. 2 S. 9 SchulG M-V; § 3 Abs. 10 S. 7 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007, § 12. 180§ 5 Abs. 1 S. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; Art. 113c Abs. 4 S. 1 BayEUG; § 12 Abs. 2 S. 1 BremSchulVwG; § 127b Abs. 3 HSchG; 5. Abs. 3 S. 1 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 23 Abs. 2 S. 3 rp SchulG; § 40b Abs. 3 S. 2 ThürSchulG. 181§ 3 Abs. 10 S. 6 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 182Die externe Evaluation ist derzeit ausgesetzt in Baden-Württemberg, Bremen, Hessen, Rheinland-Pfalz, Sachsen, Sachsen-Anhalt und Thüringen (vgl. Kap. 5).

7  Bildungsrechtliche Grundlagen datenbasierter …

275

v­ erpflichtet.183 In wenigen Ländern (HH, SL, SH) wird diese Mitwirkungsverpflichtung über die Schulpflicht der SchülerInnen geregelt184, woraus abgeleitet werden kann, dass die gesamte Schule einschließlich der Schulleitung zur Mitwirkung verpflichtet ist. In Hessen, Niedersachsen und Schleswig-Holstein kann die Schulleitung bzw. die Schule die Durchführung einer Schulinspektion beantragen.185 Teilweise sind die Schulen verpflichtet, zur Vorbereitung der externen Evaluation auf Anforderung die Ergebnisse und Folgerungen der internen Evaluation (an das Landesinstitut bzw. an die zuständige Schulaufsichtsbehörde) zu übersenden (BW, BB, MV, NI, NW).186 Nach Abschluss der externen Evaluation hat die Schulleitung in Baden-Württemberg, Brandenburg, Hessen und Nordrhein-Westfalen die Möglichkeit eine Stellungnahme zum Entwurf des Inspektionsberichts abzugeben.187 In Baden-Württemberg, Berlin und Brandenburg erhält die zuständige Schulaufsichtsbehörde den schriftlichen Evaluationsbericht der externen Evaluation durch die Schulleitung (in Brandenburg durch die Leitung der Schulvisitation).188 Der Schulinspektionsbericht wird durch die Schulleitung in den schulischen Gremien vorgestellt bzw. in der Schulkonferenz vorgestellt (BW, BE, BB,

183§ 1 Abs. 4 S. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; Art. 113c Abs. 1 BayEUG; § 9 Abs. 1 bln SchulG; § 7 Abs. 2 S. 3 Bbg SchulG; § 13 Abs. 1 BremSchulVwG; § 98 Abs. 5 S. 1 HSchG; § 39a Abs. 5 SchulG M-V; 3.1 Abs. 2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 1 S. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-­ Verordnung – QA-VO) v. 27.04.2007; § 23 Abs. 2 S. 2 rp SchulG; § 3a Abs. 2 S. 2 sächs SchulG; § 11a Abs. 1 S. 1 u. S. 3 Nr. 3 SchulG LSA; § 40b Abs. 3 S. 1 ThürSchulG. 184§ 100 Abs. 3 S. 1 HmbSG; § 20e Abs. 1 S. 1 SchoG; § 11 Abs. 2 S. 3 sh SchulG. 1853.1 Abs. 3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. Bei dieser Regelung handelt es sich um ein bereits nicht mehr geltendes Verfahren der externen Evaluation, allerdings ist der Erlass gegenwärtig gültig und wurde daher mitberücksichtigt. Auch in Hessen und Schleswig-Holstein sehen die Verfahren einen Abruf durch die Schulen vor (vgl. Kap. 5). 186§ 114 Abs. 1 S. 2 bw SchG; § 3 Abs. 3 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 4 Abs. 2 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 2.2 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 6 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 187§ 11 Abs. 2 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 5 Abs. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 3 Abs. 8 S. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 188§ 11 Abs. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 9 Abs. 2 S. 6 bln SchulG, § 5 Abs. 3 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016.

276

A. Kroupa et al.

HH, NI, NW).189 In Niedersachsen und Nordrhein-Westfalen ist zusätzlich eine Frist von einer Woche für die Vorlage des Berichts gegenüber der Schulkonferenz vorgesehen.190 In Berlin, Brandenburg, Hessen und Nordrhein-Westfalen darf die Schule ihren jeweiligen Schulinspektionsbericht veröffentlichen; in Hessen wird die Schulleitung ermächtigt, über die Veröffentlichung zu entscheiden; in Berlin, Brandenburg und Nordrhein-Westfalen trifft die Schulkonferenz die Entscheidung im Einvernehmen mit der Schulleitung.191 Regelungen zur Mitwirkung an der externen Evaluation durch die Schulleitung sind fast überall in den Schulgesetzen zu finden. In Baden-Württemberg und Nordrhein-Westfalen sind solche nur in den Verordnungen und in Niedersachsen in den Verwaltungsvorschriften erfasst. Abb. 7.7 zeigt die Regelungen für die Schulleitungen im Gesamtüberblick.

7.2.5 Aufgaben der Lehrkräfte Die Aufgaben der LehrerInnen zur Qualitätssicherung und -entwicklung lassen sich in vier Kategorien gliedern: Die allgemeine Mitwirkung an Maßnahmen der Qualitätssicherung und -entwicklung, die Mitwirkung an der Erstellung der Schulprogramme, die Verpflichtung zur Beteiligung an Evaluationen und die Verpflichtung zur Teilnahme an den Vergleichsarbeiten. Hierbei darf nicht unerwähnt bleiben, dass die LehrerInnen zu weiteren Aufgaben verpflichtet werden, indem die Schule als solche in den Vorschriften verpflichtet wird. Im Folgenden werden dennoch nur die Vorschriften berücksichtigt, in denen ausdrücklich auf die Aufgaben der Lehrkräfte im Qualitätsprozess hingewiesen wird.

189§ 11 Abs. 3 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 5 Abs. 2 S. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 5 Abs. 4 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 53 Abs. 4 S. 1 HmbSG; 4.3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 8 S. 5 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 1904.3 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 8 S. 5 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 191§ 5 Abs. 3 S. 1 und S. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 6 Abs. 1 S. 1 und S. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; Zweite Inspektion hessischer Schulen – Erlass v. 20.08.2010; § 3 Abs. 9 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007.

Abb. 7.7   Aufgaben der Schulleitungen in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 277

Abb. 7.7   (Fortsetzung)

278 A. Kroupa et al.

7  Bildungsrechtliche Grundlagen datenbasierter …

279

Neben der Schulleitung sind in einem Großteil der Länder auch die LehrerInnen ausdrücklich für Qualitätssicherung und -entwicklung verantwortlich (BW, BE, HB, HE, NRW, RP, SL, SH, TH).192 Zu diesem Zweck sollen sie sich bezüglich der Erziehungsziele und Unterrichtsgestaltung miteinander abstimmen und zusammenarbeiten. Während Regelungen hierzu in den meisten Ländern auf schulgesetzlicher Ebene zu finden sind, gibt es in Bremen die Verordnungen über die Aufgaben der Lehrkräfte (Lehrerdienstordnung), in denen explizit die Mitwirkung an Maßnahmen der Qualitätssicherung geregelt ist und in Baden-Württemberg finden sich Regelungen hierzu in der Verordnung des Kultusministeriums über die Evaluation von Schulen.193 Die Mitwirkung an der Entwicklung, Umsetzung und Überprüfung der Schulprogramme fällt in wenigen Ländern in den Aufgabenbereich der Lehrkräfte (BE, BB, HB, HE).194 Ausschließlich in Berlin ist diese Regelung im Schulgesetz verortet. In den anderen (drei) Ländern sind Ausführungen hierzu in einer Verordnung festgelegt. Daneben ist in Schleswig-Holstein schulgesetzlich geregelt, dass die Lehrkräfte bei ihrer Unterrichtsgestaltung auch das Schulprogramm berücksichtigen müssen. Wörtlich heißt es dort: „Lehrkräfte gestalten den Unterricht und die Förderung der Persönlichkeitsbildung im Rahmen der pädagogischen Ziele gemäß § 4, der Lehrpläne und des Schulprogramms in eigener pädagogischer Verantwortung“.195 Lehrkräfte sind in sieben Ländern (BW, BY, BE, BB, HB, MV, ST) zur Unterstützung, Mitwirkung bzw. Beteiligung an externen und internen Evaluationen verpflichtet.196 In Berlin, Brandenburg, Mecklenburg-Vorpommern und Sachsen-Anhalt

192§ 3 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 67 Abs. 4 bln SchulG, § 2 Abs. 2 S. 1 Verordnung über die Aufgaben der Lehrkräfte und Lehrer in besonderer Funktion an öffentlichen Schulen (Lehrerdienstordnung) v. 2. August 2005, § 98 Abs. 2 S. 2 HSchG, § 57 Abs. 2 S. 1 nrw SchulG, § 25 Abs. 1 S. 2 rp SchulG, § 20e Abs. 1 S. 1 SchoG, § 34 Abs. 1 S. 4 sh SchulG, § 34 Abs. 5 ThürSchulG. 193Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW). 194§ 67 Abs. 4 bln SchulG; 2.1 Fortschreibung und Evaluation von Schulprogrammen an Schulen in öffentlicher Trägerschaft im Land Brandenburg – Rundschreiben 8/09 v. 27.07.2009; § 2 Abs. 1 S. 1 Nr. 4 Verordnung über die Aufgaben der Lehrkräfte und Lehrer in besonderer Funktion an öffentlichen Schulen (Lehrerdienstordnung) v. 02.08.2005; § 4 Abs. 2 Dienstordnung für Lehrkräfte, Schulleiterinnen und Schulleiter und sozialpädagogische Mitarbeiterinnen und Mitarbeiter v. 04.11.2011. 195§ 34 Abs. 1 sh SchulG. 196§ 1 Abs. 4 S. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW); § 9b S. 2 Dienstordnung für Lehrkräfte an staatlichen Schulen in Bayern (Lehrerdienstordnung – LDO) v. 05.07.2014; § 9 Abs. 4 bln SchulG; § 67 Abs. 2 S. 5 Bbg SchulG; § 2 Abs. 1 S. 1 Nr. 4 Verordnung über die Aufgaben der Lehrkräfte und Lehrer in besonderer Funktion an öffentlichen Schulen v. 02.08.2005; § 39a Abs. 5 SchulG M-V; § 84a Abs. 6 S. 1 SchulG LSA.

280

A. Kroupa et al.

wird diese Aufgabe schulgesetzlich geregelt, in Baden-Württemberg und Bremen in einer Verordnung und in Bayern in einer Verwaltungsvorschrift. Die Mitwirkung bei der Durchführung der Vergleichsarbeiten ist in allen Ländern eine verpflichtende Aufgabe der Schule. Hinsichtlich der Regelungen zur Verpflichtung der Lehrkräfte im Rahmen der Vergleichsarbeiten gibt es in den Ländern Unterschiede. In sieben Ländern (BE, HB, MV, NI, NRW, SL, ST) wird gesetzlich eine ausdrückliche Mitwirkungspflicht der Lehrkräfte festgesetzt.197 In drei Ländern (HE, RP, TH) werden nicht explizit die Lehrkräfte verpflichtet, sondern die gesamte Schule wird zur Teilnahme an den Vergleichsarbeiten verpflichtet.198 In vier Ländern (BB, HH, SN, SH) werden nur die SchülerInnen verpflichtet, an den Vergleichsarbeiten teilzunehmen, woraus sich eine Unterstützungsverpflichtung der Lehrkräfte ableiten lässt.199 In Baden-Württemberg und Bayern ist geregelt, dass die oberste Schulaufsichtsbehörde LehrerInnen verpflichten kann, an den Vergleichsarbeiten mitzuwirken.200 Hier erfolgt die Verpflichtung nicht unmittelbar durch das Gesetz, kann aber wiederum daraus abgeleitet werden. Ausschließlich in Bremen werden Lehrkräfte über die Lehrerdienstordnung zur Durchführung der Vergleichsarbeiten verpflichtet. In allen anderen Ländern ist diese Regelung schulgesetzlich verankert. Die Aufgaben der Lehrkräfte werden in Abb. 7.8 im Gesamtüberblick dargestellt.

7.2.6 Aufgaben der Schulkonferenz Die Schulkonferenz hat im Rahmen der Schulverfassung in allen Ländern einen zentralen Stellenwert. Sie wird in Bayern Schulforum,201 in Niedersachsen Schulvorstand202, in Rheinland-Pfalz Schulausschuss203 und in Sachsen-Anhalt Gesamtkonferenz204 genannt. In Abstimmung mit der Konferenz der Lehrkräfte (die in ST nicht vorgesehen ist) berät

197§ 9

Abs. 4 bln SchulG; § 5 Abs. 5 Verordnung über die Aufgaben der Lehrkräfte und Lehrer in besonderer Funktion an öffentlichen Schulen (Lehrerdienstordnung) v. 02.08.2005; § 39a Abs. 5 SchulG M-V; § 30 Abs. 3 NSchG; § 3 Abs. 4 nrw SchulG; § 20e Abs. 1 SchoG; § 84a Abs. 6 SchulG LSA. 198§ 98 Abs. 5 S. 2 HSchG; § 23 Abs. 2 rp SchulG; § 40b Abs. 5 S. 1 ThürSchulG. 199§ 44 Abs. 4 Bbg SchulG; § 100 Abs. 3 S. 1 HmbSG; § 26 Abs. 2 sächs SchulG; § 11 Abs. 2 S. 3 sh SchulG. 200§ 113 Abs. 2 bw SchG; Art. 111 Abs. 4 BayEUG. 201Art. 69 BayEUG. 202§ 38a NSchG. 203§ 48 rp SchulG. 204Im Gesetzestext von ST wird zwar von Gesamtkonferenz gesprochen, allerdings setzt sie sich neben Mitgliedern der Profession, die zur Hälfte vertreten sind, auch aus Eltern, SchülerInnen und dem Schulträger zusammen. In anderen Ländern wird die Konferenz der Lehrkräfte als Gesamtkonferenz bezeichnet.

281

Abb. 7.8   Aufgaben der Lehrkräfte in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter …

282

A. Kroupa et al.

und/oder beschließt die Schulkonferenz über zentrale Maßnahmen schulischer Qualitätsentwicklung. Mitglieder der Schulkonferenz sind in allen Ländern Lehrkräfte, Eltern, SchülerInnen und die Schulleitung (in RP, SN und TH allerdings ohne Stimmrecht). Bei Stimmgleichheit entscheidet in Bremen, Mecklenburg-Vorpommern und Sachsen-Anhalt die Stimme der Schulleitung.205 In einigen Ländern sind auch VertreterInnen des Schulträgers (BY, BB, MV, SN, ST) und/oder weiteres pädagogisches Personal (HB, ST) in der Schulkonferenz vertreten. Berlin ist das einzige Land, das ein externes (außerschulisches) Mitglied der Schulkonferenz vorsieht. Die Schulverfassungen der Länder definieren unterschiedliche Mehrheitsverhältnisse in den jeweiligen Schulkonferenzen. Diese werden in Abb. 7.9 in einer Gesamtübersicht dargestellt.206 In Sachsen-Anhalt ist, wie auch in Niedersachsen und Hessen, die pädagogische Profession (Lehrkräfte, Schulleitung und ggf. weiteres pädagogisches Personal) hälftig in der Schulkonferenz repräsentiert, in Bremen stellt sie sogar die Mehrheit. In den anderen Ländern haben Eltern, Lehrkräfte, Schulträger und – im Fall von Berlin – das außerschulische Mitglied gemeinsam die Mehrheit der Stimmen. Die Regelungen der Mehrheitsverhältnisse in der Schulkonferenz geben einen Hinweis darauf, ob die Schulverfassung eher nach dem Modell der Schulgemeinschaft, das eine starke Mitwirkung der Eltern und SchülerInnen, teilweise auch der Kommune, vorsieht, konzipiert ist oder nach dem Modell der professionellen Organisation, das die Entscheidung über Maßnahmen der Qualitätssicherung und -entwicklung in erster Linie in die Hände der Profession legt. An welchem Organisationsmodell von Schule sich die Schulverfassung primär orientiert, kann allerdings nur im Zusammenhang mit der dort definierten Aufgabenverteilung zwischen Schulkonferenz und der Konferenz der Lehrkräfte beantwortet werden. Es finden sich teilweise weitere Hinweise zur (stimmrechtslosen) Beratung der Schulkonferenzen: In Baden-Württemberg ist dem Schulträger bei ihn betreffenden Angelegenheiten Gelegenheit zu beratender Mitwirkung zu geben.207 In Berliner Schulen mit mehr als 50 SchülerInnen nichtdeutscher Herkunftssprache werden für die Dauer eines Schuljahres je eine SchülerIn und eine erziehungsberechtigte Person nichtdeutscher Herkunftssprache als beratende Mitglieder hinzugezogen, sofern noch keine Mitglieder nichtdeutscher Herkunftssprache vertreten sind.208 In Brandenburg soll das sonstige nichtpädagogische Personal durch eine Person mit beratender Stimme vertreten sein, bei einem Anteil von 10–50 % minderjähriger ausländischer SchülerInnen sollen diese zusätzlich mit beratender Stimme durch je einer erziehungsberechtigten Person und

205§ 34 Abs. 1

BremSchulVwG; § § 29 Abs. 1 SchulG LSA. der dargestellten Zusammensetzung sind die Angaben zu den weiterführenden Schulen bei jeweils mittlerer Schulgröße in den Schulverfassungen bzw. Schulgesetzen der 16 Länder. 207§ 47 Abs. 6 bw SchG. 208§ 77 Abs. 3 bln SchulG. 206Grundlage

Abb. 7.9   Zusammensetzung der Schulkonferenzen in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 283

284

A. Kroupa et al.

einer SchülerIn nicht-deutscher Herkunft vertreten sein.209 Als beratendes Mitglied kann in Mecklenburg-Vorpommern ein Vertreter der Jugendhilfe hinzugezogen werden, mit der die Schule zusammenarbeitet.210 Eine sozialpädagogische Fachkraft sowie je ein Vertreter des technischen Personals, der Verwaltungskräfte und der Beschäftigten nach § 34 Abs. 6 (Beschäftigte außerhalb des lehrplanmäßigen Unterrichts) nehmen mit beratender Stimme in Schleswig-Holstein an der Schulkonferenz teil.211 In Sachsen können ebenfalls ein Schulsozialarbeiter und ein Vertreter des Schulfördervereins als beratende Mitglieder an der Schulkonferenz teilnehmen.212 Weitere Besonderheiten: Die Schulkonferenz in Bremen legt ihren Entscheidungen insbesondere Beschlüsse und Vorschläge der Gesamtkonferenz zugrunde213, in Hamburg kann die Schulkonferenz die Lehrerkonferenz mit der Weiterentwicklung des Schulprogramms beauftragen.214 Zu den Aufgaben der Schulkonferenz zählen Entscheidungen zur Qualitätssicherung und -entwicklung, welche in den Ländern Hamburg, Niedersachsen, Nordrhein-Westfalen, Sachsen-Anhalt und Schleswig-Holstein ausdrücklich geregelt ist.215 Entscheidungen zu Angelegenheiten der Qualitätssicherung und -entwicklung werden in Rheinland-Pfalz von der Gesamtkonferenz im Einvernehmen mit der Schulkonferenz getroffen;216 im Zweifelsfall entscheidet die Gesamtkonferenz mit einer Mehrheit von zwei Dritteln der anwesenden Mitglieder. In Baden-Württemberg ist die Schulkonferenz zu Entscheidungen der Qualitätssicherung und -entwicklung anzuhören.217 In Sachsen ist ein Einvernehmen mit der Schulkonferenz erforderlich. Erfolgt dies nicht, kann die Entscheidung durch die Schulaufsichtsbehörde hergestellt werden.218 In Bremen sind beide Gremien maßgeblich an den Entscheidungen zur schulischen Qualitätssicherung und -entwicklung beteiligt.219 Über das Schulprogramm, seine Fortschreibung und sich daraus ergebende Konsequenzen für die Organisation von Schule und Unterricht beschließt bzw. entscheidet

209§ 90 Abs. 1–3

BbGSchulG. SchulG M-V. 211§ 62 Abs. 4 sh SchulG. 212§ 43 Abs. 3 Sächs SchulG. 213§ 33 Abs. 2 BremSchulVvG. 214§ 53 Abs. 1 S. 2 HmbSG. 215§ 33 Abs. 2 S. 3 Nr. 1 BremSchulVwG; § 53 Abs. 4 S. 2 Nr. 7 HmbSG; § 38a Abs. 3 Nr. 15d NSchG; § 65 Abs. 2 Nr. 2 nrw SchulG; § 43 Abs. 2 S. 1 Nr. 2 sächs SchulG; § 63 Abs. 1 Nr. 29 sh SchulG. 216§ 48 Abs. 4 Nr. 1 rpSchulG. 217§ 3 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008. 218§ 43 Abs. 2 Sächs SchulG. 219§ 33 Abs. 2 BremSchulVwG; § 36 Abs. 2 BremSchulVwG. 210§ 76 Abs. 4

7  Bildungsrechtliche Grundlagen datenbasierter …

285

die Schulkonferenz in Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Sachsen-Anhalt220 und Schleswig-Holstein.221 In Bayern und Sachsen ist die Zustimmung der Schulkonferenz zum Schulprogramm erforderlich.222 In Niedersachsen unterbreitet der Schulvorstand einen Vorschlag für das Schulprogramm, über den die Gesamtkonferenz entscheidet und bei Abweichungen vom Vorschlag das Benehmen mit dem Schulvorstand herstellt.223 In Hessen, Hamburg, Bremen, Berlin und Brandenburg unterbreitet die Gesamtkonferenz einen Vorschlag zum Schulprogramm, über den die Schulkonferenz entscheidet.224 Die Zustimmung der Mehrheit der Vertreter der Lehrkräfte bei der Entscheidung über das Schulprogramm ist in Brandenburg vorgesehen.225 Diese Festsetzungen sind alle schulgesetzlich verankert. In Baden-Württemberg, Rheinland-Pfalz, Saarland und Thüringen finden sich solche Regelungen zum Schulprogramm nicht. In Hamburg ist zusätzlich geregelt, dass es auch Aufgabe der Schulkonferenz ist, über den Abschluss der Ziel- und Leistungsvereinbarung mit der Schulaufsicht zu entscheiden.226 Der Abschluss von Zielvereinbarungen bedarf in Nordrhein-Westfalen der Mitwirkung der Schulkonferenz.227 Entscheidungen zur internen Evaluation werden in Berlin in der Schulkonferenz getroffen, wo die Schulkonferenz auf Grundlage eines Vorschlags der Gesamtkonferenz ein Evaluationsprogramm beschließt.228 Auch in Bremen sind Entscheidungen zur internen Evaluation mit Blick auf die gesamte schulische Arbeit als Aufgabe der Schulkonferenz definiert229. In Sachsen-Anhalt sind Beschlüsse zur internen Evaluation ebenfalls Angelegenheit der Schulkonferenz, die in diesem Land schulgesetzlich als Gesamtkonferenz bezeichnet wird, aber neben dem pädagogischen Personal auch Eltern, SchülerInnen und den Schulträger miteinschließt. Für Sachsen gilt, dass ein Einvernehmen der Schulkonferenz zu diesen Entscheidungen hergestellt sein muss (bei fehlendem Einvernehmen kann die Schulaufsichtsbehörde entscheiden).

220Die Gesamtkonferenz in ST erfüllt die Aufgaben der Schulkonferenz und ist das Gremium, in dem Lehrkräfte, Eltern- und Schülervertreter stimmberechtigte Mitglieder sind. 221§ 76 Abs. 1 Nr. 2 bln SchulG; § 91 Abs. 2 Nr. 1 Bbg SchulG; § 33 Abs. 2 S. 3 Nr. 1 BremSchulVwG; § 52 Abs. 2 S. 1 HmbSG; § 129 Nr. 1 HSchG; § 39a Abs. 2 S. 7 SchulG M-V; § 38a Abs. 4 S. 1 NSchG; § 65 Abs. 2 Nr. 1 nrw SchulG; § 63 Abs. 1 Nr. 2 sh SchulG; § 27 Abs. 1 Nr. 2 SchulG LSA. 222§ 69 Abs. 4 BayEUG; § 43 Abs. 2 sächs SchulG. 223§ 38a Abs. 4 NSchG. 224§ 127b Abs. 2 S. 5 HSchG. 225§ 91 Abs. 2 BbgSchulG. 226§ 53 Abs. 4 S. 2 Nr. 7 HmbSG. 227§ 3 Abs. 10 S. 7 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 228§ 9 Abs. 2 S. 4 und § 76 Abs. 1 S. 1 Nr. 5 bln SchulG. 229§ 33 Abs. 2 BremSchulVwG; § 36 Abs. 2 BremSchulVwG.

286

A. Kroupa et al.

In Brandenburg entscheidet die Schulkonferenz auch darüber, welche sogenannten Wahlmerkmale bei der externen Evaluation zu untersuchen sind.230 In Berlin, Brandenburg und Nordrhein-Westfalen ist in Verordnungen geregelt, dass die Schulkonferenz im Einvernehmen mit der Schulleitung auch die Entscheidung darüber trifft, ob der jeweilige Schulinspektionsbericht veröffentlicht werden darf231 (dies betrifft in Berlin und Brandenburg den vollständigen Langbericht). Zwar sind auch in anderen Ländern Regelungen zur Veröffentlichung der Evaluationsergebnisse enthalten, jedoch fällt dort die Entscheidung nicht ausdrücklich in den Aufgabenbereich der Schulkonferenz. Abb. 7.10 bietet einen Überblick über die zentralen Aufgabenbereiche, die von der Schulkonferenz in den Ländern (mit)entschieden werden, einschließlich der dazu festgelegten Detailbestimmungen.

7.2.7 Aufgaben der Gesamtkonferenz In Berlin, Bremen, Hessen, Niedersachsen, Rheinland-Pfalz, Saarland und Sachsen-Anhalt ist die Gesamtkonferenz232 die Bezeichnung für eine Institution, die in anderen Ländern Gesamtlehrerkonferenz (BW und SN), Lehrerkonferenz (BY, HH, MV, NW, SH und TH) oder Konferenz der Lehrkräfte (BB) genannt wird. Sie ist neben der Schulkonferenz ein wichtiges Beratungs- und Beschlussgremium der Schule. Zu ihren Aufgaben zählen unter anderem die Qualitätssicherung und -entwicklung, partiell die Schulprogrammarbeit sowie bestimmte Entscheidungsrechte bei Evaluationen und Vergleichsarbeiten. Zur Qualitätssicherung und -entwicklung der Schule finden sich verschiedene Aufgaben und Regelungen. Inhaltliche Entscheidungen zur Qualitätssicherung und -entwicklung werden in Baden-Württemberg von der Gesamtlehrerkonferenz getroffen, wobei die Schulkonferenz anzuhören ist.233 In Brandenburg soll die Konferenz der Lehrkräfte über die Grundsätze für die Auswertung von Arbeitsergebnissen der Schule

230§  3 Abs. 3 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016. 231§ 5 Abs. 3 S. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 6 Abs. 1 S. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 3 Abs. 9 S. 1 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 232Im Gesetzestext von ST wird zwar von Gesamtkonferenz gesprochen, allerdings setzt sie sich neben Mitgliedern der Profession, die zur Hälfte vertreten sind, auch aus Eltern, SchülerInnen und dem Schulträger zusammen. In anderen Ländern wird die Konferenz der Lehrkräfte als Gesamtkonferenz bezeichnet. 233§ 3 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008 (EvalV BW).

Abb. 7.10   Aufgaben der Schulkonferenzen in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 287

288

A. Kroupa et al.

einschließlich evaluierender Untersuchungen entscheiden.234 Für Berlin soll die Gesamtkonferenz die Qualitätsstandards von verbindlichen grundsätzlichen Unterrichtsinhalten im Rahmen der schulischen Selbstgestaltungsmöglichkeiten sowie die Instrumente zur Evaluation und Sicherung der Qualität ihrer fachlichen und pädagogischen Arbeit, insbesondere über die kontinuierliche Entwicklung und Sicherung der schulischen Qualität entscheiden.235 Die Verantwortung und Entscheidung über die Qualitätssicherung und -entwicklung liegt in Bremen, Rheinland-Pfalz und Sachsen-Anhalt ebenfalls bei der Gesamtkonferenz, wobei in Rheinland-Pfalz das Einvernehmen mit dem Schulausschuss herzustellen ist.236 In Mecklenburg-Vorpommern bezieht sich dies nur auf die Ableitung von Konsequenzen aus den Ergebnissen der Vergleichsuntersuchungen.237 Diese Regelungen finden sich in den Schulgesetzen und in Mecklenburg-Vorpommern in der entsprechenden Verordnung. Vorschläge zum Schulprogramm kann die Gesamtkonferenz der Schulkonferenz in Berlin, Brandenburg, Bremen, Hamburg, Hessen unterbreiten238 oder über das Schulprogramm nach Vorschlag der Schulkonferenz entscheiden (NI)239. Bei Abweichungen von Entwürfen der Schulkonferenz in Niedersachsen, ist das „Benehmen“ mit der Schulkonferenz herzustellen.240 Diese Regelung erfordert zwar nicht die Herstellung eines „Einvernehmens“, ist aber mehr als eine bloße Unterrichtung, Anhörung oder Darlegung der Gründe. Wird die Übereinstimmung mit der Schulkonferenz nicht erreicht, entscheidet abschließend die Gesamtkonferenz allein und eigenverantwortlich (Bräth 2006). In Sachsen kann die Gesamtkonferenz über das Schulprogramm mit Einverständnis der Schulkonferenz beschließen.241 Inhaltliche Entscheidungen zu den internen Evaluationen trifft die Gesamtkonferenz in Baden-Württemberg, wobei hier die Schulkonferenz anzuhören ist.242 In Berlin entscheidet die Gesamtkonferenz über die Instrumente zur Evaluation243 und in Brandenburg über die Grundsätze für die Auswertung von Arbeitsergebnissen der Schule

234§ 85 Abs. 2

Nr. 6 BbgSchulg. Nr. 5 blnSchulG. 236§ 36 Abs. 2 Nr. 4 BremSchulVwG; § 48 Abs. 2 rp SchulG; § 5 Abs. 3 Nr. 3 Konferenzverordnung v. 02.08.2005 (KoVo) GVBl. LSA 2005, 491. 237§ 11 Abs. 3 SchulQualiVO M-V. 238§ 91 Abs. 2 Nr. 1 Bbg SchulG; § 79 Abs. 3 bln SchulG; § 33 Abs. 2 BremSchulVwG; § 53 Abs. 1 HmbSG; § 133 Abs. 1 S. 2 Nr. 2 HSchG. 239§§ 34 Abs. 2 S. 1 Nr. 1, 38a Abs. 4 NSchG. 240§ 38a Abs. 4 S. 2 NSchG. 241§ 43 Abs. 2 S. 1 Nr. 1 sächs SchulG. 242§ 3 Abs. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008. 243§ 79 Abs. 3 S. 1 Nr. 5 bln SchulG. 235§ 79 Abs. 3

7  Bildungsrechtliche Grundlagen datenbasierter …

289

einschließlich evaluierender Untersuchungen.244 In Bremen entscheidet die Gesamtkonferenz zu Fragen der Evaluation, die sich speziell mit Blick auf die pädagogische Arbeit ergeben245, in Rheinland-Pfalz entscheidet sie ebenfalls und soll dabei Einvernehmen mit der Schulkonferenz herstellen. Wird dies nicht erzielt, entscheidet die Gesamtkonferenz.246 In Sachsen soll die Entscheidung ebenfalls mit der Schulkonferenz im Einvernehmen getroffen werden.247 In Berlin, Brandenburg, Rheinland-Pfalz und Sachsen finden sich Regelungen hierzu auf schulgesetzlicher Ebene, in Baden-Württemberg in einer Verordnung. Aufgaben der Gesamtkonferenz im Zusammenhang mit den Vergleichsarbeiten finden sich in Baden-Württemberg, wo diese entscheidet, in welcher Fremdsprache die Vergleichsarbeiten in der 8. Klasse durchgeführt werden.248 In Mecklenburg-Vorpommern sollen Ergebnisse beraten und Konsequenzen für die schulische Arbeit festgelegt werden249 und in Sachsen wird über das verpflichtend zu testende Fach und die freiwillige Durchführung der Vergleichsarbeiten in weiteren Fächern entschieden.250 Abb. 7.11 zeigt die genannten Festlegungen zu den Aufgaben der Gesamtkonferenz in den 16 Ländern nochmals in einer Zusammenschau. Für die besonders relevanten Aspekte, die Entscheidungen mit Blick auf die Entwicklung von Schulqualität betreffen (zum einen: Beschluss zu Angelegenheiten der Qualitätssicherung und -entwicklung und zum anderen: Entscheidung über die Schulprogrammarbeit) ergibt sich die in Abb. 7.12 im Gesamtüberblick dargestellte Aufgabenverteilung zwischen der Schul- und Gesamtkonferenz.

7.2.8 Aufgaben der Fachkonferenz Mitglieder der Fachkonferenz sind die Lehrkräfte, welche die Lehrbefähigung für das entsprechende Fach besitzen oder darin unterrichten. In nur wenigen schulrechtlichen Vorschriften der Länder finden sich Aufgaben der Fachkonferenzen in Bezug auf die schulische Qualitätssicherung und -entwicklung.

244§ 85 Abs. 2

S. 2 Nr. 6 Bbg SchulG. 2 BremSchVwG. 246§ 28 Abs. 1 rp SchulG; § 40 Abs. 5 Nr. 1 und Abs. 6, S. 2 rp SchulG. 247§ 43 Abs. 2 S. 1 Nr. 2 sächs SchulG. 248Nr. 2 Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016. 249§ 11 Abs. 3 SchQualiVO M-V. 250XII. Verwaltungsvorschrift des Sächsischen Staatsministeriums für Kultus zur Klassen- und Gruppenbildung, zur Bedarfsberechnung für die Unterrichtsversorgung und zum Ablauf des Schuljahres 2016/2017 (VwV Bedarf und Schuljahresablauf 2016/2017) v. 18.04.2016. 245§ 36 Abs

Abb. 7.11   Aufgaben der Gesamtkonferenzen in den 16 Ländern

290 A. Kroupa et al.

Abb. 7.12   Aufgaben der Schulkonferenz und der Gesamtkonferenz in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 291

292

A. Kroupa et al.

In Berlin, Brandenburg und Nordrhein-Westfalen, Schleswig-Holstein ist schulgesetzlich und in Sachsen-Anhalt im Rahmen einer Verordnung geregelt, dass die Fachkonferenz für die fachbezogene Qualitätssicherung und -entwicklung an der Schule zuständig ist und über Maßnahmen und Vorhaben entscheidet, welche hierzu erforderlich sind.251 In Berlin, Bremen, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Schleswig-Holstein werden in den Fachkonferenzen die Ergebnisse von Maßnahmen der Qualitätssicherung und -entwicklung beraten und Konsequenzen für die schulische Arbeit festgelegt.252 In Bremen und Mecklenburg-Vorpommern bezieht sich dies ausschließlich auf die Ergebnisse der Vergleichsarbeiten (VERA).253 In Berlin wird hingegen ausdrücklich auf Ergebnisse der internen und externen Evaluation eingegangen, auf deren Grundlage die Fachkonferenz Maßnahmen zur Qualitätsverbesserung entwickeln soll.254 Die Fachkonferenz ist in Berlin auch für die Steuerung und Koordinierung der internen Evaluation zuständig.255 In Schleswig-Holstein ist es dabei Aufgabe der Fachkonferenz, Vorschläge über die Auswertung von Vergleichsarbeiten, Parallel- und Abschlussarbeiten sowie das jeweilige Fach betreffende weitere Evaluationen zu beschließen.256 Die Fachkonferenz entscheidet in Niedersachsen über die freiwillig durchzuführenden Fächer bei VERA; in Brandenburg soll diese Entscheidung von der Schulleitung in Abstimmung mit der zuständigen Fachkonferenz erfolgen.257 In Abb. 7.13 sind die Regelungen nochmals im Überblick dargestellt.

2513.12 Nr. 5 Verwaltungsvorschrift über die einheitliche Gestaltung und Zuordnung von Aufgabenbereichen an öffentlichen Schulen des Landes Berlin (VV Zuordnung) v. 29.12.2010; § 87 Abs. 3 S. 2 Nr. 5 Bbg SchulG; § 70 Abs. 3 S. 2 nrw SchulG; § 66 Abs. 3 Nr. 3 sh SchulG; § 6 Abs. 2 Nr. 7 Konferenzverordnung v. 02.08.2005. 2523.9 Nr. 7 Verwaltungsvorschrift über die einheitliche Gestaltung und Zuordnung von Aufgabenbereichen an öffentlichen Schulen des Landes Berlin (VV Zuordnung) v. 29.12.2010; § 11 Abs. 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 70 Abs. 3 S. 2 nrw SchulG; § 66 Abs. 3 Nr. 3 sh SchulG. 253Anlage zur Verfügung Nr. 33/2013; § 11 Abs. 3 SchulQualiVO M-V. 2543.9 Nr. 5 und 3.12 Nr. 7 Verwaltungsvorschrift über die einheitliche Gestaltung und Zuordnung von Aufgabenbereichen an öffentlichen Schulen des Landes Berlin (VV Zuordnung) v. 29.12.2010. 2553.9 Nr. 5 und 3.12 Nr. 5 Verwaltungsvorschrift über die einheitliche Gestaltung und Zuordnung von Aufgabenbereichen an öffentlichen Schulen des Landes Berlin (VV Zuordnung) v. 29.12.2010. 256§ 66 Abs. 3 Nr. 3 sh SchulG. 2571.c Rundschreiben Termine und organisatorische Hinweise für die Vergleichsarbeiten in den Jahrgangsstufen 3 und 8 im Schuljahr 2016/2017 – Rundschreiben 11/16 v. 27.07.2016; 3. Vergleichsarbeiten für die Schuljahrgänge 3 und 8 – RdErl. v. 17.07.2014.

Abb. 7.13   Aufgaben der Fachkonferenzen in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter … 293

294

A. Kroupa et al.

7.3 Organisation der externen Evaluation in den Bundesländern 7.3.1 Institutionelle Anbindung der externen Evaluation in den Ländern Zwar ist in einem Teil der Bundesländer die externe Evaluation derzeit bis auf Weiteres ausgesetzt258, im Folgenden werden aber auch diese Länder bei der Darstellung der institutionellen Anbindung der Schulinspektionen auf Basis der vorliegenden Rechtsdokumente berücksichtigt. Für die Verfahren der externen Schulevaluation existieren in den Ländern unterschiedliche Begriffe wie Schulinspektion, Schulvisitation oder Qualitätsanalyse.259 Die institutionelle Verankerung der Schulinspektion unterscheidet sich zwischen den Bundesländern. Zuständig für die Steuerung der externen Evaluation ist in allen Bundesländern die oberste Schulaufsichtsbehörde (Ministerium bzw. Senatsbehörde). Die operative Umsetzung liegt in einem Großteil der Bundesländer in der Verantwortung der jeweiligen Landesinstitute bzw. Organisationseinheiten (BW, BB, HH, HE, MV, NI, RP, SN, ST, SH) oder speziellen Qualitätsagenturen (BY) innerhalb der Landesinstitute. In Berlin, Bremen, dem Saarland und Thüringen sind selbstständige Organisationseinheiten innerhalb der obersten Schulaufsichtsbehörde für die Durchführung der externen Evaluation zuständig. Die Schulinspektion ist in diesen Bundesländern durch ein Referat an die oberste Schulaufsichtsbehörde angegliedert, wobei dieses organisatorisch oder räumlich getrennt von der operativen Schulaufsicht organisiert ist. In Nordrhein-Westfalen wird die externe Evaluation durch selbstständige Organisationseinheiten innerhalb der oberen Schulaufsichtsbehörde wahrgenommen. Dort sind die mit der externen Evaluation betrauten Personen mit dem Dezernat 4Q in die Bezirksregierungen eingebunden und können auch bezirksübergreifend eingesetzt werden.260 Das Landesinstitut für Schulentwicklung in Baden-Württemberg ist unter den für die externe Evaluation zuständigen Landesinstituten, die einzige vollrechtsfähige Anstalt des öffentlichen Rechts.261 Diese Institution untersteht als staatliche Einrichtung der Rechtsaufsicht durch die oberste Schulaufsichtsbehörde und hat das Recht der Selbstverwaltung

258Vgl.

Kap. 5. Begriffe werden im Folgenden synonym verwendet. 260Vgl. § 2 Abs. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. Die Entwicklung eines Qualitätstableaus, Instrumentenentwicklung und die Aggregation der Ergebnisse für die Berichtslegung wird hingegen von der Qualitäts- und Unterstützungsagentur (QUA-Lis) übernommen. 261Das Landesinstitut für Schulentwicklung soll aufgelöst werden und durch zwei neue Institute ersetzt werden: ein „Zentrum für Schulqualität und Lehrerbildung“ sowie ein „Institut für Bildungsanalysen“ (vgl. https://www.baden-wuerttemberg.de/de/service/presse/pressemitteilung/ pid/qualitaetskonzept-fuer-das-bildungssystem-baden-wuerttembergs/). Zugegriffen: 15 Mai 2018. 259Diese

7  Bildungsrechtliche Grundlagen datenbasierter …

295

im Rahmen der Gesetze.262 Mit diesem Konstrukt der Rechtsfähigkeit ist keine unmittelbare Dienst- und Fachaufsicht der obersten Schulaufsichtsbehörde (Kultusministerium) gegeben. Fachaufsicht ist die Aufsicht über die Recht- und Zweckmäßigkeit des Verwaltungshandelns. Dienstaufsicht bezieht sich auf Beschäftigte, Organisationseinheiten oder Aufbau und Abläufe. Die übrigen mit der externen Evaluation betrauten Landesinstitute (BY, BB, HH, HE, MV, NI, RP, SN, ST, SH) sind nicht-rechtsfähige Anstalten des öffentlichen Rechts bzw. nachgeordnete Behörden.263 Ihre Rechtsakte sind solche der obersten Schulaufsichtsbehörde und sie unterliegen in der Behördenhierarchie vollumfänglich der Dienst- und Fachaufsicht der übergeordneten Behörde.264 Die unterschiedliche Aufsichtsfunktion lässt sich anhand folgenden Beispiels verdeutlichen: Während die Schulaufsichtsbehörden in Bayern der Qualitätsagentur die Personen benennen, die für die Mitarbeit im Evaluationsteam geeignet erscheinen und entsprechend qualifiziert werden265, wurde das Evaluationsteam für die Fremdevaluation in Baden-Württemberg durch das Landesinstitut bestimmt.266 Abb. 7.14 zeigt die Zuständigkeiten bzw. Anbindung der externen Evaluation in einer Gesamtübersicht. Die institutionelle Anbindung der externen Evaluation allein lässt noch keinen Schluss über ihre Unabhängigkeit bzw. die Distanz zur Schulverwaltung zu. Auch in einer in die Verwaltung eingegliederten Organisationseinheit kann durch entsprechende Regelungen Unabhängigkeit gewahrt werden. Den Schulaufsichtsbehörden werden die Ergebnisse nach Abschluss der externen Evaluation übermittelt267 bzw. werden aufgrund der Ergebnisse der externen Evaluation Zielvereinbarungen zwischen Schule und

262Vgl.

§ 1 Abs. 1 und § 12 Abs. 1Gesetz zur Errichtung des Landesinstituts für Schulentwicklung v. 09.12.2004. Rechtsaufsicht bedeutet, dass die Befugnis der aufsichtsführenden Behörde darauf beschränkt ist, die Rechtmäßigkeit des Verwaltungshandelns zu überprüfen. 263Vgl. § 123a Abs. 1 NSchG; § 1 Abs. 3 Errichtung eines Pädagogischen Landesinstituts Rheinland-Pfalz – Rundschreiben des MK v. 17.06.2010; § 11 Abs. 1 SächsVwOrgG; § 1 Abs. 1 Satzung des Landesinstituts für Qualitätsentwicklung an Schulen Schleswig-Holstein v. 03.06.2015. 264Vgl. § 1 S. 2 Verordnung über die Errichtung des Staatsinstituts für Schulqualität und Bildungsforschung v. 18.03.2005, Art. 4 Staatsvertrag über die Errichtung eines gemeinsamen Landesinstituts für Schule und Medien Berlin-Brandenburg (LISUM) v. 22.05.2006, Anlage zur Organisationsverfügung des Instituts für Bildungsmonitoring und Qualitätsentwicklung (IfBQ) v. 11.09.2012; § 96 Abs. 1 S. 2 HSchG; § 99 Abs. 1 SchulG M-V; § 11 iVm § 13 Abs. 1 OrgG LSA. 265Art. 113c Abs. 2 S. 2 BayEUG. 266§ 10 Abs. 1 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008. 267§  11 Abs. 2 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 113c Abs. IV BayEUG; § 5 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 129 Abs. 3 S. 2 Bbg SchulG; § 13 Abs. 1 BremSchulVwG; § 85 Abs. 3 S. 1 HmbSG; § 92 Abs. 2 S. 2 HSchG; § 39a Abs. 4 S. 7 SchulG M-V; § 123a Abs. 4 NSchG; § 1 Abs. 4 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007.

296

A. Kroupa et al.

Abb. 7.14   Institutionelle Anbindung der externen Evaluation in den Ländern in den 16 Ländern

7  Bildungsrechtliche Grundlagen datenbasierter …

297

­ chulaufsichtsbehörde geschlossen268, in der die Schule – so heißt es in Thüringen269 – S ihre „Vorhaben zur Qualitätsentwicklung und Qualitätssicherung“ festlegen muss. Die mit der externen Evaluation beauftragten Landesinstitute und Referate sind hinsichtlich ihrer Durchführung gleichermaßen unabhängig.

7.3.2 Staatliche Schulaufsicht, Schulinspektion und Eigenverantwortung der Schulen Neben den neuen Steuerungsinstrumenten als staatlichen Instrumenten zur Kontrolle und Sicherung der schulischen Qualität besteht die klassische Schulaufsicht. Trotz Implementation der neuen Steuerungsinstrumente halten die Vorschriften aller Länder grundsätzlich – wenn auch eingeschränkt – an der Fachaufsicht fest (Rux 2018). Danach können die Schulaufsichtsbehörden die Aufgabenwahrnehmung der Schulen gemäß ihrer Zweckmäßigkeit kontrollieren und abweichende Weisungen erteilen. Hingegen haben Hessen, Mecklenburg-Vorpommern und Niedersachsen die Eingriffsbefugnisse der Schulaufsicht deutlich beschränkt. Dort heißt es kongruent: „Pädagogische Bewertungen sowie unterrichtliche und erzieherische Entscheidungen und Maßnahmen können die Schulbehörden nur aufheben, zu erneuter Entscheidung zurückverweisen und darüber dann selbst entscheiden, wenn Verfahrens- und Rechtsvorschriften verletzt wurden, von unrichtigen Voraussetzungen oder sachfremden Erwägungen ausgegangen wurde, gegen allgemein anerkannte pädagogische Grundsätze oder Bewertungsmaßstäbe oder gegen den Grundsatz der Gleichbehandlung verstoßen wurde.“270 Es liegen also bestimmte Eingriffsvoraussetzungen für ein Eingreifen der Fachaufsicht vor. In Baden-Württemberg, Hamburg, Rheinland-Pfalz, Sachsen, Saarland, Sachsen-Anhalt und Schleswig-Holstein liegt dagegen eine unbeschränkte Fachaufsicht vor.271 In Bayern, Berlin, Brandenburg,

268Vgl. § 12 Verordnung des Kultusministeriums über die Evaluation von Schulen (EvaluationsVO) v. 10.06.2008; § 113c Abs. IV BayEUG; § 5 Abs. 5Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 85 Abs. 1 S. 3 HmbSG; § 92 Abs. 3 HSchG; § 39a Abs. 2 S. 8 SchulG M-V; § 5 Abs. 3 RdErl. Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014; § 3 Abs. 10 S. 7 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007; § 23 Abs. 2 S. 3 rp SchulG; § 40b Abs. 3 S. 2 ThürSchulG. 269§ 40b Abs. 3 S. 2 ThürSchulG. 270§ 93 Abs. 3 HSchG; § 97 Abs. 4 SchulG M-V; § 121 Abs. 2 NSchG. 271§ 32 Abs. 1 S. 1 Nr. 3 bw SchG; § 85 Abs. 1 Nr. 2 HmbSG; § 96 Abs. 2 S. 2 Nr. 5 rp SchulG; § 58 Abs. 2 sächs SchulG; § 52 Abs. 2 Nr. 2 SchoG; § 83 Abs. 1 Nr. 3 SchulG LSA; § 125 Abs. 3 Nr. 2 sh SchulG.

298

A. Kroupa et al.

Bremen, Nordrhein-Westfalen und Thüringen existieren verpflichtende Regelungen, welche die Eigenverantwortung der Schulen wahren sollen.272 Mit der Einführung der externen Evaluation war auch die Frage verbunden, ob die externe Evaluation als Teil der operativen Schulaufsicht oder organisatorisch getrennt von ihr durchgeführt werden soll. Die organisatorische Abgrenzung von Schulinspektion und Schulaufsicht ist in den Schulgesetzen der Länder nicht überall eindeutig geregelt. 2006 wurde in Hamburg mit § 85 Abs. 3 HmbSG eine neue Regelung zur externen Evaluation beschlossen, mit dem die Aufgabe der Schulinspektion zur Untersuchung der Bildungs- und Erziehungsprozesse an staatlichen Schulen beschrieben wurde. Unter der Überschrift „Schulaufsicht, Schulberatung und Schulinspektion“ wird einerseits die fach-, dienst- und rechtsaufsichtliche Funktion der Schulaufsicht beschrieben273, andererseits jedoch daran festgehalten, dass die Schulaufsicht die Schulen in der Wahrnehmung ihrer Aufgaben auch im Bereich der erweiterten Selbstverantwortung berät und unterstützt.274 Die bestehenden schulrechtlichen Regelungen über die Schulaufsicht sind trotz Einführung des Absatzes über die Schulinspektion erhalten geblieben und wurden nicht verändert und der der Schulinspektion übertragene Auftrag der externen Evaluation wird als ein Bestandteil der „Schulaufsicht“ gesehen (vgl. Füssel 2008). Die gesetzliche Verortung der externen Evaluation in Bayern, Brandenburg, Niedersachsen, Nordrhein-Westfalen und Sachsen verdeutlicht dies ebenfalls. In § 86 nrw SchulG werden die klassischen Aufgaben der Schulaufsicht (Fach- und Dienstaufsicht) in demselben Paragrafen geregelt wie die externe Evaluation (Abs. 5). Sind im Schulgesetz nur wenige oder keine weiteren Ausführungen zu finden, gibt es durch die Ermächtigung zum Erlass von Rechtsverordnungen und Verwaltungsvorschriften präzisierende Regelungen. Einige Autoren sehen die Wirksamkeit der Schulaufsicht sogar durch die Fülle an Gesetzen und Verwaltungsvorschriften eingegrenzt (vgl. z. B. van Buer und Wagner 2014). So finden sich genauere Ausgestaltungen in Nordrhein-Westfalen in der Verordnung über die Qualitätsanalyse an Schulen.275 In dieser ist geregelt, dass die mit der externen Evaluation beauftragten Personen ausschließlich Aufgaben der externen Evaluation (Qualitätsanalyse) wahrnehmen, jedoch „weitergehende schulaufsichtliche Aufgaben und Befugnisse“ ihnen nicht übertragen werden.276 Insbesondere gehört es nicht zu ihren Aufgaben, „die Schulen in konkreter Weise zu

272Nr.  1 Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006; § 106 Abs. 2 bln SchulG; § 129 Abs. 2 Bbg SchulG; § 12 Abs. 4 BremSchulVwG; § 86 Abs. 3 nrw SchulG; § 3 Abs. 2 ThürSchAG. 273§ 85 Abs. 1 HmbSG. 274§ 85 Abs. 2 HmbSG. 275Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 276§ 1 Abs. 3 S. 1 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007.

7  Bildungsrechtliche Grundlagen datenbasierter …

299

beraten“. Dies sei ausschließlich Aufgabe der zuständigen Schulaufsichtsbehörde.277 Im Brandenburgischen Schulgesetz ist festgeschrieben, dass „dem Land die Gesamtheit der staatlichen Aufgaben zur inhaltlichen, organisatorischen und planerischen Gestaltung der Schulen (Schulaufsicht) obliegt. Beratung sowie Unterstützung der Schulen (Schulberatung) und Untersuchungen der Schulen als Gesamtsysteme (Schulvisitation) sind Aufgaben der Schulaufsicht.“278 Die Schulvisitation wird hiernach als eine Form schulaufsichtlichen Handelns beschrieben. In der brandenburgischen VV-Schulvisitation wird dann unter § 3 Abs. 1 genauer ausgeführt, dass die „Schulvisitation Teil der staatlichen Schulaufsicht ist, ohne bestimmend in die schulischen Abläufe einzugreifen“.279 Bei der geplanten Neuorientierung der Brandenburger Schulvisitation im Regelverfahren ab Schuljahr 2018/2019 soll die diese mit der operativen Schulaufsicht stärker als bislang verzahnt werden. Dabei soll der Fokus in der thematischen und organisatorischen Abstimmung der Schulvisitationen mit den Aufgaben der operativen Schulaufsicht liegen. In Bayern, Niedersachsen und Sachsen folgt der Paragraf über die Evaluation den Regelungen über die Inhalte der Schulaufsicht und Schulaufsichtsbehörden und ist im Abschnitt über die Schulaufsicht verankert.280 Zu beachten ist jedoch, dass die Neufassung des sächsischen Schulgesetzes die Regelung über die externe Evaluation ab 1. August 2018 in einem eigenständigen Paragrafen über die Qualitätssicherung (§ 3a) vorsieht, obwohl die externe Evaluation dort derzeit ausgesetzt ist.281 Berlin verortet die externe Evaluation zwar nicht in den Abschnitten über die Schulaufsicht; allerdings ist ausdrücklich festgelegt, dass die externe Evaluation Aufgabe der (obersten) Schulaufsichtsbehörde ist282. Im rheinland-pfälzischen Schulgesetz war in dem seit 22.12.2015 aufgehobenen Paragrafen über die für die externe Evaluation zuständige Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen (AQS) festgelegt, dass die AQS organisatorisch unabhängig von der Schulaufsicht agiert, jedoch fachlich mit der (oberen) Schulaufsichtsbehörde zusammenarbeitet.283 In einem weiteren Teil der Bundesländer (BW, HB, HE, MV, SL, ST, TH) ist die externe Evaluation in jeweils eigenständigen Paragrafen – getrennt von den Vorschriften

277§ 1 Abs. 3 S. 3 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 278§ 129 Abs. 1 Bbg SchulG. 279Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016. 280Art. 113c BayEUG; § 123a NSchG; § 59a sächs SchulG. 281Vgl. Kap. 5. 282§ 9 Abs. 3 S. 1 bln SchulG. 283§ 97a rp SchulG (alte Fassung).

300

A. Kroupa et al.

über die Schulaufsicht – in den Schulgesetzen verankert, sodass hierdurch die gesetzliche Trennung von externer Evaluation und Schulaufsicht deutlich werden soll.284 Weitere Regelungen zum Verhältnis der Schulaufsicht und Schulinspektion finden sich in Niedersachsen in dem Runderlass zu Schulinspektionen.285 Dieser sieht vor, dass Schulinspektorinnen und Schulinspektoren keine fach- bzw. dienstaufsichtlichen Befugnisse haben.286 Von 2006 bis 2012 gab es in Niedersachsen die eigenständige Landesschulinspektion mit Sitz in Bad Iburg. Diese rechtlich selbstständige Einrichtung, welche die externe Evaluation durchführte, war von der operativen Schulaufsicht getrennt und wurde im Rahmen von Verwaltungsmodernisierungen zu einer Abteilung des im Jahr 2012 neu gegründeten Niedersächsischen Landesinstituts für schulische Qualitätsentwicklung (NLQ). Die Schulinspektion gibt es in Niedersachsen nicht mehr. Seit dem Schuljahr 2016/2017 wird die Fokusevaluation pilotiert. Ab dem Schuljahr 2018/2019 wird es ein Regelverfahren mit einem neuen Erlass geben und die neue Fokusevaluation wird die Schulinspektion ersetzen.287 Im bayerischen Gesetzentwurf der Staatsregierung zur Änderung des Bayerischen Gesetzes über das Erziehungs- und Unterrichtswesen von 2008, der als ausführliche Erläuterung bzw. Interpretation zum entsprechenden Art. 113c BayEUG betrachtet werden kann, steht, dass die am Staatsinstitut eingerichtete Qualitätsagentur eine von der Schulaufsicht unabhängige Agentur ist.288 Während die Agentur für die Konzeption der externen Evaluation zuständig ist, fallen koordinierende und organisatorische Aufgaben in den Verantwortungsbereich der Schulaufsicht sowie die Beratung und Unterstützung der Schulen bei der Qualitätsentwicklung und -sicherung auf Grundlage der Evaluationsergebnisse. Im Thüringer Schulgesetz wird zur Mitwirkung von SchulaufsichtsbeamtInnen bei der externen Evaluation ausdrücklich geregelt, dass die Expertenteams neben Lehrkräften und Schulleitungsmitgliedern, aus „Mitarbeitern aus Schulämtern außerhalb des für die Schule zuständigen Schulamtsbereichs“289 bestehen. Das Thüringer Verfahren ist allerdings seit einigen Jahren ausgesetzt. Zum Schuljahr 2018/2019 ist die Aufnahme eines neuen Verfahrens geplant.290

284§ 114

bw SchG; § 13 BremSchulVWG; § 98 HSchG; § 39a SchulG M-V; § 20e SchoG; § 11a SchulG LSA; § 40b ThürSchulG. In Schleswig-Holstein gibt es keinen gesonderten Paragrafen über die externe Evaluation. 285Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 2863.2 Abs. 6 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 16.07.2014. 287https://www.mk.niedersachsen.de/startseite/aktuelles/presseinformationen/nachhaltig-die-unterrichtsqualitaet-voranbringen-fokusevaluation-loest-zum-neuen-schuljahr-die-bisherige-schulinspektion-ab-161116.html. Zugegriffen: 14. Mai 2018. 288Gesetzentwurf der Staatsregierung zur Änderung des Bayerischen Gesetzes über das Erziehungs- und Unterrichtswesen v. 29.04.2008, DS 15/10594. 289§ 40b Abs. 4 S. 2 ThürSchulG. 290Vgl. Kap. 5.

7  Bildungsrechtliche Grundlagen datenbasierter …

301

Die Frage danach, wer „berät“, „bewertet“, „unterstützt“ und „kontrolliert“ lässt sich für die Länder nicht einheitlich beantworten. In Schleswig-Holstein steht beispielsweise das mit der externen Evaluation beauftragte Institut für Qualitätsentwicklung an Schulen Schleswig-Holstein (IQSH) nach Abschluss der externen Evaluation beratend und unterstützend bei der Schulentwicklung zur Seite291, obwohl die Beratungsfunktion der Schulaufsicht ebenfalls schulgesetzlich verankert ist.292 Folglich können sich Beratungsfunktion von Schulaufsicht und Schulinspektion überschneiden bzw. ist gesetzlich keine genauere Ausgestaltung des Begriffes „Beratung“ geregelt. Hinsichtlich des Bewertungsprozesses bei der externen Evaluation werden in Brandenburg, Hamburg und Nordrhein-Westfalen im Schulgesetz bzw. einer speziellen Verwaltungsvorschrift zur externen Evaluation ausdrückliche Regelungen zur Unabhängigkeit der für die externe Evaluation eingesetzten Personen festgeschrieben. In Brandenburg und Hamburg ist die Schulinspektion bei der Bewertung der Bildungsund Erziehungsarbeit der Schulen an keine Weisungen gebunden.293 In Nordrhein-Westfalen wird schulgesetzlich sowie verordnungsrechtlich festgehalten, dass die Inspektoren „bei der Durchführung der Qualitätsanalyse hinsichtlich ihrer Feststellung und deren Beurteilung an Weisungen nicht gebunden sind.“294 In den übrigen Bundesländern, in denen keine ausdrücklichen rechtlichen Regelungen festgelegt sind, hat der Gesetzgeber einen weiten Handlungsspielraum gesetzt, dennoch wird durch Informationen auf den jeweiligen landesspezifischen Webseiten deutlich, dass auch dort die mit der externen Evaluation befassten Personen die Schulen unabhängig bewerten und beurteilen sollen. Schulaufsichtliche Aufgaben werden in den meisten Ländern in den Schulgesetzen geregelt.295 Thüringen hat ein spezielles Gesetz über die Schulaufsicht (ThürSchAG) erlassen. In Bayern gibt es die Bekanntmachung der obersten Schulaufsichtsbehörde zu den Aufgaben der staatlichen Schulämter296 und in Bremen wird die Schulaufsicht im Bremischen Schulverwaltungsgesetz geregelt. Abschließend lässt sich festhalten, dass nach Analyse der einschlägigen Paragrafen der externen Evaluation und der Schulaufsicht, eine erhebliche Varianz in den Bundesländern besteht. Einzelne Bundesländer haben regelungstechnisch ähnliche Wege gewählt, andere individuelle Wege beschritten.

291§ 134 Abs. 1

sh SchulG. Nr. 1 sh SchulG. 293§  3 Abs. 1 S. 3 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 85 Abs. 3 S. 2 HmbSG. 294§ 86 Abs. 5 S. 2 nrw SchulG und§ 2 Abs. 1 S. 2 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 295Zu den Aufgaben der Schulaufsichtsbehörden siehe auch Abschn. 7.2.1. 296Aufgaben der Staatlichen Schulämter – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 06.07.2006. 292§ 125 Abs. 3

302

A. Kroupa et al.

7.4 Datenschutz und Umgang mit personenbezogenen Daten im Rahmen von Vergleichsarbeiten und Evaluationen 7.4.1 Erhebung schulischer Daten Daten werden im schulischen Alltag in vielfältigen Situationen erhoben und zur Steuerung schulischer Prozesse verwendet. Seit einigen Jahren ist ein verstärktes Interesse der Öffentlichkeit an Informationen zur Qualität der Schulen zu beobachten. Beim Einsatz der Evaluationsverfahren und -instrumente sind die datenschutzrechtlichen Bestimmungen aus den jeweiligen Schulgesetzen, Landesdatenschutzgesetzen und untergesetzlichen Regelungen (Verordnungen und Verwaltungsvorschriften) zu beachten. Das Recht auf informationelle Selbstbestimmung (Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 GG) sowie der Schutz personenbezogener Daten haben dabei höchste Priorität. Ergebnisse aus Vergleichsarbeiten und Evaluationsberichte der externen und internen Evaluation können Rückschlüsse auf den Schulunterricht und auch auf die Arbeit einzelner Lehrkräfte oder der Schulleitung geben. In den Schulgesetzen der Länder der Bundesrepublik Deutschland, in den untergesetzlichen Normen und Landesdatenschutzgesetzen werden sowohl datenschutzrelevante Fragestellungen als auch der Umgang mit personenbezogenen Daten rechtlich geklärt, die im Folgenden erörtert werden.

7.4.2 Umgang mit personenbezogenen Daten 7.4.2.1 Umgang mit personenbezogenen Daten im Rahmen von Vergleichsarbeiten Ergebnisse von Vergleichsarbeiten bieten eine bedeutsame Datengrundlage zur Unterrichtsentwicklung. Im Rahmen der landesweiten Vergleichsarbeiten werden personenbezogene Daten erhoben, verarbeitet und gespeichert. Die Erhebung, Verarbeitung und Speicherung von Daten richtet sich – mit Ausnahme von Bremen – nach den entsprechenden Landesdatenschutzgesetzen in Verbindung mit den Landesschulgesetzen.297 In Bremen existiert ein eigenes Schuldatenschutzgesetz.298 Für die erforderliche Ver-

297§ 13 bw LDSG i. V. m. § 114 Abs. 2 bw SchG; Art. 16 BayDSG i. V. m. Art. 111 Abs. 4 BayEUG; § 10 BlnDSG i. V. m. § 58 Abs. 6 bln SchulG; § 12 BbgDSG i. V. m. § 66 Abs. 2 Bbg SchulG; § 12 HmbDSG i. V. m. § 98 HmbSG; § 12 HDSG i. V. m. § 83 HSchG; § 9 DSG M-V i. V. m. § 70 SchulG M-V; § 9 NDSG i. V. m. § 30 NSchG; § 12 DSG NRW i. V. m. § 120 nrw SchulG; § 12 rp LDSG i. V. m. § 67 rp SchulG; § 12 SDSG i. V. m. § 20b Abs. 1 und § 20e Abs. 1 SchoG; § 12 sächs DSG i. V. m. § 3a Abs. 5 sächs SchulG; § 9 DSG LSA i. V. m. § 84a SchulG LSA; § 13 sh LDSG;§ 19 ThürDSG i. V. m. § 57 Abs. 6 ThürSchulG. 298Siehe § 10 BremDSG.

7  Bildungsrechtliche Grundlagen datenbasierter …

303

arbeitung personenbezogener Daten bei Vergleichsarbeiten bedarf es keiner Einwilligung.299 Es muss sichergestellt werden, dass auf die personenbezogenen Daten nur durch berechtigte Personen zugegriffen werden kann und dies nur im dienstlich notwendigen Umfang erfolgt.300 In Baden-Württemberg dürfen personenbezogene Daten ausschließlich an die betreffende Lehrkraft und an die Schulleitung übermittelt werden.301 In Berlin und Brandenburg wird das Verfahren zur einheitlichen Pseudonymisierung des Schülerdatensatzes von der obersten Schulaufsichtsbehörde vorgegeben und die für das Fach zuständige LehrerIn nimmt die Pseudonymisierung vor.302 Die Pseudonymisierung darf von der Schulaufsichtsbehörde dabei nicht aufgehoben werden. Die Datenübermittlung in Form der Ergebnisrückmeldung an die Erziehungsberechtigten erfolgt ebenfalls nach den entsprechenden Regelungen in den Landesdatenschutzgesetzen.303 Die Übermittlung ist danach zulässig, wenn ein berechtigtes Interesse an der Kenntnis der zu übermittelnden Daten besteht und der Betroffene kein schutzwürdiges Interesse am Ausschluss der Übermittlung hat. In Baden-Württemberg, Bayern, Berlin, Brandenburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen und Schleswig-Holstein ist die Rückmeldung der VERA-Ergebnisse an die Eltern verpflichtend in den untergesetzlichen Normen geregelt.304

299§ 115

bw SchG, 4.6 b Bekanntmachung über erläuternde Hinweise zum Vollzug der datenschutzrechtlichen Bestimmungen für die Schulen v. 11.01.2013; § 64 bln SchulG; § 1 Abs. 2 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017; § 13 Abs. 2 BremSchulDSG; § 98 HmbSG; § 83 Abs. 1 HSchG; § 70 Abs. 1 SchulG M-V; § 31 NSchG; § 120 nrw SchulG; § 67 rp SchulG; § 20b SchoG; § 63a sächs SchulG; § 84a Abs. 2 SchulG LSA; § 30 sh SchulG; § 57 Abs. 6 ThürSchulG. 300Vgl. bspw. §  3 Abs. 7 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. 301https://www.lernstandserhebungen-bw.de/datenschutz/. Zugegriffen: 15. Januar 2019. 302§ 3 Abs. 3 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 1 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 17.08.2012. 303§ 18 Abs. 1 bw LDSG; Art. 19 Abs. 1 BayDSG; § 13 BlnDSG; § 16 BbgDSG; § 17 BremDSG; § 16 HmbDSG; § 16 HDSG; § 15 DSG M-V; § 13 NDSG; § 16 DSG NRW; § 16 rp LDSG; § 16 SDSG; § 16 sächs DSG; § 12 DSG LSA; § 15 sh LDSG; § 22 ThürDSG. 3043. Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016; 2.2.1 Beratung und Transparenz in der Übertrittsphase – Bekanntmachung des Bayerischen Staatsministeriums für Unterricht und Kultus v. 22.07.2009; § 3 Abs. 8 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 3 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017; § 11 Abs. 2 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 3.5 Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012; § 2 Abs. 5 Erlass über die Durchführung von Vergleichsarbeiten in allgemein bildenden Schulen v. 04.12.2012.

304

A. Kroupa et al.

Die zusammengefassten, anonymisierten Ergebnisse aus den Vergleichsarbeiten werden in Baden-Württemberg, Berlin, Brandenburg, Hessen, Mecklenburg-Vorpommern und Nordrhein-Westfalen allen schulischen Gremien zur Verfügung gestellt.305 Daneben werden auch die Schulaufsichtsbehörden in Berlin, Brandenburg, Bremen, Mecklenburg-Vorpommern und Nordrhein-Westfalen über die Ergebnisse informiert.306 In Bremen wird sogar betont, dass die VERA-Ergebnisse auf Klassenebene/Lerngruppenebene der Schulaufsichtsbehörde zur Verfügung stehen.307 In Berlin ist geregelt, dass „der wissenschaftliche Projektträger […] die Vergleichsund Referenzwerte den Schulen und der Schulaufsichtsbehörde zur Verfügung [stellt]“; zusätzlich ist ausdrücklich festgelegt, dass „die Schulaufsichtsbehörde […] die Vergleichs- und Referenzwerte nur zu Zwecken der Qualitätssicherung und Evaluation […], nicht jedoch für operative Aufgaben der Schulaufsicht verwenden [darf].“308 Hingegen wird in Brandenburg, Bremen, Mecklenburg-Vorpommern und Nordrhein-Westfalen eine Unterstützung und Beratung durch die SchulaufsichtsbeamtInnen untergesetzlich geregelt.309

3053. Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016; § 3 Abs. 9 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 4 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 17.08.2012; Zentrale Lernstandserhebungen in den Jahrgangsstufen 3 und 8 – Verwaltungsvorschrift v. 15.09.2015; § 11 Abs. 3 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 3.2 Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012. 306§ 3 Abs. 6 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 2 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 27.10.2017; Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013; § 4 Abs. 5 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 3.4 Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012. 307Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013. 308§ 3 Abs. 6 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. 309Kernaufgaben der Schulaufsicht – Anlage 3 zu Nummer 6 Verwaltungsvorschriften über die Zuständigkeit, den Aufbau und den Geschäftsablauf der staatlichen Schulämter (Verwaltungsvorschriften Staatliche Schulämter – VVStSchÄ) v. 07.03.2016; Zentrale Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013; § 11 Abs. 5 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 5. Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012.

7  Bildungsrechtliche Grundlagen datenbasierter …

305

In Bremen ist ausdrücklich festgelegt, dass grundsätzlich keine schulscharfen VERA-Ergebnisse veröffentlicht werden dürfen.310 Auch nach dem Beschluss der Kultusministerkonferenz ist eine Veröffentlichung von schulscharfen VERA-Ergebnissen grundsätzlich in den Ländern nicht vorgesehen (Kultusministerkonferenz 2012). Jedoch ist in Berlin und Brandenburg geregelt, dass die Veröffentlichung der Ergebnisse im Rahmen eines Kurzberichts der Schulkonferenz in der jeweiligen Schule obliegt, sodass hier teilweise in schulbezogene Daten eingesehen werden kann.311 Dabei muss sichergestellt sein, dass kein Rückschluss auf die Ergebnisse individueller SchülerInnen möglich ist. Die oberste Schulaufsichtsbehörde kann in Berlin die zusammengefassten Ergebnisse der Schulen in geeigneter Form veröffentlichen.312 Sobald in Baden-Württemberg die Kenntnis der personenbezogenen Daten für die Schule zur Erfüllung der Aufgaben nach VERA nicht mehr erforderlich ist, müssen die gespeicherten personenbezogenen Daten gelöscht werden.313 In Baden-Württemberg, Mecklenburg-Vorpommern und Nordrhein-Westfalen ist auch geregelt, dass die Vergleichsarbeiten nach ihrer Auswertung auf Wunsch den SchülerInnen mitgegeben werden können.314

7.4.2.2 Umgang mit personenbezogenen Daten im Rahmen von Schulevaluationen Die Datenverarbeitung umfasst drei Bereiche: die Datenerhebung315, die Datenspeicherung/ Datenveränderung/Datennutzung316 und die Datenübermittlung.317 Über die Länder hinweg sind diese Begrifflichkeiten einheitlich. Die Schulen und die Schulaufsichtsbehörden

310Zentrale

Vergleichsarbeiten in der 8. Jahrgangsstufe (VERA-8) im Schuljahr 2013/2014 – Anhang zu Verfügung Nr. 33-2013 v. 14.06.2013. 311§ Abs. 9 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 3 Abs. 4 Verwaltungsvorschriften über Vergleichsarbeiten als diagnostische Testverfahren (VV-Diagnostische Testverfahren) v. 17.08.2012. 312§ 3 Abs. 9 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. 313https://www.lernstandserhebungen-bw.de/datenschutz/. Zugegriffen: 15. Januar 2019. 314§ 3 Verwaltungsvorschrift des Kultusministeriums zu den zentral angefertigten Lernstandserhebungen v. 20.05.2016; § 11 Abs. 5 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; 3.5 Zentrale Lernstandserhebungen (Vergleichsarbeiten) – RdErl. d. MK v. 20.12.2006 – Stand 25.02.2012. 315§  13 bw LDSG; Art. 16 BayDSG; § 10 BlnDSG; § 12 BbgDSG; § 10 BremDSG; § 12 HmbDSG; § 12 HDSG; § 9 DSG M-V; § 9 NDSG; § 12 DSG NRW; § 12 rp LDSG; § 12 SDSG; § 12 sächs DSG; § 9 DSG LSA; § 13 sh LDSG; § 19 ThürDSG. 316§ 15 bw LDSG; Art. 17 BayDSG; § 11 BlnDSG; § 13 BbgDSG; § 12 BremDSG; § 13 HmbDSG; § 13 HDSG; §§ 10, 11 DSG M-V; § 10 NDSG; § 13 DSG NRW; § 13 rp LDSG; § 13 SDSG; § 13sächs DSG; § 10 DSG LSA; § 13 sh LDSG; § 20 ThürDSG. 317§§ 16, 18 bw LDSG; Art. 18, 19 BayDSG; §§ 12, 13 BlnDSG; §§ 14, 16 BbgDSG; §§ 13, 17 BremDSG; §§ 14, 16 HmbDSG; §§ 14, 16 HDSG; §§ 14, 16 DSG M-V; §§ 11, 13 NDSG; §§ 14, 16 DSG NRW; §§ 14, 16 rp LDSG; §§ 14, 16 SDSG; §§ 14, 16 sächs DSG; §§ 11, 12 DSG LSA; §§ 14, 15 sh LDSG; §§ 21, 22 ThürDSG.

306

A. Kroupa et al.

dürfen personenbezogene Daten von SchülerInnen, ihren Erziehungsberechtigten, Lehrkräften und sonstigen schulischen MitarbeiterInnen verarbeiten, soweit dies zur Erfüllung der gesetzlich oder aufgrund eines Gesetzes zugewiesenen schulbezogenen Aufgaben erforderlich ist. Diese oder ähnliche Regelungen finden sich in allen Ländern der Bundesrepublik in den Schulgesetzen (mit Ausnahme von HB, wo diese Regelungen im Bremischen Schuldatenschutzgesetz festgelegt sind).318 Was unter personenbezogenen Daten zu verstehen ist, wird in den jeweiligen Landesdatenschutzgesetzen genauer ausgeführt. So sind personenbezogene Daten „Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person (Betroffener)“.319 Zu Zwecken der internen und externen Evaluation können Schulen, Schulaufsichtsbehörden sowie die mit der Evaluation Beauftragten (bspw. Landesinstitute) personenbezogene Daten ohne Einwilligung der Betroffenen erheben (aktives Beschaffen), verarbeiten (speichern, sperren, verändern, übermitteln, löschen) und nutzen. Dabei muss das öffentliche Interesse die schutzwürdigen Belange der Betroffenen erheblich überwiegen und der Verhältnismäßigkeitsgrundsatz gewahrt sein. Die Betroffenen (insbesondere SchülerInnen sowie Erziehungsberechtigte) werden vor der Durchführung einer Evaluation über die Ziele des Vorhabens, die Art ihrer Beteiligung an der Untersuchung, die Verarbeitung und Nutzung ihrer Daten sowie über die zur Einsichtnahme in die personenbezogenen Daten und Ergebnisse Berechtigten (schriftlich) informiert.320 Die personenbezogenen Daten sind zu anonymisieren, sobald dies nach dem Zweck der Evaluation möglich ist.321 Baden-Württemberg, Bayern, Bremen und Hamburg haben spezielle datenschutzrechtliche Verordnungen oder Verwaltungsvorschriften zum Datenschutz an öffentlichen Schulen erlassen, in denen ausdrückliche Regelungen zur Datenverarbeitung bei

318§ 115

Abs. 1 bw SchG; § 85 Abs. 1 BayEUG; § 64 Abs. 1 bln SchulG; § 65 Abs. 2 Bbg SchulG; § 2 Abs. 1 BremSchulDSG; § 98 Abs. 1 HmbSG; § 83 Abs. 1 HSchG; § 70 Abs. 1 SchulG M-V; § 31 Abs. 1 NSchG; § 120 Abs. 1 nrw SchulG; § 67 Abs. 1 rp SchulG; § 20b SchoG; § 63a Abs. 1 sächs SchulG; § 84a Abs. 2 SchulG LSA; § 30 Abs. 1 sh SchulG; § 57 Abs. 1 ThürSchulG. 319§ 3 Abs. 1 bw LDSG; Art. 4 Abs. 1 BayDSG; § 4 Abs. 1 S. 1 BlnDSG; § 3 Abs. 1 BbgDSG; § 2 Abs. 1 BremDSG; § 4 Abs. 1 HmbDSG; § 2 Abs. 1 HDSG; § 3 Abs. 1 DSG M-V; § 3 Abs. 1 NDSG; § Abs. 1 DSG NRW; § 3 Abs. 1 rp LDSG; § 3 Abs. 1 SDSG; § 3 Abs. 1 sächs DSG; § 2 Abs. 1 S. 1 DSG LSA; § 2 Abs. 1 sh LDSG; § 3 Abs. 1 ThürDSG. 320IV. Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014; Art. 113c Abs. 3 BayEUG; § 65 Abs. 3 bln SchulG; § 66 Abs. 3 Bbg SchulG; § 14 Abs. 4 BremSchulDSG; § 100 Abs. 4 HmbSG; § 83 Abs. 4 S. 2 HSchG; § 70 SchulG M-V; § 31 NSchG; § 120 nrw SchulG; § 67 Abs. 2 rp SchulG; § 20b SchoG; § 84a SchulG LSA; § 32 Abs. 2 sh SchulG; § 57 ThürSchulG. 321Art. 113c Abs. 3 BayEUG; § 65 bln SchulG; § 66 Abs. 3 Bbg SchulG; § 98 Abs. 5 HSchG; § 11 Abs. 6 Verordnung zur Qualitätsentwicklung und Qualitätssicherung an Selbstständigen Schulen (Schulqualitätsverordnung – SchQualiVO M-V) v. 09.11.2015; § 20c Abs. 2 SchoG; § 32 Abs. 2 sh SchulG.

7  Bildungsrechtliche Grundlagen datenbasierter …

307

­ valuationsmaßnahmen geregelt sind.322 So ist in Baden-Württemberg die Mitarbeit von E SchülerInnen und deren Erziehungsberechtigten bei Evaluationen grundsätzlich freiwillig, eine Verpflichtung besteht nur bei Unterrichtsbeobachtungen, die im Rahmen der internen und externen Evaluation durchgeführt werden.323 In Bayern ist zwar grundsätzlich für Erhebungen an Schulen eine Einwilligungspflicht der Betroffenen einzuholen.324 Dies gilt allerdings nicht für Erhebungen, an denen eine Teilnahmepflicht besteht. Laut schulgesetzlicher Festlegung325 können für diese Evaluationsverfahren (interne und externe Evaluation sowie Vergleichsarbeiten) Daten von den Schulen, den Schulaufsichtsbehörden sowie der Qualitätsagentur auch ohne Einwilligung der betroffenen Personen verarbeitet werden. In Berlin, Bremen, Hamburg muss die durchführende Stelle vor der internen Evaluation den „Kreis der einbezogenen Personen, den Erhebungs- und Berichtszeitraum, die Art der Testverfahren, Zweck, Art und Umfang der Untersuchung, die einzelnen Untersuchungs- und Hilfsmerkmale bei einer Befragung, die Trennung und Löschung der Daten sowie die für die Untersuchung verantwortliche Person schriftlich festlegen“.326 In einem Großteil der Länder ist ausdrücklich geregelt, dass LehrerInnen zur Mitarbeit bei der internen und externen Evaluation verpflichtet sind.327 Dies umfasst auch die Verpflichtung, an der Erhebung personenbezogener Daten anlässlich von evaluationsbezogenen schriftlichen und mündlichen Befragungen teilzunehmen und die erforderlichen Angaben zu machen sowie die Verpflichtung, gegebenenfalls bei der Beobachtung von Unterrichtssituationen im Rahmen der externen Evaluation mitzuwirken. Da es sich bei der internen und externen Evaluation um innerdienstliche, planerische und organisatorische Maßnahmen handelt, ist die Verarbeitung der für die Evaluation erforderlichen personenbezogenen Daten der Lehrkräfte nach den Landesdatenschutzgesetzen zulässig.328

322Datenschutz

an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014; Bekanntmachung über erläuternde Hinweise zum Vollzug der datenschutzrechtlichen Bestimmungen für die Schulen v. 11.01.2013; Bremisches Schuldatenschutzgesetz; Richtlinie Wissenschaftliche Untersuchungen an Schulen der Behörde für Schule und Berufsbildung v. 13.05.2013. 3232.1 Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014. 324Bekanntmachung über erläuternde Hinweise zum Vollzug der datenschutzrechtlichen Bestimmungen für die Schulen v. 11.01.2013. 325BayEUG 113c, Abs. 3. 326§ 65 Abs. 1 bln SchulG; § 14 Abs. 2 BremSchulDSG; § 100 Abs. 4 HmbSG. 327§ 114 Abs. 1 S. 5 bw SchG; Art. 111 Abs. 4 BayEUG; § 9 Abs. 4 bln SchulG; § 98 Abs. 5 S. 1 HSchG; § 39a Abs. 5 SchulG M-V; § 30 Abs. 3 NSchG; § 3 Abs. 4 S. 1 nrw SchulG; § 23 Abs. 2 rp SchulG; § 20e Abs. 1 SchoG; § 40b Abs. 3 ThürSchulG. 328Vgl. § 36 bw LDSG; § 29 BbgDSG; § 20 BremDSG; § 28 HmbDSG; § 34 HDSG; § 35 DSG M-V; § 24 NDSG; § 29 DSG NRW; § 31 rp LDSG; § 31 SDSG; § 37 sächs DSG; § 28 DSG LSA; § 23 sh LDSG; § 33 ThürDSG.

308

A. Kroupa et al.

Die LehrerInnen sind vor Durchführung der Evaluation über das Ziel des Vorhabens, die Art ihrer Beteiligung an der Untersuchung, die Verarbeitung und Nutzung ihrer Daten sowie über die zur Einsichtnahme in die personenbezogenen Daten und Ergebnisse Berechtigten zu informieren.329 Die Information muss in geeigneter Weise, in der Regel schriftlich, erfolgen. Regelungen zur Übermittlung von Ergebnissen aus internen oder externen Evaluationen und zur Veröffentlichung der Berichte sind in den Ländern unterschiedlich stark ausdifferenziert. In Bayern, Berlin, Brandenburg, Hamburg, Hessen und Nordrhein-Westfalen dürfen Ergebnisse der externen Evaluation (in nicht personenbezogener Form) veröffentlicht werden.330 In Niedersachsen ist dagegen ausdrücklich geregelt, dass eine Veröffentlichung des Inspektionsberichts und die Weitergabe des Berichts an Dritte nicht stattfindet.331 Die Entscheidung darüber trifft die Schulleitung (HE) bzw. die Schulkonferenz im Einvernehmen mit der Schulleitung (BE, BB, NRW)332. In Baden-Württemberg ist für die Übermittlung des Berichts der externen Evaluation an die Schulaufsichtsbehörde keine Einwilligung erforderlich.333 Die Evaluationsergebnisse dürfen jedoch nur in einer Form übermittelt werden, die eine Zuordnung bestimmter oder bestimmbarer Personen unmöglich macht (BW, BY, HE)334. Die Verwendung von nicht personenbezogenen Daten bspw. bei schulinternen Qualitätsdokumentationen, bei der internen oder externen Evaluation ist hingegen datenschutzrechtlich unbedenklich.335 In Baden-Württemberg ist ausdrücklich festgelegt, dass personenbezogene Daten von Lehrkräften, SchülerInnen und der Schulleitung nur mit deren Einwilligung an Dritte übermittelt werden dürfen, während in Hessen personenbezogene Daten auch Dritten, die mit der externen Evaluation beauftragt sind, ohne Einwilligung überlassen werden

329IV. Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014; Art. 113c Abs. 3 BayEUG; § 65 bln SchulG; § 65 Bbg SchulG; § 14 BremSchulDSG; § 100 Abs. 4 HmbSG; § 83 Abs. 4 HSchG; § 121 nrw SchulG; § 67 Abs. 2 rp SchulG; § 20b SchoG. 330Bekanntmachung über erläuternde Hinweise zum Vollzug der datenschutzrechtlichen Bestimmungen für die Schulen v. 11.01.2013; § 5 Abs. 3 S. 1 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011; § 6 Abs. 1 S. 1 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; § 100 Abs. 1 S. 2 HmbSG; § 98 Abs. 5 S. 3 HSchG; § 3 Abs.  9 S. 1 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 3313.3 Abs. 5 Schulinspektionen in Niedersachsen – RdErl. d. MK v. 07.04.2006. 332§  5 Abs. 3 S. 1 u. 2 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011, § 6 Abs. 1 S. 1 u. 2 Verwaltungsvorschriften über die Schulvisitation im Land Brandenburg (VV-Schulvisitation) v. 13.10.2016; Erlass v. 20.08.2010 – Zweite Inspektion hessischer Schulen; § 3 Abs. 9 Verordnung über die Qualitätsanalyse an Schulen in Nordrhein-Westfalen (Qualitätsanalyse-Verordnung – QA-VO) v. 27.04.2007. 3334.4 Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014. 3344.1 Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014; Bekanntmachung über erläuternde Hinweise zum Vollzug der datenschutzrechtlichen Bestimmungen für die Schulen v. 11.01.2013; § 98 Abs. 5 S. 3 HSchG. 335Vgl. 3.4 Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014.

7  Bildungsrechtliche Grundlagen datenbasierter …

309

dürfen, wenn das öffentliche Interesse die schutzwürdigen Belange des Betroffenen überwiegt und der Verhältnismäßigkeitsgrundsatz gewahrt ist.336 Dritte sind danach sowohl die schulischen Gremien als auch mittelbar am Schulleben Beteiligte (bspw. der Schulträger). Bei der Erstellung der Schulinspektionsberichte dürfen in Berlin personenbezogene Daten der Schulleiterin oder des Schulleiters verarbeitet werden, soweit dies nach dem Sinn und Zweck des Schulinspektionsberichts zwingend erforderlich ist.337

7.4.3 Schulische Evaluation und Informationsfreiheit in den Bundesländern Gemäß Art. 5 Grundgesetz besteht das Recht, sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Allgemein zugängliche Quellen sind jedoch bisher eher Mangelware gewesen und es galt beschränkte Aktenöffentlichkeit (Guckelberger 2007). Mit Entwicklung der Informationsfreiheitsgesetze (IFG) auf Bundesebene338 und teilweise auch auf Landesebene339 erhielten BürgerInnen einen Anspruch auf Zugang zu staatlich gesammelten Informationen bei Bundes- bzw. Landesbehörden, soweit keine Ausnahmegründe für die Verweigerung einer Offenlegung vorliegen. Zu diesen Informationen können auch Daten aus dem Bildungsbereich gehören. Die Bildungsberichterstattungen des Bundes und der Länder stellen eine Maßnahme dar, diese Pflicht zu erfüllen. Durch aggregierte Ergebnisse aus den Evaluationen wird die schulische Öffentlichkeit über den Zustand des Schulsystems informiert. Das Berliner Informationsfreiheitsgesetz beispielsweise verlangt, dass die öffentlichen Stellen • „Verzeichnisse führen, die geeignet sind, die Aktenordnung und den Aktenbestand sowie den Zweck der geführten Akten erkennen zu lassen.“340 • „Register, Aktenpläne, Aktenordnungen, Aktenverzeichnisse, Einsenderverzeichnisse, Tagebücher und Verzeichnisse […] allgemein zugänglich zu machen und im Internet zu veröffentlichen.“341

3364.3

Datenschutz an öffentlichen Schulen – Verwaltungsvorschrift v. 05.12.2014; § 83 Abs. 4 S. 4 HSchG. 337§ 5 Abs. 1 Verordnung über schulische Qualitätssicherung und Evaluation v. 29.11.2011. 338Das Informationsfreiheitsgesetz (IFG) trat am 01.01.2006 auf Bundesebene in Kraft. 339BW, BE, BB, MV, NW, SL, ST, SH, TH haben Informationsfreiheitsgesetze verabschiedet. Die Informationen werden nur auf Antrag herausgegeben. HB, HH und RP zählen zu den Bundesländern mit Transparenzgesetzen, in denen die Behörden zentrale Daten eigenständig veröffentlichen müssen. Die Veröffentlichungspflicht umfasst in RP nur die Landesebene, nicht die Kommunalverwaltungen. Zu den zentralen Daten zählen u. a. öffentliche Landschafts- und Baupläne, Gutachten, Subventionen oder Senatsbeschlüsse. BY, HE, NI und SN haben keine Informationsfreiheitsgesetze auf Landesebene. Allerdings haben sich die Städte Dresden und Leipzig sowie 70 Kommunen in BY eigene Informationsfreiheitssatzungen gegeben. 340§ 17 Abs. 5 S. 1 bln IFG. 341§ 17 Abs. 5 S. 2 bln IFG.

310

A. Kroupa et al.

Danach sind Akten „alle schriftlich, elektronisch, optisch, akustisch oder auf andere Weise festgehaltenen Gedankenverkörperungen und sonstige Aufzeichnungen, insbesondere Schriftstücke, Magnetbänder, Disketten, Filme, Fotos, Tonbänder, Pläne, Diagramme, Bilder und Karten, soweit sie amtlichen Zwecken dienen“.342 Jedoch schränken umfangreiche Ausnahmeregelungen das Informationsrecht ein. So besteht kein Anspruch auf Informationszugang, „soweit durch die Akteneinsicht oder Aktenauskunft personenbezogene Daten veröffentlicht werden und tatsächliche Anhaltspunkte dafür vorhanden sind, dass überwiegend Privatinteressen verfolgt werden oder der Offenbarung schutzwürdige Belange der Betroffenen entgegenstehen und das Informationsinteresse das Interesse der Betroffenen an der Geheimhaltung nicht überwiegt.“343 In der gegenwärtigen Diskussion um die Relevanz des Informationsfreiheitsgesetzes im schulischen Kontext wird vielfach argumentiert, dass Individualdaten im Falle der Rückmeldung (u. a. Schülerdaten oder Daten der Lehrkräfte, die zur Überprüfung ihrer Leistung führen können) in diese Kategorie gehören würden. In einigen Ländern unterliegen in den Landesinformationsfreiheitsgesetzen Forschungseinrichtungen, Hochschulen, Schulen und sonstige Bildungs- sowie Prüfungseinrichtungen dem IFG lediglich, soweit sie nicht im Bereich von Forschung, Lehre, Leistungsbeurteilungen und Prüfungen tätig werden344. Daraus könnte auch eine Verweigerung des Zugriffs auf VERA-Daten abgeleitet werden. Wenn VERADaten als Verwaltungsdaten eingestuft werden, die in erster Linie der Vorbereitung von Entscheidungen dienen, würde ggfls. einer der umfangreichen Ausschlussgründe greifen. Ob schulische Daten als geheime Daten einzustufen sind, wird unterschiedlich bewertet (vgl. Vieth-Entus 2018). Mittlerweile gibt es – wenn auch wenig – Rechtsprechung zu dieser Problematik. Der Berliner Senat wurde 2013 beispielsweise von der Internetplattform „spickmich GmbH“ aufgefordert, Schuldaten herauszugeben und hatte dies mit der Begründung verweigert, das Informationsfreiheitsgesetz sei im Schulbereich nicht anwendbar. Das Verwaltungsgericht sah in der mündlichen Verhandlung den Anspruch jedoch als rechtens an, woraufhin der Senat die gewünschten Daten (in diesem Fall Auskunft über die Abbrecherquote an allen weiterführenden Schulen sowie über die Quote der Gymnasialempfehlungen an Grundschulen) herausgab.345 In der Literatur wird immer wieder die Veröffentlichung von Ergebnissen aus landesweiten Vergleichsarbeiten gefordert (Prechtl 2005). In den Niederlanden sind die Inspektionsberichte und Ergebnisse von Abschlussprüfungen online zu Verfügung zu stellen, nachdem eine niederländische Zeitung gegen deren Geheimhaltung geklagt hatte (Böttcher und Kotthoff 2007).346

342§ 3 Abs. 2

bln IFG. bln IFG. 344§ 2 Abs. 3 Nr. 2 bw LIFG; § 2 Abs. 2 S. 2 AIG; § 2 Abs. 3 IFG NRW; § 1 S. 4 SIFG; § 2 Abs. 5 ThürIFG. 345Beide Seiten einigten sich ohne Urteilsspruch. 346Siehe auch https://www.news4teachers.de/2011/07/offenlegen-aber-fair/. Zugegriffen: 15. Januar 2019. 343§ 6 Abs. 1

7  Bildungsrechtliche Grundlagen datenbasierter …

311

Der Umfang der in den Schulen erhobenen Daten ist in den letzten Jahren gestiegen, und das Interesse an schulbezogenen Informationen aus Vergleichsarbeiten, Evaluationen und Schulinspektionen steigt stetig. Neben der Berufung auf die Informationsfreiheitsgesetze der Länder, wird sich dabei auch auf presserechtliche Regelungen berufen,347 welche die staatlichen Stellen zur Herausgabe der Daten verpflichten sollen. Dabei sollen die erhobenen Daten laut Kulturministerkonferenz vordergründig dem Zweck dienen, die Qualitätssicherung der Schulen zu fördern und nicht für Rankings herangezogen werden (Kultusministerkonferenz 2016). Gegenwärtig wird zwar eine intensive Diskussion im Hinblick auf Informationsfreiheit und Datenschutz geführt, jedoch kann erst weitere Rechtsprechung größere Klarheit schaffen.

Literatur Avenarius, H., & Füssel, H.-P. (2010). Schulrecht. Ein Handbuch für Praxis, Rechtsprechung und Wissenschaft (8., neubearb Aufl.). Kronach: Link (Handbuch Schulrecht). Badura, P. (2018). Staatsrecht. Systematische Erläuterung des Grundgesetzes für die Bundesrepublik Deutschland (7., überarbeitete Aufl.). München: Beck. Battis, U., & Gusy, C. (2011). Einführung in das Staatsrecht (5., neubearbeitete Aufl.). De Gruyter (zu finden unter: ISBN 978-3-89949-799-1). Bogumil, J., Fahlbusch, R. M., & Kuhn, H.-J. (2016). Weiterentwicklung der Schulverwaltung des Landes NRW. Wissenschaftliches Gutachten im Auftrag des Finanzministeriums. https://www. finanzverwaltung.nrw.de/sites/default/files/asset/document/endberichtschule-nrw0509.pdf. Böttcher, W., & Kotthoff, H.-G. (Hrsg.). (2007). Schulinspektion: Evaluation, Rechenschaftslegung und Qualitätsentwicklung (Studien zur international und interkulturell vergleichenden Erziehungswissenschaft, Bd. 8). Münster: Waxmann. Bräth, P. (2006). Anmerkungen zum Gesetz zur Einführung der Eigenverantwortlichen Schule. https://www.landkreis-verden.de/downloads/datei/OTAxMDAxMTg3Oy07L3d3dy92aHRkb2NzL2Ntcy9sa3Zlci9tZWRpZW4vZG9rdW1lbnRlL2F1ZnNhdHpfYnJhZXRoLnBkZg%3D%3D. Degenhart, C., Isensee, J., & Kirchhof, P. (Hrsg.). (2007). Handbuch des Staatsrechts der Bundesrepublik Deutschland (3., völlig neubearbeitete u. erweiterte Aufl.). Heidelberg: Müller. Füssel, H.-P. (2008). Schulinspektion und Schulaufsicht, Schulinspektion oder Schulaufsicht, Schulinspektion versus Schulaufsicht, Schulinspektion als Schulaufsicht? In H. Döbert & K. Dedering (Hrsg.), Externe Evaluation von Schulen: Historische, rechtliche und vergleichende Aspekte. Münster: Waxmann. Füssel, H.-P., & Leschinsky, A. (2008). Die institutionelle Rahmung des Bildungswesens. In K. S. Cortina (Hrsg.), Das Bildungswesen in der Bundesrepublik Deutschland. Strukturen und Entwicklungen im Überblick (Bd. 62339). Reinbek bei Hamburg: Rowohlt Taschenbuch (Rororo Sachbuch, Vollst. überarb. Neuausg).

347Das Auskunftsrecht für Journalisten richtet sich nach den jeweiligen Pressegesetzen, bspw. § 4 PresseG BE.

312

A. Kroupa et al.

Guckelberger, A. (2007). Informationsfreiheit im Saarland. Zeitschrift für Landes- und Kommunalrecht Hessen, 1(4), 125–164. Isensee, J., & Kirchhof, P. (Hrsg.). (2007). Handbuch des Staatsrechts der Bundesrepublik Deutschland (3., völlig neubearbeitete u. erweiterte Aufl.). Heidelberg: Müller. Kultusministerkonferenz (= Sekretariat der Ständigen Konferenz der Kultusminister). (Hrsg.). (2006). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Kultusministerkonferenz (= Sekretariat der Ständigen Konferenz der Kultusminister). (Hrsg.). (2012). Vereinbarung zur Weiterentwicklung von VERA. Beschluss der Kultusministerkonferenz vom 08.03.2012. Kultusministerkonferenz. (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Maurer, H., & Waldhoff, C. (2017). Allgemeines Verwaltungsrecht (Grundrisse des Rechts, 19., überarbeitete u. ergänzte Aufl.). München: Beck. Prechtl, C. (Hrsg.). (2005). Bildung neu denken! Das juristische Konzept. Wiesbaden: VS Verlag. Rux, J. (2018). Schulrecht (NJW-Praxis, 27/1, 6 Aufl.). München: Beck. Sachs, M. (Hrsg.). (2018). Grundgesetz. Kommentar (8. Aufl.). München: Beck. Staupe, J. (1986). Parlamentsvorbehalt und Delegationsbefugnis Zur “Wesentlichkeitstheorie” und zur Reichweite legislativer Regelungskompetenz, insbesondere im Schulrecht (Bd. 506). Berlin: Duncker & Humblot (Schriften zum öffentlichen Recht). Van Buer, J., & Wagner, C. (2014). Qualität von Schule. Ein kritisches Handbuch. Frankfurt a. M.: Lang. Vieth-Entus, S. (13. Februar 2018). Berlins Drittklässler können nicht schreiben. Der Tagesspiegel. https://www.tagesspiegel.de/berlin/geheime-daten-des-senats-berlins-drittklaessler-koennen-nicht-schreiben/20950606.html.

8

Strategien datenbasierter Steuerung zur Sicherung und Entwicklung von Schulqualität in den 16 Ländern – Zusammenfassung und Diskussion Felicitas Thiel, Jasmin Tarkian, Eva-Maria Lankes, Norbert Maritzen und Thomas Riecke-Baulecke

Mit der vorliegenden Publikation wird erstmals die Implementation einer in der Kultusministerkonferenz (2016) verabredeten Strategie zur Qualitätsentwicklung im Bildungssystem in den 16 Ländern der Bundesrepublik Deutschland umfassend dokumentiert. Gegenstand der Analyse waren Dokumente und nicht die pädagogische, administrative oder politische Praxis. Dass eine Dokumentenanalyse keinen unmittelbaren Schluss auf praktisches Handeln der Akteure zulässt, versteht sich von selbst (Mintrop et al. 2001). Befunde aus der Sozial- und Politikwissenschaft verweisen darauf, dass insbesondere Reformmaßnahmen in der Praxis häufig auf Vorbehalte treffen und nur teilweise, verzerrt oder (im schlimmsten Fall) gar nicht implementiert werden (vgl. für den Schulkontext: Altrichter und Wiesinger 2005). Gleichwohl ist eine Analyse von konzeptuellen und rechtlichen Dokumenten von hohem Wert. Die von uns untersuchten Dokumente formulieren Ziele, beschreiben mögliche Maßnahmen und definieren Verfahren. Sie F. Thiel (*) · J. Tarkian  Berlin, Deutschland E-Mail: [email protected] J. Tarkian E-Mail: [email protected] E.-M. Lankes  München, Deutschland E-Mail: [email protected] N. Maritzen  Hamburg, Deutschland E-Mail: [email protected] T. Riecke-Baulecke  Kronshagen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 F. Thiel et al. (Hrsg.), Datenbasierte Qualitätssicherung und -entwicklung in Schulen, https://doi.org/10.1007/978-3-658-23240-5_8

313

314

F. Thiel et al.

haben, in besonderer Weise gilt das für Gesetze und untergesetzliche Normen, Veranlassungscharakter und konditionieren praktische Entscheidungen im Unterricht, in der Schulbehörde und der Schulpolitik. Damit stellen sie eine wichtige, wenngleich nicht hinreichende Voraussetzung für eine koordinierte, zielgerichtete und strategische Entwicklung der Schule und des Unterrichts in jedem Land dar. Eingang in die Analyse fanden neben Schulgesetzen und untergesetzlichen Normen die allgemeinen Referenzrahmen zur Schulqualität sowie unterschiedliche Dokumente, die die Implementation von Vergleichsarbeiten sowie von externer und interner Evaluation regeln. Die Dokumente wurden dabei stichtagsbezogen (31.01.2018) ausgewertet. Im Folgenden wird zunächst ein zusammenfassender Überblick über die analysierten Qualitätskonzeptionen sowie Verfahren der Datenerhebung und -nutzung gegeben. Anschließend werden Funktionen der Instrumente und Strategien datenbasierter Steuerung auf der Grundlage der drei analysierten Verfahren skizziert. Zum Schluss werden zentrale Herausforderungen sowie Perspektiven für die Weiterentwicklung der Verfahren umrissen.

8.1 Qualitätskonzeptionen, Verfahren der Datenerhebung und -nutzung Zusammenfassend kann festgehalten werden, dass sich aus den analysierten Dokumenten der Länder ein im Kern gemeinsames Verständnis von prozessualen und inhaltlichen Merkmalen der datenbasierten Qualitätssicherung und -entwicklung ablesen lässt. Bezogen auf die prozessualen Merkmale von Qualitätssicherung und -entwicklung finden sich in allen Dokumenten explizite oder implizite Ausführungen zum Qualitätszyklus und damit zum Zusammenhang zwischen strategischer Planung, Implementation gezielter Maßnahmen und Evaluation der Ergebnisse. Inhaltlich zeigt sich in allen Dokumenten eine ähnliche Operationalisierung von Schulqualität. Zwar ist auf der Ebene des Unterrichts die Schnittmenge etwas kleiner als auf der Ebene der Schule, gleichwohl existiert ein im Kern gemeinsames Verständnis von Unterrichtsqualität der Länder. Prinzipiell sind Anschlüsse an die Befundlage der Bildungsforschung erkennbar, allerdings sind diese nur selten explizit ausgewiesen. Von einer im strengen Sinne evidenzbasierten Entwicklung von Instrumenten und Maßnahmen kann, was die drei untersuchten Verfahren betrifft, nur hinsichtlich der Testentwicklung von Vergleichsarbeiten gesprochen werden. Unterschiede zwischen den Ländern zeigen sich hinsichtlich der Definition von Aufgaben und Entscheidungsbefugnissen unterschiedlicher Akteure (insbesondere der Schulaufsicht, der Schulleitungen und der schulischen Gremien), hinsichtlich der genauen Gestaltung der Verfahren der Datenerhebung, der Datenrückmeldung (auf der Grundlage landesspezifischer datenschutzrechtlicher Regelungen) und der Unterstützungssysteme, hinsichtlich einer systematischen Verknüpfung der drei Verfahren und vor allem auch hinsichtlich der Funktionen, die die einzelnen Länder mit den Verfahren entweder explizit oder implizit verbinden.

8  Strategien datenbasierter Steuerung zur Sicherung und …

315

So differiert etwa bei den Vergleichsarbeiten der Umfang verpflichtend durchzuführender Testungen. Die flächendeckend durchgeführten Vergleichsarbeiten in der dritten und achten Jahrgangsstufe werden in einigen Ländern um weitere standardisierte Tests ergänzt. Auch hinsichtlich der Aufbereitung der Daten für die Rückmeldung an Schulen, die teilweise in Zusammenarbeit mit landeseigenen Instituten, teilweise in Verbindung mit Kooperationspartnern erfolgt, bestehen deutliche Unterschiede. Gleiches gilt für die AdressatInnen der Rückmeldung. Wer gemäß Schulverfassung welche Aufgaben und Entscheidungsbefugnisse bei der Nutzung von VERA-Daten hat, ob die Daten nur an das Kollegium oder auch an die Eltern verpflichtend zurückgemeldet werden sollen oder ob und in welcher Auflösung die Schulaufsicht mit Daten aus Vergleichsarbeiten der Einzelschule versorgt wird, ist in den Ländern unterschiedlich geregelt. Unterschiede bestehen auch, was die Anschlussaktivitäten an die Datenrückmeldung betrifft, die von (anzufragender) Beratung über konkrete Unterstützungsangebote bis hin zu Ziel- und Leistungsvereinbarungen reichen sowie hinsichtlich der Aufbereitung aggregierter Daten für die Bildungsberichterstattung. Im Unterschied zu den Vergleichsarbeiten wurden Verfahren externer Evaluation in den Ländern zu unterschiedlichen Zeitpunkten eingeführt, überarbeitet bzw. modifiziert und wieder ausgesetzt. Verfahren externer Evaluation unterscheiden sich nicht nur hinsichtlich der Bezeichnungen, die von Inspektoraten über Visitationen bis hin zur Qualitätsanalyse reichen, sondern auch hinsichtlich der Zusammensetzung der Inspektionsteams, der Datengrundlage der Urteilsbildung bzw. Instrumenten zur Datengewinnung, der Dauer der Begehung, der Gestaltung des Rückmeldeberichts, der Rolle der Schulaufsicht bei der Begleitung des Verfahrens, der Offenlegung der Befunde für unterschiedliche Adressatengruppen sowie der Gestaltung anschließender Aktivitäten wie beispielsweise Ziel- und Leistungsvereinbarungen. Ob die Daten für Steuerungsentscheidungen der Bildungspolitik und -administration aggregiert aufbereitet werden, ist ebenfalls von Land zu Land unterschiedlich geregelt. Im Unterschied zum Einführungszeitpunkt haben derzeit zwei Länder das Verfahren in Richtung einer freiwilligen Beauftragung (on demand) weiterentwickelt. Die Einführung von Verfahren der internen Evaluation steht im engen Zusammenhang mit der Ausweitung der Entscheidungsspielräume für Schulen. Interne Evaluation wird häufig im Rahmen der Schulprogrammarbeit verortet. In vielen Ländern wurde sie im Kontext von Modellversuchen zur eigenverantwortlichen Schule implementiert. Auch hinsichtlich der internen Evaluation unterscheiden sich die Länder deutlich. Dies gilt nicht nur für den Zeitpunkt der Implementation des Verfahrens, sondern auch für den (vorgeschriebenen) Turnus der Durchführung, die Bereitstellung von Instrumenten und Handreichungen zur Durchführung, die Unterstützungs- und Qualifizierungsangebote, die Definition von Aufgaben und Entscheidungsbefugnissen hinsichtlich der inhaltlichen Ausrichtung, die Adressaten der Befunde/Berichte sowie die Beschreibung von Anschlussaktivitäten.

316

F. Thiel et al.

Nicht nur in der Monitoringstrategie der KMK, sondern auch in zahlreichen steuerungstheoretischen Publikationen zur evidenzbasierten Qualitätsentwicklung von Schulen werden die drei Instrumente – Vergleichsarbeiten, externe und interne ­Evaluation – als Bestandteile einer übergeordneten Strategie definiert. Anders formuliert: Über die Auffassung, dass die drei Instrumente ihr jeweiliges Potenzial für Qualitätsentwicklung erst in ihrer systematischen Verschränkung voll entfalten, besteht sowohl in der Bildungspraxis als auch in der Bildungsforschung weitgehend Konsens. In der Praxis existieren allerdings deutliche Abweichungen von diesem theoretischen Konsens, das zeigen die in dem vorliegenden Band dokumentierten Analysen. Ob eine Verzahnung der Verfahren in der Praxis implementiert ist, scheint nicht zuletzt davon abzuhängen, ob eine Position und/oder Person existiert, die die häufig in unterschiedlichen Referaten oder Abteilungen entwickelten Verfahren zusammenführt. Grundlage für eine solche Verzahnung ist ein implizites oder explizites konzeptuelles Modell evidenzbasierten Entscheidens im Mehrebenensystem der Bildung. Die Existenz eines solches Modells war nicht Gegenstand der durchgeführten Untersuchungen. Vor allem in den Interviews waren an einigen Stellen entsprechende konzeptuelle Überlegungen aber durchaus erkennbar. Was die systematische Verknüpfung der drei Datenquellen betrifft, gehen die Länder, das zeigen die Analysen, unterschiedliche Wege. Inwieweit VERA-Daten beispielsweise von der externen Evaluation genutzt werden, um Risikoschulen für eine prioritäre Inspektion zu identifizieren, ist von Land zu Land unterschiedlich geregelt. Was die Verknüpfung von Vergleichsarbeiten und interne Evaluation betrifft, bestehen bislang nur in wenigen Ländern systematische Anstrengungen. Unterschiede bestehen auch bei der Verknüpfung von interner und externer Evaluation, und zwar in beide Richtungen: die Nutzung von Ergebnissen interner Evaluation als Datengrundlage für die externe Evaluation sowie die Nutzung von Befunden der externen Evaluation durch die Schule mit dem Ziel einer Fokussierung anschließender interner Evaluation auf Bereiche mit besonderem Entwicklungsbedarf. Fremd- und Selbstevaluation, so der weithin geteilte Anspruch, sollen sich idealerweise als zentrale Instrumente der Schulentwicklung ergänzen. Diese Verschränkung ist in den Ländern allerdings nach Umfang und Systematik ganz unterschiedlich umgesetzt.

8.2 Funktionen der Instrumente und Strategien datenbasierter Schulentwicklung Im Einklang mit sozialwissenschaftlichen Analysen politischer und organisationaler Steuerung (Schimank 2014; Schmid et al. 2007; Wiesenthal 2000) lassen sich idealtypisch unterschiedliche Strategien datenbasierter Schulentwicklung ableiten: Entwicklung, die stark von der professionellen Gemeinschaft der Lehrkräfte getragen wird; Entwicklung, die durch steuernde Eingriffe einer an klare Verfahrensstandards gebundenen Verwaltung angeregt wird; Entwicklung, die sich einer starken Partizipation

8  Strategien datenbasierter Steuerung zur Sicherung und …

317

von Eltern und SchülerInnen an der Schulgemeinschaft verdankt oder Entwicklung, die angestoßen wird durch die (antizipierten) Ansprüche und (Schulwahl-)Entscheidungen der SchülerInnen bzw. deren Eltern (vgl. Thiel 2008; Thiel et al. 2014). In der schulischen Realität dominieren die idealtypischen Steuerungsmechanismen der professionellen Selbstregulierung und der bürokratischen Steuerung sowie, im Rahmen der in der Schulverfassung vorgesehenen Partizipation der Eltern und SchülerInnen, auch der Schulgemeinschaft. Eine strategische, an der Nachfrage von „Kunden“ ausgerichtete Schulentwicklung spielt demgegenüber im deutschen Schulsystem zwar grundsätzlich eine untergeordnete Rolle; in Situationen, in denen mehrere Schulen um SchülerInnen konkurrieren, greifen allerdings ähnlich wie im englischen System durchaus auch Wettbewerbsmechanismen zwischen Schulen (Altrichter et al. 2011; Kotthoff 2003). Mit der Regelung zur Rückmeldung von Daten an bestimmte Akteure sowie der Definition von Entscheidungsbefugnissen im Umgang mit Daten schafft die Schulpolitik Rahmenbedingungen für Entwicklungsprozesse auf der Schulebene. Ob Schulentwicklung vorwiegend in der Verantwortung der Professionellen erfolgt, ob die Eltern und SchülerInnen einen entscheidenden Einfluss auf die Schulentwicklung haben, ob die zuständige Schulaufsicht eine starke Rolle bei der Schulentwicklung spielt oder ob (antizipierte) Erwartungen und Schulwahlentscheidungen von zukünftigen SchülerInnen bzw. deren Eltern von zentraler Bedeutung für die Entwicklung der Schule sind, ist auch davon abhängig, ob Daten für Entwicklung, Monitoring, Controlling oder für Informationszwecke aufbereitet und rückgemeldet werden. Diese Rahmenbedingungen datenbasierter Qualitätssicherung unterscheiden sich zwischen den Ländern teilweise deutlich. Die Entwicklungsfunktion, die für alle drei Verfahren in allen Ländern die maßgebliche Funktion ist, ist dadurch definiert, dass Daten den entsprechenden schulischen Akteuren (Lehrkräfte, Schulleitung) explizit zur Entwicklung von Unterricht und Schule zur Verfügung gestellt werden. Eine Controllingfunktion kann dort identifiziert werden, wo Daten aus den Verfahren der operativen Schulaufsicht zum Zweck der Rechenschaftslegung und Zielvereinbarung regelhaft zugänglich gemacht werden bzw. die SchulrätInnen laut entsprechender Festlegungen aktiv in das Evaluationsverfahren einzubeziehen sind. Die Informationsfunktion kann sich entweder auf die innerschulische Öffentlichkeit, einschließlich der Eltern, oder auf die Gesamtöffentlichkeit beziehen, sofern diese zu Adressaten schulscharfer Ergebnisse werden. Eine Monitoringfunktion haben die Verfahren dann, wenn Daten in einer aggregierten Form aufbereitet werden (Berichtslegung) und damit für eine Beobachtung der Gesamtsituation der Schulen einer Region oder eines Landes sowie für übergeordnete Steuerungsentscheidungen zugänglich gemacht werden (Systemmonitoring). Die Analysen zeigen, dass die drei untersuchten Verfahren in den Ländern durchaus unterschiedliche Funktionen haben. Was die Vergleichsarbeiten betrifft, betonen zum Stand der Analyse alle Länder die Entwicklungsfunktion des Instruments. In neun Ländern übernehmen Vergleichsarbeiten auch eine Controllingfunktion. Sieben Länder verbinden zum Analysestichtag – ausgehend von entsprechenden Datenaufbereitungen in Landesberichtslegungen – mit VERA eine Monitoringfunktion, zwei Länder haben

318

F. Thiel et al.

diese Funktion kürzlich ausgesetzt. Mit Blick auf die eingerichteten Ergebnisrückmeldungen an die Schüler- und Elternschaft (Elternbriefe) lässt sich zwölf Ländern eine Informationsfunktion zuordnen. In fünf Ländern werden den Vergleichsarbeiten alle vier Funktionen zugeschrieben, in zwei Ländern haben sie ausschließlich eine ­Entwicklungsfunktion. Alle zehn Länder, die derzeit ein Verfahren zur externen Evaluation von Schulen anbieten, verbinden mit dem Verfahren eine Entwicklungsfunktion. Für sieben Länder konnte dem Verfahren auch eine Controllingfunktion zugeordnet werden, ebenfalls sieben Länder lassen eine Monitoringfunktion erkennen. Eine schulöffentliche Information ist in allen Ländern vorgesehen, eine Information der außerschulischen Öffentlichkeit durch eine Veröffentlichung der schulischen Kurzergebnisberichte nur in drei Ländern. Auch was die interne Evaluation betrifft, steht – dies ist dem Verfahren inhärent – die Entwicklungsfunktion bei allen Ländern im Vordergrund. Eine Monitoringfunktion wird bei interner Evaluation infolge der stets schulindividuellen Zuschnitte üblicherweise nicht verfolgt. Eine Controllingfunktion im Sinne einer Rechenschaftslegung gegenüber der Schulaufsicht sehen sieben Länder vor, wobei diese teilweise auf die Schulprogrammarbeit beschränkt ist. Was die Informationsfunktion betrifft, muss unterschieden werden zwischen der Information der Schulkonferenz, die neun Länder vorsehen, und der Information der außerschulischen Öffentlichkeit, die in vier Ländern über eine vorgesehene Bereitstellung entsprechender Angaben in öffentlich einsehbaren Schulporträtdarstellungen identifiziert werden konnte. Mit der Entwicklungsfunktion wird in der Regel der zentrale Stellenwert der professionellen Gemeinschaft oder der gesamten Schulgemeinschaft für eine kontinuierliche Qualitätsentwicklung betont. Die Controllingfunktion, teilweise auch die Monitoringfunktion, unterstreicht dagegen die Bedeutung bürokratischer, schulaufsichtlicher Kontrolle schulischer Qualität. Die Information von Eltern und SchülerInnen einerseits oder der außerschulischen Öffentlichkeit andererseits ist mit einer Stärkung der Nachfrageseite verbunden, weil Informationen für Entscheidungen über die Wahl (oder Abwahl) von Schulen bereitgestellt werden. Allerdings sind Wahlentscheidungen durch unterschiedliche Regulierungen, z. B. das Wohnortprinzip bei der Zuweisung zu Schulen, in der Praxis stark eingeschränkt. Eine (ergebnis)informierte Elternschaft kann daneben die Entwicklungstätigkeiten in der Organisation flankierend unterstützen. Die Analysen, die in den vorausgehenden Kapiteln sowie den zahlreichen Abbildungen ausführlich dargestellt wurden, zeigen, dass sich aus den Regelungen zu den drei untersuchten Verfahren datenbasierter Schulentwicklung keine Steuerungstypen extrahieren lassen, die in idealtypischer Form den oben beschriebenen Steuerungsmechanismen folgen. Vielmehr werden professionelle Selbstregulierung, Regulierung durch die Schulgemeinschaft (Partizipation), bürokratische Regulierung und Orientierung an Ansprüchen von „Nachfragenden“ in der Regel kombiniert. Bezogen auf die durchgeführten Analysen von Vergleichsarbeiten sowie externer und interner Evaluation lassen sich jedoch mit der gebotenen Vorsicht und Vorläufigkeit (da mit den drei ­Verfahren bislang ja nur ein Ausschnitt der Verfahren zur Qualitätsentwicklung untersucht wurde) unterschiedliche Strategien beschreiben.

8  Strategien datenbasierter Steuerung zur Sicherung und …

319

Bürokratische Regulierung lässt sich an einer starken Einbindung der Schulaufsicht in den Prozess der Qualitätsentwicklung ablesen. Das gilt etwa für die externe Evaluation im Hinblick auf ergebnisabhängige Nachinspektionen, bei denen eine explizite Mitwirkung der Aufsicht vorgesehen ist, wie in Berlin, Brandenburg, Hamburg, Mecklenburg-Vorpommern und Nordrhein-Westfalen, oder für die Einbindung der Schulaufsicht bei Schulen mit „kritischem Zwischenstand“ der Inspektion, was in Brandenburg und Hamburg erfolgt. Was VERA, externe Evaluation und interne Evaluation gleichermaßen betrifft, ist die Frage der Rückmeldung der Daten an die Schulaufsicht zum Zweck von Ziel- und/oder Leistungsvereinbarungen. Daten aus der externen Evaluation sind in Berlin, Brandenburg, Bayern, Hamburg, Hessen, Nordrhein-Westfalen und dem Saarland regelhaft in Zielvereinbarungen zwischen Schulaufsicht und Schule einzubeziehen, für Baden-Württemberg und Thüringen ist dies schulrechtlich ebenfalls vorgesehen; hier finden zum Analysestichtag allerdings keine externen Evaluationen statt. Für Daten aus der internen Evaluation gilt dies für die Länder Berlin, Brandenburg, Hamburg und Hessen. Daten aus Vergleichsarbeiten stellen in Berlin, Brandenburg, Bremen und Hamburg regelhaft eine Grundlage für die Zielvereinbarungen zwischen Schule und Schulaufsicht dar. In Berlin und Mecklenburg-Vorpommern ist der Schulaufsicht ein Bericht zur internen Evaluation vorzulegen. Auch an der Beteiligung der Aufsicht bei der Entwicklung und Fortschreibung des Schulprogramms ist das Ausmaß bürokratischer Regulierung abzulesen. So muss das Schulprogramm in Berlin, Bremen, Mecklenburg-Vorpommern ausgehend von schulrechtlichen Festlegungen durch die Schulaufsicht genehmigt werden, in Brandenburg ist eine Erörterung mit dem/der zuständigen SchulaufsichtsbeamtIn vorgesehen. Eine Mitwirkung der Schulaufsicht ist auch für Niedersachsen schulrechtlich fixiert, während in Schleswig-Holstein zumindest die Vorlage bei der Schulaufsicht vorgeschrieben ist. Die Schulgesetze fordern in Brandenburg ebenso wie in Berlin, Mecklenburg-Vorpommern und Sachsen-Anhalt von den Schulen auch einen Bericht zur Umsetzung des Schulprogramms an die Schulaufsicht. Bezogen auf die genannten Indikatoren Genehmigung von Programmen, Berichtspflicht, Rückmeldung und Einbezug der Daten in Ziel- und Leistungsvereinbarungen ist die bürokratische Regulierung in Brandenburg, Berlin, Hamburg und Mecklenburg-­ Vorpommern deutlich ausgeprägter als etwa in Rheinland-Pfalz, Sachsen oder im ­Saarland. Der Einfluss der Schule für die Qualitätsentwicklung kann daran abgelesen werden, ob die regelhafte Weitergabe von Vergleichsarbeitsdaten an die Schulaufsicht ausgeschlossen wird, wie dies in Hessen, Niedersachsen, Rheinland-Pfalz, im Saarland, in Sachsen, Sachsen-Anhalt und Thüringen zum Stichtag der Fall ist. Auch ein geringer Verpflichtungsgrad bei VERA (SN, NI, HB) oder eine hohe Wahlfreiheit bei den zu evaluierenden Bereichen der externen Evaluation (SH, NI, HE), die Freiwilligkeit des Verfahrens (SH, HE), das ausdrückliche Verbot einer Veröffentlichung (BY) sprechen für eine starke Stellung der Schule im Verhältnis zur Schulaufsicht. Ob innerhalb der Schule die professionelle Gemeinschaft, sprich die Lehrkräftekonferenz bzw. einzelne Lehrkräfte, oder die gesamte Schulgemeinschaft einschließlich der SchülerInnen und Eltern, die maßgeblichen Entscheidungsbefugnisse hat, lässt sich an der Schulverfassung und

320

F. Thiel et al.

der entsprechenden Aufgabendefinition ablesen. Die Schulgesetze folgender Länder haben Schulkonferenzen in der Schulverfassung vorgesehen, in denen die Profession (Lehrkräfte und Schulleitung) die Hälfte der Stimmen besitzt: Hessen, Niedersachsen und Sachsen-Anhalt (in ST entspricht die Schulkonferenz allerdings der Gesamtkonferenz, alle Lehrkräfte sind Mitglied). Nur in Bremen haben die pädagogischen Professionellen (unter Einbezug des nicht-unterrichtenden Personals) die Mehrheit in der Schulkonferenz. Für alle anderen Länder gilt: Eltern und SchülerInnen (in einigen Ländern zusammen mit Schulträgern oder Schulexternen) dominieren die Entscheidungen der Schulkonferenz. Die Mehrheitsverhältnisse sind bei der Analyse der Entscheidungsbefugnisse in zentralen Fragen schulischer Qualitätsentwicklung zu berücksichtigen. Während bspw. das Hamburger und das Niedersächsische Schulgesetz die primäre Zuständigkeit für Maßnahmen schulischer Qualitätssicherung bei der Schulkonferenz sehen, definieren etwa die Schulgesetze von Berlin und Brandenburg Maßnahmen schulischer Qualitätssicherung in erster Linie als eine Aufgabe der Gesamtkonferenz der Lehrkräfte und damit der Profession. In Berlin, Brandenburg, Nordrhein-Westfalen, Sachsen-Anhalt und Schleswig-Holstein wird darüber hinaus die Rolle der Fachkonferenzen für die Qualitätssicherung explizit hervorgehoben. Hamburg, das auf eine starke Tradition der Lebensgemeinschaftsschule zurückblickt (vgl. Thiel 2005), sieht mit der starken Stellung einer Schulkonferenz, in der die Profession unterrepräsentiert ist, im Vergleich mit den anderen Ländern eine deutlich stärkere Rolle der Elternschaft und der SchülerInnen in der Qualitätsentwicklung vor. Eine echte Marktsteuerung ist im staatlichen Schulsystem grundsätzlich nicht möglich, da eine Angebotspreiselastizität nicht greift. Die Unterstützung von „consumer choice“ (Glatter 2002, S. 229) durch die Veröffentlichung von Daten über die Leistungen und ggf. auch die Leistungsfähigkeit von Einzelschulen kann unter der Voraussetzung eines differenzierten Angebots sowie einer freien Schulwahl aber durchaus als ein der Marktlogik entsprechendes Element der Wettbewerbssteuerung betrachtet werden. Nur Berlin, Brandenburg und Hamburg verpflichten zu einer schulscharfen Veröffentlichung der Ergebnisse der externen Evaluation in sogenannten Schulporträts. Berlin, Brandenburg, Sachsen und Thüringen veröffentlichen darüber hinaus prinzipiell auch Ergebnisse zur internen Evaluation in ihren Schulporträts. Die Interpretation der im vorliegenden Band dokumentierten Befunde zur Funktion von Vergleichsarbeiten, externer und interner Evaluation im Lichte der vier übergeordneten Steuerungsmechanismen – bürokratische Regulierung, professionelle Selbststeuerung, Steuerung durch die Schulgemeinschaft und Wettbewerbssteuerung – zeigt: a) In den Ländern existieren durchaus Schwerpunktsetzungen, was die vier unterschiedenen Funktionen betrifft. So wird, um hier nur noch einmal ein Beispiel zu nennen, im Saarland und in Rheinland-Pfalz über die drei Instrumente hinweg die Entwicklungsfunktion stark betont, während die Controllingfunktion weder bei VERA noch bei der internen und der externen Evaluation (gilt nur für das SL, da externe Evaluation in RP ausgesetzt) eine Rolle spielt.

8  Strategien datenbasierter Steuerung zur Sicherung und …

321

b) Es werden ganz offensichtlich Funktionen und Steuerungsmechanismen kombiniert. So spielt überall die Entwicklungsfunktion eine zentrale Rolle. Dazu können aber in unterschiedlichem Ausmaß und in unterschiedlicher Kombination weitere Funktionen treten. Interessant sind bspw. Berlin, Brandenburg und Hamburg als Länder, die neben der Entwicklungsfunktion (und damit der Profession bzw. in Hamburg der Schulgemeinschaft) sowohl die Kontrollfunktion der Schulaufsicht (und damit bürokratische Regulierung) als auch die Informationsfunktion für die Nachfrageseite (und damit Elemente der Wettbewerbssteuerung) betonen.

8.3 Herausforderungen und Perspektiven der Weiterentwicklung der Verfahren Wie in den einzelnen Kapiteln gezeigt, befinden sich die drei Verfahren – Vergleichsarbeiten, externe und interne Evaluation – in einem Modus kontinuierlicher Überarbeitung, der wahrscheinlich nicht zuletzt einer fachöffentlichen und öffentlichen Kritik geschuldet ist. Herausforderungen und Perspektiven für eine Weiterentwicklung sollen abschließend kurz skizziert werden. Vergleichsarbeiten stellen durch ihren starken Verpflichtungscharakter das Verfahren dar, das zwar am stärksten verbreitet ist; gleichwohl ist, insbesondere was die Profession der Lehrkräfte betrifft, eine teilweise ausgeprägt kritische Haltung nicht zu übersehen. Die Kritik richtet sich im Kern gegen drei Aspekte: a) Die vermeintliche „Standardisierung“ von Unterricht und Leistung; b) die angebliche „Testeritis“ an deutschen Schulen, die SchülerInnen zahlreiche Tests und Leistungserhebungen zumutet; und c) die Ausrichtung der Tests auf übergeordnete Bildungsstandards und damit die geringe Anbindung an die jeweils aktuellen Unterrichtsinhalte. Obwohl die Kritik häufig auf Missverständnissen beruht, ist es offensichtlich schwierig, sie auszuräumen. Relevant für die Akzeptanz des Verfahrens ist vor allem der dritte Kritikpunkt, steckt dahinter doch ein bestimmtes Bild von Lehren und Lernen, das durch VERA gerade verändert werden soll. Die Lehrkräfte erhalten durch die Vergleichsarbeiten in der Tat eine Rückmeldung über den Kompetenzstand ihrer SchülerInnen in Bezug auf die Bildungsstandards, die als Aufforderung an die Lehrkraft, ihren Unterricht so zu verändern, dass möglichst alle SchülerInnen bis zum Ende der Schulstufe die in den Bildungsstandards formulierten Kompetenzen erreichen, interpretiert werden muss. Die Rückmeldung richtet sich also in erster Linie an die Lehrkraft und nicht an den Schüler, die Schülerin oder deren Eltern. Sie fordert Lehrkräfte auf, Verantwortung für den Lernerfolg ihrer SchülerInnen zu ­übernehmen. Eine große Herausforderung für die Weiterentwicklung der Vergleichsarbeiten ist der offensichtliche Funktionenmix, der, so eine ganze Reihe von kritischen Stimmen, die Legitimität des Verfahrens als Entwicklungsinstrument untergräbt. Wie sich die Funktionen sinnvoll aufeinander beziehen lassen, welche Daten in welchem Auflösungsgrad an welche Akteure rückgemeldet werden, wie Entwicklungsaktivitäten unterstützt und

322

F. Thiel et al.

begleitet werden, wird auch für die weitere Akzeptanz von entscheidender Bedeutung sein. Gleichzeitig werden alle Bemühungen um eine Weiterentwicklung des Instruments nur dann erfolgreich sein, wenn sie auf ein professionelles Selbstverständnis von Lehrkräften treffen, die in der datenbasierten Unterrichtsentwicklung ein grundsätzlich sinnvolles Konzept sehen. Die Bereitschaft von Lehrkräften zu einer Datennutzung ist dabei allerdings auch von ihrer ‚data literacy‘ abhängig, also ihrer Kompetenz zur Interpretation der Ergebnisrückmeldungen. Eine Möglichkeit, die Akzeptanz hier zu erhöhen, besteht darin, die Datenrückmeldungen noch nutzungsfreundlicher zu gestalten (vgl. Pukrop und Breiter 2018; Schliesing 2017). Was den Status der externen Evaluation betrifft, so verdeutlichen die Analysen des vorliegenden Bandes: Die externe Schulevaluation ist in vielen Fällen über einen relativ fragilen Status nicht hinausgekommen. Häufiger und durchgreifender als andere Verfahren der Qualitätssicherung wird sie von der Politik zur Disposition gestellt, temporär ausgesetzt oder auch wieder abgeschafft, bevor hinreichend Erfahrungen mit faktischen Wirkungsbedingungen und Effekten überhaupt vorliegen. Dies wirkt sich offensichtlich ungünstig auf die Nachhaltigkeit der Implementationsanstrengungen aus. Zwar ist die Akzeptanz externer Evaluation an den Schulen in der Regel höher als die Akzeptanz der Vergleichsarbeiten, gleichwohl wird vor allem aus der Perspektive der Schulaufsicht und der Bildungspolitik Kritik artikuliert, die sich im Kern auf die unscharfe Abgrenzung zwischen Schulaufsicht und externer Evaluation bezieht. Die in den 1990er-Jahren einsetzende Infragestellung der Schulaufsicht wurde nach Vorliegen der ersten internationalen und nationalen Vergleichsuntersuchungen von Schülerleistungen Anfang der 2000er-Jahre deutlich verschärft. Verfahren der externen Schulevaluation schienen einen Ausweg aus dem „Interventions- und Erklärungsnotstand“ der Schulaufsicht zu versprechen, und zwar durch Rückgriff auf ausgewiesene transparente Qualitätskriterien, durch Anwendung empirischer Verfahren der Datenerhebung, Datenanalyse und Datenrückmeldung, durch spezifische Professionalisierung und Rekrutierung der externen Evaluationsexperten, durch stärkere Berücksichtigung der Perspektive von Stakeholdern sowie durch partielle oder vollständige Herauslösung der Verfahren aus der hierarchischen Beziehungsgestaltung zwischen Schulverwaltung und Schule und durch Einrichtung der externen Evaluationsinstanz als intermediärem Akteur. Damit wurde in vielerlei Hinsicht ein Bruch mit der klassischen Schulaufsicht vollzogen, freilich ohne diese grundsätzlich institutionell infrage zu stellen. In keinem Bundesland ist je erwogen worden, die Schulaufsicht durch Verfahren der externen Schulevaluation zu ersetzen. Die Weiterentwicklung der externen Evaluation wird stark davon abhängen, ob es gelingt, a) das systemische Zusammenspiel der Akteure durch die Verteilung von Verantwortung, die eindeutige Definition von Verfügungsrechten über Informationen und die Präzisierung der Beziehungskonfigurationen zu klären,

8  Strategien datenbasierter Steuerung zur Sicherung und …

323

b) die unterschiedlichen Wissensformen produktiv aufeinander zu beziehen, auf der einen Seite empirische Evidenz, die sich an Gütekriterien der Evaluation zu messen hat und grundlegenden Validitätsansprüchen, wie etwa der Replizierbarkeit, genügen muss, auf der anderen Seite die traditionelle Wissensproduktion der Schulaufsicht, die etwa in einer systematischen, kontextbezogenen und langfristigen Begleitung einer Schule ihre Grundlage hat, c) die wissenschaftliche Überprüfung der Verfahren und Modelle hinsichtlich der Tragfähigkeit der mit ihnen verbundenen Wirkungserwartungen sicherzustellen und d) eine ländergemeinsame Strategie der Implementierung zu entwickeln, die Qualitätsstandards hinsichtlich der Verfahren definiert (vgl. Arbeitsgruppe Schulinspektion 2016; Pietsch et al. 2015). Die interne Evaluation genießt von den drei hier thematisierten Verfahren in den Schulen die höchste Akzeptanz. Daraus folgt allerdings nicht, dass diese in der schulischen Praxis auch eine entsprechende Verbreitung findet. Regelmäßige und dokumentierte interne Schulevaluationen finden nur an einer kleinen Minderheit der Schulen statt ­(Barfknecht und Saldern 2010; Demmer und Saldern 2010). Eine Schwierigkeit ist, dass es in Deutschland eine nur schwach entwickelte Tradition gibt, mit überprüfbaren Zielen die Schulentwicklung zu steuern. Entsprechend scheint der Zusammenhang von Evaluation und systematischer Schulentwicklung (Schulprogrammarbeit, Arbeitsplanung) nur in Ansätzen gegeben zu sein. Den vielfältigen Ansätzen der internen Jahresarbeitsplanung und Aktualisierung von Schulprogrammen steht eine deutlich geringer ausgeprägte Evaluationspraxis gegenüber. Zielfindungs- und Planungsprozesse an Schulen basieren demnach eher selten auf systematischer Bilanzierung von Entwicklungen mit Hilfe von Datenerhebungen, sondern anscheinend stärker auf kurz- und mittelfristig orientierten Vereinbarungen über neue Aktivitäten. Mit dem Aussetzen von externen Evaluationsverfahren wie Schulinspektionen in einer Reihe von Ländern könnte möglicherweise auch ein Rückgang von internen Evaluationsaktivitäten verbunden sein. Allerdings geben die Veränderungen in der Evaluationskultur an deutschen Schulen im letzten Jahrzehnt einige Hinweise auf die Erfolgsbedingungen des Verfahrens und zeigen Perspektiven für eine Weiterentwicklung auf. Es scheint von großer Bedeutung zu sein, ob interne Evaluation zum obligatorischen Bestandteil der Sicherung und Entwicklung von Schulqualität gemacht wird. Dabei ist die explizite Herstellung des Zusammenhangs von Evaluation und systematischer Schulentwicklung (Schulprogrammarbeit, Arbeitsplanung) ausschlaggebend. Nur wenn Zielfindungs- und Planungsprozesse an Schulen auf der systematischen Bilanzierung von Entwicklungen mit Hilfe von Datenerhebungen basieren und der funktionale Zusammenhang zwischen Evaluation und Arbeitsplanung gegeben ist, kann Schulentwicklung über kurz- und mittelfristig orientierte Vereinbarungen neuer Aktivitäten hinausgehen.

324

F. Thiel et al.

Literatur Altrichter, H., & Wiesinger, S. (2005). Implementation von Schulinnovationen – Aktuelle Hoffnungen und Forschungswissen. Journal für Schulentwicklung, 9(4), 28–36. Altrichter, H., Heinrich, M., Prammer-Semmler, E., & Soukup-Altrichter, K. (2011). Veränderung der Handlungskoordination durch Schulprofilierung. In H. Altrichter, M. Heinrich, & K. Soukup-Altrichter (Hrsg.), Schulentwicklung durch Schulprofilierung? Zur Veränderung von Koordinationsmechanismen im Schulsystem (Educational governance, Bd. 8, S. 49–117). Wiesbaden: VS Verlag & Springer Fachmedien. https://doi.org/10.1007/978-3-531-92825-8_2. Arbeitsgruppe Schulinspektion (Hrsg.). (2016). Schulinspektion als Steuerungsimpuls? Ergebnisse aus Forschungsprojekten (Educational governance, Bd. 25). Wiesbaden: Springer VS. Barfknecht, T., & von Saldern, M. (2010). Evaluation und Feedback der Lehrkräfte. In M. Demmer & M. von Saldern (Hrsg.), “Helden des Alltags”. Erste Ergebnisse der Schulleitungs- und Lehrkräftebefragung (TALIS) in Deutschland (Die deutsche Schule Beiheft, Bd. 11, S. 94–115). Münster: Waxmann. Demmer, M., & von Saldern, M (Hrsg.). (2010). “Helden des Alltags”. Erste Ergebnisse der Schulleitungs- und Lehrkräftebefragung (TALIS) in Deutschland (Die deutsche Schule Beiheft, Bd. 11). Münster: Waxmann. Glatter, R. (2002). Governance, autonomy and accountability in education. In T. Bush & L. Bell (Hrsg.), The principles and practice of educational management (S. 225–240). London: Paul Chapman (Educational management). Kotthoff, H.-G. (2003). Bessere Schulen durch Evaluation? Internationale Erfahrungen (Studien zur international und interkulturell vergleichenden Erziehungswissenschaft, Bd. 1). Zugl.: Münster (Westf.), Univ., Habil.-Schr., 2002. Münster: Waxmann. Kultusministerkonferenz. (Hrsg.). (2016). KMK Bildungsmonitoring (II). Gesamtstrategie der Kultusministerkonferenz zum Bildungsmonitoring. Beschluss der 350. Kultusministerkonferenz vom 11.06.2015. Berlin. Mintrop, H., MacLellan, A. M., & Quintero, M. F. (2001). School improvement plans in schools on probation: A comparative content analysis across three accountability systems. Educational Administration Quarterly, 37(2), 197–218. https://doi.org/10.1177/00131610121969299. Pietsch, M., Scholand, B., & Schulte, K. (Hrsg.). (2015). Schulinspektion in Hamburg. Der erste Zyklus 2007–2013: Grundlagen, Befunde und Perspektiven (HANSE – Hamburger Schriften zur Qualität im Bildungswesen, Bd. 15). Münster: Waxmann. Pukrop, J., & Breiter, A. (2018). Der Einfluss der Datenkompetenz von Lehrkräften auf deren Akzeptanz von Vergleichsarbeiten und Potenziale interaktiver Rückmeldesysteme. Working Paper (Nr. 20). Communicative Figurations: Universität Bremen. http://www.zemki.uni-bremen.de/fileadmin/redak_zemki/dateien/Kofi-Arbeitspapiere/CoFi_EWP_No-20_Pukrop-Breiter.pdf. Schimank, U. (2014). Der Wandel der „Regelungsstrukturen“ des Hochschulsystems und die Folgen für die wissenschaftliche Forschung: Zur Entwicklung der Governance -Perspektive. In A. Bora, A. H., & C. Reinhardt (Hrsg.), Wissensregulierung und Regulierungswissen (Erste Aufl., S. 19–40). Weilerswist: Velbrück Wissenschaft. Schliesing, A. C. (2017). Rückmeldungen aus Vergleichsarbeiten (VERA). Eine methodenintegrative Studie zur Gestaltung und Rezeption von VERA-Rückmeldungen. Berlin: Humboldt-Universität. Schmid, K., Hafner, H., & Pirolt, R. (2007). Reform von Schulgovernance-Systemen. Vergleichende Analyse der Reformprozesse in Österreich und bei einigen PISA-Teilnehmerländern. Wien: ibw (IBW-Schriftenreihe).

8  Strategien datenbasierter Steuerung zur Sicherung und …

325

Thiel, F. (2005). Pädagogische Bewegungen. Protestkommunikation und berufliche Selbstvergewisserung 1848–1933. Zugl: Berlin, Freie Univ., Habil.-Schr., 2003 u. d. T.: Thiel, F.: Professionalisierung durch Protest? Berlin: Leue. Thiel, F. (2008). Die Organisation der Bildung – Eine Zumutung für die Profession? In Y. Ehrenspeck & F. Thiel (Hrsg.), Bildung: Angebot oder Zumutung? (S. 211–228). Wiesbaden: VS Verlag. Thiel, F., Cortina, K. S., & Pant, H. A. (2014). Steuerung im Bildungssystem im internationalen Vergleich. In R. Fatke (Hrsg.), Das Selbstverständnis der Erziehungswissenschaft: Geschichte und Gegenwart (S. 123–138). Weinheim: Beltz. Wiesenthal, H. (2000). Markt, Organisation und Gemeinschaft als ,zweitbeste‘ Verfahren sozialer Koordination. In R. Werle & U. Schimank (Hrsg.), Gesellschaftliche Komplexität und kollektive Handlungsfähigkeit (Schriften des Max-Planck-Instituts für Gesellschaftsforschung Köln, Bd. 39, S. 44–73). Frankfurt a. M.: Campus.