User account

Igor Samokhin: Ranking
Ranking
(p. 273 – 277)

Ranking als sich selbst verstärkendes System

Igor Samokhin

Ranking

Translated by Vera Kaulbarsch

PDF, 5 pages

In der Welt der höheren Bildung ist im Moment jeder von Rankings besessen. Rankings werden als universelle Messlatte für die Qualität der Universitäten gesehen, sowohl von der Öffentlichkeit als auch von politischen Entscheidungsträgern. Die Einheitlichkeit der Rankings, die entwickelt wurden, um Forschungsleistung zu bewerten, führt die Öffentlichkeit in die Irre, da sich die Meinung herausbildet, nur Forschungsuniversitäten (research universities) seien gut – egal, wie gut sie in Bezug auf Lehre, gesellschaftliche Beteiligung oder höhere Durchlässigkeit sind. Die Messmethoden sind extrem fragwürdig und unausgewogen, aber, wie ein Bericht erklärt: »Rankings genießen einen hohen Grad an Akzeptanz bei Stakeholdern und der breiteren Öffentlichkeit aufgrund ihrer Einfachheit und konsumentenfreundlichen Informationsaufbereitung.«1 Somit droht aufgrund ihres Einflusses eine Simplifizierung und Konsumentenorientierung (consumerization) der höheren Bildung. Es wäre vernünftig den Großteil der beliebten Rankingsysteme als fehlerhaft abzulehnen, auch wenn es kein Bedürfnis nach solchen Produkten in der dominierenden Ideologie der ↑ Exzellenz gäbe. Das klare Übergewicht von amerikanischen – größtenteils privaten – Elite-Universitäten auf den oberen Plätzen der globalen Rangliste scheint die alten Ängste europäischer Unterlegenheit zu bestätigen und dient als Rechtfertigung für die jetzige politische Unterstützung von Marktorientierung und Kommerzialisierung. Die unhinterfragte Akzeptanz von globalen Rankings stellt eine ernsthafte Bedrohung für die Universität als einer komplexen Institution dar, die von elementarer Wichtigkeit für die Öffentlichkeit ist.

Die Idee eines Universitätsrankings ist durchaus nicht neu. Der erste Versuch, ein Ranking der »wissenschaftlichen Stärke« amerikanischer Universitäten zu produzieren, wurde 1910 unternommen. Es gab in den USA ab den frühen sechziger Jahren viele Rankings, die oft von Wissenschaftlern für ihre Kollegen und nur für den einmaligen Gebrauch entworfen wurden. Der Wendepunkt fiel mit der zunehmenden Verbreitung neoliberaler Politik zusammen (↑ Korporatisierung): Es war die Veröffentlichung des Rankings amerikanischer Universitäten im U.S. News and World Report 1983, das sich an zukünftige Studenten und ihre Eltern richtete. Dieses Ranking, das ab 1988 jährlich erschien und noch dazu in einer der beliebtesten Zeitschriften des Landes publiziert wurde, ist aus diesen Gründen exemplarisch für ähnliche Vorhaben geworden, die sich in den darauffolgenden Jahren herausgebildet haben. In den frühen 2000er Jahren hatten bereits viele Länder nationale Rankingsysteme, die von beliebten Zeitschriften oder unabhängigen Think-Tanks durchgeführt wurden. Aber der wichtigste Durchbruch war die Veröffentlichung des Academic Ranking of World Universities (ARWU, auch als Shanghai Ranking bekannt): Jährlich veröffentlicht seit 2003, stellt es das erste wirklich internationale Ranking dar, das Universitäten aus allen Teilen der Welt in einer einzigen Rangliste vergleicht. Ein weiteres jährliches internationales Ranking wurde 2004 gemeinsam vom Times Higher Education (THE) und Quacquarelli Symonds (QS) eingeführt. (Seit 2009 publizieren sie separate Rankings.)

ARWU und THE-QS sind die einflussreichsten Rankings und ziehen die meiste Aufmerksamkeit auf sich, deswegen stehen sie im Mittelpunkt der folgenden Absätze. Die wachsende Popularität von globalen Rankings hat nichtsdestoweniger einigen weiteren zur Existenz verholfen. Manche beschäftigen sich mit Zitationsindizes, wie das Leiden Ranking, während andere die Sichtbarkeit im Internet messen, wie Webometrics. Es gab sogar derart seltsame Versuche, Universitäten aufgrund der Anzahl von ausgebildeten CEOs von transnationalen Top-500 Unternehmen zu platzieren oder aufgrund ihrer »Umsetzung von Umweltstandards«. Es gibt noch Raum für Erfindungsreichtum und genug öffentliche Aufmerksamkeit – die Welle neuer Rankings ist sicherlich nicht vorüber.

Eine der Haupteigenschaften von Rankings ist durch die Idee des ranking selbst bedingt, im Gegensatz zum rating (bewerten). Man kann verschiedene Institutionen mit der gleichen Note bewerten (zum Beispiel neun von zehn möglichen Punkten oder fünf Sterne von fünf möglichen wie in der Hotelindustrie). Auf diese Weise würde es viele ähnlich bewertete Universitäten geben. Aber so funktionieren Rankings nicht, die eine hierarchische, gänzlich ungleiche Anordnung der gerankten Universitäten voraussetzen. Normalerweise verwenden Ranking-Agenturen eine kleine Anzahl an Indikatoren von »Qualität« (Ansehen, Zitationsindizes, industrierelevantes Einkommen, Prozentzahl an internationalen Studenten). Die Punktzahlen für die Indikatoren werden aggregiert und die Institution mit dem besten Gesamtergebnis (in den meisten Fällen Harvard) bekommt 100 Punkte, während alle anderen im Verhältnis zu dieser Institution gemessen und in absteigender Reihenfolge aufgelistet werden. Dieser Ansatz betont die relative Position statt der tatsächlichen Punktezahl: Der Unterschied zwischen der Nummer 20 und der Nummer 80 kann beispielsweise sehr viel geringer sein als der Unterschied zwischen der Nummer 10 und der Nummer 20. Aber in der zunehmend einflussreichen Welt der Rankings wird der Prestigegrad über die Position auf der Rangliste, nicht über die Punktezahl entschieden.

Die weit verbreitete Beschäftigung mit den »Besten der Besten« (↑ Elite) nimmt sich recht seltsam aus, wenn man bedenkt, dass Rankings normalerweise nur 500 Universitäten einschließen, während es in der ganzen Welt etwa 17.000 Institutionen für höhere Bildung gibt. Das bloße Auftauchen in dem Ranking ist schon ein Zeichen dafür, dass man zu den besten drei Prozent gehört. Eine solche Skalierung erlaubt es uns, unkritische Schlussfolgerungen, die aus Rankings gezogen werden, zu bezweifeln, wie die »Rückständigkeit« der universitären Bildung in Europa im Vergleich zu der in den USA. Die USA beispielsweise haben über 3000 Bildungsinstitutionen, aber im Ranking der 500 Universitäten von ARWU wurden 2011 nur 151 aufgenommen (5%). Man vergleiche das mit Deutschland (39 von 400, ungefähr 10%) oder Schweden (11 von 50, über 20%). Korreliert man dies mit der Bevölkerungsgröße des Landes, so wird das globale Rankingrennen von Ländern wie der Schweiz, Dänemark und den Niederlanden angeführt. Wenn also Rankings die hohe Qualität einer Handvoll amerikanischer Universitäten anzeigen, heißt das nicht, dass sie auch die allgemeine Qualität des amerikanischen Bildungssystems erkennen lassen.

Nun gilt es weiter zu fragen: Was verbirgt sich hinter der postulierten Annahme von Qualität? Um in scheinbar wissenschaftlicher Weise messbar gemacht zu werden, muss Qualität quantifiziert werden. Auf gewisse Weise erinnert dieser Prozess an die Ersetzung des Gebrauchswerts durch den Tauschwert, wie es die marxistische Philosophie beschreibt (↑ Leistungspunkte/ECTS). Wie wir sehen, ist es nicht nur der Kontext, es ist die Substanz der Rankings selbst, die ihre Rolle in der Marktorientierung höherer Bildung verrät (↑ Employability). Ein Großteil der Kritik an Rankings hinterfragt die bloße Möglichkeit, Dinge wie Lehre und Forschung zu quantifizieren und das Verhältnis von jedem einzelnen Faktor in der Gesamtpunktezahl korrekt zu ermitteln. Dieses Problem scheint sich einfacher bei der Forschung zu stellen, die bereits seit einiger Zeit an der Anzahl der Publikationen und Erwähnungen in Zeitschriften mit ↑ peer review gemessen wird, was sorgfältig von spezialisierten Agenturen analysiert wird. Aber wie soll man mit einer so subtilen Angelegenheit wie der Lehre umgehen?

ARWU hat das Problem auf die radikalste Weise gelöst, indem es jegliche auf die Lehre bezogene Kriterien aus seiner Methodologie ausgeschlossen hat. Um genauer zu sein, hat es einen Indikator, der »Qualität von Bildung« heißt, der zehn Prozent der gesamten Punktezahl ausmacht – und der zählt Alumni, die einen Nobelpreis oder die Fields-Medaille (für Mathematik) gewonnen haben. Es ist nicht klar, inwiefern Preise, die vor langer Zeit und von ein paar Individuen gewonnen wurden, zur tatsächlichen Qualität der Bildung beitragen. Die restlichen 90% sind auf Indikatoren verteilt wie Nobelpreise und Fields-Medaillen, die von Lehrpersonal gewonnen wurden (jetzt 20%), oft zitierte Wissenschaftler unter den Lehrenden, Aufsätze die in Nature und Science erscheinen, und citation performance. Die Ranking-Methodologie von THE ist differenzierter und verteilt 30% auf die »Lernumgebung«, die hauptsächlich durch eine Umfrage über das Ansehen der Universität ermittelt wird: Vielleicht ist sie in der Lage, Gerüchte über gute Bildung abzubilden, aber wohl kaum ihre tatsächliche Qualität. Das zur Mode gewordene Thema der »Internationalität« (↑ Globalisierung) wird auch in den THE-Rankings gewertet und macht 7,5% der gesamten Punktezahl aus. Der Rest verteilt sich auf Forschung, was auf die übliche Weise quantifiziert wird. Schließlich gibt es noch die Methode von QS, die der Internationalität 10% zuteilt, dem Verhältnis zwischen Lehrenden und Studierenden 20%, den Ergebnissen aus der Arbeitgeberumfrage 10% und 40% wird der Umfrage unter Akademikern zugewiesen. Demnach wird die Hälfte der Gesamtnote aus Umfrageergebnissen ermittelt, die erwiesenermaßen subjektiv und prestigeabhängig sind.

Die ↑ Evaluation der Forschung, erweist sich, obwohl sie einfach zu quantifizieren ist, als nicht weniger zweifelhaft. Die Naturwissenschaften werden eindeutig gegenüber den Geisteswissenschaften bevorzugt und die englische Sprache gegenüber allen anderen. Forscher in den Geisteswissenschaften arbeiten allein oder in kleinen Gruppen oder Kollaborationen, während in naturwissenschaftlichen Publikationen oft drei, fünf, zehn oder mehr Wissenschaftler verschiedener Universitäten involviert sind. Somit wird durch die pure Quantität die »Qualität der Forschung« laut der Rankings erhöht. Geisteswissenschaftler haben keine Nobelpreise, publizieren nicht in Nature und Science und veröffentlichen zudem meistens in ihren eigenen Sprachen und in einheimischen Zeitschriften. Dies hat zur Folge, dass die »↑ Exzellenz« von Universitäten eine sehr eingeschränkte Bedeutung in den Rankings erhält. Ihre Hauptkomponenten sind die Produktion von wissenschaftlichen Publikationen, vor allem in den Naturwissenschaften, alteingesessenes Prestige und die Vorherrschaft der englischen Sprache.

Wie wir sehen, sind Rankings nützlich, wenn man wissen möchte, welche Institutionen große Mengen an sichtbarer und wichtiger naturwissenschaftlicher Forschung erbringen. Aber sie sagen fast nichts über die Lehre in der Universität aus. Sie können einem außerdem sagen, welche Institutionen in den Augen anderer Leute die prestigeträchtigsten sind (laut Umfragen). Aber sie können die Gültigkeit dieses Prestiges nicht belegen oder relativ neue Institutionen berücksichtigen, die noch kein symbolisches Kapital erworben haben. (Deswegen ist die Spitze der Rankings von alten Universitäten belegt.) Wenn man also ein zukünftiger Student ist, der an guter Bildung interessiert ist, dann sind Rankings nicht das beste Mittel, um bei dieser Entscheidung zu helfen. Die traurige Wahrheit ist jedoch, dass sie die späteren Einstellungschancen erhöhen – berühmte Universitäten sehen sehr gut im ↑ Lebenslauf aus.

Das Paradox von Rankings ist, dass sie auf gewisse Weise ein sich selbst verstärkendes System produzieren: Prestige ist die Voraussetzung, um gerankt zu werden, aber Prestige ist auch das sofortige Ergebnis davon, gerankt zu werden! Das System funktioniert so, dass die beherrschende Position der Dominanten nur stärker wird. Die Ungerechtigkeiten und Hierarchien bleiben bestehen und werden schärfer, was somit ironischerweise unsere zunehmend ungerechte, auf den Markt ausgerichtete Gesellschaft widerspiegelt. Tatsächlich folgen die Ungerechtigkeiten in diesem Feld, bis zu einem gewissen Grad, den Klassenunterschieden: Top-Universitäten können höhere Gebühren verlangen (wo es möglich ist) und somit den Zugang zu prestigeträchtiger Bildung und guten Arbeitsplätzen verringern. Diese Situation ist nicht neu, aber Rankings intensivieren sie.

Natürlich ist die Idee des Rankings an sich nicht schlecht. Und es gibt Möglichkeiten sie zu verbessern: Manche nationalen Rankings (wie zum Beispiel das Ranking des Guardian) beziehen die Beurteilung der Lehre durch die Studenten mit ein. Es gibt auch hohe Erwartungen an U-Multirank, den europäischen Nachfolger des CHE-Hochschulrankings, das raffiniert und mehrdimensional zu werden verspricht. Aber was wir im Moment haben, sind lediglich zwei oder drei engstirnige, eindimensionale, voreingenommene globale Rankings mit einem riesigen, unverdienten Einfluss auf Studenten, Eltern, Politiker und den Rest der Gesellschaft.

1 Andrejs Rauhvargers: Global University Rankings and Their Impact, Brüssel 2011, S. 12.

  • Bologna Accord
  • economization
  • two cultures
  • elite
  • science and society
  • university

My language
English

Selected content
English

Unbedingte Universitäten (ed.): Bologna-Bestiarium

Unbedingte Universitäten (ed.)

Bologna-Bestiarium

Softcover, 344 pages

PDF, 344 pages

»ECTS-Punkte«, »employability«, »Vorlesung« – diese und viele weitere Begriffe sind durch die Bologna-Reformen in Umlauf geraten oder neu bestimmt worden und haben dabei für Unruhe gesorgt. Die Universität ist dadurch nicht abgeschafft, aber dem Sprechen in ihr werden immer engere Grenzen gesetzt. Anfangs fremd und beunruhigend, fügen sich die Begrifflichkeiten inzwischen nicht nur in den alltäglichen Verwaltungsjargon, sondern auch in den universitären Diskurs überhaupt unproblematisch ein.

Das Bologna-Bestiarium versteht sich als ein sprechpolitischer Einschnitt, durch den diese Begriffe in die Krise gebracht und damit in ihrer Radikalität sichtbar gemacht werden sollen. In der Auseinandersetzung mit den scheinbar gezähmten Wortbestien setzen Student_innen, Dozent_innen, Professor_innen und Künstler_innen deren Wildheit wieder frei. Die Definitionsmacht wird an die Sprecher_innen in der Universität zurückgegeben und Wissenschaft als widerständig begriffen.

Content