Die magische Zahl der Wissenschaft

von Tobias Jakober
Lesezeit: 4 min
Was hat ein Hirsch mit dem Wert wissenschaftlicher Leistung zu tun? Und wann bin ich als Forscher so richtig erfolgreich? Wir wagen einen Blick in die Tiefen des Forschungsbetriebs.

Von den ECTS-Punkten beim Studium wissen wir ja schon lange, dass sich Studieren in Zahlen ausdrücken lässt. Nicht nur Lernaufwand, sondern auch wissenschaftliche Leistungen lassen sich präzise messen – so zumindest die Versprechung. Häufig aber führt die Quantifizierung des akademischen Bereichs zu irren Absurditäten, die nichts mehr mit Wissenschaft zu tun haben.

Eindruck schinden

Eine Zahl, die den Forschungsbetrieb seit den 90ern heimsucht, ist der Impact-Faktor. Mit diesem soll ausgedrückt werden, welche Reichweite ein wissenschaftlicher Artikel hat. Jedes Journal hat seinen eigenen Wert, je nachdem wie viel es gelesen bzw. wie oft daraus zitiert wird. Die Wissenschaftlerin, die in einem renommierten Blatt ihren Beitrag platzieren kann, bekommt einen hohen Faktor. Dabei ist es völlig unerheblich, ob aus ihrer Arbeit tatsächlich irgendjemand zitiert – oder ob ihn überhaupt jemand liest. Sogar in den großen Journals wie etwa Nature findet ein Fünftel der Beiträge überhaupt gar kein Echo – der Impact-Faktor bleibt der gleiche.
Ein weiteres Problem des Impact-Faktors ist, dass spezialisierte Zeitschriften meist auch eine kleine Leserschaft haben. Publikationen in diesen Nischen können noch so herausragend sein, die Reichweite bleibt klein.

Hirsche zählen

Beim Hirschfaktor oder h-Index hat man dieses Problem nicht. Hier werden nicht die Journale, sondern die Zitate der einzelnen Wissenschaftler gemessen. Wer viel geschrieben hat und oft zitiert wird, bekommt einen guten h-Index. Ein einzelner erfolgreicher Artikel reicht dabei aber nicht aus. Die eigenen Veröffentlichungen werden für die Berechnung nach der Zahl der Zitationen aufgelistet. Sobald der Listenplatz eine höhere Zahl hat als die Zitate, ist der Hirschfaktor bestimmt. Wenn beispielsweise der siebte Artikel achtmal zitiert wurde, der achte in der Liste aber nur fünfmal, dann hat man den Hirschfaktor 7.

Mit dieser Methode unterscheidet man aber nicht, ob es sich um eine Überblicksdarstellung (review) oder eine beachtenswerte neue Leistung handelt, ob man als Protegé seines großen Professors genannt wird oder tatsächlich selbst Großes geleistet hat. Wermutstropfen vor allem für die Geisteswissenschaften ist auch, dass bei ihnen einfach seltener zitiert wird und weniger Journalartikel geschrieben werden. Es gibt in den verschiedenen Disziplinen ganz unterschiedliche „Kulturen“, wie veröffentlicht und zitiert wird. Monographien, wie sie traditionellerweise in den Kulturwissenschaften geschrieben werden, bekommen quantitativ gesehen kaum Anerkennung. Jorge E. Hirsch, der die Berechnungsmethode entwickelt hat, war selbst Physiker – damit hat er wohl nicht gerechnet. Es ist darum auch nicht verwunderlich, dass die Wissenschaftler mit den allerhöchsten h-Indizes allesamt aus den Naturwissenschaften stammen. Anstatt aber dem eine eigene Größe entgegenzusetzen, kommt es in den Geistes- und Sozialwissenschaften immer mehr zu einer „Fetischisierung“ von Journalartikeln.

Umweg über die Hintertür

Der starke Fokus auf messbare Größen, die immer nur auf Zitate oder Reichweite schauen, hat nun recht kreative Lösungsmöglichkeiten produziert. Einerseits hat eine Schwemme von Journalartikeln eingesetzt, die einzig ihrer Masse wegen geschrieben, aber kaum gelesen werden. Ein einzelnes Thema dröselt man so auf, dass sich gleich drei Beiträge einreichen lassen, die sich gerade ausreichend voneinander unterscheiden.
Etwas kriminelle Energie gepaart mit einiger Einbildungskraft bringt manche Leute auch auf die Idee von Zitierzirkeln – oder noch treffender: Zitierkartellen. Dabei spricht sich eine Reihe von Wissenschaftlerinnen und Forschern ab, sich gegenseitig häufig zu zitieren. Sind die Muster und Verflechtungen komplex genug, ist es sehr schwierig, solchen Verabredungen auf die Schliche zu kommen.

Auswege

Wie kommt man nun den vielen negativen Seiten und den blinden Flecken der quantitativen Methoden zur Beurteilung akademischer Leistung bei? Vor etwa zehn Jahren hat sich eine Gruppe von Forschern zusammengetan, um etwas gegen die Missstände zu tun. Ihre Empfehlungen für eine bessere Art und Weise, Forschungsleistung abzuschätzen, haben sie in der Declaration on Research Assessment (DORA) niedergeschrieben.  Knapp 23.000 Wissenschaftlerinnen und Forscher sowie etliche Institutionen aus aller Welt haben die Deklaration unterzeichnet.

Auch der zukünftige Vizerektor für Forschung der Uni Innsbruck, Gregor Weihs, selbst Physiker, ist der Meinung, wenn überhaupt mit quantitativen Messinstrumenten gearbeitet werden soll, dann müssten die DORA-konform sein. Zu den Empfehlungen der Deklaration gehört, dass bei der Evaluation nicht einfach solche bibliometrischen Maße anstelle von einer Bewertung des inhaltlichen Werts verwendet werden. Besonders nicht der Journal-Impact-Faktor, der überhaupt keinen Rückschluss auf die individuelle Forscherin erlaubt. Auch sollte anderer wissenschaftlicher Output, abgesehen von Journal-Beiträgen, wie etwa Datensätze, Software oder Lehre, angemessen gewichtet werden.
Vizerektor in spe Gregor Weihs sieht den Bann der großen Zahlen bereits gebrochen: „Ich habe das Gefühl, wir sind schon darüber hinweg.“ Bei Berufungskommissionen für Professuren würde es immer um die inhaltliche wissenschaftliche Qualität und nicht um irgendwelche quantitativen Maße gehen, so Weihs.

Schreibe einen Kommentar

* Durch die Verwendung dieses Formulars stimmst du der Speicherung und Verarbeitung deiner Daten durch diese Website zu.

Artikel aus der selben Rubrik