Daten über Forschung und Forscher: Die Vermessung der Wissenschaft

Der neue „Kerndatensatz Forschung“ regelt, was über Wissenschaftler und ihre Arbeit gespeichert wird. Kritiker befürchten Fehlanreize.

Forscher im Labor unter Rotlicht

Vermessen Foto: DPA

Als Ende Januar das wichtigste wissenschaftspolitische Beratungsgremium Deutschlands, der Wissenschaftsrat, die Spezifikation „Kerndatensatz Forschung“ verabschiedete, erregte dies so gut wie keine Aufmerksamkeit. Kaum ein Forscher dürfte wissen, was sich hinter dieser Bezeichnung verbirgt. Doch könnte es mit über ihre Zukunft entscheiden: Er legt die Standards fest, welche Daten über Wissenschaftler und ihre Leistungen zukünftig erfasst werden.

Da diese leichter verglichen werden können als der eigentliche Inhalt wissenschaftlicher Arbeit, könnten Drittmittelanträge schnell anhand der Zahlen vorausgewählt werden – oder bei Berufungen nur diejenigen eingeladen werden, die gut abschneiden.

„Wahrscheinlich sind alle Akteure des Wissenschaftssystems in irgendeiner Form von diesem Projekt betroffen“, sagte Sophie Biesenbender vom Institut für Forschungsinformation und Qualitätssicherung (iFQ) in Berlin, als sie im Jahr 2013 das Vorhaben vorstellte, Informationen über Universitäten und Forschungsinstitute in ganz Deutschland zu vereinheitlichen.

Schon jetzt wird wissenschaftliche Leistung von einzelnen Professoren, Lehrstühlen und ganzen Hochschulen immer mehr über Zahlen gemessen und verglichen. Beispielsweise ist bei Publikationen oft weniger der Inhalt als ihre Anzahl entscheidend. Bei der Vergabe von Lehrstühlen zählt zunehmend der berechnete „Impact“ von Artikeln, der daran gemessen wird, wie oft andere Beiträge in der jeweiligen Fachzeitschrift zitiert werden.

Auch bei der Verteilung von Forschungsgeldern entscheiden oft simple Zahlen – wie die Menge an Drittmitteln einer Arbeitsgruppe oder der Anteil weiblicher Forscher oder die Zahl der Doktoranden. So bei der „Leistungserfassung in Forschung und Lehre“, die an der TU Berlin mit über Ausstattung und Besoldung von Professoren bestimmt. Ein Teil der Erhebungen veröffentlichen die Hochschulen selbst im Netz. In welchem Fachbereich die meisten weiblichen Promovenden sind oder welche TU-Lehrstühle 2013 die 179 Millionen an Drittmitteln einwarben, hingegen nicht.

Vereinfachte Auswerteprogramme

Die Einführung des neuen Standards erfolgte still und leise. „Klar ist, dass wir zukünftige Wissenschaftsgenerationen so sozialisieren, dass sie kontinuierlich gemessen werden“, sagt Matthias Winterhager von der Uni Bielefeld, der an der Entwicklung des Kerndatensatzes beteiligt war. Die Betroffenen würden kaum erkennen, dass der derzeit unverbindliche Standard bald bindend wird und für Karrieren Folgen haben. Auch Winterhager ist sich sicher, dass neue Vergleichsstandards mächtige Auswirkungen auf das Verhalten von Wissenschaftlern haben wird: Es käme weniger darauf an, gute Forschung zu machen, sondern gute Indikatoren zu erreichen.

Inzwischen ist die erste Version des Standards entschieden: Neben Publikationen werden auch Drittmittelprojekte sowie Patente und Firmengründungen erfasst. Vereinfachte Auswerteprogramme werden dort eine scheinbar „bessere“ Forschung anzeigen, wo es beispielsweise viele industrienahe Lehrstühle mit hohen Drittmitteleinnahmen und Patentzahlen gibt. Wird dies Politiker dazu verleiten, Geld vermehrt dorthin zu schieben – oder Wissenschaftler, mehr auf diesen „Output“ zu achten?

Veröffentlicht und ausgetauscht sollen die Daten höchstens auf der Ebene einer einzelnen Abteilung werden. Details zu personenbezogenen Daten sind zwar auch Teil des Standards, doch sollen sie die jeweilige Uni oder das Forschungsinstitut nicht verlassen.

Tiefgreifende Reformen kommen nicht immer mit einem Paukenschlag. Dieser blieb schon beim Bolognaprozess aus. Als die politisch-administrative Ebene die Reform fast aller Studiengänge in die Wege leitete, erkannte kaum jemand die zukünftigen Folgen. Als die Wissenschaft reagierte, war die Reform nicht mehr rückgängig zu machen. Dasselbe könnte sich bei der Rundumvermessung der Wissenschaft wiederholen, befürchten Kritiker.

„Forschungsrating“ des Wissenschaftsrats

Ausgangspunkt für den Kerndatensatz war, dass bisher keine Standards für Informationen über Forschungseinrichtungen existierten. Wenn etwa ein Wissenschaftsminister einen Vergleich über alle Universitäten seines Bundeslandes haben möchte, startet ein mühsamer Prozess zur Aufbereitung der Daten. Auch für groß angelegte Evaluationen ganzer Disziplinen, die mit dem „Forschungsrating“ des Wissenschaftsrats verglichen werden sollen, ist die Datenerhebung eine gewaltige Herausforderung. Könnte es nicht einfacher gehen?

Es kann – doch schnell zählt das, was gezählt wird. Nicht jeder Ingenieur kann Radiointerviews vorweisen, und nicht jeder Geisteswissenschaftler Patente. Obwohl der Wissenschaftsrat schon 2013 von unerwünschten Anreizwirkungen sprach und dazu aufforderte, derartige Effekte zu prüfen, pries er gleichzeitig die soliden Standards an. Mit ihnen könnten „verlässliche Indikatoren entwickelt werden, um die Bewertung von Forschungsleistungen durch die Datenabfrager zu unterstützen“. Um Bedenken vorzubeugen, verschob er sogar die Verabschiedung des Kerndatensatzes um drei Monate, um an der Verpackung zu feilen.

Inzwischen weist er auf mögliche Nebenwirkungen ausdrücklich hin: Die Angaben im Kerndatensatz würden keinesfalls ausreichen, um wissenschaftliche Leistungen zu bewerten. Dazu bedürfe es weiterhin Wissenschaftler, die sich auf dem jeweiligen Gebiet gut auskennen. Doch gleichzeitig legt der Wissenschaftsrat mit seinem neuen Standard die Basis dafür, dass es anders kommt.

Forscher waren kaum beteiligt

„Der Kerndatensatz ist nicht aufzuhalten, da es viele Argumente gibt, die für ihn sprechen“, sagt Winterhager. „Aber es heißt nicht, dass es gut ist, was da kommt.“ Aus seiner Sicht handelt es sich um ein Experiment am lebenden System, dessen Folgen schwer abzuschätzen sind.

Während die vereinheitlichten Datenstandards den meisten Univerwaltungen gelegen kommen dürfte, sind die Verbände von Wissenschaftlern bisher verhalten bis sehr kritisch, sofern der Kerndatensatz überhaupt auf ihrem Schirm aufgetaucht ist. Um die Akzeptanz zu maximieren, wollte das iFQ eigentlich möglichst viele Akteure mit in das Projekt einbinden, wie Biesenbinder sagte.

Doch Forscher waren kaum beteiligt. „Die Fachgesellschaften wurden absolut ungenügend in den Prozess eingebunden“, sagt Betina Hollstein, die im Vorstand der Gesellschaft für Soziologie für Forschung zuständig ist. Dabei versammelt ihr Fachverband auch die deutsche Expertise zur Wissenschaftssoziologie. Auch Martin Schulze Wessel, Vorsitzender des Historikerverbands, kritisiert dies scharf: „Es gab keine öffentliche Debatte zum Kerndatensatz.“

In ein Panoptikum eingesperrt

Sein Verband hat sich vergleichsweise früh mit dem Thema beschäftigt und die „große Gefahr“ angeprangert, dass durch die einheitliche Vermessung Unterschiede zwischen Fachkulturen verwischt werden könnten und Fehlanreize geschaffen würden, strategisch nur die Daten zu verbessern – und die Lehre oder andere Tätigkeiten zu vernachlässigen. Viele andere Verbände haben es wohl verschlafen.

Der Allgemeine Fakultätentag, ein fächerübergreifendes Gremium, erörtert derzeit immerhin eine mögliche Stellungnahme. Auf einer Tagung zum Kerndatensatz im vergangenen Sommer war zwar ein großer Teil aller Universitäten und Forschungseinrichtungen vertreten – doch waren fast keine aktiven Wissenschaftler anwesend. Weder die Tagung noch deren Ergebnisse waren iFQ oder Wissenschaftsrat eine Pressemitteilung wert.

Wissenschaftler kritisieren aber nicht nur die mangelnde Transparenz. „Der Kerndatensatz wird die Wissenschaft nur noch weiter in ein Panoptikum einsperren und jede Kreativität zum Erliegen bringen“, fürchtet der emeritierte Soziologe Richard Münch. An der Universität Bamberg erforscht er, welche unbeabsichtigten Effekte quantitative Bewertungen haben. Ein Ergebnis lautet: Durch die leistungsorientierte Mittelvergabe werde die Forschungsfreiheit von Professoren und Doktoranden eingeschränkt.

Finanziell aussichtsreiche Themen

Universitäten hängen eh immer stärker von Drittmitteln ab, durch die es immer mehr zu befristeten, prekären Arbeitsbedingungen kommt. Insbesondere kleinere Unis würden sich auf finanziell aussichtsreiche Themen stürzen. Dabei blieben Vielfalt und Qualität von Lehre und Forschung oft auf der Strecke. Auch Unileitungen orientieren sich nach einer aktuellen Studie immer mehr an Indikatoren. „Das geht ganz klipp und klar zu Lasten der Studierenden“, sagt Wieczorek.

Schon in zwei oder drei Jahre dürfte der Kerndatensatz verbreitet sein. Allerdings – betont der Wissenschaftsrat – sei er kein abgeschlossenes Projekt. Alle fünf Jahre soll der Datensatz angepasst werden. Ob eine künftige Evaluierung jedoch noch dazu führen kann, die verstärkte Quantifizierung der Wissenschaftslandschaft aufzuhalten, darf bezweifelt werden. Zumindest haben die betroffenen Forscher kein Wort mehr mitzureden.

Für Änderungsvorschläge aus den Hochschulen hatte es einmalig eine achtwöchige Kommentierungsphase gegeben. Für die weitere Beurteilung des Datensatzes will der Wissenschaftsrat nur „einschlägige“ Experten befragen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.