Auch wenn sich (fast) alle einig sind, dass es eine extrem problematische Verkürzung ist, wissenschaftliche Arbeit auf bibliometrische Statistiken (Publikationszahlen, Zitationen, h-Index) zu reduzieren, so werden Wissenschaftler*innen trotzdem vor allem daran gemessen, wie viel sie publizieren und welchen Impact Factor die Zeitschriften haben, in denen sie es tun. Weil dies vergleichsweise einfach zu messen ist. So sind Menschen im Vorteil, die (a) gut vernetzt sind (und daher oft eingeladen werden, ein paar Zeilen zu einem Artikel beizusteuern; außerdem werden sie dann relativ häufig von ihren vielen Kolleg*innen zitiert), (b) ein Talent für die Wiederverwertung ihrer Forschungsergebnisse haben (es ist erstaunlich, wie viele Artikel man aus einer Studie machen kann, wenn man sie geschickt portioniert) und nicht zuletzt (c) denen das Aufschreiben ihrer Forschungsergebnisse leicht fällt. Des Weiteren gibt es Unterschiede in der „typischen“ Publikationsintensität (einschließlich des Zitationspotenzials) je nach Disziplin, Art der Forschung (konzeptionell–theoretisch vs. empirisch; Grundlagen- vs. angewandte Forschung) und Thema. Doch selbst wenn man von all diesen Problemen der „Output-Fokussierung“ absieht, fällt dabei zusätzlich die Kehrseite der wissenschaftlichen Publikationstätigkeit unter den Tisch – der Peer-Review. Dabei ist seine Bedeutung für die Wissenschaft kaum zu überschätzen.Weiterlesen »