Die Auswahl von Studienergebnissen durch Wissenschaftsjournalisten erschien lange als relativ beliebig. Dank neuer Analysetools sind jetzt Einsichten möglich, die das Auswahlhandeln in ein neues Licht tauchen. Eine davon: Die Auswahl folgt wahrscheinlich einer mathematisch exakt zu beschreibenden Gesetzmäßigkeit. Ein Werkstattbericht. VON MARKUS LEHMKUHL

Es passierte an einem Mittwoch Ende November vergangenes Jahres. Ich saß an meinem Schreibtisch und studierte die Verteilung von Artikeln über neue wissenschaftliche Resultate. Eine der Datenreihen zeigte an, wie häufig über eines der etwa 2,3 Mio wissenschaftlichen Resultate eines Jahres berichtet worden ist. Eine weitere zeigte an, durch welche der von der Datenbank Scopus gelisteten 24 000 wissenschaftlichen Zeitschriften diese Ergebnisse veröffentlicht wurden.

Beide Datenreihen entstammen einer automatisierten Abfrage des Altmetric Servers. Altmetric ist eine Firma, die prinzipiell für jedes Dokument, das mit einer DOI versehen ist, nachvollzieht, wo im Netz auf dieses Dokument verlinkt wird. Diese Quellen werden Kategorien zugeordnet, eine davon sind Massenmedientitel. Wenn etwa bei spiegel_online über eine Studie berichtet wird, dann weist Altmetric das entsprechend aus.

Was ich beim Blick auf die Datenreihen zu sehen bekam, war zunächst nicht besonders überraschend, aber trotzdem interessant, weil bisher unbekannt. Nur gut 2 200 Studien, also knapp 0,1 Prozent, stoßen auf ein Echo im Journalismus. Die Resultate stammen aus gut 700 unterschiedlichen Journals. Also bringen immerhin etwa drei Prozent der Journals in einem Jahr mindestens ein Paper raus, das durch Journalisten irgendwo auf der Welt ausgewählt wird. Das war eine für mich überraschend große Zahl. Ich hätte nicht gedacht, dass aus so vielen unterschiedlichen Journals ausgewählt wird. Ich notierte mir einen Kommentar in mein Notizbuch: „Wahrscheinlich ein Effekt von EurekAlert, AlphaGalileo, Sciencedirect und Co!“

Will sagen: Dass nur einzelne Paper aus Journals mit häufig mehr als 1000 Veröffentlichungen pro Jahr ausgewählt werden, kann man nicht dadurch erklären, dass diese durch unabhängige Wissenschaftsjournalisten systematisch beobachtet werden. Es ist wahrscheinlich, dass das auf das Konto der Kommunikationsprofis geht, die im Auftrag von Hochschulen oder Verlagen fleißig Pressemitteilungen über mutmaßlich journalistisch anschlussfähige Resultate auch aus eher unbekannten Journals auf den Fachportalen und anderswo verbreiten.

Acht Zeitschriften veröffentlichen ein Viertel aller resonanzstarken Studien

Ich begann die Datenreihen in zwei Grafiken zu überführen. Was ich zu sehen bekam, war eine so genannte „Long-Tail-Verteilung“. Das bedeutet: Die allermeisten Paper und die allermeisten Journals finden im Journalismus nur äußerst mäßige Beachtung. Etwa 425 der gut 700 Journals, aus denen die Wissenschaftsnews eines Jahres stammten, haben binnen eines Jahres nur ein Paper veröffentlicht, das Beachtung fand. Mehr als ein Fünftel der Studien, also etwa 500, sind in nur acht Journals erschienen: Science, Nature, Nature Communications, PNAS, Lancet, New England Journal of Medicine, JAMA und Pediatrics. Von den 2200 Resultaten brachten es ungefähr zwei Dutzend zu weltweiter Aufmerksamkeit, d.h. sie wurden von vielen Journalisten in vielen Ländern gleichzeitig ausgewählt, man kann sie deshalb als die Top Science World News des Jahres 2016/2017 bezeichnen (siehe die Liste am Ende dieses Beitrages).

Dass ich mich noch an den Wochentag erinnere, an dem ich diese Analysen machte, wird durch diese Einsichten jedoch noch nicht erklärt. Erst der nächste Analyseschritt erklärt das. Er erbrachte nämlich zwei krumme Zahlen, die mich elektrisierten: .97 und .95! Diese Zahlen geben Auskunft darüber, wie exakt sich Long Tail verteilte Messpunkte an eine Gerade schmiegen, wenn man die Daten auf eine Skala abträgt, die logarithmisch ist. Der Wert 1 wird erreicht, wenn jeder Messpunkt genau auf der Geraden liegt. Das bedeutet bezogen auf die Journals: Die Chance, dass ein Journal 1,2,3…. Paper veröffentlicht, die auf Resonanz im Journalismus stoßen, nimmt mit nachgerade unheimlicher Regelmäßigkeit exponentiell ab, der Exponent der Steigung beträgt 2,2. Bezogen auf die einzelnen Studien: Die Chance, dass eine Studie X durch 50, 51, 52… Medientitel weltweit aufgegriffen wird, fällt mit jedem weiteren Medientitel, der auswählt, ziemlich steil und absolut regelmäßig ab. Der Exponent der Steigung beträgt 3,4.

Darstellung der Häufigkeit von Journals, in denen genau x Paper veröffentlicht wurden, die auf mediales Interesse gestoßen sind. In der unteren Abbildung sind die Messwerte auf logarithmischen Skalen abgetragen, hier zeigt sich eine Gerade.

Die journalistische Auswahl wissenschaftlicher Studien folgt einer klaren Verteilung

Jetzt wurde ich richtig aufgeregt. Ich wähnte mich schon als Entdecker eines bisher unbekannten Verteilungsgesetzes. Die Freude darüber währte allerdings nur kurz, sehr kurz. Ich griff hinter mich in mein Bücherregal und zog ein Buch heraus, das erstmals 1963 veröffentlicht wurde. Geschrieben hat es Derek de Solla Price, vom dem die noch heute immer wieder zitierte Rate stammt, mit der die Wissenschaft seit ihrem Bestehen jährlich wächst, etwa drei Prozent. Ich erinnerte mich vage, dass ich in diesem Buch so etwas Ähnliches wie das, was sich vor mir auftat, schon Mal gesehen hatte. Und richtig: De Solla Price stützte damals seine Hochrechnungen unter anderem auf Lotkas Gesetz, erstmals beschrieben 1926.

Es besagt im Wesentlichen, dass grundsätzlich immer ein vergleichsweise großer Teil der Publikationen innerhalb eines Fachgebietes auf eine vergleichsweise kleine Zahl von Autoren entfällt. Lotka fand, dass die Anzahl der Autoren, die n Aufsätze schreiben, proportional zu 1/n2 ist. Das entspricht prinzipiell der Verteilung der durch Journalisten ausgewählten Paper auf die Journals. Der einzige Unterschied ist, dass der Exponent leicht differiert: Meine Gerade fällt nicht ganz so steil ab wie die von Lotka. Das Lotkasche Verteilungsgesetz ist mittlerweile für viele unterschiedliche wissenschaftliche Fachgebiete mehr oder minder reproduziert worden. Das heißt, man kann davon ausgehen, dass in wissenschaftlichen Fachgebieten auf 100 Autoren, die in einem bestimmten Zeitraum einen Aufsatz verfassen, 25 kommen, die zwei schaffen, 11 drei usw.. Meine Daten zeigen, dass auf 100 Journals, die 2016/2017 ein Paper in die Zeitung brachten, 28 kommen, die zwei schafften, 10 drei, 7 vier, 5 fünf usw., ganz am Ende dieser Reihung findet sich Science. Das Journal brachte es auf immerhin 86 Paper.

Noch ein wenig ernüchterter wurde ich, als ich feststellte, dass diese Art der Verteilung schon für einen ganzen Strauß von Merkmalen gefunden wurde. Eine kleine, nicht vollständige Liste: Größenverteilung von Städten, Größe von Mondkratern, Häufigkeit der Wahl bestimmter Wörter in allen menschlichen Sprachen, die Zahl der Zitationen von wissenschaftlichen Aufsätzen, die Zahl der Zugriffe auf Webseiten, die Verkaufszahlen von Büchern, die Größenverteilung US-amerikanischer Unternehmen… . Das, was ich vor mir hatte, war also mitnichten ein neues Verteilungsgesetz. „Entdeckt“ hatte ich allenfalls ein weiteres „man made system“, das so wie einige andere offenbar durch irgendeine unsichtbare Kraft getrieben so eine Art von Verteilung hervorbringt: die journalistische Auswahlpraxis wissenschaftlicher Studien.

Aber, was ist diese Erkenntnis wert? Was bedeutet sie überhaupt? Antworten erarbeiten wir in einem kleinen Team am Karlsruher Institut für Technologie (KIT) zusammen mit dem Science Media Center in Köln. Ich halte Sie auf dem Laufenden!

Top Science World News des Jahres (2016/17)

Markus Lehmkuhl ist Professor für Wissenschaftskommunikation in digitalen Medien am Karlsruher Institut für Technologie.