Der Datenjournalismus bleibt unter seinen Möglichkeiten, weil wir uns die falschen Ziele stecken. Lasst uns endlich über den Tellerand blicken! Ein Plädoyer. VON EVA WOLFANGEL

Photo: CC O: Nick Diamantidis/https://unsplash.com/

Photo: CC O: Nick Diamantidis/https://unsplash.com/

Retten die Daten den Journalismus? Wer sich dieser Tage auf den einschlägigen Journalistenkonferenzen herumtreibt, kommt um diesen Eindruck nicht herum. Datenjournalismus ist eines der neuen Lieblingsworte der Branche. Nur: Was sich dahinter verbirgt, das definiert jede Session, jedes Panel, jeder Referent anders. Und zu allem Überfluss hebt kaum einer die Hand, wenn es um die Frage geht, wer denn Datenjournalist sei (auf der Konferenz Datenlabor 2015 des Netzwerk Recherche meldete sich auf die Nachfrage einer Referentin genau einer). Alle wollen irgendwie mitmachen, aber keiner weiß, was genau. Das mag für die Anfangszeiten einer Bewegung sympathisch sein, aber so langsam sollten wir diese Identitätskrise angehen. Denn in der Tat wird Datamining zum Journalismus der Zukunft gehören. Allerdings müssen wir das anders anpacken, wenn wir mehr als einen Blumentopf damit gewinnen wollen.

Wer genauer hinschaut, sieht, dass sich die Identitätskrise auch auf die Produkte auswirkt. Selbst jene Projekte, die auf den einschlägigen Konferenzen als Leuchtturm-Beispiele für Datenjournalismus verkauft werden, sind in aller Regel nicht viel mehr als Visualisierungen und häufig in ihrer Aussagekraft begrenzt. Beispielsweise das Projekt der Berliner Morgenpost „M29 – Berlins Buslinie der großen Unterschiede“: Es wurde für den Grimme-Online-Award nominiert, in der Kategorie Kultur und Unterhaltung. Und da gehört es hin: Es ist gute Unterhaltung, eine tolle Visualisierung sozialer Unterschiede in einer Stadt entlang einer Buslinie, ein schönes Spielzeug, eine innovative Form, Fakten im Netz darzustellen. Aber eben auch nicht mehr. Die Auszeichnung mit dem dpa-Infografik-Award nennt es beim Namen: Es ist eine interaktive Infografik. Wo steckt hier die journalistische Arbeit? Sie sollte genau an diesem Punkt einsetzen: Auffällige Muster oder Werte in den Daten können Ausgangspunkt für spannende journalistische Recherchen sein.

Mehr als interaktive Karten-Klickhits

Andere Projekte stellen Daten nicht nur dar, sondern rechnen ein bisschen. „Das Gedankenexperiment ist simpel“, schreibt beispielsweise selbst Spiegel Online zu seinem Projekt „Betongold“: „Wie lange reicht der Verkaufserlös eines Einfamilienhauses, um einen Platz im Pflegeheim zu finanzieren?“ Ja, möchte man rufen: Das ist simpel. Und diese Frage stellen sich die Häuslebauer hoffentlich auch. Von daher ist es zwar ein schöner Service, wenn eine interaktive Karte die Antwort liefert und man den Dreisatz nicht selbst berechnen muss. Und ein Klickhit sicherlich dazu – was vermutlich eines der Hauptargumente für derlei Projekte ist. Aus Daten aber kann man mehr rausholen. Die Kollegen von Spiegel Online und der Berliner Morgenpost machen mit den vorhandenen Mitteln tolle Geschichten und Projekte, sie testen neue Formate im Netz mit großem Erfolg. Wenn es aber um die Zukunft des Datenjournalismus geht, sollten wir uns mehr vornehmen.

Nach dem Datenlabor 2015 habe ich geschrieben, Datenjournalismus in der Mediendebatte sei das Äquivalent zu Bigdata in der Wissenschaftsdebatte: Alle reden darüber, alle wollen es gerne tun, keiner weiß, wie es geht. Da möchte ich gerne noch einen drauf setzen. Im Falle von Bigdata und im Gegensatz zu uns diskutieren die Forscher wenigstens die Möglichkeiten, die intelligente Algorithmen bieten. Was können wir den Daten alles entlocken? Welche bislang unbekannten Zusammenhänge können wir entdecken, wenn Algorithmen Muster in Daten finden, die wir Menschen aufgrund unserer begrenzten Rechenkapazität bislang nicht aufgespürt haben? Ja: Viele Hoffnungen sind sicherlich weit überzogen. Und ja: Ganz sicher liegt das Glück nicht darin, möglicherweise zufällige Korrelationen aufzustöbern, deren Kausalitäten weiterhin verborgen bleiben. Aber mit Daten kann man viel mehr machen, als unsere gegenwärtigen Leuchtturm-Projekte vermuten lassen. Man muss nicht besonders visionär sein, um zu behaupten, dass Datamining im Journalismus nicht bei bunten Visualisierungen und Dreisatz-Rechnungen aufhören sollte.

Die Angst vor dem Algorithmus

Was ist also das Problem? Viele Journalisten haben Angst vor dem Wort Algorithmus (manche Redaktionen bitten mich regelmäßig, dieses Wort zu vermeiden). Aber ohne diese Algorithmen und ohne eine seriöse Datenanalyse bleiben wir weit unter den Möglichkeiten, die uns die Daten bieten. Viele Teilnehmer der Datenjournalismus-Konferenzen und Workshops fragen sich, ob sie nun programmieren lernen sollen. Vortragsredner und Trainer versprechen: Das ist ganz leicht! Es gibt jede Menge Tools im Netz, mit denen man in nur wenigen Schritten Daten visualisieren kann. Wer ein bisschen googelt, findet Open-Source-Codes, in denen er beispielsweise nur einen Twitter-Hashtag verändern muss, um eine Netzwerkanalyse der Beteiligten einer Konferenz visualisiert zu bekommen. Aber was machen wir da eigentlich? Wer überblickt, was diese Programme tun? Wer kann einschätzen, ob das, was der kopierte Programmcode am Ende als Ergebnis ausspuckt, seriös ist? Und das ist wieder eine Parallele zur Debatte in der Wissenschaft: Wenn selbst die Entwickler intelligenter Algorithmen am Ende nicht mehr nachvollziehen können, wie ihr System zu welchem Schluss kam: Woher kann man wissen, dass es nicht falsch liegt? Und wir Journalisten wollen alles selbst machen? Das ist vermessen und gefährlich.

Wer seriös Datamining betreiben will, muss vielerlei Fallstricke beachten. Statistik ist nicht profan. Daten können lügen, sie können unsauber und fehlerhaft sein (wie beispielsweise Volker Stollorz immer wieder aus seiner Arbeit am OperationsExplorer berichtet). Man kann die falschen Fragen an sie stellen, und falsch ausgewertet können sie uns auf falsche Spuren führen – meist ohne dass man es merkt. Moderne „Storys“ auf fehlerhafter Datengrundlage sind deshalb fataler als eine pure „analoge“ Falschmeldung. Verschiedene Forscher auf der Datenlabor-Konferenz haben darauf hingewiesen, dass wir Journalisten im Umgang mit Daten Fehler begehen, ohne es zu merken. Ohne uns überhaupt bewusst zu sein, was wir da tun.

Kompetenzen komplementieren

Datenjournalismus braucht verschiedene Kompetenzen: Journalisten, die eine Ahnung davon haben, was mit Datamining und explorativer Datenanalyse möglich ist, was die Algorithmen heutzutage können, die Korrelationen und Kausalitäten sorgfältig unterscheiden, die eine These haben und die ihr Handwerk beherrschen, die wissen, wie man Geschichten findet, wie man sie sauber nachrecherchiert und die sie gut aufschreiben können. Und Informatikerinnen und Computerlinguisten, Statistiker und Visualisiererinnen, die den Daten seriös ihre Geheimnisse entlocken und die in enger Zusammenarbeit mit den Journalisten die Methoden und die Recherchewege der Zukunft entwickeln.

Wenn die Medienprofessorin Emily Bell davon spricht, dass das Verhältnis von Schreibern zu Technikern und Digitalexperten in den Redaktionen der Zukunft 1:1 sein müsse, mag das für viele Journalisten wie eine Provokation klingen. Aber sie hat Recht. Anstatt programmieren zu lernen, sollten wir Journalisten unsere klassischen Kompetenzen pflegen. Und uns die richtigen Partner aus den erwähnten Fachgebieten suchen. Solange wir uns dagegen sträuben und versuchen, alles selbst zu machen, treten wir auf der Stelle. Im besten Fall.

_______________________________________________________________________

Peru 2008 Eva Wolfangel ist freie Wissenschaftsjournalistin in Stuttgart. Sie schreibt über Themen wie Chancen und Risiken von Bigdata; Technologien der Zukunft und wie sie unseren Alltag verändern; Informatik, Privacy und Usability; Möglichkeiten und Grenzen von Simulationen, die unberechenbaren Menschen und ähnliches.
Follow @evawolfangel