Journalisten sollten sich nicht hinter fehlenden Mathe-Fähigkeiten verstecken und ein datenjournalistisches Verständnis entwickeln. Beispielsweise, indem sie Programmieren lernen. Ein Erfahrungsbericht von einer Journalistin, die es ausprobiert hat. VON GIANNA GRÜN

Photo: CC 0 Farzad Nazifi

Photo: CC 0: Farzad Nazifi/unsplash.com

Als Multimedia-Journalistin waren Datenvisualisierungen schon immer Teil meiner Arbeit — genau wie Fotos oder Videos. Datenjournalismus-Seminare der WPK oder Massive Open Online Courses des Knight Centers der University of Texas haben mir zu einem Anfänger-Level in Excel und Grafikdesign verholfen. Aber ab einem gewissen Punkt ist mir klar geworden, dass ich mit meinen vorhandenen Fähigkeiten nicht die Ideen realisieren kann, die ich gern umsetzen würde.

Deswegen habe ich mich entschlossen, Programmieren zu lernen. Ich hatte das Glück, im Lede Programm der Columbia Journalism School aufgenommen zu werden und von Mai bis Ende August in New York zu sein. Das Programm richtet sich speziell an Journalisten, die Programmieren lernen wollen. Es gibt ein Lede12 Programm von Mitte Mai bis Ende August sowie ein weiterführendes Lede24 Programm, das bis Ende Dezember geht. Ziel ist, Daten zu sammeln, zu bereinigen und zu visualisieren sowie die dafür notwendige Infrastruktur aufsetzen zu können und ein Verständnis für Algorithmen zu entwickeln.

Datenvisualisierungen und Datenbanken

Die Basis in Python haben wir mit ganz einfachen Grundlagen gelernt: Das erste Projekt war, die Idee des Life-Projekts der BBC zumindest von der Code-Seite her nachzubauen: Ein Nutzer gibt sein Alter ein und der Code berechnet, wie oft das Herz eines Blauwals seit der Geburt des Nutzers geschlagen hat, wie alt er in Venusjahren ist, wie oft die Pittsburgh Steelers seit seiner Geburt gewonnen haben.

Von dort aus haben wir immer komplexere Aufgaben mit Code bewältigt: Daten über die API-Schnittstelle von Spotify oder der New York Times systematisch herunterladen, das Scrapen von Webseiten (das systematische Extrahieren von Informationen), uns jeden morgen einen individualisierten Wetterbericht per Mail zuschicken lassen, herausfinden, was die zwei großen Themen in der Harry-Potter-Fanfiction sind.

Insgesamt ging es bei diesem Modul darum, eine bestimmte Technik an einem konkreten Beispiel zu lernen, um ein Problem zu lösen — und diesen Lösungsansatz später auf andere Probleme anzuwenden.

Parallel dazu haben wir die Datenbanksprache SQL gelernt. Sie ermöglicht, Datensätze untereinander zu verknüpfen und über sogenannte „queries“ nach spezifischen Informationen zu suchen. Wir haben einen großen Teil der Zeit mit der Mondial Datenbank gearbeitet, die geografische Informationen umfasst. Wir haben nicht nur gelernt, entsprechende Anfragen zu schreiben, um der Datenbank Informationen zu entlocken, sondern auch, selbst solche Datenbanken aufzusetzen und Schnittstellen zu erzeugen, damit andere darauf zugreifen können.

Algorithmen und Statistik

In der zweiten Hälfte des Sommers ging es darum, jede Woche ein neues Projekt zu realisieren: Idee überlegen, Daten finden, visualisieren — das Ganze mit Feedback von den Trainern und Kommilitonen, um möglichst nah an einen realistischen redaktionellen Produktionsprozess heranzukommen.

Parallel dazu haben wir uns mit Algorithmen beschäftigt, also mit Code, der automatisiert eine bestimmte Aufgabe erledigt. Dabei fingen wir genauso an wie Journalisten: Zeile für Zeile mit Worten zu beschreiben, welche Funktion diese Codezeile haben muss, um aus einem bestimmten Input den gewünschten Output zu machen.

Im zweiten Schritt haben wir dann diesen sogenannten Pseudocode in eigentlichen Code gewandelt und anschließend dessen Effizienz getestet. Eine Sprache wie Python hat viele Funktionen bereits integriert, die mit einfachen Kürzeln abrufbar sind. Doch wer einmal versucht hat, einen Sortier-Algorithmus selbst zu schreiben, statt die vorhandene Funktion zu nutzen, um eine durcheinandergewürfelte Zahlenfolge in eine aufsteigende zu verwandeln, entwickelt ein Verständnis dafür, wie kompliziert das ist, was möglich ist und was nicht — zumindest ansatzweise. Das bildet die Grundlage, um von solch einfachen Dingen zu abstrahieren und später komplexere Aufgaben mit Code zu bewältigen.

Darüber hinaus haben wir uns mit Statistik befasst: Wann benutzt man den Median und wann den Durchschnitt? Was beinhaltet eine explorative statistische Analyse? Wann gilt ein Datenpunkt als Ausreißer? Wie berechne ich, ob es eine Korrelation zwischen zwei Faktoren gibt? Wie können Algorithmen helfen, neue Daten zu klassifizieren? Wie kann ich die Analyse eines vorhandenen Datensatzes nutzen, um Vorhersagen über einen neuen zu treffen?

Auf der Metaebene: Was man außer Programmieren lernt, wenn man Programmieren lernt

Über die konkreten Lerninhalte hinaus habe ich vor allem drei Erkenntnisse mitgenommen: Coden erfordert eine noch höhere Frustrationstoleranz, als man sie sonst — zum Beispiel wie ich im Biostudium — braucht. Den Großteil der Zeit verbringt man nicht damit, Code zu schreiben oder Daten zu visualisieren. Sondern damit, Fehler im Code zu beheben. Wie Redakteure bei einer Textkritik Verbesserungswünsche äußern, liefert auch Python Fehlermeldungen und man verbringt viel Zeit damit, diese zuerst überhaupt zu verstehen und dann zu beheben. Zum Glück gibt es im Netz eine große und sehr hilfreiche Community an Programmierern; fast jeden Fehler, den wir hervorgebracht haben, hat schon jemand anders vor uns gemacht, öffentlich darüber geschrieben — und von der Community Hilfe bekommen. Code-Schnipsel aus Foren wie Stackoverflow in den eigenen Code einzubinden und zum Laufen zu kriegen, kann eine unglaublich befriedigende Erfahrung sein. In der Hinsicht war das Lede Programm vor allem eine Hilfe zur Selbsthilfe: „Wenn Du ein Problem hast, google es!“ war vermutlich die wichtigste Lektion.

Die zweite Erkenntnis war, wie mächtig Datenvisualisierungen sind: Unheimlich detaillierte Informationen können in einer Kompaktheit transportiert werden, wie das sonst kein anderes Medium kann. Die Fähigkeit, diese Tools zu nutzen, ist zu essentiell, als dass sie nur von einer vergleichsweise kleinen Gruppe von Journalisten beherrscht werden sollte.

Die dritte Erkenntnis ist vergleichsweise offensichtlich, aber ich habe selbst zuvor nie wirklich über sie nachgedacht, sodass ich sie hier mit aufnehmen möchte. Auch wenn „nackte Zahlen“ schnell so wirken: Daten sind nicht objektiv oder neutral. Sie werden von jemandem in einer Institution erhoben, zu einem bestimmten Zweck und nach einem bestimmten Muster. Als Datenjournalist ist man schnell dabei, eine Excel-Tabelle in eine schicke Grafik zu verwandeln. Aber wir müssen uns selbst dazu anhalten, einen Schritt zurückzugehen: Welchen eingebauten Bias könnte derjenige haben, der diese Daten erhoben hat? Wie sah der Fragebogen oder das Eingabeformular aus, mit dem sie erfasst wurden? Was könnten Datenpunkte sein, die durch dieses Raster fallen? Antworten auf diese Fragen zu finden, gehört meiner Meinung nach genauso zu unserer Arbeit, wie Daten zu finden, zu bereinigen, zu analysieren und zu visualisieren. Und die Geschichte drumherum zu erzählen.

Zurück auf dem Arbeitsmarkt: Projekte als Währung

Mit diesen Fähigkeiten zurück auf dem deutschen Markt als freie Datenjournalistin, erweitere ich gerade meine Kundenbasis.

Die wichtigste Währung dabei: Projekte! Das ist auch der Universal-Tipp, den erfahrene Datenjournalisten als erstes an den Nachwuchs weitergeben: Nicht nur, weil man seine Fähigkeiten mit jedem Projekt (und seinen Fehlermeldungen) erweitert, sondern auch, weil das der effektivste Weg ist, zu zeigen, was man kann.

Zum Glück war das Lede Programm darauf angelegt, ein kleines Portfolio zu erstellen. Darüber hinaus ist es — als freier Journalist — schwieriger, das Portfolio fortlaufend zu erweitern. Zwar würde ich nichts lieber machen, als den ganzen Tag neue Projekte zu realisieren. Aber solange sie nicht für zahlende Auftraggeber sind, kann man diese Strategie als freier Journalist nicht lange fahren. Zwar kann man hoffen, dass sich die Zeit-Investition langfristig auch finanziell auszahlt, weil neue Auftraggeber aufmerksam werden, aber in der Zwischenzeit lässt sich meine Vermieterin sicherlich nicht mit interaktiven Datenvisualisierungen bezahlen.

Während Kollegen mir schreiben „Ich dachte immer, jemand mit diesen Fähigkeiten müsste mit Aufträgen überschüttet werden“, reagieren Datenteams in Redaktionen nicht ganz mit der selben Begeisterung. Einige sind offen für Vorschläge, andere sagen ganz klar, dass sie eigentlich alle notwendigen Fähigkeiten im Team haben und deswegen generell nicht mit freien Journalisten zusammenarbeiten.

Über den Tellerrand: Datenjournalismus in anderen Ländern

Der englischsprachige Raum ist da schon sehr viel weiter, wie Medienforscher Colin Porlezza 2016 für das European Journalism Observatory aufgeschrieben hat. Laut einer Studie der Medienwissenschaftler Alfred Young und Mary Lynn Young zum Datenjournalismus-Markt in Kanada sind dort freie Journalisten, die mit verschiedenen Medienunternehmen zusammenarbeiten, zunehmend gefragt. Redaktionell gibt es dort — vor allem in tech-affinen Redaktionen — gut funktionierende Datenjournalismusteams, während es genauso Redaktionen gibt, die sich mit dem Aufbau solcher Teams noch schwer tun. Die Datenjournalisten selbst sind laut der Studie oft Allround-Talente: Kollegen, die selbst Artikel schreiben, aber ebenso Daten analysieren und visualisieren können.

Der Gegenentwurf dazu kommt aus Großbritannien, so Porlezza. Hier sei eine strikte Aufgabentrennung zwischen Journalisten und Programmierern viel stärker etabliert, beschreibt Liz Hannaford, Journalistin und Dozentin an der Manchester Metropolitan University.

Porlezza kommt für Großbritannien und Kanada zu dem Schluss, „dass Datenjournalismus in vielen Redaktionen noch nicht sein volles Potential entfaltet hat, was hauptsächlich organisatorischen Grenzen, aber auch einem stetigen Wandel des Felds geschuldet ist.“ Gründe sieht Porlezza in knappen Personal- und Wirtschaftsressourcen, sodass Datenjournalismus auf Förderung angewiesen ist: „Damit sind externe Kollaborationen gefragt, die, wie beide Studien bestätigen, sowohl in Kanada als auch in Großbritannien von großer Bedeutung für die Ausübung von Datenjournalismus sind.“

Datenjournalismus in Deutschland

Es gibt nur vergleichsweise wenige Studien dazu, wie der Datenjournalismus in Deutschland aussieht. 2014 haben Stefan Weihnacht und Ralf Spiller versucht, Datenjournalismus in Deutschland empirisch zu erfassen. Auf meta haben sie darüber geschrieben, wie wissenschaftlich Datenjournalismus in Deutschland ist.

Aber Studien vergleichbar zu denen aus Kanada und Großbritannien, die für den deutschen Markt ausleuchten, welche redaktionellen Strukturen es gibt und welche Rollenverteilung die Teams haben, gibt es nicht. Ein Grund dafür könnte sein, dass das Feld hier noch vergleichsweise jung ist. Projekt-Sammlungen wie der DDJ-Katalog von WebKid und Lokaler bieten zumindest einen Anhaltspunkt, wie viele Datenjournalismusteams und Datenjournalisten im deutschsprachigen Raum arbeiten.

Insgesamt fehlt es aber — meiner persönlichen Erfahrung nach — in Redaktionsstrukturen und den Köpfen vieler Journalistenkollegen noch an einem Verständnis dafür, was Datenjournalismus kann und wie wichtig er in einer Welt ist, die fortlaufend mehr und mehr Daten produziert. Dass Social Media essentiell für Journalismus ist, ist (vermutlich oder hoffentlich?) inzwischen sowas wie „Common Sense“. Ich würde mir wünschen, dass wir für Datenjournalismus an einen ähnlichen Punkt kommen.

Dabei ist das Argument „Ich war schon in der Schule schlecht in Mathe“ keines, hinter dem sich Journalisten verstecken sollten: Es geht nicht darum, dass jeder Programmieren kann. Sondern darum, sich ein Verständnis dafür zu erarbeiten, was möglich ist. Am Ende ist Datenanalyse nichts anderes als ein Interview, nur dass der Befragte eben kein Mensch ist, sondern ein Datensatz. Vielleicht brauchen Journalisten „Übersetzer“ — Programmierer oder Journalisten, die Excel beherrschen oder Coden können — , um die Fragen auf die Daten zu übertragen bzw. anzuwenden. Aber Fragen stellen können sollte jeder Journalist.


Gianna GrünGianna-Carina Grün ist freie Wissenschaftsjournalistin und arbeitet als Online- und Social-Media-Redakteurin bei den crossmedialen Magazinen Life Links und Global Ideas der Deutschen Welle. Sie hat einen Bachelor in Biowissenschaften und einen Master in Molekularer Biomedizin.