Der Datenjournalismus bleibt unter seinen Möglichkeiten, weil wir uns die falschen Ziele stecken. Lasst uns endlich über den Tellerand blicken! Ein Plädoyer. VON EVA WOLFANGEL
Retten die Daten den Journalismus? Wer sich dieser Tage auf den einschlägigen Journalistenkonferenzen herumtreibt, kommt um diesen Eindruck nicht herum. Datenjournalismus ist eines der neuen Lieblingsworte der Branche. Nur: Was sich dahinter verbirgt, das definiert jede Session, jedes Panel, jeder Referent anders. Und zu allem Überfluss hebt kaum einer die Hand, wenn es um die Frage geht, wer denn Datenjournalist sei (auf der Konferenz Datenlabor 2015 des Netzwerk Recherche meldete sich auf die Nachfrage einer Referentin genau einer). Alle wollen irgendwie mitmachen, aber keiner weiß, was genau. Das mag für die Anfangszeiten einer Bewegung sympathisch sein, aber so langsam sollten wir diese Identitätskrise angehen. Denn in der Tat wird Datamining zum Journalismus der Zukunft gehören. Allerdings müssen wir das anders anpacken, wenn wir mehr als einen Blumentopf damit gewinnen wollen.
Wer genauer hinschaut, sieht, dass sich die Identitätskrise auch auf die Produkte auswirkt. Selbst jene Projekte, die auf den einschlägigen Konferenzen als Leuchtturm-Beispiele für Datenjournalismus verkauft werden, sind in aller Regel nicht viel mehr als Visualisierungen und häufig in ihrer Aussagekraft begrenzt. Beispielsweise das Projekt der Berliner Morgenpost „M29 – Berlins Buslinie der großen Unterschiede“: Es wurde für den Grimme-Online-Award nominiert, in der Kategorie Kultur und Unterhaltung. Und da gehört es hin: Es ist gute Unterhaltung, eine tolle Visualisierung sozialer Unterschiede in einer Stadt entlang einer Buslinie, ein schönes Spielzeug, eine innovative Form, Fakten im Netz darzustellen. Aber eben auch nicht mehr. Die Auszeichnung mit dem dpa-Infografik-Award nennt es beim Namen: Es ist eine interaktive Infografik. Wo steckt hier die journalistische Arbeit? Sie sollte genau an diesem Punkt einsetzen: Auffällige Muster oder Werte in den Daten können Ausgangspunkt für spannende journalistische Recherchen sein.
Mehr als interaktive Karten-Klickhits
Andere Projekte stellen Daten nicht nur dar, sondern rechnen ein bisschen. „Das Gedankenexperiment ist simpel“, schreibt beispielsweise selbst Spiegel Online zu seinem Projekt „Betongold“: „Wie lange reicht der Verkaufserlös eines Einfamilienhauses, um einen Platz im Pflegeheim zu finanzieren?“ Ja, möchte man rufen: Das ist simpel. Und diese Frage stellen sich die Häuslebauer hoffentlich auch. Von daher ist es zwar ein schöner Service, wenn eine interaktive Karte die Antwort liefert und man den Dreisatz nicht selbst berechnen muss. Und ein Klickhit sicherlich dazu – was vermutlich eines der Hauptargumente für derlei Projekte ist. Aus Daten aber kann man mehr rausholen. Die Kollegen von Spiegel Online und der Berliner Morgenpost machen mit den vorhandenen Mitteln tolle Geschichten und Projekte, sie testen neue Formate im Netz mit großem Erfolg. Wenn es aber um die Zukunft des Datenjournalismus geht, sollten wir uns mehr vornehmen.
Nach dem Datenlabor 2015 habe ich geschrieben, Datenjournalismus in der Mediendebatte sei das Äquivalent zu Bigdata in der Wissenschaftsdebatte: Alle reden darüber, alle wollen es gerne tun, keiner weiß, wie es geht. Da möchte ich gerne noch einen drauf setzen. Im Falle von Bigdata und im Gegensatz zu uns diskutieren die Forscher wenigstens die Möglichkeiten, die intelligente Algorithmen bieten. Was können wir den Daten alles entlocken? Welche bislang unbekannten Zusammenhänge können wir entdecken, wenn Algorithmen Muster in Daten finden, die wir Menschen aufgrund unserer begrenzten Rechenkapazität bislang nicht aufgespürt haben? Ja: Viele Hoffnungen sind sicherlich weit überzogen. Und ja: Ganz sicher liegt das Glück nicht darin, möglicherweise zufällige Korrelationen aufzustöbern, deren Kausalitäten weiterhin verborgen bleiben. Aber mit Daten kann man viel mehr machen, als unsere gegenwärtigen Leuchtturm-Projekte vermuten lassen. Man muss nicht besonders visionär sein, um zu behaupten, dass Datamining im Journalismus nicht bei bunten Visualisierungen und Dreisatz-Rechnungen aufhören sollte.
Die Angst vor dem Algorithmus
Was ist also das Problem? Viele Journalisten haben Angst vor dem Wort Algorithmus (manche Redaktionen bitten mich regelmäßig, dieses Wort zu vermeiden). Aber ohne diese Algorithmen und ohne eine seriöse Datenanalyse bleiben wir weit unter den Möglichkeiten, die uns die Daten bieten. Viele Teilnehmer der Datenjournalismus-Konferenzen und Workshops fragen sich, ob sie nun programmieren lernen sollen. Vortragsredner und Trainer versprechen: Das ist ganz leicht! Es gibt jede Menge Tools im Netz, mit denen man in nur wenigen Schritten Daten visualisieren kann. Wer ein bisschen googelt, findet Open-Source-Codes, in denen er beispielsweise nur einen Twitter-Hashtag verändern muss, um eine Netzwerkanalyse der Beteiligten einer Konferenz visualisiert zu bekommen. Aber was machen wir da eigentlich? Wer überblickt, was diese Programme tun? Wer kann einschätzen, ob das, was der kopierte Programmcode am Ende als Ergebnis ausspuckt, seriös ist? Und das ist wieder eine Parallele zur Debatte in der Wissenschaft: Wenn selbst die Entwickler intelligenter Algorithmen am Ende nicht mehr nachvollziehen können, wie ihr System zu welchem Schluss kam: Woher kann man wissen, dass es nicht falsch liegt? Und wir Journalisten wollen alles selbst machen? Das ist vermessen und gefährlich.
Wer seriös Datamining betreiben will, muss vielerlei Fallstricke beachten. Statistik ist nicht profan. Daten können lügen, sie können unsauber und fehlerhaft sein (wie beispielsweise Volker Stollorz immer wieder aus seiner Arbeit am OperationsExplorer berichtet). Man kann die falschen Fragen an sie stellen, und falsch ausgewertet können sie uns auf falsche Spuren führen – meist ohne dass man es merkt. Moderne „Storys“ auf fehlerhafter Datengrundlage sind deshalb fataler als eine pure „analoge“ Falschmeldung. Verschiedene Forscher auf der Datenlabor-Konferenz haben darauf hingewiesen, dass wir Journalisten im Umgang mit Daten Fehler begehen, ohne es zu merken. Ohne uns überhaupt bewusst zu sein, was wir da tun.
Kompetenzen komplementieren
Datenjournalismus braucht verschiedene Kompetenzen: Journalisten, die eine Ahnung davon haben, was mit Datamining und explorativer Datenanalyse möglich ist, was die Algorithmen heutzutage können, die Korrelationen und Kausalitäten sorgfältig unterscheiden, die eine These haben und die ihr Handwerk beherrschen, die wissen, wie man Geschichten findet, wie man sie sauber nachrecherchiert und die sie gut aufschreiben können. Und Informatikerinnen und Computerlinguisten, Statistiker und Visualisiererinnen, die den Daten seriös ihre Geheimnisse entlocken und die in enger Zusammenarbeit mit den Journalisten die Methoden und die Recherchewege der Zukunft entwickeln.
Wenn die Medienprofessorin Emily Bell davon spricht, dass das Verhältnis von Schreibern zu Technikern und Digitalexperten in den Redaktionen der Zukunft 1:1 sein müsse, mag das für viele Journalisten wie eine Provokation klingen. Aber sie hat Recht. Anstatt programmieren zu lernen, sollten wir Journalisten unsere klassischen Kompetenzen pflegen. Und uns die richtigen Partner aus den erwähnten Fachgebieten suchen. Solange wir uns dagegen sträuben und versuchen, alles selbst zu machen, treten wir auf der Stelle. Im besten Fall.
_______________________________________________________________________
Eva Wolfangel ist freie Wissenschaftsjournalistin in Stuttgart. Sie schreibt über Themen wie Chancen und Risiken von Bigdata; Technologien der Zukunft und wie sie unseren Alltag verändern; Informatik, Privacy und Usability; Möglichkeiten und Grenzen von Simulationen, die unberechenbaren Menschen und ähnliches.
Follow @evawolfangel
Kommentare
uwe friebel schreibt:
13. November 2015 um 05:51 Uhr
Da wird viel um die Form und nicht um den Inhalt diskutiert! Trockene Daten verlieren ihre Lebendigkeit und werden für den Empfänger damit wertlos, selbst wenn es sich um Sensationen dabei handeln würde. Die Lebendigkeit von Daten gewährleistet der Mensch, der tatsächlich nicht nur etwas, sondern vor allem sich selbst mitteilen will.
Viele Grüße, Uwe
Achim Tack schreibt:
17. November 2015 um 03:03 Uhr
Du stellst fest, dass DDJ in Deutschland hinter seinen Möglichkeiten zurück bleibt und selbst sogenannte Leuchtturmprojekte in ihrer Aussagekraft begrenzt sind. Du beklagst, dass DDJ in Deutschland zu unklar definiert ist, hast aber selbst deine Definition offenbar gefunden: Mehrfach im Artikel setzt du Datenjournalismus mit Datamining gleich. Dass dieser Begriff ebenso falsch ist wie einige andere stelle ich unten dar.
Du vermisst die journalistische Arbeit in aktuellen Leuchtturmprojekten – DDJ sei zu häufig nur Datenvisualisierung. Dabei nennst du als Beispiel das M29-Projekt des Interactive-Teams der Berliner Morgenpost. Die Morgenpost selbst hat dieses Projekt jedoch gar nicht als Datenjournalismus bezeichnet.
Danach widmest du dich unserem Projekt #Betongold: Es sei ein simples Projekt gewesen, da am Ende nur eine Dreisatz-Rechnung und eine interaktive Karte zu finden sei.
Dabei verwechselst du simpel im Ergebnis mit simpel in der Erstellung und das ist ein für den Datenjournalismus in Deutschland nicht unbedingt hilfreicher Trugschluss: Für die Datenerhebung, Verifikation und geostatistische Aufbereitung des Projektes wurden über ca. 2 Monate hinweg Programme entwickelt und mit Datenbanken und Geoinformationssystemen gearbeitet. In der Frage der korrekten Verwendung der benutzten Geo-Algorithmen und der nachfolgenden Visualisierung haben wir neben unseren eigenen Kompetenzen auch die Meinung von Geomatikern eingeholt. Für die Recherchen der schreibenden Kollegen wurde innerhalb des Hauses eine eigene Webseite aufgesetzt, in der die Kollegen grafisch in den Datensätzen suchen konnten. So wurden spannende Regionen und Protagonisten identifiziert über die dann „normale Artikel“ geschrieben werden konnten.
Knapp 11000 Datensätze von Pflegeheimen und rund 9000 Datensätze aus der Immobilienbewertung empfindet auch unser Team nicht als besonders großen Datensatz. Dennoch wird die Menge jede Redaktion überfordern, die nicht mit geschultem Personal an die Daten heran geht. Das Verhältnis von „Technikern“ zu „Schreibern“ ist bei uns mindestens 1:1 (je nachdem, wer gerade als Volontär oder Praktikant da ist).
Bei #Betongold sind wir den Weg gegangen, eine Reihe von Recherche- und Meinungsstücken rund um ein zentrales Datenstück herum aufzubauen. In einzelnen Artikeln werden Auffälligkeiten in den Daten beschrieben und analysiert, wie sie zu Stande kommen. Deine Kritik bezieht sich auf das zentrale Datenstück als Solitär. Sie ignoriert dabei vollständig die insgesamt acht flankierenden und erläuternden Stücke. Das wird den Kollegen, die diese geschrieben haben nicht gerecht – speziell da du genau diese Form der journalistischen Arbeit bei M29 eingefordert hast.
Sollte es nicht auch ein Anspruch einer datengestützten Recherche sein, die Ergebnisse auf den simpelsten noch vertretbaren Nenner zu bringen um möglichst viele Leute zu erreichen?
Hier sind wir wieder beim problematischen Begriff Datamining: Allein die Daten zu erheben und möglichst komplex zu analysieren wie es beim Datamining der Fall ist bringt nichts, wenn danach keine Einordnung erfolgt. Datenjournalismus wie ich ihn verstehe muss diese Einordnung und manchmal eben auch Vereinfachung der analysierten Daten leisten. Die Rückmeldungen unserer Leser und die auch für SPON-Verhältnisse hohe Zahl an Seitenaufrufen auf #Betongold zeigen uns, dass die beschriebenen Effekte auf dem Immobilienmarkt und im Pflegesektor eben nicht jedem Häuslebauer klar waren. Leuchttürme geben Orientierung und Hinweise auf versteckte Gefahren – das hat unser Projekt hoffentlich getan.
Wir wünschen uns Kritik an unseren Projekten und freuen uns darüber. Ja, mit Daten kann man noch viel mehr machen – und genau das haben wir vor!
Eva Wolfangel schreibt:
19. November 2015 um 10:42 Uhr
Lieber Achim,
ich will eigentlich die Debatte, was Datenjournalismus nun genau ist, nicht wieder aufwärmen. Mir geht es um das, was möglich ist, wie wir Journalisten die Daten für guten journalistischen Output nutzen können. Dabei ist es mir egal, wie das Ganze am Ende heißt – „precision journalism“, „computer-assisted reporting“, „data journalism“, „data-driven journalism“ oder „computational journalism“. Meine Kritik bezog sich darauf, dass die Debatte zumindest in Deutschland entlang zu begrenzer Beispiele geführt wird und dass das auch an einer Art Identitätskrise der Journalisten liegt, die sich mit dem Thema befassen.
Wir sollten uns nicht zu sehr an Begriffen aufhalten, sondern schauen, was möglich ist: Und du hast recht, da geht ihr für hiesige Verhältnisse mit gutem Beispiel voran. Ich stelle auch nicht in Abrede, dass eure Projekte aufwendig produziert sind. Ich habe nicht euer Projekt „Betongold“ als simpel bezeichnet, sondern die Erkenntnis, die der Dreisatz ergibt: wie lange reicht der Verkaufswert eines Hauses für einen Platz im Pflegeheim. Auch die begleitenden Artikel will ich nicht abwerten (tut mir leid, dass ich sie nicht erwähnt habe) – sie sind in der Tat ein Schritt in die richtige Richtung: Auffälligkeiten in Daten erkennen und recherchieren, was es damit auf sich hat.
Dennoch bleibe ich dabei: wenn wir Journalisten die Daten richtig nutzen, ist in Zukunft mehr drin. In der internationalen Debatte wird Datenjournalismus beispielsweise viel mehr mit investigativer Recherche verknüpft. Hierzulande zählen Visualisierungen und Dreisatz-Rechnungen als Leuchttürme. Du sagst, dass die Berliner Morgenpost ihr M29-Projekt nie als Datenjournalismus bezeichnet hat – aber auch das habe ich nicht behauptet. Meine Kritik ist, dass es auf den einschlägigen ddj-Veranstaltungen als Datenjournalismus-Leuchtturm präsentiert wird. Mag sein, dass die Morgenpost dafür nichts kann.
Du hast recht: Allein die Daten zu erheben und möglichst komplex zu analysieren bringt nichts, wenn danach keine Einordnung erfolgt. Das ist eines meiner Hauptanliegen, das in meinem Plädoyer breiten Raum einnimmt. Allerdings finde ich, dass die Möglichkeiten des professionellen Datamining als Grundlage für journalistische Geschichten genutzt werden sollten. Algorithmen statt Dreisatzrechnungen eben. Aber da werden wir nicht hinkommen, solange die Parole lautet: Journalisten lernt programmieren, dann wird das schon mit dem Datenjournalismus.
Beste Grüße,
Eva
Vanessa Wormer schreibt:
29. November 2015 um 10:05 Uhr
Liebe Eva,
danke für deinen Beitrag,
lieber Achim, danke für deine wichtigen Einblicke aus der Praxis.
Ein paar Gedanken zu Evas Plädoyer:
Eva spricht die „Angst vor dem Wort Algorithmus“ an. Ich glaube, viele Journalisten haben keine Angst vor dem Wort, sondern vielmehr Angst vor dem Code, der dahinter steckt. Und das ist der Punkt: Um zu verstehen, wie Algorithmen funktionieren, reicht es nicht, die Bedeutung des Wortes zu verstehen und es in Texten und Beiträgen verwenden oder journalistisch einordnen zu können. Um in dem von Eva geforderten Maße von den Möglichkeiten der Algorithmen profitieren zu können, sollten Journalisten auch nachvollziehen können, wie Code funktioniert. Ich selbst (Journalistin mit geisteswissenschaftlichem Background) musste erst eine Programmiersprache lernen, um eine bessere Vorstellung davon zu bekommen, was ein Algorithmus tut, wie man ihn trainiert, welchen Input er braucht. Vielleicht geht es anderen Laien anders – aber ich war erst in der Lage, konkrete Anwendungsfälle im Journalismus zu erkennen, als ich zum ersten Mal mit Algorithmen experimentiert habe (dazu mein Beitrag http://hashtagdigilab.tumblr.com/post/127050877418/mehr-coder-im-newsroom).
Und die Anwendungsfälle sehe ich, genauso wie du, liebe Eva, vor allem im Datenjournalismus. Ich stimme dir zu: Die Kollaboration ist essentiell, wenn wir unseren eigenen Ansprüchen – evidenzbasiert, methodisch transparent und im besten Fall noch investigativ zu arbeiten – gerecht werden möchten. Aber IMHO heißt das nicht, dass wir uns zurücklehnen und auf unseren traditionellen journalistischen Kompetenzen ausruhen dürfen. Kollaboration heißt auch, dass wir eine gemeinsame Sprache sprechen und Datenprojekte zu realisieren heißt vor allem, dass wir auch selbst Hand anlegen können (aus vielerlei Gründen, Kollege Björn Schwentker hat hier die wichtigsten zusammengefasst: http://datenjournalist.de/muessen-datenjournalisten-programmieren-koennen/)
Ich will keine falschen Vorstellungen wecken: Journalisten werden nicht in wenigen Monaten zu Entwicklern oder Data Scientists. (Nach drei Monaten Coding Bootcamp weiß ich vor allem, was ich alles nicht kann.) Aber Evas Text liest sich wie ein Plädoyer dafür, dass Datenjournalisten eben nicht programmieren lernen sollen mit der unterschwelligen These, dass es Zeitverschwendung sei, weil wir es nie richtig können werden. Aus eigener Erfahrung kann ich sagen: Es ist keine Zeitverschwendung! Es ist nicht vermessen und gefährlich! Viel vermessener wäre doch gerade, wenn wir so tun, als ginge uns der Code nichts an.
Eben weil wir uns darauf einlassen und noch viel lernen müssen, sind die Schritte vielleicht etwas kleiner, die Projekte erstmal weniger ambitioniert als bei ProPublica oder New York Times. Für mein Gefühl wächst aber gerade in vielen deutschsprachigen Redaktionen und an anderen Orten ein zartes Pflänzchen heran, das wir weiter pflegen müssen – zum Beispiel in Dortmund, wo sich seit Neustem ein paar Journalistik-Studenten treffen, um R zu lernen oder bei SRF Data, die ihre Datenanalysen bei Github veröffentlichen (wie viele Wissenschaftler machen das?), genauso bei Berliner Morgenpost, BR, SpOn und der SZ, wo es kleine, interdisziplinäre Datenteams gibt. Wer traditionellen Journalismus kennt, weiß, wie schwer es ist, diese Strukturen aufzubauen und sich diese Freiheiten zu erarbeiten. Deshalb sind das durchaus alles Leuchtturmprojekte, die zeigen, wo die Reise hingehen kann. Eine Identitätskrise sehe ich da nicht – im Gegenteil, eher viel Aufbruchstimmung und Vorfreude, auf das, was noch möglich ist.
Viele Grüße,
Vanessa (@remrow)
Klebefolie schreibt:
22. September 2022 um 09:37 Uhr
Ein toller Magazin. Danke für die unermüdliche Arbeit, die in diesem Magazin steckt.
Liebe Grüße Alisa