„Datenrecherche ist unerlässlich“
von Katharina Dodel
Herr Hilzendegen, wenn Sie datenjournalistisch abbilden müssten, wie sich der Bereich Datenjournalismus im Lokalen in den vergangenen Jahren verändert hat, wie sähe der Artikel aus?
Wenn wir nur die Anzahl der Stücke mit datenjournalistischem Inhalt im Zeitverlauf zählen würden, hätten wir eine stark steigende Kurve. Das liegt vor allem an der Pandemie, in der praktisch jede Redaktion plötzlich mit Daten, Trends und Prognosen arbeiten musste. Zuletzt wäre die Kurve zwar wieder etwas abgeflacht, aber spätestens seit Corona dürfte sich überall die Erkenntnis durchgesetzt haben, dass es sicher nicht schadet, eine Kollegin oder einen Kollegen in der Redaktion zu haben, der oder die mit Daten umgehen kann.
Wie gut besetzt ist die Daten-Redaktion des Südkuriers? Immerhin sagten Sie in einem Interview mit der drehscheibe im Jahr 2019: „Wenn es uns gelingt, digitale Inhalte zu generieren, die begeistern und sich verkaufen, wird Datenjournalismus ausgebaut.“
Wir hatten zunächst ein Volontariat mit dem Schwerpunkt Datenjournalismus aufgesetzt. Die Kollegin wird jetzt übernommen, sodass wir ab Oktober zwei volle Stellen in diesem Bereich haben.
Was waren in letzter Zeit Ihre Themen?
Zuletzt haben wir ein großes Klima-Dashboard veröffentlicht, mit dem wir versuchen, das aktuelle Wetter einzuordnen, und zwar für jeden Ort in unserem Verbreitungsgebiet. Man sieht dann zum Beispiel sehr deutlich, dass wir inzwischen überall deutlich mehr Hitzetage haben als im langjährigen Mittel. Oder dass der Juli viel zu trocken war. Zudem waren die niedrigen Pegelstände von Bodensee und Hochrhein ein wichtiges Thema.
Ist denn jedes Thema ein Datenthema?
Nein, aber viele Themen können zu einem werden. Datenjournalismus bedeutet ja nicht nur, irgendwelche Zahlen auszuwerten und ansprechend darzustellen. Dahinter stecken auch Recherchemethoden, die in vielen Redaktionen nicht verbreitet sind. Ich denke da zum Beispiel an Web Scraping, also Methoden, um relevante Informationen massenhaft und strukturiert aus dem Netz ziehen zu können. Zuletzt habe ich zum Beispiel einen Twitter-Account des Touring Club Schweiz ausgewertet, der Staumeldungen vor dem Gotthard-Tunnel twittert. Das waren 21.000 Meldungen. Dadurch konnten wir zeigen, wann man auf dem Weg nach Italien lieber nicht durch den Tunnel fahren sollte. Im Interview mit der drehscheibe sagten Sie damals auch, dass Sie vor allem in der Textanalyse viel Potenzial sehen. Also etwa, indem man Protokolle von Gemeinderatssitzungen automatisiert ausliest.
Nutzen Sie das?
Es gibt in der Computerlinguistik verschiedene Verfahren, mit denen Texte automatisiert verschlagwortet, kategorisiert oder geclustert werden können. Diese Verfahren lassen sich natürlich journalistisch nutzen, etwa bei der Kategorisierung von Gemeinderatsprotokollen. Vorstellbar ist zum Beispiel auch eine Sentimentanalyse der Social-Media-Postings von Lokalpolitikern oder Behörden. Dadurch lässt sich automatisiert feststellen, ob ein Posting eher positiv oder negativ konnotiert ist. Allerdings sind diese Analysen sehr zeitintensiv, sodass sich die Frage stellt, ob der Aufwand den Ertrag rechtfertigt.
Wie aufwendig sind Datenrecherchen?
Auf eine Datenrecherche folgt in der Regel eine Analyse und meistens auch noch eine Visualisierung, und dann hat man noch keine Stimmen eingeholt, niemanden konfrontiert und den Text noch nicht geschrieben. Insofern arbeite ich am liebsten im Team, sodass wir die klassische Recherche und die Datenrecherche aufteilen können. Zudem ist es gerade im Lokalen wichtig, die Gegebenheiten vor Ort zu kennen. Das kann ich von Konstanz aus nicht leisten, unser Verbreitungsgebiet erstreckt sich weit in den Schwarzwald und entlang des Hochrheins. Dafür ist Teamarbeit mit Kolleginnen oder Kollegen vor Ort unerlässlich.
Rohdaten einbauen zu können, erfordert ja auch, dass Behörden diese schnell und unkompliziert zur Verfügung stellen. Klappt das da so einfach?
Ich würde sagen: teils, teils. Ich stelle durchaus fest, dass der Gedanke, Rohdaten der Öffentlichkeit zur Verfügung zu stellen, in vielen Verwaltungen nicht mehr als so absurd angesehen wird, wie das noch vor fünf Jahren der Fall war. Dass Verwaltungen aber proaktiv Daten veröffentlichen, kommt sehr selten vor, insbesondere in kleineren Gemeinden. Das liegt vielleicht an der technischen Ausstattung, vor allem aber an der Unsicherheit der Mitarbeiter, ob es denn rechtens ist, diese oder jene Excel-Tabelle einfach an einen Journalisten zu schicken. Manchmal blockt die Behörde aber auch grundlos – jedenfalls von außen betrachtet. Wir haben zum Beispiel sehr lange mit dem Landratsamt Bodenseekreis gestritten, bis sie endlich Corona-Daten auf Gemeindeebene veröffentlicht haben. Aktuell verweigert uns die Städtische Wohnungsbaugesellschaft Adressdaten zu all ihren Liegenschaften in Konstanz. Sie argumentieren mit datenschutzrechtlichen Bedenken. Ich bin da naturgemäß anderer Meinung.
„Es muss nicht immer alles blinken und knallen.“
Haben Sie drei Tipps für Lokaljournalisten, die eine Datenrecherche in ihren Arbeitsalltag einbauen möchten?
Erstens: Fragen Sie immer nach maschinenlesbaren Daten, also etwa Excel- oder CSV-Dateien. PDFs kann man oftmals nur mit viel Aufwand weiterverarbeiten. Zweitens: Keine Angst vor Excel, damit kommt man im lokaljournalistischen Alltag schon sehr weit. Fortgeschrittene setzen meist auf Programmiersprachen wie
Python. Drittens: Weniger ist mehr. Es muss nicht immer alles blinken und knallen. Eine einfache Balkengrafik, die einen Sachverhalt klar und deutlich kommuniziert, ist mehr wert als eine aufwendig programmierte interaktive Grafik, die die Leserschaft überfordert.
Führen Datenstorys beim Südkurier zum Abschluss von Abos?
Unsere Datenstorys sind Kauftreiber, weswegen wir sie auch immer wieder weiterentwickeln und hinterfragen. Zuletzt haben wir an einem eigenen Styleguide für unsere Grafiken gearbeitet. Wie alle lokaljournalistischen Artikel funktionieren die Storys vor allem dann gut, wenn sie nah an der Lebenswirklichkeit der Menschen spielen. Mit dem Unterschied, dass wir anhand der Daten ein umfänglicheres Bild zeichnen können. Daten sind letztlich abstrakte Wirklichkeit. Vieles, was in der Welt passiert, steht in irgendeiner Statistik. Zudem legen wir großen Wert auf die Aufbereitung der Storys. Sogenannte Scrollytellings haben sich bewährt. Das sind Storys, in denen die Userinnen und User mit einer Grafik interagieren, indem sie nach unten scrollen. So lassen sich zum Beispiel bestimmte Erkenntnisse besser herausstellen. Scrollen ist die günstigste Interaktion, weil wir das automatisch machen, ohne zu bemerken, dass wir gerade mit einer Seite interagieren.
Wie könnte sich der Bereich in den nächsten Jahren verändern?
Im Englischen heißt Datenjournalismus „data driven journalism“. Das ist der viel bessere Ausdruck, weil er klarmacht, dass es um einen Journalismus geht, der von Daten getrieben ist, keiner, der sich nur mit Daten befasst. Insofern denke und hoffe ich, dass datenjournalistische Methoden integraler Bestandteil des journalistischen Handwerks werden – auch und vor allem in der Ausbildung. Spätestens die Pandemie hat uns gezeigt, dass es für Journalistinnen und Journalisten inzwischen unerlässlich ist, mit Daten umgehen zu können. Datenrecherche ist unerlässlich.
Interview: Katharina Dodel
Veröffentlicht am
Kommentare
Einen Kommentar schreiben