open data

I-KNOW 2015 Best Demo Award for the Styrian Diversity Visualization Project

Update: Hooray, we won the I-KNOW 2015 best demo award for our work. Congrats to Keith Andrews and Thomas Traunmüller who were the main drivers behind that paper.

iknow2015-best-demoBack in the summer of 2013 I drafted a concept for a visualization platform that would show the diversity of the Province Styria using open census data: Similar as in many news apps, users would interactively engage with the data visualization, find out more about their socio-economic situation in comparison to others, and thereby learn about the diversity of federal state.

The idea was then further developed by my colleagues Thomas Wolkinger and Keith Andrews. After a number of concept iterations, the Integration Department of the Government of Styria asked our Institute to develop such a platform in collaboration with Graz University of Technology. Thomas Traunmüller, Eva Goldgruber and Robert Gutounig came on board. While I was on educational leave, the four continued the work. Now it is almost finished and will go public soon. The launch will be accompanied with blog posts about diversity, published on our data blog. (more…)

New side project: Good deeds for good data

Gute Taten für gute Daten, which means “good deeds for good data”, is a new side project of mine that I run with a few others under the umbrella of Open Knowledge Austria.

The objective of the project is to free important datasets about the Austrian federal state that matter to the general public. We do that because progress in open government data in Austria has been slow in the past years compared to other countries. Especially ministries and other institutions of the federal state have been rather reluctant to publish their data in open, machine-readable formats. If you take a look at data.gv.at, the official Austrian open government data portal, you will only find a few datasets from these important institutions but many more from provinces and municipalities.

(more…)

Armut bekämpfen mit Open Data [Update]

Über 100 Hackathons – von Norwegen bis Uganda – gingen dieses Wochenende anlässlich des International Open Data Day über die Bühne – einer davon auch in Wien: Im Zentrum für Verwaltungsforschung beschäftigten sich Open-Data-Begeisterte mit offenen Daten, deren Aufbereitung und Nutzen. Tag eins widmete sich der Frage, wie sich Armut durch Big Data bekämpfen lässt, Tag zwei offenen Gemeindebudgets. Insgesamt kamen an den zwei Tagen rund vierzig DatenexpertInnen, EntwicklerInnen und Open Data Advocates ins KDZ. Sie waren aus Washington, Frankfurt, Bratislava aber auch aus Wien, der Steiermark und Niederösterreich angereist. Das mediale Interesse war mit einem Kamerateam der ZiB2 und JournalistInnen von Radio Ö1 und Radio Helsinki unerwartet hoch.

(c) UNDP in Europe and Central Asia

(more…)

Frisch vermählt: Regierungsdaten und Onlinejournalismus

Ein Artikel für dritte Ausgabe des Open Government Digest. Die lektorierte und etwas gekürzte Version lässt sich im PDF des Magazins nachlesen. Die Verlinkungen und Quellenangaben folgen in den nächsten Tagen.

“Ab jetzt wird zurückgerechnet”, sagt die deutsche Wissenschaftlerin und Journalistin Mercedes Bunz und sieht eine neue Möglichkeit heraufdämmern, die Mächtigen zu kontrollieren. “Datenjournalismus” heißt das Wort der Stunde. Vorbei die Zeit als Medien und Zivilgesellschaft der vermeintlichen politischen Unausweichlichkeit wenig entgegenzusetzen hatten. Möglich machen es offene Regierungs- und Verwaltungsdaten und engagierte Onlinepublizisten. Dabei verändern sich auch die Spielregeln für Journalisten.

Ein deutscher Grünpolitiker klagt seine Vorratsdaten (also keine offenen Regierungsdaten, sondern seine eigenen personenbezogene Daten) von der Telekom ein und lässt diese von Zeit Online visualisieren und publizieren: Über ein halbes Jahr hinweg kann das Leben des Politikers in jeder Minute per interaktiver Karte nachvollzogen werden. Die nüchterne Darstellung verbildlicht die Gefahren der Vorratsdatenspeicherung wie kaum eine andere Form des Informationsdesigns.
Die New York Times kombiniert die Arbeitslosenstatistik mit demographischen Daten, und es entstehen bisher ungesehene Graphen, die soziale Ungleichheiten in den USA aufzeigen. Ein schwarzer Jugendlicher ohne Schulabschluss ist durchschnittlich fast doppelt so häufig arbeitslos wie ein weißer.
Die genannten sind nur zwei von einer mittlerweile unüberblickbaren Zahl an Datenjournalismusprojekten, die die Redaktionen der MSNBC, der Los Angeles Times, des Guardian, der BBC und einiger anderer Medien durchführen. Viele der Medien haben eigene Ressorts gegründet, die sich allein der Anatomie und (interaktiven) Verbreitung von Daten widmen.

Was ist neu am Datenjournalismus?

Die Bezeichnung “Datenjournalismus” ist schwammig, meint sie doch, wie Lorenz Matzat feststellt, einerseits eine Recherchemethode von Onlinejournalisten, andererseits eine spezifische mediale Veröffentlichungsform, ein eigenes Genre. Datenjournalismus ist darüber hinaus zugleich ein Mindset: Die wenigsten Datenjournalisten sehen sich als traditionelle Journalisten, sondern bezeichnen sich lieber als Hacker oder Informationsarchitekten.
Bei aller Unbestimmtheit gibt es dennoch einen Definitionsansatz. Der Brite Paul Bradshaw hat ihn herausgearbeitet: Die Daten, auf denen Datenjournalismus fußt, müssen strukturiert sein und von Computern verarbeitet werden können. Die Tabelle ist der Ausgangspunkt der (computerbasierten) Recherche und die Basis für die jegliche weitere Darstellungsform – ob interaktive Visualisierung oder Mutlimedia-Reportage.
Klar ist, dass sich daraus Konsequenzen für die journalistische Praxis ergeben: Der Umgang mit diesem neuen Typ von Quelle muss von so gut wie allen aktiven Journalisten erst erlernt werden – data literacy wird in Zukunft zur Schlüsselqualifikation in Redaktionen avancieren. Darüber hinaus ändert sich das Erzählen: Die stringente Geschichte mit menschlichen Protagonisten sowie Anfang und Ende tritt in den Hintergrund, die Berichterstattung dreht sich um Fakten und Akten.

Prozessjournalismus und Crowdsourcing

Immer öfter kommt es zu Mischformen zwischen Datenjournalismus und diversen anderen neuen Formen des Onlinejournalismus, etwa dem Prozessjournalismus: Bei diesem gipfelt die Berichterstattung nicht in einem fertigen Artikel, vielmehr wird ein Beitrag schnell online gestellt und anschließend erweitert und verbessert. In der Kombination mit Datenjournalismus wird für die Berichterstattung nicht mehr auf statisches Material zurückgegriffen, der Redakteur zieht permanent Daten aus aktualisierten Streams heran.
Oder Datenjournalismus verknüpft mit Crowdsourcing: Sind die Datenmengen für eine Redaktion allein nicht bewältigbar, dann lagert sie diese Aufgabe aus: Die Dateien werden online gestellt, interessierte Internetuser kümmern sich um die Exploration der Datenberge. So geschehen ist dies etwa bei einer der ersten Sternstunden des modernen Datenjournalismus, im Sommer 2009: Damals stellte der britische Zeitung Guardian 170.000 Spesenbelege britischer Abgeordneter online. 20.000 Leute durchforsteten die Belege auf verdächtige Inhalte, innerhalb kürzester Zeit war ein systematischer Missbrauch von Steuergeldern aufgedeckt, der zu Rücktritten und politischen Reformen führte.

Was Datenjournalismus sicher nicht löst, ist das Finanzierungsproblem für unabhängige professionelle Berichterstattung abseits der Nische. Für die penible Kontrolle der Politik, diese in einer Demokratie so lebensnotwendige Aufgabe, liefert auch Datenjournalismus kein Geschäftsmodell. Im Gegenteil: Datenjournalismus ist kostspieliger als viele andere Formen der Berichterstattung. Die Journalisten arbeiten meist in Teams gemeinsam mit Programmierern, Statistikern oder Grafikdesignern. Und derartige Stellen sind teurer als die in Onlineredaktionen so gern beschäftigten “Contentmanager”, die ohne Journalisten-Kollektivvertrag in fordistischer Manier Meldungen vom Agenturfließband ins CMS klopfen.

Auf dem weg zur europäischen Agenda

Das Geld bleibt also weiterhin knapp, ein anderes Hoffnungsfenster tut sich aber durch Datenjournalismus auf: Der Strukturwandel hin zu einer europäischen Öffentlichkeit. Diese scheiterte bislang unter anderem, weil eine gemeinsame Sprache fehlte – auch Englisch funktioniert nur in bestimmten Bildungsschichten flächendeckend. Die Sprache öffentlicher Daten hingegen ist für viele Bereiche universell und wirkt damit einigend. Visualisierungen auf Grundlage von Daten, die von kontinental bis hyperlokal skaliert werden können, bringen Themen in ihren Details und ihrer ganzen Tragweite aufs Tapet. Die Aufgabe des Datenjournalisten dabei: Er analysiert, ordnet ein und stellt einen Bezug für seine Leser her. Wie so etwas abläuft, hat sich zum Beispiel bei der Aufarbeitung der Wikileaks-Depeschen gezeigt: Riesige Datenmengen wurden auf lokale Vorfälle heruntergebrochen, die immense Dimension der Geschichte blieb trotzdem erhalten. Ähnliche Prozesse werden wir in Zukunft öfters erleben, wenn etwa mithilfe von Finanz- oder Umweltdaten über Skandale berichtet wird. Trotz lokalem Fokus behauptet sich das Gesamtbild. Der Weg zur vereinten europäischen Agenda ist dann noch immer weit, der Datenjournalismus jedoch trägt seinen Teil zur Abkürzung bei.