twentytwenty

Datenjournalismus in Österreich: Der Zug rollt an

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt morgen um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Geschichten aus dem Datenwald.

Foto: CC State Records NSW

Wie eine Dampflok: Langsam, aber stetig kommt Datenjournalismus in Österreich in Fahrt:

Die Liste ließe sich noch weiter fortführen. Vor einem Jahr gab es kaum eine dieser Entwicklungen hierzulande. Sie wurden ausgelöst durch Projekte, die anderswo – in Redaktionen in Großbritannien, den USA, Frankreich oder Deutschland – passieren. Die Datenjournalismus-Lok fährt dabei im Windschatten der großen Open-Data-Züge: Je mehr Daten aus Regierung und Verwaltung öffentlich werden, desto mehr Recherchematerial haben DatenjournalistInnen. So wie es auch die PSI-Bewegung schon länger als Open Government Data gibt, ist es auch beim Datenjournalismus: Dieser ist keineswegs ein neues Phänomen. Früher hieß es Computer Assisted Reporting. Das Innovative am “neuen” Datenjournalismus (wie wir ihn aktuell insbesondere mit der New York Times und dem Guardian verbinden) ist die Interaktivität.

Damit die Datenjournalismus-Lok in Österreich weiterfahren und beschleunigen kann, müssen Schienen verlegt und Weichen gestellt werden: Natürlich benötigt es mehr, bessere, und sensiblere Daten (jedoch keine personenbezogenen). Wenn die etablierten Medien nicht dem Zug hinterherlaufen wollen, müssen sie in Personal und Technik investieren (auch wenn “das” Datenjournalismus-Geschäftsmodell noch nicht in Sicht ist). Online-Medien brauchen GrafikerInnen, StatistikerInnen und ProgrammiererInnen, die nicht in der IT- oder der Controlling-Abteilung sondern in der Redaktion arbeiten. Der Paradigmenwechsel weg vom Artikeldenken hin zum Prozessjournalismus, der Crowdsourcing und Zusammenarbeit zwischen Medienunternehmen beinhaltet, ist eine weitere zentrale Weichenstellung. Wenn es so weitergeht, bin ich mir sicher, dass ein Unternehmen wie OpenDataCity bald auch in Österreich überleben kann.

Datenjournalismus wird sich in den nächsten Jahren thematisch ausdifferenzieren. Derzeit sind die Teams, die an Datenjournalismus-Projekten arbeiten, Allrounder: Sie bearbeiten Finanzdaten genauso wie Geheimdokumente, Schulstatistiken wie auch Twitter-Konversationen. Das wird sich ändern. So wie jede angehende Journalistin heute Social Media beherrschen muss – egal in welchem Ressort sie arbeitet –, wird sie in wenigen Jahren mit Big Data umgehen müssen. Denn die guten Geschichten im Datenberg kann nur derjenige finden, der nicht nur technisch sondern auch fachlich exzellent ist. Und deshalb braucht es neben der technischen Kompetenz auch die fachliche Ausdifferenzierung: die Datenspezialistin im Wirtschaftsressort oder den Sportstatistiker zum Beispiel. Data Literacy wird keine Schlüsselkompetenz von einzelnen Geeks mehr sein, sie wird zu Basiskompetenz jedes Journalismusanwärters. Die Journalismusausbildung müssen wir dahingehend anpassen.
Hinzu kommt die zunehmende Verfügbarkeit von Open Corporate Data, aber das ist einmal einen gesonderten Blogbeitrag wert.

Welche Zielbahnhöfe die heimischen Datenjournalismus-Loks ansteuern können, das zeigt sich regelmäßig international, etwa bei “The Week in Data” des französischen Portals Owni. Gut, dass hierzulande schon einmal Fahrt aufgenommen wurde.

PS: Der internationale Twitter-Hashtag zu Datenjournalismus, der glücklicherweise noch schön verfolgbar ist, lautet #ddj. Auf dieser Twitter-Liste habe ich einige DatenjournalistInnen gesammelt, die etwas zu sagen haben.

Vertrauen in Filter ist gut, Kontrolle ist besser

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt heute um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Social Information Management.
Zur gleichen Zeit spricht Carmel Vaisman in einem von unserer Forschungsgruppe Internet mitorganisierten Vortrag über
“Don’t Feed the Trolls” am Institut für Kultur- und Sozialanthropologie.

Eigentlich ist damit schon alles gesagt: “If the news is important it will find me.” Dieser breit getretene Satz eines College-Studenten ist auch die erste Antwort auf die kommunikationswissenschaftliche Gretchenfrage, unter dessen Motto die twenty-twenty-Blogparade steht: Wie wird die Gesellschaft in Zukunft mit Information umgehen? Auch wenn wir mit immer mehr Informationen, Nachrichten und Daten hantieren, müssen wir keine Angst davor haben, dass uns das Wichtige nicht erreicht. Natürlich haben wir alle schon einmal eine entscheidende E-Mail verpasst oder einen Anruf nicht entgegen genommen, der sich im Nachhinein als bedeutsam herausgestellt hat. Und Trotzdem: War eine Nachricht sehr wichtig, dann haben wir sie in den meisten Fällen erhalten. Insofern teile ich die Ansicht von Kollegen Gratzer: Nur keine Angst vor dem Informations-Tsunami. If the news is important it will find me.

Dennoch müssen dieses Vertrauen in Informationsfiltermechanismen hinterfragt und analysiert werden, um nicht retrospektiv resigniert resümieren zu müssen, dass auch wichtige Nachrichten ihre Empfänger nicht mehr finden. Zuviel ändert sich, zuviel steht auf dem Spiel. Wie funktioniert also der Online-Informationsfilter? Die Filterung von digitaler bzw. digitalisierter Information passiert auf zwei Ebenen, die miteinander verschränkt sind. Ebene 1: die technologische; Ebene 2: die sozial-kognitive. Diese Differenzierung trifft auch Nuri Nurisbach in seinem Blogparade-Beitrag.

Erstere Ebene bietet Informationsfilter verschiedener Typs: Algorithmen und Streams, die nur Informationen mit bestimmten Eigenschaften transportieren; Suchmaschinen und Datenbanken, die Antworten auf Anfragen liefern, sodass wir nicht das ganze Netz durchforsten müssen; Hardware wie z.B. Mobile Devices, die gewisse Inhalte verweigern oder reduziert darstellen. Die technologische Ebene der Informationsfilter schränkt ein, ohne dass wir den Ausschuss zu Gesicht bekommen (können). Das unterscheidet sie von der zweiten, der sozial-kognitiven Filterebene. Hier sehen wir sehr wohl die ausgefilterten Inhalte, nehmen sie aber nicht dauerhaft wahr.
Vertrauen ist die zentrale Instanz der zweiten, der sozial-kognitiven Filterebene. Wir erhalten Informationen und navigieren anhand von Personen und Institutionen, die wir kennen und denen wir vertrauen. Dabei ist der Hyperlink das zentrale vertrauensbildende Element. Ein Verweis schafft Vertrauen, er macht sowohl Handeln als auch Nachrichten nachvollziehbar und damit zuverlässig. Und Zuverlässigkeit und Überprüfbarkeit sind eine zentrale Anforderung an eine Nachricht, schließlich wollen wir uns nach ihr richten.

Beide Filterebenen, sowohl die technologischen als auch die sozial-kognitiven, werden in Zukunft feiner und besser werden. Sie werden sich weiterentwickeln und ihrem Umfeld und ihrer Umgebung anpassen. Auf der sozial-kognitiven Ebene ist eine wissenschaftliche Dokumentation des Fortschritts sowie dessen gezielte Förderung unabdingbar (Stichwort: Media Literacy). Auf der technologischen Ebene müssen Nachvollziehbarkeit und Offenheit die obersten Gebote sein: Traue keinem Filter, den du nicht selbst verstanden hast.

PS: Die anderen Blogparade-Beiträge sind hier nachzulesen.