#blogparade

Datenjournalismus in Österreich: Der Zug rollt an

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt morgen um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Geschichten aus dem Datenwald.

Foto: CC State Records NSW

Wie eine Dampflok: Langsam, aber stetig kommt Datenjournalismus in Österreich in Fahrt:

Die Liste ließe sich noch weiter fortführen. Vor einem Jahr gab es kaum eine dieser Entwicklungen hierzulande. Sie wurden ausgelöst durch Projekte, die anderswo – in Redaktionen in Großbritannien, den USA, Frankreich oder Deutschland – passieren. Die Datenjournalismus-Lok fährt dabei im Windschatten der großen Open-Data-Züge: Je mehr Daten aus Regierung und Verwaltung öffentlich werden, desto mehr Recherchematerial haben DatenjournalistInnen. So wie es auch die PSI-Bewegung schon länger als Open Government Data gibt, ist es auch beim Datenjournalismus: Dieser ist keineswegs ein neues Phänomen. Früher hieß es Computer Assisted Reporting. Das Innovative am “neuen” Datenjournalismus (wie wir ihn aktuell insbesondere mit der New York Times und dem Guardian verbinden) ist die Interaktivität.

Damit die Datenjournalismus-Lok in Österreich weiterfahren und beschleunigen kann, müssen Schienen verlegt und Weichen gestellt werden: Natürlich benötigt es mehr, bessere, und sensiblere Daten (jedoch keine personenbezogenen). Wenn die etablierten Medien nicht dem Zug hinterherlaufen wollen, müssen sie in Personal und Technik investieren (auch wenn “das” Datenjournalismus-Geschäftsmodell noch nicht in Sicht ist). Online-Medien brauchen GrafikerInnen, StatistikerInnen und ProgrammiererInnen, die nicht in der IT- oder der Controlling-Abteilung sondern in der Redaktion arbeiten. Der Paradigmenwechsel weg vom Artikeldenken hin zum Prozessjournalismus, der Crowdsourcing und Zusammenarbeit zwischen Medienunternehmen beinhaltet, ist eine weitere zentrale Weichenstellung. Wenn es so weitergeht, bin ich mir sicher, dass ein Unternehmen wie OpenDataCity bald auch in Österreich überleben kann.

Datenjournalismus wird sich in den nächsten Jahren thematisch ausdifferenzieren. Derzeit sind die Teams, die an Datenjournalismus-Projekten arbeiten, Allrounder: Sie bearbeiten Finanzdaten genauso wie Geheimdokumente, Schulstatistiken wie auch Twitter-Konversationen. Das wird sich ändern. So wie jede angehende Journalistin heute Social Media beherrschen muss – egal in welchem Ressort sie arbeitet –, wird sie in wenigen Jahren mit Big Data umgehen müssen. Denn die guten Geschichten im Datenberg kann nur derjenige finden, der nicht nur technisch sondern auch fachlich exzellent ist. Und deshalb braucht es neben der technischen Kompetenz auch die fachliche Ausdifferenzierung: die Datenspezialistin im Wirtschaftsressort oder den Sportstatistiker zum Beispiel. Data Literacy wird keine Schlüsselkompetenz von einzelnen Geeks mehr sein, sie wird zu Basiskompetenz jedes Journalismusanwärters. Die Journalismusausbildung müssen wir dahingehend anpassen.
Hinzu kommt die zunehmende Verfügbarkeit von Open Corporate Data, aber das ist einmal einen gesonderten Blogbeitrag wert.

Welche Zielbahnhöfe die heimischen Datenjournalismus-Loks ansteuern können, das zeigt sich regelmäßig international, etwa bei “The Week in Data” des französischen Portals Owni. Gut, dass hierzulande schon einmal Fahrt aufgenommen wurde.

PS: Der internationale Twitter-Hashtag zu Datenjournalismus, der glücklicherweise noch schön verfolgbar ist, lautet #ddj. Auf dieser Twitter-Liste habe ich einige DatenjournalistInnen gesammelt, die etwas zu sagen haben.

Vertrauen in Filter ist gut, Kontrolle ist besser

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt heute um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Social Information Management.
Zur gleichen Zeit spricht Carmel Vaisman in einem von unserer Forschungsgruppe Internet mitorganisierten Vortrag über
“Don’t Feed the Trolls” am Institut für Kultur- und Sozialanthropologie.

Eigentlich ist damit schon alles gesagt: “If the news is important it will find me.” Dieser breit getretene Satz eines College-Studenten ist auch die erste Antwort auf die kommunikationswissenschaftliche Gretchenfrage, unter dessen Motto die twenty-twenty-Blogparade steht: Wie wird die Gesellschaft in Zukunft mit Information umgehen? Auch wenn wir mit immer mehr Informationen, Nachrichten und Daten hantieren, müssen wir keine Angst davor haben, dass uns das Wichtige nicht erreicht. Natürlich haben wir alle schon einmal eine entscheidende E-Mail verpasst oder einen Anruf nicht entgegen genommen, der sich im Nachhinein als bedeutsam herausgestellt hat. Und Trotzdem: War eine Nachricht sehr wichtig, dann haben wir sie in den meisten Fällen erhalten. Insofern teile ich die Ansicht von Kollegen Gratzer: Nur keine Angst vor dem Informations-Tsunami. If the news is important it will find me.

Dennoch müssen dieses Vertrauen in Informationsfiltermechanismen hinterfragt und analysiert werden, um nicht retrospektiv resigniert resümieren zu müssen, dass auch wichtige Nachrichten ihre Empfänger nicht mehr finden. Zuviel ändert sich, zuviel steht auf dem Spiel. Wie funktioniert also der Online-Informationsfilter? Die Filterung von digitaler bzw. digitalisierter Information passiert auf zwei Ebenen, die miteinander verschränkt sind. Ebene 1: die technologische; Ebene 2: die sozial-kognitive. Diese Differenzierung trifft auch Nuri Nurisbach in seinem Blogparade-Beitrag.

Erstere Ebene bietet Informationsfilter verschiedener Typs: Algorithmen und Streams, die nur Informationen mit bestimmten Eigenschaften transportieren; Suchmaschinen und Datenbanken, die Antworten auf Anfragen liefern, sodass wir nicht das ganze Netz durchforsten müssen; Hardware wie z.B. Mobile Devices, die gewisse Inhalte verweigern oder reduziert darstellen. Die technologische Ebene der Informationsfilter schränkt ein, ohne dass wir den Ausschuss zu Gesicht bekommen (können). Das unterscheidet sie von der zweiten, der sozial-kognitiven Filterebene. Hier sehen wir sehr wohl die ausgefilterten Inhalte, nehmen sie aber nicht dauerhaft wahr.
Vertrauen ist die zentrale Instanz der zweiten, der sozial-kognitiven Filterebene. Wir erhalten Informationen und navigieren anhand von Personen und Institutionen, die wir kennen und denen wir vertrauen. Dabei ist der Hyperlink das zentrale vertrauensbildende Element. Ein Verweis schafft Vertrauen, er macht sowohl Handeln als auch Nachrichten nachvollziehbar und damit zuverlässig. Und Zuverlässigkeit und Überprüfbarkeit sind eine zentrale Anforderung an eine Nachricht, schließlich wollen wir uns nach ihr richten.

Beide Filterebenen, sowohl die technologischen als auch die sozial-kognitiven, werden in Zukunft feiner und besser werden. Sie werden sich weiterentwickeln und ihrem Umfeld und ihrer Umgebung anpassen. Auf der sozial-kognitiven Ebene ist eine wissenschaftliche Dokumentation des Fortschritts sowie dessen gezielte Förderung unabdingbar (Stichwort: Media Literacy). Auf der technologischen Ebene müssen Nachvollziehbarkeit und Offenheit die obersten Gebote sein: Traue keinem Filter, den du nicht selbst verstanden hast.

PS: Die anderen Blogparade-Beiträge sind hier nachzulesen.

ProdUsers, Do Not Forget The Machines

Dies ist ein Beitrag zur Blogparade von twenty.twenty. Am kommenden Dienstag, den 30.11.2010, findet im Wiener Hub eine Podiumsdiskussion zum Thema “We ProdUSE. Medienproduktion und Mediennutzung in 2020″ statt.

“You’re tweeting, man.” “I ain’t got time to tweet.”
Entnommen und adaptiert aus Predator (1987)

Einmal Google-Search-Button. Wir produzieren. Ein Facebook-Like. Wir produzieren. Push Retweet. Wir produzieren. Mit jeder einzelnen Aktion im Netz generieren wir Material. Fishing for Reaction teilen wir exklusiv mit Datenkraken sowie Freundinnen und Freunden, setzen wir Links in Status-Updates und posaunen in den Äther. Wir? Das ist nicht allein Kollektiv von Menschen. Produsers, do not forget the machines.

Wenn wir “produsen”, dann ist das nur bedingt kreativ, in erster Linie filtern und empfehlen wir mediale Werke anderer: Identitätsarbeit und Reputationsmanagement mithilfe digitaler Ressourcenallokation. Sharen, Liken und Retweeten fällt sowohl in Bereich der Medienproduktion als auch in jenen der Mediennutzung. Daraus lässt sich ableiten: Diese Unterscheidung funktioniert im Web nur mehr mangelhaft. Wer nutzt, produziert. Wer produziert, nutzt. No more one way.

Die 1%-Regel, nach der gerade einmal 1 Prozent der Mitglieder von Online-Communities den Content beisteuern und der Rest (relativ) passiv “lurkt”, erscheint vor diesem Hintergrund hinterfragbar. Content, egal ob mikro (als Leseempfehlung) oder makro (als Blogpost), wird massenhaft und von allen Usern im Social Web abgesetzt. Bewusst und unbewusst.

Zugleich geht bei dieser riesigen Datenakkumulation unter, wer gemeinsam neben den “Produsern” die eigentliche Hauptarbeit leistet: Die realen und virtuellen Maschinen. Die wenigen Zeilen Code, die sich hinter einem Facebook-Like-Button verbergen, verbinden die eigene Online-Repräsentation mit zahlreichen sozialen Objekten [via]. In der englischsprachigen Wikipedia zeichnen Bots für einen Großteil der Änderungen verantworlich. Sie bewahren Wikipedia vor Trollen, bessern Rechtschreibfehler aus oder archivieren alte Diskussionen.[1] Würden bei Google einmal die Crawler streiken, die permanent Website um Website durchforsten, das WWW wäre innerhalb kürzester Zeit unbenutzbar.[2] Die Liste der nichtmenschlichen Akteure, die unser Agieren im Web erst möglich machen, ist lange fortsetzbar.

Wenn sich Axel Bruns in seinem Entwurf des Produsage-Konzepts allein auf Menschen konzentriert und die Technik zum Werkzeug degradiert, dann greift das noch zu kurz. Einerseits denken wir dadurch ständig in projizierten Potenzialen (“Durch Twitter können wir …”, “Mithilfe von Facebook haben wir die Möglichkeit …”, …); andererseits nimmt es zu wenig auf die tatsächliche Rolle Rücksicht, die Technik in der Online-Medienproduktion und -konsumption spielt. Technik ermöglicht nicht nur den Austausch, sie ist ein aktiver Teil davon.


[1] Isabell Otto, Das Soziale des Social Web. Erkundungen in Wikipedia. In: Sprache und Literatur 104 (2009). S. 45-57.
[2] Theo Röhle, Der Google-Komplex. Über Macht im Zeitalter des Internets, 1. Aufl. (Transcript, 2010). S. 87ff.