Datenjournalismus in Österreich: Der Zug rollt an

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt morgen um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Geschichten aus dem Datenwald.

Foto: CC State Records NSW

Wie eine Dampflok: Langsam, aber stetig kommt Datenjournalismus in Österreich in Fahrt:

Die Liste ließe sich noch weiter fortführen. Vor einem Jahr gab es kaum eine dieser Entwicklungen hierzulande. Sie wurden ausgelöst durch Projekte, die anderswo – in Redaktionen in Großbritannien, den USA, Frankreich oder Deutschland – passieren. Die Datenjournalismus-Lok fährt dabei im Windschatten der großen Open-Data-Züge: Je mehr Daten aus Regierung und Verwaltung öffentlich werden, desto mehr Recherchematerial haben DatenjournalistInnen. So wie es auch die PSI-Bewegung schon länger als Open Government Data gibt, ist es auch beim Datenjournalismus: Dieser ist keineswegs ein neues Phänomen. Früher hieß es Computer Assisted Reporting. Das Innovative am “neuen” Datenjournalismus (wie wir ihn aktuell insbesondere mit der New York Times und dem Guardian verbinden) ist die Interaktivität.

Damit die Datenjournalismus-Lok in Österreich weiterfahren und beschleunigen kann, müssen Schienen verlegt und Weichen gestellt werden: Natürlich benötigt es mehr, bessere, und sensiblere Daten (jedoch keine personenbezogenen). Wenn die etablierten Medien nicht dem Zug hinterherlaufen wollen, müssen sie in Personal und Technik investieren (auch wenn “das” Datenjournalismus-Geschäftsmodell noch nicht in Sicht ist). Online-Medien brauchen GrafikerInnen, StatistikerInnen und ProgrammiererInnen, die nicht in der IT- oder der Controlling-Abteilung sondern in der Redaktion arbeiten. Der Paradigmenwechsel weg vom Artikeldenken hin zum Prozessjournalismus, der Crowdsourcing und Zusammenarbeit zwischen Medienunternehmen beinhaltet, ist eine weitere zentrale Weichenstellung. Wenn es so weitergeht, bin ich mir sicher, dass ein Unternehmen wie OpenDataCity bald auch in Österreich überleben kann.

Datenjournalismus wird sich in den nächsten Jahren thematisch ausdifferenzieren. Derzeit sind die Teams, die an Datenjournalismus-Projekten arbeiten, Allrounder: Sie bearbeiten Finanzdaten genauso wie Geheimdokumente, Schulstatistiken wie auch Twitter-Konversationen. Das wird sich ändern. So wie jede angehende Journalistin heute Social Media beherrschen muss – egal in welchem Ressort sie arbeitet –, wird sie in wenigen Jahren mit Big Data umgehen müssen. Denn die guten Geschichten im Datenberg kann nur derjenige finden, der nicht nur technisch sondern auch fachlich exzellent ist. Und deshalb braucht es neben der technischen Kompetenz auch die fachliche Ausdifferenzierung: die Datenspezialistin im Wirtschaftsressort oder den Sportstatistiker zum Beispiel. Data Literacy wird keine Schlüsselkompetenz von einzelnen Geeks mehr sein, sie wird zu Basiskompetenz jedes Journalismusanwärters. Die Journalismusausbildung müssen wir dahingehend anpassen.
Hinzu kommt die zunehmende Verfügbarkeit von Open Corporate Data, aber das ist einmal einen gesonderten Blogbeitrag wert.

Welche Zielbahnhöfe die heimischen Datenjournalismus-Loks ansteuern können, das zeigt sich regelmäßig international, etwa bei “The Week in Data” des französischen Portals Owni. Gut, dass hierzulande schon einmal Fahrt aufgenommen wurde.

PS: Der internationale Twitter-Hashtag zu Datenjournalismus, der glücklicherweise noch schön verfolgbar ist, lautet #ddj. Auf dieser Twitter-Liste habe ich einige DatenjournalistInnen gesammelt, die etwas zu sagen haben.

Meilensteine und Charakteristika des Datenjournalismus

Bei der gestrigen Auflage von Collide:Vienna habe ich einen Vortrag zu Meilensteinen und Charakteristika des Datenjournalismus gehalten. Collide ist eine Veranstaltungsreihe in Wien, bei der sich Publizisten und Hacker treffen, um sich über Innovationen im Journalismus auszutauschen. Unter anderem zeige ich, dass Datenjournalismus keineswegs ein neues Phänomen ist. Datenjournalistische Ansätze lassen sich bis zum Beginn des 19. Jahrhunderts zurückverfolgen. Auch als Journalisten bereits Computern verwendeten, aber weder das Internet noch Onlinepublikationen existierten, gab es Datenjournalismus etwa bei Zeitungen.

Hier sind meine Slides, die auch ein Modell über die aktuellen Rahmenbedingungen und den Workflow datenjournalistischer Arbeit.

Neben mir hat auch Robert Harm einen Vortrag zu Werkzeugen im Datenjournalismus gehalten. Dabei ging er insbesondere auf Maps Marker ein, ein unlängst von ihm entwickeltes äußerst mächtiges WordPress-Plugin.

Collide ist inspiriert von der Hacks/Hackers-Bewegung in den USA, die sich nichts Geringeres als einen Reboot des Journalismus zum Ziel gesetzt hat. In Wien soll die Reihe in Zukunft communitygetrieben funktionieren, ähnlich wie die Webmontage. Wer auf dem Laufenden bleiben will und gerne über Innovationen im Journalismus hört und diskutiert, dem sei auch die Collide-Facebook-Gruppe ans Herz gelegt. Derzeit stehen Christopher Clay aka @c3o und insbesondere Markus Hametner aka @fin hinter dem Projekt. Letzterer programmiert auch luminous flux, von dem wir in Zukunft hoffentlich noch einiges hören werden.

New-Media-Vorträge im Oktober – Einige Empfehlungen

Noch nie habe ich in Wien solch eine Dichte an Veranstaltungen gesehen, die sich mit Internetforschung, Onlinejournalismus und Digitalisierung auseinandersetzen.

Einige Empfehlungen für die nächsten Tage mit grandiosen Vortragenden:

Europeana Tech Conference

  • Dienstag, 4. Oktober & Mittwoch, 5. Oktober, 09:00 – 17:00 Uhr, Österreichische Nationalbibliothek
  • Schwerpunkte: Open Data, Open Source
  • Anmeldung nicht mehr möglich

Semantic Web Company’s Open House with Evan Sandhaus (New York Times), Andreas Gebhard (Getty Images), Stuart Myles (Associated Press)

  • Mittwoch, 5. Oktober, 18:30 Uhr, Semantic Web Company
  • Schwerpunkte: Semantic Web, Data Retrieval, Journalism
  • Eintritt frei, Anmeldung erforderlich

Symposium Medienpolitik und Recht. Wikileaks: Neue Regeln für neue Formen der Kommunikation?

  • Donnerstag, 6. Oktober, 16:3019:00 Uhr, Österreichische Akademie der Wissenschaften
  • Schwerpunkte: Internetregulierung, IT-Law
  • Eintritt frei

Auftaktveranstaltung zum Start des Master Programms International Media Innovation Management mit Bill Horn (New York Times), Bill Mitchell (Poynter Institute, Florida): Media Innovation: How to Shape the Future

  • Montag, 10. Oktober, 18:00 Uhr, Marx Palast, Media Quarter Marx
  • Eintritt frei, Anmeldung erforderlich

Gruppe Internetforschung: Workshop InterRecht / UrheberNet – Rechtliche Rahmenbedingungen von Online-Publikationen und Möglichkeiten von Open Access in der Wissenschaft

  • Dienstag, 11. Oktober, 17:00 Uhr, Raum D, Museumsquartier
  • Schwerpunkt: Wissenschaftliches Publizieren, IT-Law
  • Eintritt frei, keine Anmeldung erforderlich

Auftaktveranstaltung zum Start des Master Programms International Media Innovation Management mit Bill Horn (New York Times), Bill Mitchell (Poynter Institute, Florida): Media Innovation: How to Shape the Future
Monday, October 10th, 2011,6 p.m. at Marx Palast at Media Quarter Marx
Montag, 10. Oktober, 18:00 Uhr, Marx Palast, Media Quarter Marx

Eintritt frei, Anmeldung erforderlich

Tim Berners-Lee: World Wide Web: Who Rules the Internet Society?

  • Dienstag, 11. Oktober, 18:30 Uhr, Spanische Hofreitschule
  • Schwerpunkt: Internet Governance
  • Einladung erforderlich, Karten-Verlosung via Twitter-Wettbewerb

Nicht in Wien, jedoch auch Hinweisenswertes passiert in Graz am Studiengang für Journalismus und PR, an dem ich arbeite:

Karim El-Gawhary

  • Mittwoch, 12. Oktober, 13:00-14:30 Uhr, Studiengang für Journalismus und PR, FH JOANNEUM
  • Schwerpunkt: Arabischer Frühling, Journalismus als Korrespondent
  • Eintritt frei, keine Anmeldung erforderlich

Schon vorüber:

Hedy Lamarr Lecture mit Philip Meyer: Precision Journalism v. Narrative Journalism: Toward a Unified Field Theory

  • Montag, 3. Oktober, 18:15 Uhr, Österreichische Akademie der Wissenschaften
  • Schwerpunkte: Data Journalism, New Media

Um auf dem Laufenden zu bleiben, empfiehlt es sich auch, den Feed von webtermine.at zu abonnieren.

The Culture of Trolling

This Wednesday our internet research group co-hosted a talk on the topic of trolling. Carmel Vaisman (@carmelva) who is a communication researcher at the Hebrew University of Jerusalem spoke about the practices of trolls and the similarities and differences to face-to-face interactions. Don’t Feed The Trolls. Countering The Discourse Patterns of Online Harassments was her subject. I post my short notes here as a summary here, but be warned: I was live-blogging, getting things wrong and missing points, …* derStandard.at/Web wrote an excellent summary of the talk in German. I recommend also reading the comments of the derStandard article because you see another excellent example of troll behavior ;). And here is also Carmel’s prezi:

The talk was based upon two chapters of her book Hebrew Online.

A troll is person who seeks attention, who cannot be reasoned with. The word troll doesn’t come from the nordic monster. The verb has its origins in a fishing technique and means slowly dragging (a lure). There is also a small suitcase with wheels which we call trolley because we drag it.

Susan Herring is one of the first researchers who studied the culture of trolling.

Trolls in early internet days, for example in IRC chats, were polite in their expressions, they just seeked attenttion. Today’s troll are much more violent. Carmel differentiates six practices of violent online behaviour:

  • spam
  • flaming
  • stalking
  • trolling
  • cyberbullying
  • virtual rape

What is common to all those practices is that trolls perform those in repetitive manner. This erodes the identity of attacked person/institution step by step. What are examples of violent online behavior? Stalking is a form of sexual online harassment: Somebody reads every online output of another person and reacts on it, he/she keeps writing comments and gives “likes”, always being the first. The Facebook-Poke (which descends from the old Unix-Commands “ping” and “finger”) can be a form of flirtation, a form of touch. But if it is unwanted and repeatedly executed it is harassment. Other practices of trolls are hate groups and hate pages, repetative insults and threats on a private channel. What I found an innovative destruction tactic was when a troll clicked on the ads of a blog until Google stopped the ad distribution because of a violation of the terms of service.

Carmel made the important point that violence exerted to the virtual represenation of somebody else has real consequences. Trolls harm the avatar (the wall, the profile, …) and it is like harming someone in person. Attention is a double edged sword, it is not only resource, it can also be a burden.

Why is there so much more hate speech and flaming on the web than in face-to-face-interactions? Because big parts of the web are anonymous? Recently we see that the web is getting less and less anonymous (e.g. Facebook) and people are still flaming at each other. You could of course refer to a cultural explanation. In Israel, for example, online arguments are sometimes very tough but then they come to an agreement. Carmel identified parallels to the tradition of talmudic argumentation. But to look for the reason in culture may not be everything. The main reason why communication can sometimes be more violent online is because communication is mediated. The face and the body are missing (-> Levinas).

To underline explanation Carmel concluded with a tragic story of a young man who committed suicide live online, people watching him encouraged him and did not call for help. This couldn’t have happened offline, could it?

Vertrauen in Filter ist gut, Kontrolle ist besser

Dies ist ein Beitrag zur aktuellen Blogparade von twenty.twenty. Die Veranstaltungsreihe erlebt heute um 19:00 Uhr im Wiener Hub eine neue Ausgabe zum Thema Social Information Management.
Zur gleichen Zeit spricht Carmel Vaisman in einem von unserer Forschungsgruppe Internet mitorganisierten Vortrag über
“Don’t Feed the Trolls” am Institut für Kultur- und Sozialanthropologie.

Eigentlich ist damit schon alles gesagt: “If the news is important it will find me.” Dieser breit getretene Satz eines College-Studenten ist auch die erste Antwort auf die kommunikationswissenschaftliche Gretchenfrage, unter dessen Motto die twenty-twenty-Blogparade steht: Wie wird die Gesellschaft in Zukunft mit Information umgehen? Auch wenn wir mit immer mehr Informationen, Nachrichten und Daten hantieren, müssen wir keine Angst davor haben, dass uns das Wichtige nicht erreicht. Natürlich haben wir alle schon einmal eine entscheidende E-Mail verpasst oder einen Anruf nicht entgegen genommen, der sich im Nachhinein als bedeutsam herausgestellt hat. Und Trotzdem: War eine Nachricht sehr wichtig, dann haben wir sie in den meisten Fällen erhalten. Insofern teile ich die Ansicht von Kollegen Gratzer: Nur keine Angst vor dem Informations-Tsunami. If the news is important it will find me.

Dennoch müssen dieses Vertrauen in Informationsfiltermechanismen hinterfragt und analysiert werden, um nicht retrospektiv resigniert resümieren zu müssen, dass auch wichtige Nachrichten ihre Empfänger nicht mehr finden. Zuviel ändert sich, zuviel steht auf dem Spiel. Wie funktioniert also der Online-Informationsfilter? Die Filterung von digitaler bzw. digitalisierter Information passiert auf zwei Ebenen, die miteinander verschränkt sind. Ebene 1: die technologische; Ebene 2: die sozial-kognitive. Diese Differenzierung trifft auch Nuri Nurisbach in seinem Blogparade-Beitrag.

Erstere Ebene bietet Informationsfilter verschiedener Typs: Algorithmen und Streams, die nur Informationen mit bestimmten Eigenschaften transportieren; Suchmaschinen und Datenbanken, die Antworten auf Anfragen liefern, sodass wir nicht das ganze Netz durchforsten müssen; Hardware wie z.B. Mobile Devices, die gewisse Inhalte verweigern oder reduziert darstellen. Die technologische Ebene der Informationsfilter schränkt ein, ohne dass wir den Ausschuss zu Gesicht bekommen (können). Das unterscheidet sie von der zweiten, der sozial-kognitiven Filterebene. Hier sehen wir sehr wohl die ausgefilterten Inhalte, nehmen sie aber nicht dauerhaft wahr.
Vertrauen ist die zentrale Instanz der zweiten, der sozial-kognitiven Filterebene. Wir erhalten Informationen und navigieren anhand von Personen und Institutionen, die wir kennen und denen wir vertrauen. Dabei ist der Hyperlink das zentrale vertrauensbildende Element. Ein Verweis schafft Vertrauen, er macht sowohl Handeln als auch Nachrichten nachvollziehbar und damit zuverlässig. Und Zuverlässigkeit und Überprüfbarkeit sind eine zentrale Anforderung an eine Nachricht, schließlich wollen wir uns nach ihr richten.

Beide Filterebenen, sowohl die technologischen als auch die sozial-kognitiven, werden in Zukunft feiner und besser werden. Sie werden sich weiterentwickeln und ihrem Umfeld und ihrer Umgebung anpassen. Auf der sozial-kognitiven Ebene ist eine wissenschaftliche Dokumentation des Fortschritts sowie dessen gezielte Förderung unabdingbar (Stichwort: Media Literacy). Auf der technologischen Ebene müssen Nachvollziehbarkeit und Offenheit die obersten Gebote sein: Traue keinem Filter, den du nicht selbst verstanden hast.

PS: Die anderen Blogparade-Beiträge sind hier nachzulesen.

Web Literacy Lab meets Youth and Media Lab

Non-Berkman staff, please scroll down for additional background information.

The Institute for Journalism and Public Relations – my part-time workplace – is coordinating a research project called Web Literacy Lab [FB, Twitter]. Since it started in October last year I have been spending most of my working time on this project. Our main focus lies on researching and developing new media literacies in companies and organizations. The person in charge of this three-year project is Heinz Wittenbrink.

In the first phase (still ongoing) we are trying to find the answer to the following question: What constitutes new media literacies and what are conditions (and barriers) for people to adopt those literacies? To find a reliable and satisfying response in this explorative field we apply traditonal qualitative research methods, basing our research on the theoretical frameworks of ethnomethodology and actor network theory. By using the methods of participant observation, group discussion and conversational analysis we gain more insight into the web practices of people and the prerequisites necessary for successful online communication.

Once this first phase is completed and our question answered, we take a normative approach: Step two is the development of curricula and white papers, in which we explain how specific groups and branches can learn the previously defined new media literacies. Those concepts and publications will be open to the public under a liberal license and can then be taken and improved by everyone. The third and final step in our project is the implementation of these curricula in enterprises and educational institutions. By accomplishing those steps we hope to have contributed to the societal digital literacy in our region and to have helped closing the digital gap – at least a bit.

Why am I explaining this? On the one hand because it is an important part of my life and I want to share it. Empowering people to adopt technology for a greater good is an ideal that drives me. On the other hand– and this what makes it relevant for this text: I want to point out that from my point of view Berkman Center’s Youth and Media Lab and the Web Literacy Lab have much in common:

Firstly, structure: Our three main tracks are similarly shaped: Exploratory research (and literature review), development of study programs and the application of the latter.

Secondly, YaM and WLL have a similar approach when it comes to methods and the idea of new media literacies: YaM proactively engages different groups in discussions and involves young people from the beginning. This inclusive, equal leveled research completely matches our approach to  such a project. What we found in Graz out after the first months and what seems to be central for web literacy is the ability to evaluate the character of information as well to create and share content in a network. The YaM has also emphasized these fields of competence.

What is different (among many other things such as: project size, impact expectation and scale) is the target group: We focus on employees and adult people, some of whom can be regarded as digital illiterates. Although,  in a later project phase, we plan to develop curricula forthese people,  we do not intend to stop there.  Later-on we want to turn to the digital avant-garde and digital natives. I starting out with adult employees in general we hope to get a definition and a clear understanding of the set of skills which constitute web literacy.

By describing the similarities and differences of the Youth and Media Lab and the Web Literacy Lab I hope I could clarify and underline my reasons for applying to the Youth and Media Lab. In addition, my PhD thesis is also in the field of (data driven) literacy. But for the sake of brevity, I will not go into any details here. At Web Literacy Lab in Graz we are still at the beginning. I am sure, my summer internship at the Youth and Media Lab could lead to mutual benefit – I could extend my field of knowledge and methods, the YaM would certainly get an enthusiastic and hardworking intern.

Background information for Non-Berkman staff:

I am applying for Berkman Center’s Summer Internship Program. This is my contribution for the second and final application round. Please keep your fingers crossed. In the past days and weeks I have been intensively following the Youth and Media Project, which is hosted at the Berkman Center for Internet and Society in Harvard. I have been aware of the project for quite some time because I am subscribed to danah boyd’s blog and publications since the first steps in my diploma thesis. The project came back to my mind when I saw Urs Gasser, the project’s principal investigator (together with John Palfrey), at last year’s Forum Alpbach [PDF] where he presented the core findings of a book on digital natives, which he had co-authored. The Youth and Media Project consists of five divisions. They all deal with young people’s media use and content production each of them with a unique aspect and scale. The chief project among the subprojects is the Youth and Media Lab.

Frisch vermählt: Regierungsdaten und Onlinejournalismus

Ein Artikel für dritte Ausgabe des Open Government Digest. Die lektorierte und etwas gekürzte Version lässt sich im PDF des Magazins nachlesen. Die Verlinkungen und Quellenangaben folgen in den nächsten Tagen.

“Ab jetzt wird zurückgerechnet”, sagt die deutsche Wissenschaftlerin und Journalistin Mercedes Bunz und sieht eine neue Möglichkeit heraufdämmern, die Mächtigen zu kontrollieren. “Datenjournalismus” heißt das Wort der Stunde. Vorbei die Zeit als Medien und Zivilgesellschaft der vermeintlichen politischen Unausweichlichkeit wenig entgegenzusetzen hatten. Möglich machen es offene Regierungs- und Verwaltungsdaten und engagierte Onlinepublizisten. Dabei verändern sich auch die Spielregeln für Journalisten.

Ein deutscher Grünpolitiker klagt seine Vorratsdaten (also keine offenen Regierungsdaten, sondern seine eigenen personenbezogene Daten) von der Telekom ein und lässt diese von Zeit Online visualisieren und publizieren: Über ein halbes Jahr hinweg kann das Leben des Politikers in jeder Minute per interaktiver Karte nachvollzogen werden. Die nüchterne Darstellung verbildlicht die Gefahren der Vorratsdatenspeicherung wie kaum eine andere Form des Informationsdesigns.
Die New York Times kombiniert die Arbeitslosenstatistik mit demographischen Daten, und es entstehen bisher ungesehene Graphen, die soziale Ungleichheiten in den USA aufzeigen. Ein schwarzer Jugendlicher ohne Schulabschluss ist durchschnittlich fast doppelt so häufig arbeitslos wie ein weißer.
Die genannten sind nur zwei von einer mittlerweile unüberblickbaren Zahl an Datenjournalismusprojekten, die die Redaktionen der MSNBC, der Los Angeles Times, des Guardian, der BBC und einiger anderer Medien durchführen. Viele der Medien haben eigene Ressorts gegründet, die sich allein der Anatomie und (interaktiven) Verbreitung von Daten widmen.

Was ist neu am Datenjournalismus?

Die Bezeichnung “Datenjournalismus” ist schwammig, meint sie doch, wie Lorenz Matzat feststellt, einerseits eine Recherchemethode von Onlinejournalisten, andererseits eine spezifische mediale Veröffentlichungsform, ein eigenes Genre. Datenjournalismus ist darüber hinaus zugleich ein Mindset: Die wenigsten Datenjournalisten sehen sich als traditionelle Journalisten, sondern bezeichnen sich lieber als Hacker oder Informationsarchitekten.
Bei aller Unbestimmtheit gibt es dennoch einen Definitionsansatz. Der Brite Paul Bradshaw hat ihn herausgearbeitet: Die Daten, auf denen Datenjournalismus fußt, müssen strukturiert sein und von Computern verarbeitet werden können. Die Tabelle ist der Ausgangspunkt der (computerbasierten) Recherche und die Basis für die jegliche weitere Darstellungsform – ob interaktive Visualisierung oder Mutlimedia-Reportage.
Klar ist, dass sich daraus Konsequenzen für die journalistische Praxis ergeben: Der Umgang mit diesem neuen Typ von Quelle muss von so gut wie allen aktiven Journalisten erst erlernt werden – data literacy wird in Zukunft zur Schlüsselqualifikation in Redaktionen avancieren. Darüber hinaus ändert sich das Erzählen: Die stringente Geschichte mit menschlichen Protagonisten sowie Anfang und Ende tritt in den Hintergrund, die Berichterstattung dreht sich um Fakten und Akten.

Prozessjournalismus und Crowdsourcing

Immer öfter kommt es zu Mischformen zwischen Datenjournalismus und diversen anderen neuen Formen des Onlinejournalismus, etwa dem Prozessjournalismus: Bei diesem gipfelt die Berichterstattung nicht in einem fertigen Artikel, vielmehr wird ein Beitrag schnell online gestellt und anschließend erweitert und verbessert. In der Kombination mit Datenjournalismus wird für die Berichterstattung nicht mehr auf statisches Material zurückgegriffen, der Redakteur zieht permanent Daten aus aktualisierten Streams heran.
Oder Datenjournalismus verknüpft mit Crowdsourcing: Sind die Datenmengen für eine Redaktion allein nicht bewältigbar, dann lagert sie diese Aufgabe aus: Die Dateien werden online gestellt, interessierte Internetuser kümmern sich um die Exploration der Datenberge. So geschehen ist dies etwa bei einer der ersten Sternstunden des modernen Datenjournalismus, im Sommer 2009: Damals stellte der britische Zeitung Guardian 170.000 Spesenbelege britischer Abgeordneter online. 20.000 Leute durchforsteten die Belege auf verdächtige Inhalte, innerhalb kürzester Zeit war ein systematischer Missbrauch von Steuergeldern aufgedeckt, der zu Rücktritten und politischen Reformen führte.

Was Datenjournalismus sicher nicht löst, ist das Finanzierungsproblem für unabhängige professionelle Berichterstattung abseits der Nische. Für die penible Kontrolle der Politik, diese in einer Demokratie so lebensnotwendige Aufgabe, liefert auch Datenjournalismus kein Geschäftsmodell. Im Gegenteil: Datenjournalismus ist kostspieliger als viele andere Formen der Berichterstattung. Die Journalisten arbeiten meist in Teams gemeinsam mit Programmierern, Statistikern oder Grafikdesignern. Und derartige Stellen sind teurer als die in Onlineredaktionen so gern beschäftigten “Contentmanager”, die ohne Journalisten-Kollektivvertrag in fordistischer Manier Meldungen vom Agenturfließband ins CMS klopfen.

Auf dem weg zur europäischen Agenda

Das Geld bleibt also weiterhin knapp, ein anderes Hoffnungsfenster tut sich aber durch Datenjournalismus auf: Der Strukturwandel hin zu einer europäischen Öffentlichkeit. Diese scheiterte bislang unter anderem, weil eine gemeinsame Sprache fehlte – auch Englisch funktioniert nur in bestimmten Bildungsschichten flächendeckend. Die Sprache öffentlicher Daten hingegen ist für viele Bereiche universell und wirkt damit einigend. Visualisierungen auf Grundlage von Daten, die von kontinental bis hyperlokal skaliert werden können, bringen Themen in ihren Details und ihrer ganzen Tragweite aufs Tapet. Die Aufgabe des Datenjournalisten dabei: Er analysiert, ordnet ein und stellt einen Bezug für seine Leser her. Wie so etwas abläuft, hat sich zum Beispiel bei der Aufarbeitung der Wikileaks-Depeschen gezeigt: Riesige Datenmengen wurden auf lokale Vorfälle heruntergebrochen, die immense Dimension der Geschichte blieb trotzdem erhalten. Ähnliche Prozesse werden wir in Zukunft öfters erleben, wenn etwa mithilfe von Finanz- oder Umweltdaten über Skandale berichtet wird. Trotz lokalem Fokus behauptet sich das Gesamtbild. Der Weg zur vereinten europäischen Agenda ist dann noch immer weit, der Datenjournalismus jedoch trägt seinen Teil zur Abkürzung bei.

Wikileaks: Enttarnungen im neuen Cyberkrieg

Folgender Gastkommentar von mir erschien in der Tageszeitung “Die Presse”, online am 16. Dezember 2010, in der Printausgabe am Tag darauf.

Der Krieg im Netz ist alt und seine vielfach anonymen Truppen sind nicht immer böse. Eine überhitzte Debatte braucht Abkühlung.

Die Faxgeräte bei Amazon, Mastercard und Visa laufen dieser Tage heiß. Die Papiere, die sie meterweise ausspucken, sind keine Beschwerden unzufriedener Weihnachtseinkäufer – es sind Kopien jener Diplomatenberichte, die WikiLeaks unlängst veröffentlicht hat.

Diese vergleichsweise harmlose und zugleich humorvolle Protestaktion ist eine von vielen Antworten auf die Weigerung dieser Konzerne, mit WikiLeaks zusammenzuarbeiten. Eine weitere Reaktion war der Angriff auf deren Webserver vor einigen Tagen. „Der Spiegel“ und zahlreiche Kommentatoren sehen bereits einen neuen „Cyberkrieg“ heraufziehen. Über „Anonymous“, so nennt sich die „Armee von WikiLeaks“, kursieren allerlei Gerüchte und Halbwahrheiten. Höchste Zeit, mit einigen Vorurteilen aufzuräumen – und andere zu bestätigen.

Kein linksextremer Trupp

Die Falschannahmen Nr.1 bis 3: Anonymous ist ein Trupp linksextremer Hacker. Dreimal unrichtig. Zunächst zur Vorstellung, dass es sich bei den Angreifern um einen Trupp, eine geschlossene Gruppe handelt: Anonymous ist ein fluktuierendes Onlinekollektiv.

Niemand – auch Anonymous selbst nicht – weiß, wie viele Menschen dabei sind. Jeder kann teilnehmen, es gibt kein Aufnahmeprozedere und keine Anführer, wohl aber Plattformen, auf denen anonym kommuniziert wird. Die Medienwissenschaftlerin und Bloggerin Jana Herwig vergleicht Anonymous mit einer Maske, die sich jeder jederzeit überstülpen kann.

Wie ist so ein Zusammenschluss handlungsfähig? Ganz einfach: Jemand schreit lauthals eine Idee heraus – finden sich genug andere, die diese Idee gutheißen, dann wird sie umgesetzt.

Auch wenn Anonymous gegen staatliche Behörden und Konzerne kämpft, ist Anonymous nicht primär links. Vielmehr eint Anonymous der Glaube an die absolute Transparenz und der Wille zur Agitation. Das Spektrum der Anhänger reicht von Anarchisten über Verschwörungstheoretiker und rechte Libertäre bis hin zu ideologiefreien Internet-Kids. Auf der Plattform 4chan.org, einem ihrer wichtigsten Foren, finden sich zahllose sexistische, rassistische und demütigende Inhalte – Auswüchse, die selten „linken Gutmenschen“ einfallen.

Nur die wenigsten der anonymen Aufrührer sind Hacker oder sehen sich als solche. Online kursieren Anleitungen und Programme, mit deren Hilfe man sich an den Protesten beteiligen kann – ein wenig Medienkompetenz und Zeit vorausgesetzt.

Jahrelange Auseinandersetzung

Falschannahme Nr.4: Wir haben einen neuen „Cyberkrieg“. Die „Operation Payback“, eine von mehreren Aktionen gegen die WikiLeaks-Repressionen, gibt es nicht erst seit September 2010, also lang vor den Veröffentlichungen der diplomatischen Depeschen.

Vor den WikiLeaks-Gegnern hatte Anonymous die Urheberrechtsindustrie angegriffen. Die Aktion reiht sich ein in jahrelange Auseinandersetzungen, bei denen es um Freiheit und Restriktion im Internet geht. Die meisten Attacken von Anonymous zielen auf Webserver ab, bleibender Schaden entsteht selten.

Vielerlei Protestformen

Die Serverattacken sind eine von vielen Protestformen. In zahlreichen Ländern hat sich der virtuelle Protest bereits auf die Straße verlagert, indem beispielsweise WikiLeaks-Dokumente als Plakate angebracht wurden.

Auch in Österreich könnte es bald so weit sein. Wir alle sind ein Teil von Anonymous, wenn wir die Depeschen lesen und ihre Inhalte in die Welt tragen, egal ob offline oder online.

Besonderer Dank sei abschließend Jana Herwig und Max Kossatz entgegengebracht. Deren fundierte Blogposts über Anonymous waren äußerst hilfreich in der Recherche und belegen meine Annahmen. Auch herzlich gedankt sei  Thomas Thurner, ohne dessen Anregung dieser Beitrag nicht zustande gekommen wäre.

ProdUsers, Do Not Forget The Machines

Dies ist ein Beitrag zur Blogparade von twenty.twenty. Am kommenden Dienstag, den 30.11.2010, findet im Wiener Hub eine Podiumsdiskussion zum Thema “We ProdUSE. Medienproduktion und Mediennutzung in 2020″ statt.

“You’re tweeting, man.” “I ain’t got time to tweet.”
Entnommen und adaptiert aus Predator (1987)

Einmal Google-Search-Button. Wir produzieren. Ein Facebook-Like. Wir produzieren. Push Retweet. Wir produzieren. Mit jeder einzelnen Aktion im Netz generieren wir Material. Fishing for Reaction teilen wir exklusiv mit Datenkraken sowie Freundinnen und Freunden, setzen wir Links in Status-Updates und posaunen in den Äther. Wir? Das ist nicht allein Kollektiv von Menschen. Produsers, do not forget the machines.

Wenn wir “produsen”, dann ist das nur bedingt kreativ, in erster Linie filtern und empfehlen wir mediale Werke anderer: Identitätsarbeit und Reputationsmanagement mithilfe digitaler Ressourcenallokation. Sharen, Liken und Retweeten fällt sowohl in Bereich der Medienproduktion als auch in jenen der Mediennutzung. Daraus lässt sich ableiten: Diese Unterscheidung funktioniert im Web nur mehr mangelhaft. Wer nutzt, produziert. Wer produziert, nutzt. No more one way.

Die 1%-Regel, nach der gerade einmal 1 Prozent der Mitglieder von Online-Communities den Content beisteuern und der Rest (relativ) passiv “lurkt”, erscheint vor diesem Hintergrund hinterfragbar. Content, egal ob mikro (als Leseempfehlung) oder makro (als Blogpost), wird massenhaft und von allen Usern im Social Web abgesetzt. Bewusst und unbewusst.

Zugleich geht bei dieser riesigen Datenakkumulation unter, wer gemeinsam neben den “Produsern” die eigentliche Hauptarbeit leistet: Die realen und virtuellen Maschinen. Die wenigen Zeilen Code, die sich hinter einem Facebook-Like-Button verbergen, verbinden die eigene Online-Repräsentation mit zahlreichen sozialen Objekten [via]. In der englischsprachigen Wikipedia zeichnen Bots für einen Großteil der Änderungen verantworlich. Sie bewahren Wikipedia vor Trollen, bessern Rechtschreibfehler aus oder archivieren alte Diskussionen.[1] Würden bei Google einmal die Crawler streiken, die permanent Website um Website durchforsten, das WWW wäre innerhalb kürzester Zeit unbenutzbar.[2] Die Liste der nichtmenschlichen Akteure, die unser Agieren im Web erst möglich machen, ist lange fortsetzbar.

Wenn sich Axel Bruns in seinem Entwurf des Produsage-Konzepts allein auf Menschen konzentriert und die Technik zum Werkzeug degradiert, dann greift das noch zu kurz. Einerseits denken wir dadurch ständig in projizierten Potenzialen (“Durch Twitter können wir …”, “Mithilfe von Facebook haben wir die Möglichkeit …”, …); andererseits nimmt es zu wenig auf die tatsächliche Rolle Rücksicht, die Technik in der Online-Medienproduktion und -konsumption spielt. Technik ermöglicht nicht nur den Austausch, sie ist ein aktiver Teil davon.


[1] Isabell Otto, Das Soziale des Social Web. Erkundungen in Wikipedia. In: Sprache und Literatur 104 (2009). S. 45-57.
[2] Theo Röhle, Der Google-Komplex. Über Macht im Zeitalter des Internets, 1. Aufl. (Transcript, 2010). S. 87ff.