Gestern bin ich vom BarCamp Klagenfurt 2009 zurückgekommen; Ende Januar war ich in Dieburg auf der Tagung Zukunft Online-PR 2009. Ich beginne erst, Eindrücke und Ideen zu ordnen (einen Teil der Präsentationen findet man auf Slideshare hier und hier).

Ein Aspekt, der mich besonders interessiert: Wie kann man sich wissenschaftlich mit der Kommunikation im Web beschäftigen? Welche Aufgaben, welche Methoden hat die Forschung oder könnte die Forschung haben? Mit Jana Herwig habe ich in Klagenfurt über unser Vorhaben gesprochen, eine Zeitschrift für Webwissenschaft ins Leben zu rufen, mit Thomas Pleil in Darmstadt über Feldforschung im Web (ich hoffe, dass dabei unsere Studiengänge kooperieren).

Thomas Pleil geht in seinem Dieburger Vortrag auch auf die Rolle der Forschung ein:

In einem anderen Vortrag in Dieburg hat sich Jan Schmidt mit der soziologischen Untersuchung von sozialen Netzwerken beschäftigt, er sprach unter anderem von der Chance. die Enstehung von Normen zu beobachten:

Jana stellte in Klagenfurt ein Projekt zur Twitterforschung vor und beschrieb das Hineinfinden in Twitter als einen Initiationsritus:

In diese Reihe zur Erforschung des Web gehört für mich auch die Untersuchung der politischen Kommunikation, die Max Kossatz in Klagenfurt vorgestellt hat; ich habe sie online noch nicht gefunden.

Alle diese Projekte verbindet ein ethnographischer Zugang zum Web. In allen Fällen kann man von teilnehmender Beobachtung sprechen: Die Beobachter verwenden selbst die Kommunikationsformen, mit denen sie sich beschäftigen. Bei Max Kossatz kommt ein technischer Zugang hinzu: Er nimmt mit selbstentwickelten Webtools Auswertungen zur Präsenz politischer Organisationen im Web vor.

In Klagenfurt habe ich mich mit Jana (wir vorher länger auf dem BarCamp Graz) über das Unbehagen an geisteswissenschaftlichen Thematisierungen des Webs unterhalten, die web-fremd sind, deren Autoren man anmerkt, dass sie selbst nicht mit aktuellen Webtechnologien umgehen und sie wohl auch nicht verstanden haben. Die Präsentationen, auf die ich hier verwiesen habe, sind — bei aller Unterschiedlichkeit ihrer Ansätze — anders. Eine Frage ist: Welche Rolle spielt es für ihre wissenschaftliche Dignität, dass ihre Urheber auch Web-Praktiker sind? Eine weitere Frage, ausgelöst durch das Vorgehen von Max Kossatz: Welche Rolle spielt Web-Technologie als Instrument der Erforschung des Web? Gehört zur Web Science oder wird zur Web Science das Arbeiten mit spezifischen Web-Instrumenten zur Auswertung und Beobachtung gehören?

Ich lese gerade Neue Wissensordnungen von Olaf Breidbach.

Im Unterricht verwende ich manchmal das Begriffstripel DatenInformationWissen, das wohl auf Russell L. Ackoff zurückgeht. Bisher habe ich immer versucht, alle drei in einer Art Linie zu verstehen, so wie sie etwa in dieser Grafik gezeigt werden. Nach der Lektüre der ersten Kapitel Breidbachs frage ich mich, ob diese Begriffe nicht eher zu unterschiedlichen Kategorien gehören, vor allem, ob man nicht Wissen als die Fähigkeit verstehen kann, mit gegenwärtigen und zukünftigen Informationen umzugehen. Wissen besteht dann nicht aus Informationen, sondern es basiert allenfalls auf ihnen. (Und Informationen sind nicht kontextualisierte Daten, sonderen Mitteilungen von Daten.)

Damit referiere ich nicht Breidbachs Wissensbegriff; Breidbach spricht vom Wissen als interpretierter Information.

Ich meine damit nicht, dass man Wissen schlechthin als eine Fähigkeit definieren kann, sondern dass ein solches Verständnis dieses Begriffs heute sinnvoll sein könnte. Ich gehe mit der These, dass Wissen in der Fähigkeit besteht, mit vergangenen und zukünftigen Informationen umzugehen, an die weitere Lektüre von Breidbachs Buch.

Wenn diese These sich aufrechterhalten lässt, dann würde sich ergeben, dass man Wissen nicht vermitteln kann, indem man nur Informationen weitergibt. Wissen ließe sich nur weitergeben, indem man auch Praktiken vermittelt, und wäre immer an die Aktivität der Menschen, denen man es vermittelt, verbunden.

Ein solcher Begriff von Wissen widerstrebt unserem alltäglichen Verständnis wenigstens auf den ersten Blick: Wir sagen, dass jemand viel weiß, wenn er viele Informationen über etwas hat, wenn er viel gelernt hat. Andererseits setzt man auch im alltäglichen Gebrauch wissen nicht damit gleich, über viele Informationen zu verfügen. Man würde nicht sagen, dass jemand, der ein komplettes Lexikon wiedergeben kann, viel weiß. Von wissen spricht man erst, wenn er die Informationen in neuen Situationen anwenden kann. Zum Wissen gehören wohl die Aspekte der Anwendung, des Neuen und der Situation oder Situiertheit. (Abgesehen vom sozialen Aspekt: Vielleicht kann man nur in einer Gruppe oder als Mitglied einer Gruppe etwas wissen.)

Mir ist klar, dass ich hier möglicherweise nur den Nordpol wiederentdecke. Aber im Alltag, für mich z.B. im Unterricht, ist es nicht unwichtig, sich diese Basics klarzumachen. Außerdem lässt sich durch eine Klärung des Begriffs Wissen möglicherweise verstehen, dass ein bloßes Mehr an Information nicht nur nicht zu einem Mehr an Wissen führt, sondern im Gegenteil die Entwicklung von Wissen als der Fähigkeit, die Informationen zu verarbeiten, behindern kann.

In Frankreich hat die Zeitschrift Le Tigre einen Mann ohne seine Zustimmung porträtiert und dazu ausschließlich Daten aus Web-Diensten wie YouTube und facebook benutzt: Französischer Internetnutzer unfreiwillig in Zeitschrift porträtiert. Auf der Website der Zeitschrift findet sich in der Rubrik Portrait Google übrigens nur der Hinweis darauf, dass sich die Zeitschrift nicht an der medialen Aufregung über die Geschichte beteiligen wolle, und dass sie zwischen der realen Person (die offenbar gegen den Artikel geklagt hat) und einer medialen Kunstfigur unterscheide.

Mich interessiert hier nicht die reale Geschichte hinter der Meldung (sie hat offenbar auch die Medien wie den Standard nicht interessiert, die sich auf Agenturmeldungen verlassen haben und nicht einmal auf die Zeitschrift verlinken.) Mich interessiert das Publikumsinteresse, dem sie ihren Nachrichtenwert verdankt. Die Meldung bedient das dumpfe Unbehagen an Google, facebook usw., die in unsere Privatsphäre eindringen. Immer wieder höre ich von Bekannten, man müsse ja nicht alles veröffentlichen; zwei meiner Kollegen haben mich sogar gebeten, ihnen keine Mails via GMail zu schicken.

Ich bin mit diesem Thema (Datenschutz und Web 2.0) nicht fertig, und ich schreibe auch aus einem dumpfen Gefühl heraus: Ich habe den Eindruck, dass es vielen, die sich über Suchmaschinen und soziale Netze beklagen, gar nicht um Datenschutz geht, sondern darum, sich vor der unheimlichen Welt des Netzes zu schützen und möglichst lange bei den gewohnten Formen der Kommunikation und Publikation zu bleiben (so wie die Verlage, die das Netz über Jahre ignoriert haben und dann jammern, weil Google ihre Bücher digitalisieren will.)

Ich möchte drei Gedanken formulieren, die mir bei der Diskussion dieses Themas wichtig sind, und die sicher nicht ausreichen, um hier eine Position zu begründen:

  1. Wer im Internet publiziert, publiziert. Wer Facebook, Twitter oder irgendeinen anderen Service benutzt, um etwas über sich zu veröffentlichen, gibt weder ihnen noch anderen damit einen Zugang zu seiner Privatsphäre, sondern verlässt die Privatsphäre. Er oder sie muss sich genauso überlegen, wie er sich und andere schützt, wie es sich jeder Autor von Büchern immer schon überlegt hat. Es ist schlicht viel leichter geworden, etwas zu publizieren, aber natürlich bleibt es eine persönliche Entscheidung, Daten von sich bei diesen Diensten freizugeben.

  2. Web 2.0-Anwendungen bieten einen konkreten Nutzen, der ohne Publikation von Daten nicht zu haben ist. Es geht nicht darum zu entscheiden, ob man von irgendeinem Moment an keine Privatspäre mehr haben will, sondern darum, ob man selbst und andere von der Teilnahme an einem solchen Service profitieren. Bei allen Formen des Wissenaustauschs profitiert man eindeutig von diesen Möglichkeiten, und warum soll man nicht im Netz auch persönliche Beziehungen beginnen? Dazu muss man immer auch etwas von sich freigeben, nicht nur im Netz.

  3. Man kann den Risiken, die mit Web 2.0-Anwendungen verknüpft sind, nicht dadurch begegnen, dass man auf sie verzichtet. Es ist nicht nur eine Frage von Gesetzen, sondern eine Sache der Liberalität und Toleranz einer Gesellschaft, jedem die Möglichkeit zu geben, sich auch in einer provozierenden und ungewohnten Art zu äußern. Wenn Bewerber um Jobs benachteiligt werden, weil Party-Fotos von ihnen im Netz kursieren, gehören nicht facebook und StudiVZ in den Orkus, sondern die dafür verantwortlichen Personalabteilungen.

Ich will die Gefahren, die mit der Verarbeitung einer Unmenge von persönlichen Daten verbunden sind, nicht ignorieren. Ich bin strikt gegen die Versuche (etwa der deutschen Minister Schäuble und von der Leyen) den kompletten Datenverkehr zu überwachen — dahinter stehen totalitäre Phantasien. Aber ich bin auch dagegen, ensthaft über digitale Burkas zu diskutieren oder sie jungen Leuten zu empfehlen. Eine freie Gesellschaft lebt davon, dass ihre Mitglieder sich äußern und sich zeigen — ich möchte dazu ermutigen, statt davor zu warnen.

Durch Amy Gahrans Artikel über Useful Firefox Add-ons for Journalists bin ich auf einen nicht mehr ganz neuen Service aufmerksam geworden, der mir sehr nützlich vorkommt: Mit Rollyo kann man sich Suchmaschinen für eine bestimmte Gruppe von Quellen selbst zusammenbauen. Da ich mich gerade auf die Tagung Zukunft der Online-PR vorbereite, habe ich mir eine Suchmaschine gebaut, die vor allem Blogs meines Vertrauens zum Thema Online-PR durchsucht: Online PR Search Engine. Wer will, kann sie benutzen. Rollyo wirbt mit Customized Search Engines prominenter Autoren, so einer von Jeff Jarvis zum Media Buzz. Man kann sich für jede dieser Suchmaschinen ein Firefox-Search-Plugin anlegen und hat sie damit ständig im Browser zur Verfügung.

Je größer die Zahl der Seiten zu einem Thema wird, die von den großen Suchmaschinen indiziert werden, desto wichtiger dürften Dienste wie Rollyo werden. Ich habe zum Thema RSS und PR jedenfalls gleich einige interessante Ergebnisse erhalten.

Rollyo nimmt einem nur die Arbeit ab, selbst eine Reihe von Such-Operatoren zu verketten, aber das in einer sehr durchdachten und bequemen Weise. Die Ergebnisse liefert die Yahoo-Suche. Ähnliche Funktionen bietet zum Beispiel Lijit an, aber dort für ein bestimmtes Blog, dessen Blogroll sich ergänzend durchsuchen lässt.

[Mark Buzinkay hat Rollyo und ähnliche Angebote genauer beschrieben: Rollyo: individuelle Suchdienste ruck-zuck und Individuelle Suchdienste mit wenigen Handgriffen erstellt.]

Ich wollte heute über die neue Site des Weißen Hauses schreiben, aber es ist darüber schon so viel publiziert worden, dass es mir noch nicht gelungen ist, die interessantesten Posts zu der Site auch nur zu lesen. Da ich nicht naiv drauflosschreiben möchte, hier vor allem ein paar Hinweise.

Trotzdem kurz meine persönliche Meinung: Ich finde wie Dave Winer die Site enttäuschend. Vom Anspruch auf Wechsel ist nicht viel zu merken. Man kann nicht kommentieren, und man kann auch nicht anders teilnehmen. Winer hat recht, wenn er schreibt, dass vor dem Auftritt ein Schild mit der Aufschrift Bitte warten! zu hängen scheint, und wenn er von corporate cowardice (das könnte man mit Firmen-Feigheit übersetzen) spricht.

Mich stört am meisten, dass die Site nicht aktuell ist. In den ORF-Nachrichten heute habe ich wesentlich mehr über den ersten Tag Obamas im Amt erfahren als auf der Site des Präsidenten. Das ist schwer zu begreifen.

Allerdings wird schon angekündigt, dass Gesetzesvorhaben auf der Site diskutiert werden sollen:

One significant addition to WhiteHouse.gov reflects a campaign promise from the President: we will publish all non-emergency legislation to the website for five days, and allow the public to review and comment before the President signs it [The White House – Blog Post – Change has come to WhiteHouse.gov].

Offenbar hat ein neues Team die Site erstellt, nicht die Agentur, die noch hinter Change.gov. stand (siehe das unten verlinkte Post von Tim O’Reilly). Vieles ist nicht fertig, nicht einmal das Registrierungsformular. Dass die Site mit Microsoft-Software betrieben wird, trägt irgendwie zu dem Eindruck bei, dass es sich um eine Auftragsproduktion handelt und nicht um ein Kommunikationsmittel.

Reaktionen auf die neue Site

Die treffendste Analyse stammt aus meiner Sicht von Dave Winer — The White House website:

But whitehouse.gov violates the most basic rule — „People come back to places that send them away.“ The White House should send us to places where our minds will be nourished with new ideas, perspectives, places, points of view, things to do, ways we can make a difference. It must take risks, because that is reality — we’re all at risk now — hugely.

Winer verweist auf die Artikel bei Spiegel Online (ausführlich, viele weitere Quellen) und in der New York Times, die wiederum einige interessante Stimmen zitiert.

Positives Feedback gibt es von Tim O’Reilly:

Not only did the Web 2.0 principles of user-engagement, viral outreach, rapid development, and real-time intelligence help Obama to win the presidency, he’s bringing the same principles and the same team to manage his outreach during his time in office [change.gov Becomes whitehouse.gov – O’Reilly Radar].

Jason Kottke hat sofort festgestellt, dass — im Gegensatz zum bisherigen Auftritt — alle Inhalte für Suchmaschinen zugänglich sind: The country’s new robots.txt file.

Ein Signal der Veränderung ist es übrigens, dass sich die Mainstream-Medien sofort mit der neuen Site beschäftigten. Als Mittel der Repräsentation von Politik hat das Web die anderen Medien inzwischen eingeholt.

Astrid Schwarz hat Helge und mich für Ö1 gefragt, woran man erkennt, ob Weblogs glaubwürdig sind [als Download hier, vorher ähnlich auf fm4 gesendet]. Ich habe ziemlich unvorbereitet geantwortet, und ich muss zugeben, dass ich über die Frage der Glaubwürdigkeit von Blogs und anderen Online-Quellen viel zu wenig nachgedacht habe. Vor allem wenn sie journalistisch ernst genommen werden wollen, müssen Blogs in einer nachvollziehbaren Weise auf die Glaubwürdigkeit ihrer Inhalte geprüft werden können. Übrigens spielt die Frage der Glaubwürdigkeit auch eine entscheidende Rolle bei der Diskussion des Verhältnisses von Journalismus und PR. PR kann nur dann behaupten, mehr als manipulativ zu sein, wenn sie ihre Glaubwürdigkeit ausweisen kann.

Glaubwürdigkeit ist wohl eine Qualität, die es nur innerhalb von bestimmten sozialen Gruppen gibt, und sie ist immer an so etwas wie Prüfungs- und Autorisierungsverfahren gebunden. Mit diesen kollektiven Praktiken — die sich von technischen Praktiken nicht trennen lassen — muss man sich beschäftigen, wenn man über die Glaubwürdigkeit von Online-Quellen nachdenkt. Es spricht viel dafür, dass für Online-Publikationen noch Verfahren entwickelt werden müssen, die denen der klassischen Massenmedien entsprechen. (Was nicht heisst, dass Online-Medien nicht auch nach herkömmlichen Kriterien glaubwürdig sein können, und auch nicht, dass die herkömmlichen Medien diesen Kriterien immer oder auch nur meist entsprechen.)

Dass Menschen, die nur die Arbeitsweise klassischer Medien kennen, Probleme mit der Glaubwürdigkeit von Weblogs haben, hängt zu einem großen Teil damit zusammen, dass sie die Regeln der sozialen Gruppen nicht kennen, die Weblogs schreiben und lesen. Wer sich mit Blogs auskennt, hat eine Reihe von Anhaltspunkten dafür, ob man einer Autorin oder einem Autor trauen kann oder nicht: Kommentare, Links, Technorati-Autorität usw. Leute, die wie Armin Thurnher das Internet als Medium nicht ernst nehmen, beherrschen diese Regeln in der Regel nicht, ihnen ist das Internet als soziale Realität fremd — so wie übrigens auch vielen Bloggern die soziale Realität der älteren Medien und ihre Regeln fremd sind. Sinn dieser Regeln ist es zum einen, die Wahrheit von Behauptungen zu prüfen und zum anderen Personen Glaubwürdigkeit zuschreiben zu können, die solche Prüfungsverfahren anwenden.

Diese Regeln der Glaubwürdigkeit sind aber nicht einfach Konventionen unterschiedlicher sozialer Gruppen, sie sind an Technologien und Infrastrukturen gebunden, die sich bei Massenmedien und sozialen Medien deutlich unterscheiden. Innerhalb eines bestimmten technologischen und sozialen Rahmens wurden und werden Verfahren entwickelt, mit denen sich die Wahrheit von Aussagen überprüfen lässt, und mit denen sich die Glaubwürdigkeit von Personen, die Aussagen machen, bewerten lässt. (Personen, die bestimmte Verfahren nicht anwenden oder nicht auf sich anwenden lassen, sind nicht glaubwürdig.) Zum herkömmlichen Journalismus gehören solche Verifikationsverfahren (vom check, cross-check, double-check! bis zur Interviewtechnik), die von Bloggern mit journalistischem Anspruch übernommen werden. Tatsächlich gibt es aber in der Blogosphäre nur sehr simple Verfahren, um Personen oder Publikationen Glaubwürdigkeit zuzusprechen — im Wesentlichen beruhen sie auf der Autorität einer Person unter Bloggern, und damit setzen sie möglicherweise das voraus, was sie bestätigen sollen.

Vor diesem Hintergrund finde ich Tim Berners-Lees Versuche, den Wahrheitsgehalt von Online-Quellen bewertbar zu machen und in Publikationen zu deklarieren, wie sie produziert wurden (also z.B. ob und wie Fotos bearbeit wurden) nicht so naiv oder abwegig, wie sie vielen erschienen sind. Es muss Möglichkeiten geben, Personen und Publikationen an Kriterien der Vertrauenswürdigkeit zu messen, nicht um das Web Autoritäten zu unterwerfen, sondern um im Web dezentral Glaubwürdigkeit zuschreiben zu können.

Diese Überlegungen sind sehr provisorisch. Beim Schreiben erscheint es mir immer wahrscheinlicher, dass Verfahren zur Feststellung/Zuschreibung von Glaubwürdigkeit eines der wichtigsten Themen bei der weiteren Entwicklung von sozialen Medien bilden werden.

Heute ist Inauguration Day. Seit der Wahl François Mitterrands 1981 habe ich mich nicht mehr so über ein Wahlergebnis gefreut wie über die Wahl Obamas. (1981 war ich in Paris und konnte abends selbst mit auf der Bastille feiern.) Nicht nur deshalb ein paar Bemerkungen zu Obama: Welche Auswirkungen könnte seine Regierung auf das Internet und die Online-Medien hier bei uns haben?

Obama wird die Internetwirtschaft energisch förden; die Sicherung der Neutralität des Netzes und ein schneller Internetzugang für alle Bürger gehören zu seinen wichtigsten Zielen. Die europäischen Länder werden sich anstrengen müssen mitzuhalten, und auch hier wird mehr Geld in den Ausbau der Infrastruktur und die Internetwirtschaft fließen. Aber nicht nur damit dürfte die neue Administration auch Europa Inpulse geben. Sie wird auch bewirken, dass die Funktionen des Internet für die Öffentlichkeit in Europa besser verstanden werden.

Obama wäre ohne das Internet nicht gewählt worden — nicht nur, weil YouTube, facebook und Twitter wichtige Instrumente seiner Kampagne waren, sondern weil seine zentrale Botschaft in das Internet-Zeitalter gehört: Politik kann in direktem Dialog mit der Bevölkerung stattfinden; die eingerosteten Apparate der Repräsentation (Parlamentarismus, Massenmedien) haben kein Monopol mehr auf die politische Kommunikation.

Gestern hat AFP publiziert, dass die für den Übergang eingerichtete Website Change.gov ab heute abend unter whitehouse.gov erreichbar sein wird.

The new whitehouse.gov is expected to be the window for what is being touted as a bold experiment in interactive government based largely on lessons learned during the most successful Internet-driven election campaign in history [AFP: Change.gov coming to the White House].

Wenn die amerikanische Regierung das Web als politisches Kommunikations- und Entscheidungsinstrument benutzt, wird man Forderungen nach eine Wiki-Politik und nach Publikation aller für die Regierung und Verwaltung wichtigen Dokumente und Vorgänge im Web auch hier nicht mehr als exotisch abtun können. Der Druck auf Einsicht durch die Bürger und Mitentscheidung durch die Bürger jenseits der Parteibürokratien wird zunehmen. Damit würden nicht nur demokratische Rechte verwirklicht; Politik und öffentliche Verwaltung würden vor allem effizienter, schneller und sachgerechter arbeiten.

Das Gegenargument liegt auf der Hand: Obama werde nicht umsetzen, was er versprochen hat. Schon die Besetzung seiner Regierung zeige, dass er ähnlich regieren werde wie seine Vorgänger. Ich glaube, dass dieses Argument zu billig ist (und ich hoffe, dass ich nicht enttäuscht werde). Obama muss zu unorthodoxen Mitteln greifen, weil die Amerikaner so viel von seiner Regierung erwarten und weil die wirtschaftliche Lage so schwierig ist. Er hat viel vom Internet verstanden und muss es intensiv verwenden, wenn sich seine Regierung nicht sehr schnell abnutzen soll.

Ich kann mir nicht vorstellen, dass wie in vier Jahren in Österreich noch so groteske Diskussionen führen wie die über das Scheiß-Internet oder darüber, ob man das Internet als Medium ernst nehmen könne.

Ich habe am Wochenende einige Texte gelesen, die sich mit den Folgen der Finanzkrise beschäftigen, vor allem A User’s Guide to 21st Century Economics von Umair Haque und Work on Stuff that Matters von Tim O’Reilly. Sie beziehen sich nicht aufeinander, aber sie zielen in dieselbe Richtung: Die aktuelle Wirtschaftskrise als Anlass zu nutzen, die Konsumgesellschaft als solche in Frage zu stellen und zu überwinden — also eine Wirtschaft, die darauf basiert, immer mehr und immer billigere Konsumgüter zu produzieren und die Kosten dafür den ärmeren Ländern und den nächsten Generationen aufzubürden.

Continue reading

Water_interface

Video im Web unterschied sich vom Video im Fernsehen bisher vor allem dadurch, dass man entscheiden kann, wann man es sehen will, und dass man es kommentieren und weiterempfehlen kann. Interaktivität im Video selbst ist selten — nicht, weil die technischen Möglichkeiten fehlen, sondern weil es fast niemand schafft, das lineare Erzählen einer Geschichte im Video so mit Interaktivität zu verbinden, dass weder die Erzählung noch die Interaktionsmöglichkeiten darunter leiden.

Zach Wise ist auf diesem Gebiet ein Durchbruch gelungen, und zwar zuerst mit einem interaktiven Video über die Wasserknappheit in der Gegend von Las Vegas für die Website der Las Vegas Sun. (Bereits vorher ist bei der New York Times das nicht weniger interessante Choosing a President erschienen, an dem Zach, der inzwischen zur Times gewechselt ist, maßgeblich beteiligt war. Dieses Video, dessen Produktion Zach genau erläutert, ist ein eigenes Post wert; siehe dazu Tracy Boyer.)

Tracy Boyer schreibt zu Thirst in the Mojave:

Wise takes storytelling to a completely new level with the introduction of interactive videos.

Zach erzählt linear, dabei ist das 22minütige Video in 5 Segmente geteilt. Eine durch Mouseover einblendbare Timeline oben orientiert die Benutzerin darüber, wo sie sich befindet, und ermöglicht es, an jede Stelle zu springen. Unten wird in zwei Fenstern zusätzliche Information geboten, links durch eine — aufzoombare — Karte, rechts durch anklickbares zusätzliches Text- und Videomaterial. Durch Klicken auf die eingeblendeten Namen von Interviewpartnern wird deren Kurzbiografie aufgeklappt. Alle Einstellungen des Videos sind geocodiert; auf der Karte links unten sieht man, wo gedreht wurde. Außerdem ist das Feature noch mit einer Datenbank zur Wassersituation in der Region verbunden. Zach Wise beschreibt detailliert, wie das Feature funktioniert und wie es produziert wurde.

Die Leistung von Zach Wise besteht darin, dass die zusätzlichen Informationen als Abzweigungen von einem Weg angeboten werden, zu dem man immer wieder zurückkehren kann, und der auch immer sichtbar bleibt. Man verliert nie die Orientierung, weder visuell noch in der zeitlichen Abfolge der Erzählung. Dabei wird ein kontroverser Sachverhalt journalistisch aufgearbeitet. Es wird sinnlich vermittelt, was passiert, und es wird sehr viel, aber nicht zu viel Hintergrundinformation geboten. Bravourös macht Wise vor, wie durch visuellen Linkjournalismus eine Geschichte in ihrem Zusamenhang erzählt werden kann [via News Videographer].

Zwei neue Websites informieren über Werkzeuge für Onlinejournalisten: Tools for News und Journalists Toolkit. Beide füllen eine Lücke: Bisher ist es sehr schwierig, halbwegs darüber auf dem Laufenden zu bleiben, was im Onlinejournalismus technisch state of the art ist. Beide sind als work in progress angelegt: Das Journalists Toolkit liegt erst in einer frühen, noch nicht designten Beta-Version vor. Bei den Tools for News können sich alle Interessierten registrieren und die Seite ergänzen. Die Devise ist:

Don’t be a tool. Use one.

Die Tools for News sind ein Katalog von Werkzeugen für Onlinejournalisten, gegliedert nach Kategorien — von Audio bis Workflow. Das Journalists Toolkit ist eine Trainings-Site, die vor allem auf Tutorials hinweist. Es gibt weniger Kategorien als bei den Tools, die Gliederung ist aber ähnlich. Beide Sites ergänzen sich also: Die eine bietet Überblick und aktuelle Information, die andere Einführungen und hoffentlich bald auch Best Practice-Beispiele. Die Tools for News kann man als Feed abonnieren.

Hinter den Tools for News steht Chris Amico, der in seinem Blog beschreibt, wie er die Site entwickelt hat (mit dem Web-Framework Django, bei dem man Module sehr leicht wiederverwenden kann). Amico gehört zum Netzwerk Wired Journalists, das ich ebenfalls empfehlen möchte. Es entwickelt sich gerade zu einem der wichtigsten Diskussionsforen über Onlinejournalismus

Auf die Tools for News bin ich über Michael Thurms Bookmarks und Dirk von Gehlen. gestoßen. Leute wie Ryan Sholin und Matt Thompson sind von der Initiative begeistert.

Mindy McAdams betreibt das Journalists Toolkit. Sie lehrt seit 10 Jahren an der Universität von Florida Onlinejournalismus und teilt ihr Wissen in dem Blog Teaching Online Journalism, das nicht nur Lehrende dieses Faches lesen sollten.

Für deutschsprachige Journalisten und Studenten ist es leider noch nicht selbstverständlich, englische Websites zu verfolgen. Außerdem gibt es auch viele gute Tutorials und Einführungen für Onlinejournalisten in deutscher Sprache. Vielleicht lohnen sich deutsche Adaptionen?