Ich lese gerade Neue Wissensordnungen von Olaf Breidbach.

Im Unterricht verwende ich manchmal das Begriffstripel DatenInformationWissen, das wohl auf Russell L. Ackoff zurückgeht. Bisher habe ich immer versucht, alle drei in einer Art Linie zu verstehen, so wie sie etwa in dieser Grafik gezeigt werden. Nach der Lektüre der ersten Kapitel Breidbachs frage ich mich, ob diese Begriffe nicht eher zu unterschiedlichen Kategorien gehören, vor allem, ob man nicht Wissen als die Fähigkeit verstehen kann, mit gegenwärtigen und zukünftigen Informationen umzugehen. Wissen besteht dann nicht aus Informationen, sondern es basiert allenfalls auf ihnen. (Und Informationen sind nicht kontextualisierte Daten, sonderen Mitteilungen von Daten.)

Damit referiere ich nicht Breidbachs Wissensbegriff; Breidbach spricht vom Wissen als interpretierter Information.

Ich meine damit nicht, dass man Wissen schlechthin als eine Fähigkeit definieren kann, sondern dass ein solches Verständnis dieses Begriffs heute sinnvoll sein könnte. Ich gehe mit der These, dass Wissen in der Fähigkeit besteht, mit vergangenen und zukünftigen Informationen umzugehen, an die weitere Lektüre von Breidbachs Buch.

Wenn diese These sich aufrechterhalten lässt, dann würde sich ergeben, dass man Wissen nicht vermitteln kann, indem man nur Informationen weitergibt. Wissen ließe sich nur weitergeben, indem man auch Praktiken vermittelt, und wäre immer an die Aktivität der Menschen, denen man es vermittelt, verbunden.

Ein solcher Begriff von Wissen widerstrebt unserem alltäglichen Verständnis wenigstens auf den ersten Blick: Wir sagen, dass jemand viel weiß, wenn er viele Informationen über etwas hat, wenn er viel gelernt hat. Andererseits setzt man auch im alltäglichen Gebrauch wissen nicht damit gleich, über viele Informationen zu verfügen. Man würde nicht sagen, dass jemand, der ein komplettes Lexikon wiedergeben kann, viel weiß. Von wissen spricht man erst, wenn er die Informationen in neuen Situationen anwenden kann. Zum Wissen gehören wohl die Aspekte der Anwendung, des Neuen und der Situation oder Situiertheit. (Abgesehen vom sozialen Aspekt: Vielleicht kann man nur in einer Gruppe oder als Mitglied einer Gruppe etwas wissen.)

Mir ist klar, dass ich hier möglicherweise nur den Nordpol wiederentdecke. Aber im Alltag, für mich z.B. im Unterricht, ist es nicht unwichtig, sich diese Basics klarzumachen. Außerdem lässt sich durch eine Klärung des Begriffs Wissen möglicherweise verstehen, dass ein bloßes Mehr an Information nicht nur nicht zu einem Mehr an Wissen führt, sondern im Gegenteil die Entwicklung von Wissen als der Fähigkeit, die Informationen zu verarbeiten, behindern kann.

Heute nehme ich in Dieburg an der Tagung Zukunft Online-PR 2009. Zur Vorbereitung des Workshops RSS – Inhalte jenseits der Website zugänglich machen, den ich dort am Nachmittag moderiere, hier eine Mindmap:

(Direktes Linkzur Mindmap)

Als Diskussionsgrundlage habe ich fünf Thesen formuliert.

  1. Newsfeeds sind eine Form der Benutzer-zentrierten Content-Distribution. Sie unterstützen das Vendor Relationship Management bei Medien und gehören zu den Werkzeugen der PR jenseits der Massenmedien.

  2. RSS existiert schon lange, wird aber vor allem von Profis und Info-Junkies intensiv verwendet. Newfeeds sind ein wichtiges Tool vor allem für die Ansprache professioneller Zielgruppen.

  3. Die PR kann und sollte alle Anwendungsmöglichkeiten von RSS nutzen — außer dem Publish-Subscribe-Mechanismus auch das Aggregieren, Filtern und Mashing up von Feeds.

  4. Die PR kann und sollte das ganze Spektrum der Inhalte verwenden, die über Feeds verteilt werden können: außer Texten und Medien (Podcasts) z.B. auch Eventdaten und geografische Informationen.

  5. Newsfeeds gehören zum zweiten Layer der Publikationsformate im Web; sie erweitern das erste Layer (HTML) und funktionieren zusammen mit ihm. Ein drittes Layer, das von Twitter und XMPP repräsentiert wird, entsteht gerade und erlaubt das Live Web oder Real Time Web.

Mindmap und Thesen werde ich heute vielleicht noch erweitern; ich hoffe auf ein spannendes Gespräch.

In Frankreich hat die Zeitschrift Le Tigre einen Mann ohne seine Zustimmung porträtiert und dazu ausschließlich Daten aus Web-Diensten wie YouTube und facebook benutzt: Französischer Internetnutzer unfreiwillig in Zeitschrift porträtiert. Auf der Website der Zeitschrift findet sich in der Rubrik Portrait Google übrigens nur der Hinweis darauf, dass sich die Zeitschrift nicht an der medialen Aufregung über die Geschichte beteiligen wolle, und dass sie zwischen der realen Person (die offenbar gegen den Artikel geklagt hat) und einer medialen Kunstfigur unterscheide.

Mich interessiert hier nicht die reale Geschichte hinter der Meldung (sie hat offenbar auch die Medien wie den Standard nicht interessiert, die sich auf Agenturmeldungen verlassen haben und nicht einmal auf die Zeitschrift verlinken.) Mich interessiert das Publikumsinteresse, dem sie ihren Nachrichtenwert verdankt. Die Meldung bedient das dumpfe Unbehagen an Google, facebook usw., die in unsere Privatsphäre eindringen. Immer wieder höre ich von Bekannten, man müsse ja nicht alles veröffentlichen; zwei meiner Kollegen haben mich sogar gebeten, ihnen keine Mails via GMail zu schicken.

Ich bin mit diesem Thema (Datenschutz und Web 2.0) nicht fertig, und ich schreibe auch aus einem dumpfen Gefühl heraus: Ich habe den Eindruck, dass es vielen, die sich über Suchmaschinen und soziale Netze beklagen, gar nicht um Datenschutz geht, sondern darum, sich vor der unheimlichen Welt des Netzes zu schützen und möglichst lange bei den gewohnten Formen der Kommunikation und Publikation zu bleiben (so wie die Verlage, die das Netz über Jahre ignoriert haben und dann jammern, weil Google ihre Bücher digitalisieren will.)

Ich möchte drei Gedanken formulieren, die mir bei der Diskussion dieses Themas wichtig sind, und die sicher nicht ausreichen, um hier eine Position zu begründen:

  1. Wer im Internet publiziert, publiziert. Wer Facebook, Twitter oder irgendeinen anderen Service benutzt, um etwas über sich zu veröffentlichen, gibt weder ihnen noch anderen damit einen Zugang zu seiner Privatsphäre, sondern verlässt die Privatsphäre. Er oder sie muss sich genauso überlegen, wie er sich und andere schützt, wie es sich jeder Autor von Büchern immer schon überlegt hat. Es ist schlicht viel leichter geworden, etwas zu publizieren, aber natürlich bleibt es eine persönliche Entscheidung, Daten von sich bei diesen Diensten freizugeben.

  2. Web 2.0-Anwendungen bieten einen konkreten Nutzen, der ohne Publikation von Daten nicht zu haben ist. Es geht nicht darum zu entscheiden, ob man von irgendeinem Moment an keine Privatspäre mehr haben will, sondern darum, ob man selbst und andere von der Teilnahme an einem solchen Service profitieren. Bei allen Formen des Wissenaustauschs profitiert man eindeutig von diesen Möglichkeiten, und warum soll man nicht im Netz auch persönliche Beziehungen beginnen? Dazu muss man immer auch etwas von sich freigeben, nicht nur im Netz.

  3. Man kann den Risiken, die mit Web 2.0-Anwendungen verknüpft sind, nicht dadurch begegnen, dass man auf sie verzichtet. Es ist nicht nur eine Frage von Gesetzen, sondern eine Sache der Liberalität und Toleranz einer Gesellschaft, jedem die Möglichkeit zu geben, sich auch in einer provozierenden und ungewohnten Art zu äußern. Wenn Bewerber um Jobs benachteiligt werden, weil Party-Fotos von ihnen im Netz kursieren, gehören nicht facebook und StudiVZ in den Orkus, sondern die dafür verantwortlichen Personalabteilungen.

Ich will die Gefahren, die mit der Verarbeitung einer Unmenge von persönlichen Daten verbunden sind, nicht ignorieren. Ich bin strikt gegen die Versuche (etwa der deutschen Minister Schäuble und von der Leyen) den kompletten Datenverkehr zu überwachen — dahinter stehen totalitäre Phantasien. Aber ich bin auch dagegen, ensthaft über digitale Burkas zu diskutieren oder sie jungen Leuten zu empfehlen. Eine freie Gesellschaft lebt davon, dass ihre Mitglieder sich äußern und sich zeigen — ich möchte dazu ermutigen, statt davor zu warnen.

Durch Amy Gahrans Artikel über Useful Firefox Add-ons for Journalists bin ich auf einen nicht mehr ganz neuen Service aufmerksam geworden, der mir sehr nützlich vorkommt: Mit Rollyo kann man sich Suchmaschinen für eine bestimmte Gruppe von Quellen selbst zusammenbauen. Da ich mich gerade auf die Tagung Zukunft der Online-PR vorbereite, habe ich mir eine Suchmaschine gebaut, die vor allem Blogs meines Vertrauens zum Thema Online-PR durchsucht: Online PR Search Engine. Wer will, kann sie benutzen. Rollyo wirbt mit Customized Search Engines prominenter Autoren, so einer von Jeff Jarvis zum Media Buzz. Man kann sich für jede dieser Suchmaschinen ein Firefox-Search-Plugin anlegen und hat sie damit ständig im Browser zur Verfügung.

Je größer die Zahl der Seiten zu einem Thema wird, die von den großen Suchmaschinen indiziert werden, desto wichtiger dürften Dienste wie Rollyo werden. Ich habe zum Thema RSS und PR jedenfalls gleich einige interessante Ergebnisse erhalten.

Rollyo nimmt einem nur die Arbeit ab, selbst eine Reihe von Such-Operatoren zu verketten, aber das in einer sehr durchdachten und bequemen Weise. Die Ergebnisse liefert die Yahoo-Suche. Ähnliche Funktionen bietet zum Beispiel Lijit an, aber dort für ein bestimmtes Blog, dessen Blogroll sich ergänzend durchsuchen lässt.

[Mark Buzinkay hat Rollyo und ähnliche Angebote genauer beschrieben: Rollyo: individuelle Suchdienste ruck-zuck und Individuelle Suchdienste mit wenigen Handgriffen erstellt.]

Wenn man Ted Nelson fast nur indirekt kennt — als Erfinder des Ausdrucks Hypertext und als Sonderling, der nicht verwunden hat, dass das WWW viel primitiver ist als das von Nelson konzipierte System — ist man von Nelsons neuem Buch überrascht: Nelson weist zwar auch auf sich und seine Leistungen hin, aber nur sehr zurückhaltend und nicht im Detail. Wenn ich es nicht übersehen habe, ist z.B. von Transklusionen nur einmal die Rede. (Transklusionen gehören wie bidirektionale Links zum Hypertext im Sinne Nelsons.)

Cover des Buchs

Nelson will in diesem Buch nicht seine eigenen Theorien vorstellen, sondern er will zeigen, dass die Computerwelt, wie wir sie kennen — vom PC auf dem Schreibtisch bis zum WWW — historisch geworden ist, überall auf Entscheidungen zurückgeht, die oft politisch oder wirtschaftlich motiviert waren, und dass sie deshalb auch nur historisch zu erklären ist. Nelson schreibt witzig und für ein breites Publikum; sein Buch ist eine gute Einführung in die Geschichte des Computing. Schwierige Konzepte versucht er nicht populär zu erklären, sondern er weist nur auf sie hin. Die Leserin oder der Leser soll erkennen, dass nichts von dem, was uns heute im Computing selbstverständlich erscheint, natürlich und technisch notwendig ist; alles hätte auch anders kommen können, und auch heute ist die Zukunft offen.

Die Geschichte, die Nelson erzählt, beginnt mit der Einführung von Hierarchien:

Hierarchy is the official metaphysic of the computer world.

Die karolingische Minuskel (mit der Nelson die Einführung von URLs durch Tim Berners-Lee vergleicht) spielt in ihr eine ebenso wichtige Rolle wie die Erfindung von Satzzeichen und Lochkarten. Die Kapitelzählung beginnt im negativen Bereich mit dem Kapitel -27; erst mit Unix und dem Jahr 1970 ist das Kapitel 1 erreicht: Unix ist die Basis des heutigen Computing und des Internets. (Für Nelsons Xanadu ist das Kapitel -11 reserviert.) Mit Social Networks und Second Life ist im Kapitel 20 die Gegenwart erreicht: Auch bei ihnen handelt es sich, wie bei allen Schritten vor ihnen, um Konstrukte, nicht um quasi natürliche Realitäten.

Für mich hat Nelsons Methode etwas Nietzscheanisches: Er erzählt eine Genealogie, so wie Nietzsche die Genealogie der Moral erzählt hat. Erzählt wird von Phänomenen, denen sich nicht einfach ausweichen lässt, die man aber verdrehen, ironisieren und subvertieren kann, mit einer gaya scienza, die bei Nelson eine unfeierlich-nerdige Gestalt annimmt.

Den eigentlichen Reiz des Buchs macht die Fülle von Fakten, Beobachtungen und Reflexionen aus, oft aus der Perspektive eines Beteiligten oder eines persönlichen Bekannten der Beteiligten berichtet. Wenige Portraits in Nelsons Buch sind mit so viel Sympathie ausgeführt wie das von Richard Stallman, dem Gründer der Free Software Foundation und Erfinder von GNU/Linux.

Viele Schüler und Studenten bekommen durch Bücher wie Weischedels Philosophische Hintertreppe einen Zugang zur Philosophie. Ich kann mir vorstellen, dass durch Nelsons Buch auch Nichtinformatiker einen Zugang zum Computing als sozialem und historischen Phänomen erhalten. Dabei wird ihnen ein kritischer, aber nicht verbitterter Blick auf die Geschichte vermittelt — und die Lust daran zu zeigen, dass die Metaphysiken der Hierarchie nicht unausweichlich sind.

Ich wollte heute über die neue Site des Weißen Hauses schreiben, aber es ist darüber schon so viel publiziert worden, dass es mir noch nicht gelungen ist, die interessantesten Posts zu der Site auch nur zu lesen. Da ich nicht naiv drauflosschreiben möchte, hier vor allem ein paar Hinweise.

Trotzdem kurz meine persönliche Meinung: Ich finde wie Dave Winer die Site enttäuschend. Vom Anspruch auf Wechsel ist nicht viel zu merken. Man kann nicht kommentieren, und man kann auch nicht anders teilnehmen. Winer hat recht, wenn er schreibt, dass vor dem Auftritt ein Schild mit der Aufschrift Bitte warten! zu hängen scheint, und wenn er von corporate cowardice (das könnte man mit Firmen-Feigheit übersetzen) spricht.

Mich stört am meisten, dass die Site nicht aktuell ist. In den ORF-Nachrichten heute habe ich wesentlich mehr über den ersten Tag Obamas im Amt erfahren als auf der Site des Präsidenten. Das ist schwer zu begreifen.

Allerdings wird schon angekündigt, dass Gesetzesvorhaben auf der Site diskutiert werden sollen:

One significant addition to WhiteHouse.gov reflects a campaign promise from the President: we will publish all non-emergency legislation to the website for five days, and allow the public to review and comment before the President signs it [The White House – Blog Post – Change has come to WhiteHouse.gov].

Offenbar hat ein neues Team die Site erstellt, nicht die Agentur, die noch hinter Change.gov. stand (siehe das unten verlinkte Post von Tim O’Reilly). Vieles ist nicht fertig, nicht einmal das Registrierungsformular. Dass die Site mit Microsoft-Software betrieben wird, trägt irgendwie zu dem Eindruck bei, dass es sich um eine Auftragsproduktion handelt und nicht um ein Kommunikationsmittel.

Reaktionen auf die neue Site

Die treffendste Analyse stammt aus meiner Sicht von Dave Winer — The White House website:

But whitehouse.gov violates the most basic rule — „People come back to places that send them away.“ The White House should send us to places where our minds will be nourished with new ideas, perspectives, places, points of view, things to do, ways we can make a difference. It must take risks, because that is reality — we’re all at risk now — hugely.

Winer verweist auf die Artikel bei Spiegel Online (ausführlich, viele weitere Quellen) und in der New York Times, die wiederum einige interessante Stimmen zitiert.

Positives Feedback gibt es von Tim O’Reilly:

Not only did the Web 2.0 principles of user-engagement, viral outreach, rapid development, and real-time intelligence help Obama to win the presidency, he’s bringing the same principles and the same team to manage his outreach during his time in office [change.gov Becomes whitehouse.gov – O’Reilly Radar].

Jason Kottke hat sofort festgestellt, dass — im Gegensatz zum bisherigen Auftritt — alle Inhalte für Suchmaschinen zugänglich sind: The country’s new robots.txt file.

Ein Signal der Veränderung ist es übrigens, dass sich die Mainstream-Medien sofort mit der neuen Site beschäftigten. Als Mittel der Repräsentation von Politik hat das Web die anderen Medien inzwischen eingeholt.

Astrid Schwarz hat Helge und mich für Ö1 gefragt, woran man erkennt, ob Weblogs glaubwürdig sind [als Download hier, vorher ähnlich auf fm4 gesendet]. Ich habe ziemlich unvorbereitet geantwortet, und ich muss zugeben, dass ich über die Frage der Glaubwürdigkeit von Blogs und anderen Online-Quellen viel zu wenig nachgedacht habe. Vor allem wenn sie journalistisch ernst genommen werden wollen, müssen Blogs in einer nachvollziehbaren Weise auf die Glaubwürdigkeit ihrer Inhalte geprüft werden können. Übrigens spielt die Frage der Glaubwürdigkeit auch eine entscheidende Rolle bei der Diskussion des Verhältnisses von Journalismus und PR. PR kann nur dann behaupten, mehr als manipulativ zu sein, wenn sie ihre Glaubwürdigkeit ausweisen kann.

Glaubwürdigkeit ist wohl eine Qualität, die es nur innerhalb von bestimmten sozialen Gruppen gibt, und sie ist immer an so etwas wie Prüfungs- und Autorisierungsverfahren gebunden. Mit diesen kollektiven Praktiken — die sich von technischen Praktiken nicht trennen lassen — muss man sich beschäftigen, wenn man über die Glaubwürdigkeit von Online-Quellen nachdenkt. Es spricht viel dafür, dass für Online-Publikationen noch Verfahren entwickelt werden müssen, die denen der klassischen Massenmedien entsprechen. (Was nicht heisst, dass Online-Medien nicht auch nach herkömmlichen Kriterien glaubwürdig sein können, und auch nicht, dass die herkömmlichen Medien diesen Kriterien immer oder auch nur meist entsprechen.)

Dass Menschen, die nur die Arbeitsweise klassischer Medien kennen, Probleme mit der Glaubwürdigkeit von Weblogs haben, hängt zu einem großen Teil damit zusammen, dass sie die Regeln der sozialen Gruppen nicht kennen, die Weblogs schreiben und lesen. Wer sich mit Blogs auskennt, hat eine Reihe von Anhaltspunkten dafür, ob man einer Autorin oder einem Autor trauen kann oder nicht: Kommentare, Links, Technorati-Autorität usw. Leute, die wie Armin Thurnher das Internet als Medium nicht ernst nehmen, beherrschen diese Regeln in der Regel nicht, ihnen ist das Internet als soziale Realität fremd — so wie übrigens auch vielen Bloggern die soziale Realität der älteren Medien und ihre Regeln fremd sind. Sinn dieser Regeln ist es zum einen, die Wahrheit von Behauptungen zu prüfen und zum anderen Personen Glaubwürdigkeit zuschreiben zu können, die solche Prüfungsverfahren anwenden.

Diese Regeln der Glaubwürdigkeit sind aber nicht einfach Konventionen unterschiedlicher sozialer Gruppen, sie sind an Technologien und Infrastrukturen gebunden, die sich bei Massenmedien und sozialen Medien deutlich unterscheiden. Innerhalb eines bestimmten technologischen und sozialen Rahmens wurden und werden Verfahren entwickelt, mit denen sich die Wahrheit von Aussagen überprüfen lässt, und mit denen sich die Glaubwürdigkeit von Personen, die Aussagen machen, bewerten lässt. (Personen, die bestimmte Verfahren nicht anwenden oder nicht auf sich anwenden lassen, sind nicht glaubwürdig.) Zum herkömmlichen Journalismus gehören solche Verifikationsverfahren (vom check, cross-check, double-check! bis zur Interviewtechnik), die von Bloggern mit journalistischem Anspruch übernommen werden. Tatsächlich gibt es aber in der Blogosphäre nur sehr simple Verfahren, um Personen oder Publikationen Glaubwürdigkeit zuzusprechen — im Wesentlichen beruhen sie auf der Autorität einer Person unter Bloggern, und damit setzen sie möglicherweise das voraus, was sie bestätigen sollen.

Vor diesem Hintergrund finde ich Tim Berners-Lees Versuche, den Wahrheitsgehalt von Online-Quellen bewertbar zu machen und in Publikationen zu deklarieren, wie sie produziert wurden (also z.B. ob und wie Fotos bearbeit wurden) nicht so naiv oder abwegig, wie sie vielen erschienen sind. Es muss Möglichkeiten geben, Personen und Publikationen an Kriterien der Vertrauenswürdigkeit zu messen, nicht um das Web Autoritäten zu unterwerfen, sondern um im Web dezentral Glaubwürdigkeit zuschreiben zu können.

Diese Überlegungen sind sehr provisorisch. Beim Schreiben erscheint es mir immer wahrscheinlicher, dass Verfahren zur Feststellung/Zuschreibung von Glaubwürdigkeit eines der wichtigsten Themen bei der weiteren Entwicklung von sozialen Medien bilden werden.

Heute ist Inauguration Day. Seit der Wahl François Mitterrands 1981 habe ich mich nicht mehr so über ein Wahlergebnis gefreut wie über die Wahl Obamas. (1981 war ich in Paris und konnte abends selbst mit auf der Bastille feiern.) Nicht nur deshalb ein paar Bemerkungen zu Obama: Welche Auswirkungen könnte seine Regierung auf das Internet und die Online-Medien hier bei uns haben?

Obama wird die Internetwirtschaft energisch förden; die Sicherung der Neutralität des Netzes und ein schneller Internetzugang für alle Bürger gehören zu seinen wichtigsten Zielen. Die europäischen Länder werden sich anstrengen müssen mitzuhalten, und auch hier wird mehr Geld in den Ausbau der Infrastruktur und die Internetwirtschaft fließen. Aber nicht nur damit dürfte die neue Administration auch Europa Inpulse geben. Sie wird auch bewirken, dass die Funktionen des Internet für die Öffentlichkeit in Europa besser verstanden werden.

Obama wäre ohne das Internet nicht gewählt worden — nicht nur, weil YouTube, facebook und Twitter wichtige Instrumente seiner Kampagne waren, sondern weil seine zentrale Botschaft in das Internet-Zeitalter gehört: Politik kann in direktem Dialog mit der Bevölkerung stattfinden; die eingerosteten Apparate der Repräsentation (Parlamentarismus, Massenmedien) haben kein Monopol mehr auf die politische Kommunikation.

Gestern hat AFP publiziert, dass die für den Übergang eingerichtete Website Change.gov ab heute abend unter whitehouse.gov erreichbar sein wird.

The new whitehouse.gov is expected to be the window for what is being touted as a bold experiment in interactive government based largely on lessons learned during the most successful Internet-driven election campaign in history [AFP: Change.gov coming to the White House].

Wenn die amerikanische Regierung das Web als politisches Kommunikations- und Entscheidungsinstrument benutzt, wird man Forderungen nach eine Wiki-Politik und nach Publikation aller für die Regierung und Verwaltung wichtigen Dokumente und Vorgänge im Web auch hier nicht mehr als exotisch abtun können. Der Druck auf Einsicht durch die Bürger und Mitentscheidung durch die Bürger jenseits der Parteibürokratien wird zunehmen. Damit würden nicht nur demokratische Rechte verwirklicht; Politik und öffentliche Verwaltung würden vor allem effizienter, schneller und sachgerechter arbeiten.

Das Gegenargument liegt auf der Hand: Obama werde nicht umsetzen, was er versprochen hat. Schon die Besetzung seiner Regierung zeige, dass er ähnlich regieren werde wie seine Vorgänger. Ich glaube, dass dieses Argument zu billig ist (und ich hoffe, dass ich nicht enttäuscht werde). Obama muss zu unorthodoxen Mitteln greifen, weil die Amerikaner so viel von seiner Regierung erwarten und weil die wirtschaftliche Lage so schwierig ist. Er hat viel vom Internet verstanden und muss es intensiv verwenden, wenn sich seine Regierung nicht sehr schnell abnutzen soll.

Ich kann mir nicht vorstellen, dass wie in vier Jahren in Österreich noch so groteske Diskussionen führen wie die über das Scheiß-Internet oder darüber, ob man das Internet als Medium ernst nehmen könne.

Ich habe am Wochenende einige Texte gelesen, die sich mit den Folgen der Finanzkrise beschäftigen, vor allem A User’s Guide to 21st Century Economics von Umair Haque und Work on Stuff that Matters von Tim O’Reilly. Sie beziehen sich nicht aufeinander, aber sie zielen in dieselbe Richtung: Die aktuelle Wirtschaftskrise als Anlass zu nutzen, die Konsumgesellschaft als solche in Frage zu stellen und zu überwinden — also eine Wirtschaft, die darauf basiert, immer mehr und immer billigere Konsumgüter zu produzieren und die Kosten dafür den ärmeren Ländern und den nächsten Generationen aufzubürden.

Weiterlesen

Water_interface

Video im Web unterschied sich vom Video im Fernsehen bisher vor allem dadurch, dass man entscheiden kann, wann man es sehen will, und dass man es kommentieren und weiterempfehlen kann. Interaktivität im Video selbst ist selten — nicht, weil die technischen Möglichkeiten fehlen, sondern weil es fast niemand schafft, das lineare Erzählen einer Geschichte im Video so mit Interaktivität zu verbinden, dass weder die Erzählung noch die Interaktionsmöglichkeiten darunter leiden.

Zach Wise ist auf diesem Gebiet ein Durchbruch gelungen, und zwar zuerst mit einem interaktiven Video über die Wasserknappheit in der Gegend von Las Vegas für die Website der Las Vegas Sun. (Bereits vorher ist bei der New York Times das nicht weniger interessante Choosing a President erschienen, an dem Zach, der inzwischen zur Times gewechselt ist, maßgeblich beteiligt war. Dieses Video, dessen Produktion Zach genau erläutert, ist ein eigenes Post wert; siehe dazu Tracy Boyer.)

Tracy Boyer schreibt zu Thirst in the Mojave:

Wise takes storytelling to a completely new level with the introduction of interactive videos.

Zach erzählt linear, dabei ist das 22minütige Video in 5 Segmente geteilt. Eine durch Mouseover einblendbare Timeline oben orientiert die Benutzerin darüber, wo sie sich befindet, und ermöglicht es, an jede Stelle zu springen. Unten wird in zwei Fenstern zusätzliche Information geboten, links durch eine — aufzoombare — Karte, rechts durch anklickbares zusätzliches Text- und Videomaterial. Durch Klicken auf die eingeblendeten Namen von Interviewpartnern wird deren Kurzbiografie aufgeklappt. Alle Einstellungen des Videos sind geocodiert; auf der Karte links unten sieht man, wo gedreht wurde. Außerdem ist das Feature noch mit einer Datenbank zur Wassersituation in der Region verbunden. Zach Wise beschreibt detailliert, wie das Feature funktioniert und wie es produziert wurde.

Die Leistung von Zach Wise besteht darin, dass die zusätzlichen Informationen als Abzweigungen von einem Weg angeboten werden, zu dem man immer wieder zurückkehren kann, und der auch immer sichtbar bleibt. Man verliert nie die Orientierung, weder visuell noch in der zeitlichen Abfolge der Erzählung. Dabei wird ein kontroverser Sachverhalt journalistisch aufgearbeitet. Es wird sinnlich vermittelt, was passiert, und es wird sehr viel, aber nicht zu viel Hintergrundinformation geboten. Bravourös macht Wise vor, wie durch visuellen Linkjournalismus eine Geschichte in ihrem Zusamenhang erzählt werden kann [via News Videographer].