RSS und PR: eine Mindmap und fünf Thesen

Heute nehme ich in Dieburg an der Tagung Zukunft Online-PR 2009. Zur Vorbereitung des Workshops RSS – Inhalte jenseits der Website zugänglich machen, den ich dort am Nachmittag moderiere, hier eine Mindmap:

(Direktes Linkzur Mindmap)

Als Diskussionsgrundlage habe ich fünf Thesen formuliert.

  1. Newsfeeds sind eine Form der Benutzer-zentrierten Content-Distribution. Sie unterstützen das Vendor Relationship Management bei Medien und gehören zu den Werkzeugen der PR jenseits der Massenmedien.

  2. RSS existiert schon lange, wird aber vor allem von Profis und Info-Junkies intensiv verwendet. Newfeeds sind ein wichtiges Tool vor allem für die Ansprache professioneller Zielgruppen.

  3. Die PR kann und sollte alle Anwendungsmöglichkeiten von RSS nutzen — außer dem Publish-Subscribe-Mechanismus auch das Aggregieren, Filtern und Mashing up von Feeds.

  4. Die PR kann und sollte das ganze Spektrum der Inhalte verwenden, die über Feeds verteilt werden können: außer Texten und Medien (Podcasts) z.B. auch Eventdaten und geografische Informationen.

  5. Newsfeeds gehören zum zweiten Layer der Publikationsformate im Web; sie erweitern das erste Layer (HTML) und funktionieren zusammen mit ihm. Ein drittes Layer, das von Twitter und XMPP repräsentiert wird, entsteht gerade und erlaubt das Live Web oder Real Time Web.

Mindmap und Thesen werde ich heute vielleicht noch erweitern; ich hoffe auf ein spannendes Gespräch.

Digitale Burka?

In Frankreich hat die Zeitschrift Le Tigre einen Mann ohne seine Zustimmung porträtiert und dazu ausschließlich Daten aus Web-Diensten wie YouTube und facebook benutzt: Französischer Internetnutzer unfreiwillig in Zeitschrift porträtiert. Auf der Website der Zeitschrift findet sich in der Rubrik Portrait Google übrigens nur der Hinweis darauf, dass sich die Zeitschrift nicht an der medialen Aufregung über die Geschichte beteiligen wolle, und dass sie zwischen der realen Person (die offenbar gegen den Artikel geklagt hat) und einer medialen Kunstfigur unterscheide.

Mich interessiert hier nicht die reale Geschichte hinter der Meldung (sie hat offenbar auch die Medien wie den Standard nicht interessiert, die sich auf Agenturmeldungen verlassen haben und nicht einmal auf die Zeitschrift verlinken.) Mich interessiert das Publikumsinteresse, dem sie ihren Nachrichtenwert verdankt. Die Meldung bedient das dumpfe Unbehagen an Google, facebook usw., die in unsere Privatsphäre eindringen. Immer wieder höre ich von Bekannten, man müsse ja nicht alles veröffentlichen; zwei meiner Kollegen haben mich sogar gebeten, ihnen keine Mails via GMail zu schicken.

Ich bin mit diesem Thema (Datenschutz und Web 2.0) nicht fertig, und ich schreibe auch aus einem dumpfen Gefühl heraus: Ich habe den Eindruck, dass es vielen, die sich über Suchmaschinen und soziale Netze beklagen, gar nicht um Datenschutz geht, sondern darum, sich vor der unheimlichen Welt des Netzes zu schützen und möglichst lange bei den gewohnten Formen der Kommunikation und Publikation zu bleiben (so wie die Verlage, die das Netz über Jahre ignoriert haben und dann jammern, weil Google ihre Bücher digitalisieren will.)

Ich möchte drei Gedanken formulieren, die mir bei der Diskussion dieses Themas wichtig sind, und die sicher nicht ausreichen, um hier eine Position zu begründen:

  1. Wer im Internet publiziert, publiziert. Wer Facebook, Twitter oder irgendeinen anderen Service benutzt, um etwas über sich zu veröffentlichen, gibt weder ihnen noch anderen damit einen Zugang zu seiner Privatsphäre, sondern verlässt die Privatsphäre. Er oder sie muss sich genauso überlegen, wie er sich und andere schützt, wie es sich jeder Autor von Büchern immer schon überlegt hat. Es ist schlicht viel leichter geworden, etwas zu publizieren, aber natürlich bleibt es eine persönliche Entscheidung, Daten von sich bei diesen Diensten freizugeben.

  2. Web 2.0-Anwendungen bieten einen konkreten Nutzen, der ohne Publikation von Daten nicht zu haben ist. Es geht nicht darum zu entscheiden, ob man von irgendeinem Moment an keine Privatspäre mehr haben will, sondern darum, ob man selbst und andere von der Teilnahme an einem solchen Service profitieren. Bei allen Formen des Wissenaustauschs profitiert man eindeutig von diesen Möglichkeiten, und warum soll man nicht im Netz auch persönliche Beziehungen beginnen? Dazu muss man immer auch etwas von sich freigeben, nicht nur im Netz.

  3. Man kann den Risiken, die mit Web 2.0-Anwendungen verknüpft sind, nicht dadurch begegnen, dass man auf sie verzichtet. Es ist nicht nur eine Frage von Gesetzen, sondern eine Sache der Liberalität und Toleranz einer Gesellschaft, jedem die Möglichkeit zu geben, sich auch in einer provozierenden und ungewohnten Art zu äußern. Wenn Bewerber um Jobs benachteiligt werden, weil Party-Fotos von ihnen im Netz kursieren, gehören nicht facebook und StudiVZ in den Orkus, sondern die dafür verantwortlichen Personalabteilungen.

Ich will die Gefahren, die mit der Verarbeitung einer Unmenge von persönlichen Daten verbunden sind, nicht ignorieren. Ich bin strikt gegen die Versuche (etwa der deutschen Minister Schäuble und von der Leyen) den kompletten Datenverkehr zu überwachen — dahinter stehen totalitäre Phantasien. Aber ich bin auch dagegen, ensthaft über digitale Burkas zu diskutieren oder sie jungen Leuten zu empfehlen. Eine freie Gesellschaft lebt davon, dass ihre Mitglieder sich äußern und sich zeigen — ich möchte dazu ermutigen, statt davor zu warnen.

Suche auf den Sites deines Vertrauens: Rollyo

Durch Amy Gahrans Artikel über Useful Firefox Add-ons for Journalists bin ich auf einen nicht mehr ganz neuen Service aufmerksam geworden, der mir sehr nützlich vorkommt: Mit Rollyo kann man sich Suchmaschinen für eine bestimmte Gruppe von Quellen selbst zusammenbauen. Da ich mich gerade auf die Tagung Zukunft der Online-PR vorbereite, habe ich mir eine Suchmaschine gebaut, die vor allem Blogs meines Vertrauens zum Thema Online-PR durchsucht: Online PR Search Engine. Wer will, kann sie benutzen. Rollyo wirbt mit Customized Search Engines prominenter Autoren, so einer von Jeff Jarvis zum Media Buzz. Man kann sich für jede dieser Suchmaschinen ein Firefox-Search-Plugin anlegen und hat sie damit ständig im Browser zur Verfügung.

Je größer die Zahl der Seiten zu einem Thema wird, die von den großen Suchmaschinen indiziert werden, desto wichtiger dürften Dienste wie Rollyo werden. Ich habe zum Thema RSS und PR jedenfalls gleich einige interessante Ergebnisse erhalten.

Rollyo nimmt einem nur die Arbeit ab, selbst eine Reihe von Such-Operatoren zu verketten, aber das in einer sehr durchdachten und bequemen Weise. Die Ergebnisse liefert die Yahoo-Suche. Ähnliche Funktionen bietet zum Beispiel Lijit an, aber dort für ein bestimmtes Blog, dessen Blogroll sich ergänzend durchsuchen lässt.

[Mark Buzinkay hat Rollyo und ähnliche Angebote genauer beschrieben: Rollyo: individuelle Suchdienste ruck-zuck und Individuelle Suchdienste mit wenigen Handgriffen erstellt.]

Geeks Bearing Gifts: Ted Nelsons informatische Hintertreppe

Wenn man Ted Nelson fast nur indirekt kennt — als Erfinder des Ausdrucks Hypertext und als Sonderling, der nicht verwunden hat, dass das WWW viel primitiver ist als das von Nelson konzipierte System — ist man von Nelsons neuem Buch überrascht: Nelson weist zwar auch auf sich und seine Leistungen hin, aber nur sehr zurückhaltend und nicht im Detail. Wenn ich es nicht übersehen habe, ist z.B. von Transklusionen nur einmal die Rede. (Transklusionen gehören wie bidirektionale Links zum Hypertext im Sinne Nelsons.)

Cover des Buchs

Nelson will in diesem Buch nicht seine eigenen Theorien vorstellen, sondern er will zeigen, dass die Computerwelt, wie wir sie kennen — vom PC auf dem Schreibtisch bis zum WWW — historisch geworden ist, überall auf Entscheidungen zurückgeht, die oft politisch oder wirtschaftlich motiviert waren, und dass sie deshalb auch nur historisch zu erklären ist. Nelson schreibt witzig und für ein breites Publikum; sein Buch ist eine gute Einführung in die Geschichte des Computing. Schwierige Konzepte versucht er nicht populär zu erklären, sondern er weist nur auf sie hin. Die Leserin oder der Leser soll erkennen, dass nichts von dem, was uns heute im Computing selbstverständlich erscheint, natürlich und technisch notwendig ist; alles hätte auch anders kommen können, und auch heute ist die Zukunft offen.

Die Geschichte, die Nelson erzählt, beginnt mit der Einführung von Hierarchien:

Hierarchy is the official metaphysic of the computer world.

Die karolingische Minuskel (mit der Nelson die Einführung von URLs durch Tim Berners-Lee vergleicht) spielt in ihr eine ebenso wichtige Rolle wie die Erfindung von Satzzeichen und Lochkarten. Die Kapitelzählung beginnt im negativen Bereich mit dem Kapitel -27; erst mit Unix und dem Jahr 1970 ist das Kapitel 1 erreicht: Unix ist die Basis des heutigen Computing und des Internets. (Für Nelsons Xanadu ist das Kapitel -11 reserviert.) Mit Social Networks und Second Life ist im Kapitel 20 die Gegenwart erreicht: Auch bei ihnen handelt es sich, wie bei allen Schritten vor ihnen, um Konstrukte, nicht um quasi natürliche Realitäten.

Für mich hat Nelsons Methode etwas Nietzscheanisches: Er erzählt eine Genealogie, so wie Nietzsche die Genealogie der Moral erzählt hat. Erzählt wird von Phänomenen, denen sich nicht einfach ausweichen lässt, die man aber verdrehen, ironisieren und subvertieren kann, mit einer gaya scienza, die bei Nelson eine unfeierlich-nerdige Gestalt annimmt.

Den eigentlichen Reiz des Buchs macht die Fülle von Fakten, Beobachtungen und Reflexionen aus, oft aus der Perspektive eines Beteiligten oder eines persönlichen Bekannten der Beteiligten berichtet. Wenige Portraits in Nelsons Buch sind mit so viel Sympathie ausgeführt wie das von Richard Stallman, dem Gründer der Free Software Foundation und Erfinder von GNU/Linux.

Viele Schüler und Studenten bekommen durch Bücher wie Weischedels Philosophische Hintertreppe einen Zugang zur Philosophie. Ich kann mir vorstellen, dass durch Nelsons Buch auch Nichtinformatiker einen Zugang zum Computing als sozialem und historischen Phänomen erhalten. Dabei wird ihnen ein kritischer, aber nicht verbitterter Blick auf die Geschichte vermittelt — und die Lust daran zu zeigen, dass die Metaphysiken der Hierarchie nicht unausweichlich sind.

Auftragsproduktion statt Kommunikationsplattform — erster Blick auf die neue Site des Weißen Hauses

Ich wollte heute über die neue Site des Weißen Hauses schreiben, aber es ist darüber schon so viel publiziert worden, dass es mir noch nicht gelungen ist, die interessantesten Posts zu der Site auch nur zu lesen. Da ich nicht naiv drauflosschreiben möchte, hier vor allem ein paar Hinweise.

Trotzdem kurz meine persönliche Meinung: Ich finde wie Dave Winer die Site enttäuschend. Vom Anspruch auf Wechsel ist nicht viel zu merken. Man kann nicht kommentieren, und man kann auch nicht anders teilnehmen. Winer hat recht, wenn er schreibt, dass vor dem Auftritt ein Schild mit der Aufschrift Bitte warten! zu hängen scheint, und wenn er von corporate cowardice (das könnte man mit Firmen-Feigheit übersetzen) spricht.

Mich stört am meisten, dass die Site nicht aktuell ist. In den ORF-Nachrichten heute habe ich wesentlich mehr über den ersten Tag Obamas im Amt erfahren als auf der Site des Präsidenten. Das ist schwer zu begreifen.

Allerdings wird schon angekündigt, dass Gesetzesvorhaben auf der Site diskutiert werden sollen:

One significant addition to WhiteHouse.gov reflects a campaign promise from the President: we will publish all non-emergency legislation to the website for five days, and allow the public to review and comment before the President signs it [The White House – Blog Post – Change has come to WhiteHouse.gov].

Offenbar hat ein neues Team die Site erstellt, nicht die Agentur, die noch hinter Change.gov. stand (siehe das unten verlinkte Post von Tim O’Reilly). Vieles ist nicht fertig, nicht einmal das Registrierungsformular. Dass die Site mit Microsoft-Software betrieben wird, trägt irgendwie zu dem Eindruck bei, dass es sich um eine Auftragsproduktion handelt und nicht um ein Kommunikationsmittel.

Reaktionen auf die neue Site

Die treffendste Analyse stammt aus meiner Sicht von Dave Winer — The White House website:

But whitehouse.gov violates the most basic rule — „People come back to places that send them away.“ The White House should send us to places where our minds will be nourished with new ideas, perspectives, places, points of view, things to do, ways we can make a difference. It must take risks, because that is reality — we’re all at risk now — hugely.

Winer verweist auf die Artikel bei Spiegel Online (ausführlich, viele weitere Quellen) und in der New York Times, die wiederum einige interessante Stimmen zitiert.

Positives Feedback gibt es von Tim O’Reilly:

Not only did the Web 2.0 principles of user-engagement, viral outreach, rapid development, and real-time intelligence help Obama to win the presidency, he’s bringing the same principles and the same team to manage his outreach during his time in office [change.gov Becomes whitehouse.gov – O’Reilly Radar].

Jason Kottke hat sofort festgestellt, dass — im Gegensatz zum bisherigen Auftritt — alle Inhalte für Suchmaschinen zugänglich sind: The country’s new robots.txt file.

Ein Signal der Veränderung ist es übrigens, dass sich die Mainstream-Medien sofort mit der neuen Site beschäftigten. Als Mittel der Repräsentation von Politik hat das Web die anderen Medien inzwischen eingeholt.

Glaubwürdigkeit von Weblogs: eine Vorüberlegung

Astrid Schwarz hat Helge und mich für Ö1 gefragt, woran man erkennt, ob Weblogs glaubwürdig sind [als Download hier, vorher ähnlich auf fm4 gesendet]. Ich habe ziemlich unvorbereitet geantwortet, und ich muss zugeben, dass ich über die Frage der Glaubwürdigkeit von Blogs und anderen Online-Quellen viel zu wenig nachgedacht habe. Vor allem wenn sie journalistisch ernst genommen werden wollen, müssen Blogs in einer nachvollziehbaren Weise auf die Glaubwürdigkeit ihrer Inhalte geprüft werden können. Übrigens spielt die Frage der Glaubwürdigkeit auch eine entscheidende Rolle bei der Diskussion des Verhältnisses von Journalismus und PR. PR kann nur dann behaupten, mehr als manipulativ zu sein, wenn sie ihre Glaubwürdigkeit ausweisen kann.

Glaubwürdigkeit ist wohl eine Qualität, die es nur innerhalb von bestimmten sozialen Gruppen gibt, und sie ist immer an so etwas wie Prüfungs- und Autorisierungsverfahren gebunden. Mit diesen kollektiven Praktiken — die sich von technischen Praktiken nicht trennen lassen — muss man sich beschäftigen, wenn man über die Glaubwürdigkeit von Online-Quellen nachdenkt. Es spricht viel dafür, dass für Online-Publikationen noch Verfahren entwickelt werden müssen, die denen der klassischen Massenmedien entsprechen. (Was nicht heisst, dass Online-Medien nicht auch nach herkömmlichen Kriterien glaubwürdig sein können, und auch nicht, dass die herkömmlichen Medien diesen Kriterien immer oder auch nur meist entsprechen.)

Dass Menschen, die nur die Arbeitsweise klassischer Medien kennen, Probleme mit der Glaubwürdigkeit von Weblogs haben, hängt zu einem großen Teil damit zusammen, dass sie die Regeln der sozialen Gruppen nicht kennen, die Weblogs schreiben und lesen. Wer sich mit Blogs auskennt, hat eine Reihe von Anhaltspunkten dafür, ob man einer Autorin oder einem Autor trauen kann oder nicht: Kommentare, Links, Technorati-Autorität usw. Leute, die wie Armin Thurnher das Internet als Medium nicht ernst nehmen, beherrschen diese Regeln in der Regel nicht, ihnen ist das Internet als soziale Realität fremd — so wie übrigens auch vielen Bloggern die soziale Realität der älteren Medien und ihre Regeln fremd sind. Sinn dieser Regeln ist es zum einen, die Wahrheit von Behauptungen zu prüfen und zum anderen Personen Glaubwürdigkeit zuschreiben zu können, die solche Prüfungsverfahren anwenden.

Diese Regeln der Glaubwürdigkeit sind aber nicht einfach Konventionen unterschiedlicher sozialer Gruppen, sie sind an Technologien und Infrastrukturen gebunden, die sich bei Massenmedien und sozialen Medien deutlich unterscheiden. Innerhalb eines bestimmten technologischen und sozialen Rahmens wurden und werden Verfahren entwickelt, mit denen sich die Wahrheit von Aussagen überprüfen lässt, und mit denen sich die Glaubwürdigkeit von Personen, die Aussagen machen, bewerten lässt. (Personen, die bestimmte Verfahren nicht anwenden oder nicht auf sich anwenden lassen, sind nicht glaubwürdig.) Zum herkömmlichen Journalismus gehören solche Verifikationsverfahren (vom check, cross-check, double-check! bis zur Interviewtechnik), die von Bloggern mit journalistischem Anspruch übernommen werden. Tatsächlich gibt es aber in der Blogosphäre nur sehr simple Verfahren, um Personen oder Publikationen Glaubwürdigkeit zuzusprechen — im Wesentlichen beruhen sie auf der Autorität einer Person unter Bloggern, und damit setzen sie möglicherweise das voraus, was sie bestätigen sollen.

Vor diesem Hintergrund finde ich Tim Berners-Lees Versuche, den Wahrheitsgehalt von Online-Quellen bewertbar zu machen und in Publikationen zu deklarieren, wie sie produziert wurden (also z.B. ob und wie Fotos bearbeit wurden) nicht so naiv oder abwegig, wie sie vielen erschienen sind. Es muss Möglichkeiten geben, Personen und Publikationen an Kriterien der Vertrauenswürdigkeit zu messen, nicht um das Web Autoritäten zu unterwerfen, sondern um im Web dezentral Glaubwürdigkeit zuschreiben zu können.

Diese Überlegungen sind sehr provisorisch. Beim Schreiben erscheint es mir immer wahrscheinlicher, dass Verfahren zur Feststellung/Zuschreibung von Glaubwürdigkeit eines der wichtigsten Themen bei der weiteren Entwicklung von sozialen Medien bilden werden.

Inauguration Day — die Wende zur interaktiven Regierung

Heute ist Inauguration Day. Seit der Wahl François Mitterrands 1981 habe ich mich nicht mehr so über ein Wahlergebnis gefreut wie über die Wahl Obamas. (1981 war ich in Paris und konnte abends selbst mit auf der Bastille feiern.) Nicht nur deshalb ein paar Bemerkungen zu Obama: Welche Auswirkungen könnte seine Regierung auf das Internet und die Online-Medien hier bei uns haben?

Obama wird die Internetwirtschaft energisch förden; die Sicherung der Neutralität des Netzes und ein schneller Internetzugang für alle Bürger gehören zu seinen wichtigsten Zielen. Die europäischen Länder werden sich anstrengen müssen mitzuhalten, und auch hier wird mehr Geld in den Ausbau der Infrastruktur und die Internetwirtschaft fließen. Aber nicht nur damit dürfte die neue Administration auch Europa Inpulse geben. Sie wird auch bewirken, dass die Funktionen des Internet für die Öffentlichkeit in Europa besser verstanden werden.

Obama wäre ohne das Internet nicht gewählt worden — nicht nur, weil YouTube, facebook und Twitter wichtige Instrumente seiner Kampagne waren, sondern weil seine zentrale Botschaft in das Internet-Zeitalter gehört: Politik kann in direktem Dialog mit der Bevölkerung stattfinden; die eingerosteten Apparate der Repräsentation (Parlamentarismus, Massenmedien) haben kein Monopol mehr auf die politische Kommunikation.

Gestern hat AFP publiziert, dass die für den Übergang eingerichtete Website Change.gov ab heute abend unter whitehouse.gov erreichbar sein wird.

The new whitehouse.gov is expected to be the window for what is being touted as a bold experiment in interactive government based largely on lessons learned during the most successful Internet-driven election campaign in history [AFP: Change.gov coming to the White House].

Wenn die amerikanische Regierung das Web als politisches Kommunikations- und Entscheidungsinstrument benutzt, wird man Forderungen nach eine Wiki-Politik und nach Publikation aller für die Regierung und Verwaltung wichtigen Dokumente und Vorgänge im Web auch hier nicht mehr als exotisch abtun können. Der Druck auf Einsicht durch die Bürger und Mitentscheidung durch die Bürger jenseits der Parteibürokratien wird zunehmen. Damit würden nicht nur demokratische Rechte verwirklicht; Politik und öffentliche Verwaltung würden vor allem effizienter, schneller und sachgerechter arbeiten.

Das Gegenargument liegt auf der Hand: Obama werde nicht umsetzen, was er versprochen hat. Schon die Besetzung seiner Regierung zeige, dass er ähnlich regieren werde wie seine Vorgänger. Ich glaube, dass dieses Argument zu billig ist (und ich hoffe, dass ich nicht enttäuscht werde). Obama muss zu unorthodoxen Mitteln greifen, weil die Amerikaner so viel von seiner Regierung erwarten und weil die wirtschaftliche Lage so schwierig ist. Er hat viel vom Internet verstanden und muss es intensiv verwenden, wenn sich seine Regierung nicht sehr schnell abnutzen soll.

Ich kann mir nicht vorstellen, dass wie in vier Jahren in Österreich noch so groteske Diskussionen führen wie die über das Scheiß-Internet oder darüber, ob man das Internet als Medium ernst nehmen könne.

Medien nach der Krise: Abschied vom mehr und billiger?

Ich habe am Wochenende einige Texte gelesen, die sich mit den Folgen der Finanzkrise beschäftigen, vor allem A User’s Guide to 21st Century Economics von Umair Haque und Work on Stuff that Matters von Tim O’Reilly. Sie beziehen sich nicht aufeinander, aber sie zielen in dieselbe Richtung: Die aktuelle Wirtschaftskrise als Anlass zu nutzen, die Konsumgesellschaft als solche in Frage zu stellen und zu überwinden — also eine Wirtschaft, die darauf basiert, immer mehr und immer billigere Konsumgüter zu produzieren und die Kosten dafür den ärmeren Ländern und den nächsten Generationen aufzubürden. O’Reilly spricht vom Biggest Ponzi Scheme of Them All. (Ponzi hat den Kettenbriefbetrug erfunden, den in jüngster Zeit Bernard Madoff praktiziert hat.) Für O’Reilly ist das Ponzi Scheme eine Metapher für die gegenwärtige Wirtschaft insgesamt: Der Konsum wird durch Schulden finanziert, die später nur durch wiederum steigenden Konsum zurückgezahlt werden können, und dabei werden endliche Ressourcen aufgebraucht und damit allen denen genommen, die nicht heute und nicht in den wenigen wirklich reichen Gesellschaften leben. Für Haque muss sich die Wirtschaft in der Zukunft, statt sich am mehr und billiger zu orientieren, um komplexe Produkte und Dienstleistungen bemühen, die wenig Ressourcen verbrauchen und Produzenten und Konsumenten miteinander vernetzen.

Ich frage mich, ob man diesen Gedanken auf die Medien übertragen kann. Auch dort gibt es eine Krise, und auch dort war bisher die Massenproduktion der wichtigste Wert, nur dass man eher von Reichweite und Auflagen sprach. Die Massenmedien, wie sie sich im letzten Jahrhundert entwickelt haben, bieten gleiche Produkte in möglichst großer Zahl einer möglichst großen Menge an. Die Krise, in die sie gerade geraten sind, hat spezifische Gründe, aber trotzdem kann man auch hier das Modell der Massenproduktion in Frage stellen und überlegen, ob nicht komplexe Dienstleistungen in Communities von Produzenten und Prosumern an die Stelle der uniform distribuierten packaged news treten können. Dabei kann es sich um Angebote handeln, die von Firmen in Verbindung mit anderen Produkten und Dienstleistungen angeboten werden (also um PR, wenn man so will), um on-demand-Inhalte, die für interessierte Gruppen produziert werden, oder auch um öffentlich finanzierte Medien, die die Informationsbedürfnisse z.B. von Gemeinden oder Regionen befriedigen. Immer ist nicht nur das Produkt, etwa die Nachricht, wichtig, sondern die interaktive Beziehung, in der die Macher zu den Verbrauchern stehen.

Dieser Gedanke ist noch lange nicht zuende gedacht. Ich möchte mit einem etwas vagen Hinweis schließen: Mark Bernstein hat 2007 das Konzept des NeoVictorian Computing formuliert: Individuell entwickelte Software, handwerklich auf ganz spezifische Bedüfnisse zugeschnitten. Vielleicht beginnt auch für die Medien eine neoviktorianische Phase.

Durst in der Mojave — ein Durchbruch für das interaktive Video im Web

Water_interface

Video im Web unterschied sich vom Video im Fernsehen bisher vor allem dadurch, dass man entscheiden kann, wann man es sehen will, und dass man es kommentieren und weiterempfehlen kann. Interaktivität im Video selbst ist selten — nicht, weil die technischen Möglichkeiten fehlen, sondern weil es fast niemand schafft, das lineare Erzählen einer Geschichte im Video so mit Interaktivität zu verbinden, dass weder die Erzählung noch die Interaktionsmöglichkeiten darunter leiden.

Zach Wise ist auf diesem Gebiet ein Durchbruch gelungen, und zwar zuerst mit einem interaktiven Video über die Wasserknappheit in der Gegend von Las Vegas für die Website der Las Vegas Sun. (Bereits vorher ist bei der New York Times das nicht weniger interessante Choosing a President erschienen, an dem Zach, der inzwischen zur Times gewechselt ist, maßgeblich beteiligt war. Dieses Video, dessen Produktion Zach genau erläutert, ist ein eigenes Post wert; siehe dazu Tracy Boyer.)

Tracy Boyer schreibt zu Thirst in the Mojave:

Wise takes storytelling to a completely new level with the introduction of interactive videos.

Zach erzählt linear, dabei ist das 22minütige Video in 5 Segmente geteilt. Eine durch Mouseover einblendbare Timeline oben orientiert die Benutzerin darüber, wo sie sich befindet, und ermöglicht es, an jede Stelle zu springen. Unten wird in zwei Fenstern zusätzliche Information geboten, links durch eine — aufzoombare — Karte, rechts durch anklickbares zusätzliches Text- und Videomaterial. Durch Klicken auf die eingeblendeten Namen von Interviewpartnern wird deren Kurzbiografie aufgeklappt. Alle Einstellungen des Videos sind geocodiert; auf der Karte links unten sieht man, wo gedreht wurde. Außerdem ist das Feature noch mit einer Datenbank zur Wassersituation in der Region verbunden. Zach Wise beschreibt detailliert, wie das Feature funktioniert und wie es produziert wurde.

Die Leistung von Zach Wise besteht darin, dass die zusätzlichen Informationen als Abzweigungen von einem Weg angeboten werden, zu dem man immer wieder zurückkehren kann, und der auch immer sichtbar bleibt. Man verliert nie die Orientierung, weder visuell noch in der zeitlichen Abfolge der Erzählung. Dabei wird ein kontroverser Sachverhalt journalistisch aufgearbeitet. Es wird sinnlich vermittelt, was passiert, und es wird sehr viel, aber nicht zu viel Hintergrundinformation geboten. Bravourös macht Wise vor, wie durch visuellen Linkjournalismus eine Geschichte in ihrem Zusamenhang erzählt werden kann [via News Videographer].

Aufklärungen: eine Einführung in das Werk Michel Serres'

Das erste Buch, das ich in diesem Jahr gelesen habe, war eine Weihnachtsüberraschung — Michel Serres: Aufklärungen. Gespräche mit Bruno Latour.

"Cover des Buchs"

Das Thema der Philosophie von Michel Serres ist die Kommunikation, und um Kommunikation geht es auch in diesen Dialogen Serres‘ mit dem Soziologen Bruno Latour fast überall. Die Kommunikation, wie sie Serres begreift, bildet etwas wie einen virtuellen Raum mit eigenen Regeln, anderen Regeln als denen der statischen Objekte und Wesenheiten, die Serres zufolge in der europäischen Philosophie immer die Hauptrolle gespielt haben.

Diese Gespräche sind schon über 15 Jahre alt, sie wurden geführt, bevor das Internet zu einer der wichtigsten Zonen der Kommunikation wurde. Aber weder Serres noch Latour dürften von der Entwicklung des Webs zu sehr überrascht worden sein. Serres sagt zu Bruno Latour, dessen Soziologie der Übersetzung Serres‘ Philosophie der Kommunikation viel verdankt:

Hermes, indem er sich erneuert, wird immerzu unser neuer Gott, seit wir Menschen sind, nicht nur der unserer Ideen oder Verhaltensweisen, unserer theoretischen Abstraktionen, sondern auch der unsererer Arbeiten, unserer Techniken, unserer Erfahrungen, unserere Experimentalwissenschaften, ja, unserer Laboratorien, wo, Sie selbst haben es gezeigt, alles entlang komplexer Beziehungsgeflechte zwischen den Botschaften und den Personen funktioniert, der Gott unserer Biologie, welche die Gehirn- und Genbotschaften beschreibt, der der Information, der des schnellen Finanzwesens und des volatilen Geldes, des Handels, der Information, der Medien, die eine dritte Realität produzieren, unabhängig von der, die wir für wirklich halten, der Beziehungen zwischen Recht und Wissenschaft… Soweit ich weiß, versuchen Sie, wie ich, eine Philosophie zu konstruieren, die mit dieser neuen Welt kompatibel ist. Nicht um sie zu imitieren, nicht um sie zu rechtfertigen, sondern um sie zu begreifen und, vielleicht verzweifelt, zu steuern zu versuchen. Zum ersten Mal in der Geschichte denken wir, dass sie wirklich von uns abhängt.

Ich habe bisher nie einen Zugang zu den Texten von Serres gefunden. Er selbst bemüht sich nur wenig, den Eingang in sein Werk zu erleichtern. Seine Sprache wirkt auf den Außenstehenden oft steil, sein Pathos überfordert viele Leser. In den Dialogen dieses Buches verschweigt Bruno Latour solche Zugangsschwierigkeiten nicht. Er fragt Serres nach ihnen und hält sie ihm gelegentlich vor; vermutlich ist er Serres durch seine bohrenden Fragen und seinen nur selten feierlichen, eher angelsächsisch nüchternen Stil ziemlich auf die Nerven gefallen. Jedenfalls zeichen Latour und Serres hier zusammen ein philosophisches Porträt oder Selbstporträt, das Lust macht, die Werke Serres‘ endlich zu lesen.

Helfen Texte wie dieser dabei, das Web oder die Kommunikation im Web besser zu verstehen? Ich kann die Frage nicht — ich hoffe: noch nicht — beantworten. Vielleicht ist ihre erste Wirkung, dass sie starr gewordene Konzepte der Kommunikation verflüssigen, dass sie zum Beispiel zeigen, dass Kommunikation weder als Technik, als Mittel zu einem Zweck, noch als materielles, natürliches Phänomen befriedigend beschrieben werden kann. Als historisches Dokument gelesen zeigt dieser Text, dass das Web nicht vom Himmel gefallen ist, dass in den 80er und 90er Jahren philosophische Ideen formuliert wurden, die mit der Entwicklung des Webs kommunizieren, ohne kausal mit ihr zusammenzuhängen.