Ich wollte heute über die neue Site des Weißen Hauses schreiben, aber es ist darüber schon so viel publiziert worden, dass es mir noch nicht gelungen ist, die interessantesten Posts zu der Site auch nur zu lesen. Da ich nicht naiv drauflosschreiben möchte, hier vor allem ein paar Hinweise.

Trotzdem kurz meine persönliche Meinung: Ich finde wie Dave Winer die Site enttäuschend. Vom Anspruch auf Wechsel ist nicht viel zu merken. Man kann nicht kommentieren, und man kann auch nicht anders teilnehmen. Winer hat recht, wenn er schreibt, dass vor dem Auftritt ein Schild mit der Aufschrift Bitte warten! zu hängen scheint, und wenn er von corporate cowardice (das könnte man mit Firmen-Feigheit übersetzen) spricht.

Mich stört am meisten, dass die Site nicht aktuell ist. In den ORF-Nachrichten heute habe ich wesentlich mehr über den ersten Tag Obamas im Amt erfahren als auf der Site des Präsidenten. Das ist schwer zu begreifen.

Allerdings wird schon angekündigt, dass Gesetzesvorhaben auf der Site diskutiert werden sollen:

One significant addition to WhiteHouse.gov reflects a campaign promise from the President: we will publish all non-emergency legislation to the website for five days, and allow the public to review and comment before the President signs it [The White House – Blog Post – Change has come to WhiteHouse.gov].

Offenbar hat ein neues Team die Site erstellt, nicht die Agentur, die noch hinter Change.gov. stand (siehe das unten verlinkte Post von Tim O’Reilly). Vieles ist nicht fertig, nicht einmal das Registrierungsformular. Dass die Site mit Microsoft-Software betrieben wird, trägt irgendwie zu dem Eindruck bei, dass es sich um eine Auftragsproduktion handelt und nicht um ein Kommunikationsmittel.

Reaktionen auf die neue Site

Die treffendste Analyse stammt aus meiner Sicht von Dave Winer — The White House website:

But whitehouse.gov violates the most basic rule — „People come back to places that send them away.“ The White House should send us to places where our minds will be nourished with new ideas, perspectives, places, points of view, things to do, ways we can make a difference. It must take risks, because that is reality — we’re all at risk now — hugely.

Winer verweist auf die Artikel bei Spiegel Online (ausführlich, viele weitere Quellen) und in der New York Times, die wiederum einige interessante Stimmen zitiert.

Positives Feedback gibt es von Tim O’Reilly:

Not only did the Web 2.0 principles of user-engagement, viral outreach, rapid development, and real-time intelligence help Obama to win the presidency, he’s bringing the same principles and the same team to manage his outreach during his time in office [change.gov Becomes whitehouse.gov – O’Reilly Radar].

Jason Kottke hat sofort festgestellt, dass — im Gegensatz zum bisherigen Auftritt — alle Inhalte für Suchmaschinen zugänglich sind: The country’s new robots.txt file.

Ein Signal der Veränderung ist es übrigens, dass sich die Mainstream-Medien sofort mit der neuen Site beschäftigten. Als Mittel der Repräsentation von Politik hat das Web die anderen Medien inzwischen eingeholt.

Astrid Schwarz hat Helge und mich für Ö1 gefragt, woran man erkennt, ob Weblogs glaubwürdig sind [als Download hier, vorher ähnlich auf fm4 gesendet]. Ich habe ziemlich unvorbereitet geantwortet, und ich muss zugeben, dass ich über die Frage der Glaubwürdigkeit von Blogs und anderen Online-Quellen viel zu wenig nachgedacht habe. Vor allem wenn sie journalistisch ernst genommen werden wollen, müssen Blogs in einer nachvollziehbaren Weise auf die Glaubwürdigkeit ihrer Inhalte geprüft werden können. Übrigens spielt die Frage der Glaubwürdigkeit auch eine entscheidende Rolle bei der Diskussion des Verhältnisses von Journalismus und PR. PR kann nur dann behaupten, mehr als manipulativ zu sein, wenn sie ihre Glaubwürdigkeit ausweisen kann.

Glaubwürdigkeit ist wohl eine Qualität, die es nur innerhalb von bestimmten sozialen Gruppen gibt, und sie ist immer an so etwas wie Prüfungs- und Autorisierungsverfahren gebunden. Mit diesen kollektiven Praktiken — die sich von technischen Praktiken nicht trennen lassen — muss man sich beschäftigen, wenn man über die Glaubwürdigkeit von Online-Quellen nachdenkt. Es spricht viel dafür, dass für Online-Publikationen noch Verfahren entwickelt werden müssen, die denen der klassischen Massenmedien entsprechen. (Was nicht heisst, dass Online-Medien nicht auch nach herkömmlichen Kriterien glaubwürdig sein können, und auch nicht, dass die herkömmlichen Medien diesen Kriterien immer oder auch nur meist entsprechen.)

Dass Menschen, die nur die Arbeitsweise klassischer Medien kennen, Probleme mit der Glaubwürdigkeit von Weblogs haben, hängt zu einem großen Teil damit zusammen, dass sie die Regeln der sozialen Gruppen nicht kennen, die Weblogs schreiben und lesen. Wer sich mit Blogs auskennt, hat eine Reihe von Anhaltspunkten dafür, ob man einer Autorin oder einem Autor trauen kann oder nicht: Kommentare, Links, Technorati-Autorität usw. Leute, die wie Armin Thurnher das Internet als Medium nicht ernst nehmen, beherrschen diese Regeln in der Regel nicht, ihnen ist das Internet als soziale Realität fremd — so wie übrigens auch vielen Bloggern die soziale Realität der älteren Medien und ihre Regeln fremd sind. Sinn dieser Regeln ist es zum einen, die Wahrheit von Behauptungen zu prüfen und zum anderen Personen Glaubwürdigkeit zuschreiben zu können, die solche Prüfungsverfahren anwenden.

Diese Regeln der Glaubwürdigkeit sind aber nicht einfach Konventionen unterschiedlicher sozialer Gruppen, sie sind an Technologien und Infrastrukturen gebunden, die sich bei Massenmedien und sozialen Medien deutlich unterscheiden. Innerhalb eines bestimmten technologischen und sozialen Rahmens wurden und werden Verfahren entwickelt, mit denen sich die Wahrheit von Aussagen überprüfen lässt, und mit denen sich die Glaubwürdigkeit von Personen, die Aussagen machen, bewerten lässt. (Personen, die bestimmte Verfahren nicht anwenden oder nicht auf sich anwenden lassen, sind nicht glaubwürdig.) Zum herkömmlichen Journalismus gehören solche Verifikationsverfahren (vom check, cross-check, double-check! bis zur Interviewtechnik), die von Bloggern mit journalistischem Anspruch übernommen werden. Tatsächlich gibt es aber in der Blogosphäre nur sehr simple Verfahren, um Personen oder Publikationen Glaubwürdigkeit zuzusprechen — im Wesentlichen beruhen sie auf der Autorität einer Person unter Bloggern, und damit setzen sie möglicherweise das voraus, was sie bestätigen sollen.

Vor diesem Hintergrund finde ich Tim Berners-Lees Versuche, den Wahrheitsgehalt von Online-Quellen bewertbar zu machen und in Publikationen zu deklarieren, wie sie produziert wurden (also z.B. ob und wie Fotos bearbeit wurden) nicht so naiv oder abwegig, wie sie vielen erschienen sind. Es muss Möglichkeiten geben, Personen und Publikationen an Kriterien der Vertrauenswürdigkeit zu messen, nicht um das Web Autoritäten zu unterwerfen, sondern um im Web dezentral Glaubwürdigkeit zuschreiben zu können.

Diese Überlegungen sind sehr provisorisch. Beim Schreiben erscheint es mir immer wahrscheinlicher, dass Verfahren zur Feststellung/Zuschreibung von Glaubwürdigkeit eines der wichtigsten Themen bei der weiteren Entwicklung von sozialen Medien bilden werden.

Heute ist Inauguration Day. Seit der Wahl François Mitterrands 1981 habe ich mich nicht mehr so über ein Wahlergebnis gefreut wie über die Wahl Obamas. (1981 war ich in Paris und konnte abends selbst mit auf der Bastille feiern.) Nicht nur deshalb ein paar Bemerkungen zu Obama: Welche Auswirkungen könnte seine Regierung auf das Internet und die Online-Medien hier bei uns haben?

Obama wird die Internetwirtschaft energisch förden; die Sicherung der Neutralität des Netzes und ein schneller Internetzugang für alle Bürger gehören zu seinen wichtigsten Zielen. Die europäischen Länder werden sich anstrengen müssen mitzuhalten, und auch hier wird mehr Geld in den Ausbau der Infrastruktur und die Internetwirtschaft fließen. Aber nicht nur damit dürfte die neue Administration auch Europa Inpulse geben. Sie wird auch bewirken, dass die Funktionen des Internet für die Öffentlichkeit in Europa besser verstanden werden.

Obama wäre ohne das Internet nicht gewählt worden — nicht nur, weil YouTube, facebook und Twitter wichtige Instrumente seiner Kampagne waren, sondern weil seine zentrale Botschaft in das Internet-Zeitalter gehört: Politik kann in direktem Dialog mit der Bevölkerung stattfinden; die eingerosteten Apparate der Repräsentation (Parlamentarismus, Massenmedien) haben kein Monopol mehr auf die politische Kommunikation.

Gestern hat AFP publiziert, dass die für den Übergang eingerichtete Website Change.gov ab heute abend unter whitehouse.gov erreichbar sein wird.

The new whitehouse.gov is expected to be the window for what is being touted as a bold experiment in interactive government based largely on lessons learned during the most successful Internet-driven election campaign in history [AFP: Change.gov coming to the White House].

Wenn die amerikanische Regierung das Web als politisches Kommunikations- und Entscheidungsinstrument benutzt, wird man Forderungen nach eine Wiki-Politik und nach Publikation aller für die Regierung und Verwaltung wichtigen Dokumente und Vorgänge im Web auch hier nicht mehr als exotisch abtun können. Der Druck auf Einsicht durch die Bürger und Mitentscheidung durch die Bürger jenseits der Parteibürokratien wird zunehmen. Damit würden nicht nur demokratische Rechte verwirklicht; Politik und öffentliche Verwaltung würden vor allem effizienter, schneller und sachgerechter arbeiten.

Das Gegenargument liegt auf der Hand: Obama werde nicht umsetzen, was er versprochen hat. Schon die Besetzung seiner Regierung zeige, dass er ähnlich regieren werde wie seine Vorgänger. Ich glaube, dass dieses Argument zu billig ist (und ich hoffe, dass ich nicht enttäuscht werde). Obama muss zu unorthodoxen Mitteln greifen, weil die Amerikaner so viel von seiner Regierung erwarten und weil die wirtschaftliche Lage so schwierig ist. Er hat viel vom Internet verstanden und muss es intensiv verwenden, wenn sich seine Regierung nicht sehr schnell abnutzen soll.

Ich kann mir nicht vorstellen, dass wie in vier Jahren in Österreich noch so groteske Diskussionen führen wie die über das Scheiß-Internet oder darüber, ob man das Internet als Medium ernst nehmen könne.

Water_interface

Video im Web unterschied sich vom Video im Fernsehen bisher vor allem dadurch, dass man entscheiden kann, wann man es sehen will, und dass man es kommentieren und weiterempfehlen kann. Interaktivität im Video selbst ist selten — nicht, weil die technischen Möglichkeiten fehlen, sondern weil es fast niemand schafft, das lineare Erzählen einer Geschichte im Video so mit Interaktivität zu verbinden, dass weder die Erzählung noch die Interaktionsmöglichkeiten darunter leiden.

Zach Wise ist auf diesem Gebiet ein Durchbruch gelungen, und zwar zuerst mit einem interaktiven Video über die Wasserknappheit in der Gegend von Las Vegas für die Website der Las Vegas Sun. (Bereits vorher ist bei der New York Times das nicht weniger interessante Choosing a President erschienen, an dem Zach, der inzwischen zur Times gewechselt ist, maßgeblich beteiligt war. Dieses Video, dessen Produktion Zach genau erläutert, ist ein eigenes Post wert; siehe dazu Tracy Boyer.)

Tracy Boyer schreibt zu Thirst in the Mojave:

Wise takes storytelling to a completely new level with the introduction of interactive videos.

Zach erzählt linear, dabei ist das 22minütige Video in 5 Segmente geteilt. Eine durch Mouseover einblendbare Timeline oben orientiert die Benutzerin darüber, wo sie sich befindet, und ermöglicht es, an jede Stelle zu springen. Unten wird in zwei Fenstern zusätzliche Information geboten, links durch eine — aufzoombare — Karte, rechts durch anklickbares zusätzliches Text- und Videomaterial. Durch Klicken auf die eingeblendeten Namen von Interviewpartnern wird deren Kurzbiografie aufgeklappt. Alle Einstellungen des Videos sind geocodiert; auf der Karte links unten sieht man, wo gedreht wurde. Außerdem ist das Feature noch mit einer Datenbank zur Wassersituation in der Region verbunden. Zach Wise beschreibt detailliert, wie das Feature funktioniert und wie es produziert wurde.

Die Leistung von Zach Wise besteht darin, dass die zusätzlichen Informationen als Abzweigungen von einem Weg angeboten werden, zu dem man immer wieder zurückkehren kann, und der auch immer sichtbar bleibt. Man verliert nie die Orientierung, weder visuell noch in der zeitlichen Abfolge der Erzählung. Dabei wird ein kontroverser Sachverhalt journalistisch aufgearbeitet. Es wird sinnlich vermittelt, was passiert, und es wird sehr viel, aber nicht zu viel Hintergrundinformation geboten. Bravourös macht Wise vor, wie durch visuellen Linkjournalismus eine Geschichte in ihrem Zusamenhang erzählt werden kann [via News Videographer].

Zwei neue Websites informieren über Werkzeuge für Onlinejournalisten: Tools for News und Journalists Toolkit. Beide füllen eine Lücke: Bisher ist es sehr schwierig, halbwegs darüber auf dem Laufenden zu bleiben, was im Onlinejournalismus technisch state of the art ist. Beide sind als work in progress angelegt: Das Journalists Toolkit liegt erst in einer frühen, noch nicht designten Beta-Version vor. Bei den Tools for News können sich alle Interessierten registrieren und die Seite ergänzen. Die Devise ist:

Don’t be a tool. Use one.

Die Tools for News sind ein Katalog von Werkzeugen für Onlinejournalisten, gegliedert nach Kategorien — von Audio bis Workflow. Das Journalists Toolkit ist eine Trainings-Site, die vor allem auf Tutorials hinweist. Es gibt weniger Kategorien als bei den Tools, die Gliederung ist aber ähnlich. Beide Sites ergänzen sich also: Die eine bietet Überblick und aktuelle Information, die andere Einführungen und hoffentlich bald auch Best Practice-Beispiele. Die Tools for News kann man als Feed abonnieren.

Hinter den Tools for News steht Chris Amico, der in seinem Blog beschreibt, wie er die Site entwickelt hat (mit dem Web-Framework Django, bei dem man Module sehr leicht wiederverwenden kann). Amico gehört zum Netzwerk Wired Journalists, das ich ebenfalls empfehlen möchte. Es entwickelt sich gerade zu einem der wichtigsten Diskussionsforen über Onlinejournalismus

Auf die Tools for News bin ich über Michael Thurms Bookmarks und Dirk von Gehlen. gestoßen. Leute wie Ryan Sholin und Matt Thompson sind von der Initiative begeistert.

Mindy McAdams betreibt das Journalists Toolkit. Sie lehrt seit 10 Jahren an der Universität von Florida Onlinejournalismus und teilt ihr Wissen in dem Blog Teaching Online Journalism, das nicht nur Lehrende dieses Faches lesen sollten.

Für deutschsprachige Journalisten und Studenten ist es leider noch nicht selbstverständlich, englische Websites zu verfolgen. Außerdem gibt es auch viele gute Tutorials und Einführungen für Onlinejournalisten in deutscher Sprache. Vielleicht lohnen sich deutsche Adaptionen?

Gestern habe ich fast den ganzen Tag Blogposts über die Zeitungskrise in den USA gelesen. Dabei bin ich mit den Nachrichten zu diesem Thema, die ich mir unter Read it later aufgehoben habe, noch lange nicht fertig. Interessant sind sie wahrscheinlich vor allem für Leute, die sich für die alten Medien interessieren oder berufsmäßig interessieren müssen. Wie der neue Journalismus — der Journalismus nach den halboffiziösen zentralisierten Massenmedien — aussieht, lässt sich aus den Berichten vom Untergang der amerikanischen Presse nicht herauslesen.

Drei Einträge habe ich gefunden, die wichtige Aussagen über die Zukunft enthalten:

Jeff Jarvis beschreibt, wie dezentrierter Lokaljournalismus gemacht werden könnte, also ein Journalismus, der sich nicht mehr als das wichtigste Instrument versteht, in dem sich eine Community über sich selbst verständigt: A scenario for news. Jarvis ist für mich der wichtigste Vordenker eines kollaborativen Journalismus, bei dem jede Aktivität ihren Sinn durch die Position erhält, die sie in einem Netzwerk einnimmt. (Von Dezentrierung spreche ich zur Interpretation, das Wort kommt nicht in den Texten vor, auf die ich hinweise.)

Welche Folgen eine solche Dezentrierung für den Journalisten haben kann, beschreibt Doc Searls am Beispiel von Robert Scoble: Being Robert Scoble. Scoble managt nicht eine Community, sondern er lässt sich von ihr managen, er agiert als ihr Organ. Er dirigiert nicht ein Orchester, sondern spielt in einer Jazzband mit.

Technik (was immer dieser Ausdruck tatsächlich meint) spielt eine zentrale Rolle für die Zukunft des Journalismus. Um es angelehnt an Marx zu formulieren: Die Produktivkräfte sind über die Produktionsverhältnisse hinausgewachsen. Das traditionelle Medienbusiness wird mit der webbasierten Mitteilung von Nachrichten nicht fertig. Wenn man verstehen will, welche Möglichkeit der Journalismus oder Postjournalismus der Zukunft hat, muss man die Techniken studieren, auf denen er beruht (so wie der bisherige Journalismus auf Techniken wie dem Druck und dem Rundfunk beruht). Amy L. Webb sagt in Reshaping the Conversation, dass die meisten Medienfirmen nur Dame spielen, während Google und Adobe Schach spielen:

Here’s the real problem facing our newsrooms. Most people are out there playing checkers while companies like Google and Adobe are playing chess. NOTHING WILL CHANGE in journalism unless the conversation is refocused on what matters most: How can the ever-hastening disruptive change be either met or overcome by adapting technology and creative business models?

Auch hier kann man — im Verhältnis zum bisherigen, inhaltlich definierten Journalismus — von Dezentrierung sprechen: Inhaltliche und technische Kompetenz lassen sich im Journalismus der Zukunft noch weniger trennen als in der Vergangenheit; die Qualität von Journalisten hängt davon ab, dass sie fortgeschrittene Technik verwenden, und sie stellen ihren Communities Techniken zur Verfügung, um Nachrichten auszutauschen, zu prüfen und zu kommentieren.

Zu den Wörtern des Jahres 2008 gehört Zeitungskrise. Wie Unglücksbotschaften in einem antiken Drama erreichten Nachrichten über
sinkende Leserzahlen und Entlassungen die Branche. Am härtesten traf die Krise die Zeitungen in den USA. Dort fallen die
Werbeeinahmen seit Sommer 2006 kontinuierlich. 2008 gingen sie im ersten
Quartal gegenüber dem Vorjahr um 12,9, im zweiten um 15,1 und im
dritten um 18,1 Prozent zurück. Die katastrophale Entwicklung dürfte
sich im letzten Quartal noch verschlimmert haben. Im dritten Quartal
hat die Muttergesellschaft der New York Times eine Wertberichtigung um 166 Mio. Dollar für ihren Zeitungsbesitz vorgenommen, die Muttergesellschaft der Chicago Tribune und der Los Angeles Times hat sogar Konkurs angemeldet.. Insgesamt wurden bei amerikanischen Zeitungen 2008 über 15 000 Stellen gestrichen.

Papercuts_small

(Grafik: Papercuts stellt Entlassungen bei amerikanischen Zeitungen auf einer Google Map dar; auf die Seite hat bereits Dirk von Gehlen in seinen Digitalen Notizen hingewiesen.)

Zwei langsame, aber kontinuierliche Trends — die Abwanderung der User und die Abwanderung der werbetreibenden Wirtschaft ins Netz — und die dramatisch schlechte Konjunktursituation verstärken sich gegenseitig.

Nicht nur Beschäftigte amerikanischer Zeitungen blicken in einen Abgrund. Die Situation in England ähnelt der in den USA. Ein Bericht der
Beratungsfirma Deloitte sagt für 2009 voraus, dass täglich ca. 9
Millionen Tageszeitungen verkauft werden, nach 11 Millionen 2008 und
12,8 Millionen 2002 [Writing on the wall for newspapers]. Jede zehnte Zeitung werde schließen müssen. Das Werbevolumen werde sinken, die Rubrikenmärkte dürften drastisch schrumpfen.

Wie deutsche Medienhäuser auf die erwarteten Gewinneinbrüche reagieren, hat Christiane Schulzki-Haddouti zusammengestellt.

Weltweit wird der Zeitungsbranche für 2009 vorausgesagt, dass die Werbeeinnahmen um 3,6 Prozent sinken — das ist mehr als bei allen anderen Medien. Bei einer von UBS gesponserten Medienkonferenz in New York prophezeite Adam Smith von der Firma GroupM einen Kulturwandel in der Zeitungsbranche: Die Gewinnmargen für lokale und regionale Zeitungen würden unwiderruflich von 30% auf 10% fallen.

Wenn man den Analysen in Wirtschaftszeitungen glauben darf, so ist diese Entwicklung unumkehrbar. Zeitungsverlage werden nie wieder zu ihrer einstigen Größe — und das heißt auch: zu den einstigen Gewinnen — zurückfinden. Um ihr Geschäft überhaupt profitabel weiter betreiben zu können, müssen sie sich neu orientieren.

Online-Zeitung statt gedruckte Zeitung?

Andererseits: Bei der LA Times — also einer Zeitung im Konkursverfahren — übertreffen die Einnahmen aus dem Online-Geschäft erstmals die Kosten der Redaktion, und insgesamt haben die Zugriffe auf die Online-Ausgaben der US-Zeitungen im vergangenen Jahr deutlich zugenommen. Die Nutzung der 30 stärksten Zeitungssites in den USA stieg steil an; die LA Times hatte 143% der Benutzer des Vorjahrs. Studien zeigen, dass das Web in den USA 2008 zum ersten Mal als Nachrichtenmedium die Zeitungen überholte; bei jungen Erwachsenen liegt es mit dem Fernsehen gleichauf.

Pew

(Grafik: Copyright © 2008 Pew Research Center All Rights Reserved)

Die nächstliegende Frage ist natürlich: Wird oder kann Online Print ablösen und verwandeln sich die Zeitungen mehr und mehr in Online- Zeitungen? Ziemlich sicher kann man sagen, und dass Zeitungen auf absehbare Zeit online nicht so viel verdienen können, wie ihnen im Print verlorengeht. Wie James Surowiecki im New Yorker festgestellt hat, subventionieren die Leser der Printausgaben die redaktionelle Qualität der Websites der Zeitungen.

Do what you do best and link to the rest als wirtschaftliche Maxime

Interessanter als die simple Alternative Online oder Print? ist die Frage, ob sich die Zeitungen auch qualitativ verändern, welche Folgen die Krise für ihre Angebote hat. Die erste und sichtbarste Folge der Krise ist natürlich, dass die Zeitungen ihr redaktionelles Angebot kürzen: Damit gleiten sie auf einer Todesspirale abwärts — weniger Inhalt macht die Blätter für die Leser weniger attraktiv, weniger Leser zwingen dazu, inhaltlich noch weiter abzuspecken.

Todesspirale

(Grafik: Telemedicus/Anja Assion; some rights reserved)

In den USA zeichnet sich aber auch eine andere Entwicklung ab. Zeitungen schließen neue Allianzen, an die vor kurzem noch niemand gedacht hat. Frühere Konkurrenten überlegen ihre Vertriebe zusammen zu legen. Bündnisse zur gemeinsamen Online-Vermarktung haben erstmals Erfolgschancen. Jeff Jarvis empfiehlt den Zeitungen, nur noch über die Themen selbst zu berichten, bei denen sie die größte Kompetenz haben und sonst auf andere Angebote zu verweisen.

Man versteht Jarvis‘ Satz „cover what you do best, link to the rest“ meist als Anweisung an Autorinnen: Schreibe über die Dinge, die du kennst und linke auf alle anderen Information. Er drückt aber auch ein Geschäftsprinzip für Verlage aus: Mache mit deinen Publikationen, was du am besten kannst, und greife überall da auf andere zurück, wo sie die besseren Informationen haben. Die Regel zieht letztlich die Konsequenz daraus, dass im Netz jede Benutzerin und jeder Benutzer ihre
eigenen Informationen selbst zusammenstellen kann. Wenn ich auf
einer anderen Website weit bessere Informationen über Wirtschaft
finde als auf der Website meiner Zeitung, werde ich sie dort holen. Es
bringt also relativ wenig, wenn meine Zeitung versucht, mir ähnliche
Informationen auch noch anzubieten — möglicherweise aber viel,
wenn sie mich auf die bestmöglichen Informationen hinweist. In gedruckten
(Tages-)zeitungen ist das anders: Da erwarteten die Leserinnen vollständige
Berichterstattung über alle Themen in einem Blatt.

Jarvis empfiehlt zum Beispiel, dass eine Zeitung wie die Los Angeles Times die nationale und internationale Berichterstattung von einer Site wie der Washington Post übernimmt und umgekehrt anderen Zeitungen Ihre Berichterstattung über das Entertainment-Business und Hollywood zur Verfügung stellt. Die Los Angeles Times würde zu einem Spezialisten für Ereignisse in ihrer Region. Ich vermute, dass sich auf Dauer im Netz nur eine solche Aufgabenteilung oder Verknüpfung unterschiedlicher Angebote wird durchsetzen können. (Das kann, muss aber nicht auf Kosten der Qualität gehen.) Das unbundling der Nachrichten könnte auf zwei Stufen stattfinden: beim Verbraucher, der sich sein individuelles Nachrichtenpaket zusammenstellt, und bei Zeitungen und Newsportalen, die — außer ihren eigenen Berichten — eine redaktionelle Auswahl aus der Vielzahl weiterer Nachrichten anbieten. Für Journalisten könnte das bedeuten, dass sie die größten Arbeitsmarktchancen haben, wenn sie sich einerseits thematisch
spezialisieren und andererseits für möglichst viele Abspielplattformen
arbeiten können. (Im deutschen Sprachraum reagierte Thomas Knüwer schnell auf Jarvis‘ Vorschlag für die LA Times; er konzentrierte sich aber auf die Frage, warum Zeitungen hier nach wir vor Angst vor Hyperlinks haben.)

Eine Publikation oder Website als Knoten in einem Netz zu verstehen, zu dessen Qualität die Beziehungen zu den anderen Knoten gehört (einschließlich den Mitbewerbern) ist für traditionelle Verlage neu. Dieses Modell ist möglicherweise das Gegenteil der Vision von Medienmanagern, die so viele Inhalte wie möglich in möglichst vielen Medien aus einer Hand anbieten wollen. Diese Manager-Vision verträgt sich allerdings kaum mit der sehr viel stärkeren Position der Kunden im Netz. Wer sie verwirklichen wollte, müsste den Benutzerinnen die Macht wieder zu nehmen, zu der ihnen das Netz gerade verholfen hat. Im Netz suchen die Kunden nach Spezialisten, nach dem Angebot, das ihre Bedürfnisse am besten erfüllt. So werden sie es auch mit Medien halten. Die Zeitungskrise führt möglicherweise bei einigen Medienmanagern erstmals zu der Einsicht, dass sie sich auf diese veränderten Verhältnisse einstellen müssen.

In den letzten Wochen habe ich öfter über Linkjournalismus geschrieben. Der Ausdruck meint eine Methode — berichte, wo du dich auskennst, und linke auf den Rest! — und eine Haltung: verwende die Informationen, die du und deine Leser brauchen, und verweise auf ihre Urheber, auch wenn es deine Konkurrenten sind. Über Apture schreibe ich zugleich begeistert und skeptisch: Apture bietet enorme neue Möglichkeiten für den Linkjournalismus, kann aber auch benutzt werden, um die walled gardens der überkommenen Verlage vor den Stürmen des Webs und des Markts zu schützen.

Mit Apture kann eine Autorin einen Text einfach und wirkungsvoll mit Rich Media (Text, Bild, Audio, Video) ausstatten. Die Medien erscheinen in Popup-Fenstern, wenn der Benutzer mit ihnen verlinkte Textstellen überfährt. Sie stammen aus einem Pool aus frei zugänglichem Material, proprietäre Medien können hinzukommen.

Apture bei der BBC und der Washington Post

Die BBC hat Apture im Sommer auf ihrer News-Site getestet. Im Augenblick wird diskutiert, wie man weiter vorgehen will, und wie überhaupt auf den BBC-Seiten mit Links umgegangen werden soll. Am 8. Dezember gab die Washington Post bekannt, dass sie mit Apture zusammenarbeitet; sie will damit

offer readers a highly engaging way to view political data, congressional records, video, news and abstracts within a single washingtonpost.com browser experience. In addition, washingtonpost.com will make this data and content available to any blog or Web site that uses the Apture publishing platform [MarketWatch; dazu Only open news is good news – CNET News].

Andere Seiten, die Apture verwenden, können über die Washington Post auf dieselben Inhalte zugreifen.

Lawrence Lessig übernimmt in seinem Blog das Video, das zeigt, wir die Washington-Post mit Apture über den US-Kongress informiert. Es ist eine gute Einführung in die Technologie und ihre Möglichkeiten:

Ein Layer für Medien

Apture kommt den Bedürfnissen der Benutzerinnen wie der Autoren so sehr entgegen, dass man öfter leise wow sagt, wenn man es kennen lernt. Der Benutzer kann die Fenster vergrößern und verkleinern, er kann Serien von Medien durchblättern, zu bestimmten Stellen in Audios und Videos springen oder sich das Inhaltsverzeichnis eines Wikipedia-Artikels anzeigen lassen. Die Autorin installiert lediglich ein kleines JavaScript-Fragment — etwa als unsichtbares Widget in einem Weblog. Dann muss sie nur ein Wort markieren, und es erscheint ein Auswahlmenü für Medien. Apture durchsucht und verwendet Medien, die unter Creative Commons lizensiert sind. Eigene PDF-Dokumente kann man über Scribd hinzufügen. Man kann einen Text mit einer ausführlichen Dokumentation ausstatten, indem man auf mehrere Inhalte zugleich verweist. Bemerkenswert und so wohl einmalig: Apture-Authoring findet am fertigen Text außerhalb eines Content Management Systems statt. Da Apture ein eigenes Layer bildet, kann man seine Texte zur wikiartigen Bearbeitung durch andere Apture-Benutzer freigeben.

Die für mich beste Beschreibung der Möglichkeiten Aptures stammt von Ben Metcalfe, der zu Aptures board of advisors gehört. Wie Apture funktioniert, erfährt man im Apture Wiki. Allerdings gibt es dort nur wenig technische Informationen. Robin Good führt gründlich in Apture ein

Man kann Apture an- und abschalten, die Texte selbst werden durch Apture nicht verändert, sie erhalten lediglich ein zusätzliches Layer. Das erlaubt es, sie so anzulegen, dass sie auch ohne die Ergänzung durch Apture funktionieren — ein Muss unter Usability- und Accessibility-Gesichtspunkten. (Unter dieser Perspektive beschäftige ich mich hier nicht mit Apture, sie spielt wohl bei der Diskussion in der BBC eine wichtige Rolle.) Die Apture-Links können dynamisch sein und auf Material verweisen, das jeweils aktuell gesucht wird.

Hoffnung für Verleger?

Apture lässt sich mit jedem gängigen Blogging-Tool zusammen verwenden. Entworfen wurde es sowohl für Bloggerinnen wie für Verlage. Blogger müssen für Apture nichts bezahlen; Apture will Geld verdienen, indem es an den Werbeerlösen von Publikationen beteiligt wird, die Apture verwenden. Für Verlage ist an Apture attraktiv — und das ist eine seiner problematischen Seiten — dass die User auf den mit Medien ausgestatteten Seiten bleiben und nicht durch Links zu anderen Angeboten geschickt werden. Das Apture-Marketing nährt den Pfeifentraum der Medienhäuser, alle Inhalte aus einer Hand anzubieten. Die Praxis wird zeigen, ob Apture die Vernetzung und damit den Linkjournalismus unterstützen wird oder das Abschotten von Inhalten.

Ein Hinweis auf PeopleBrowsr — hier kommte etwas Wichtiges auf uns zu! Robert
Scoble:

For the past few weeks I’ve been using PeopleBrowsr. Very cool. It’s
the most significant thing to happen to social networking since
FriendFeed came on the scene a year ago. [Twitter (and all social networks) will never be the same thanks to PeopleBrowsr«]

Wie PeopleBrowsr funktioniert, zeigt Scobles Video

PeopleBrowsr stellt der Benutzerin ein Steuerpult für soziale Netze zur
Verfügung. Über das Steuerbord kann man die Streams und
Benutzerprofile, auf die man in verschiedenen sozialen Netzen
(z.B. Twitter, flickr, YouTube, seesmic, friendfeed, LinkedIn) Zugriff
hat, ansehen, mischen und manipulieren. PeopleBrowsr ist eine
gemeinsame Schnittstelle zu den Daten verschiedener sozialer Netze,
die es erlaubt, diese Daten zu kombinieren, zu ergänzen (z.B. indem
man Informationen über Personen eingibt) und über die Grenzen der
einzelnen Services hinweg zu nutzen, indem man z.B. Botschaften an
eine Gruppe schickt, zu der User von Twitter, flickr und seesmic
gehören.

Brian Solis, der PeopleBrowsr mitgestaltete, schreibt:

With one simple to use browser-based hub, everyone can view, group, and communicate with friends, and friends of friends, in and across all of the popular networks. You can update status, view posts, connect with contacts, make new friends, and share content within and between networks. [PeopleBrowsr Centralizes Conversations & Relationships: Introduces A Dashboard for Social Networks]

Man kann mit PeopleBrowsr Personen, aber natürlich auch Marken
verfolgen, man kann sich ein Addressbuch anlegen, und man kann
differenziert suchen und sich die Suchergebnisse als Stream anzeigen lassen.

Ich habe PeopleBrowsr nur kurz getestet; die Alphaversion ist
vielversprechend. Es wird versucht, das Maximum aus den Daten
herauszuholen, die Personen im Web über sich selbst und ihre
Aktivitäten publizieren — auch ein Anlass dafür, sich intensiv mit dem Thema
Öffentlichkeit und Privatsphäre im Web 2.0 zu beschäftigen.

In die rechte Kolumne von Lost and Found habe ich unter Tips ein Linkblog eingefügt. Gemacht ist das Linkblog mit Publish2 (Blog hier), einem Service für Journalisten zum Sammeln und Austauschen von Links. Ins Leben gerufen hat ihn Scott Karp, der in seinem Blog Publishing 2.0 den Link-Journalismus ausgerufen hat und promotet. Publish2 hat die meisten Funktionen von Delicious und erlaubt es, Links auch an Delicious zu posten. (Was ich tue, denn für mich bleibt Delicious das wichtigste Werkzeug, um Informationen zu sammeln.)

Publish2 enthält aber auch Funktionen, die delicious nicht bietet, und die die Recherche und das Publizieren erleichtern. So kann man bei demselben Link private und öffentliche Notizen machen. In eigenen Feldern können das Veröffentlichungsdatum und die Quelle festgehalten werden. Außerdem gibt es drei Kategorien von Bookmarks: außer denen für die Publikation von Links kann man welche für laufende Recherchen und für Hinweise auf eigene Publikationen anlegen. Außer an Delicious lassen sich Links auch an Twitter schicken, wahlweise mit eigenem Text oder dem öffentlichen Kommentar für die Linksammlung.

Wichtigstes Arbeitsmittel ist ein Bookmarklet. Wie es funktioniert, habe ich in einem Screencast festgehalten:

Link: Das publish2-Bookmarklet

Die Linksammlung jedes Benutzers ist auf einer Seite erreichbar; dort können die Links ausgetauscht und auch kommentiert werden. (Meine Publish2-Links sind außer in diesem Blog hier zu finden. Ein RSS-Feed kann hier über Feedburner abonniert werden.) Über diese Linksammlung kann man sich mit wenigen Klicks ein Widget erstellen, das man als Linkblog in sein Blog einbauen kann.

Publish2 integriert das Sammeln von Links in den journalistischen Workflow, und zwar in einer webgemäßen Weise, bei der Informationen auf allen Bearbeitungsstufen geteilt werden. Es gehört so in eine Reihe mit anderen Netzwerken für Journalisten, die verteiltes gemeinsames Arbeiten im Web erlauben, z.B. Wired Journalists.

Der Offenheit des Web 2.0 widerspricht, dass man zugelassen werden muss, wenn man Publish2 verwenden will. Es wird gecheckt, ob man entprechend professsionellen Standards arbeitet — für mich riecht das etwas nach Korporatismus. Ich fände es besser, wenn man sich innerhalb des Service ein Netzwerk von Vertrauenspersonen aufbauen könnte, statt gleich am Eingang geprüft zu werden. Allerdings hat die Bestätigung meines Accounts nur eine Stunde gedauert (als media outlet habe ich mein Blog angegeben) und ich freue mich, an dieser Initiative teilnehmen zu können.