Antwort auf die Zeitungskrise: Arbeitsteilung zwischen Redaktionen

Zu den Wörtern des Jahres 2008 gehört Zeitungskrise. Wie Unglücksbotschaften in einem antiken Drama erreichten Nachrichten über
sinkende Leserzahlen und Entlassungen die Branche. Am härtesten traf die Krise die Zeitungen in den USA. Dort fallen die
Werbeeinahmen seit Sommer 2006 kontinuierlich. 2008 gingen sie im ersten
Quartal gegenüber dem Vorjahr um 12,9, im zweiten um 15,1 und im
dritten um 18,1 Prozent zurück. Die katastrophale Entwicklung dürfte
sich im letzten Quartal noch verschlimmert haben. Im dritten Quartal
hat die Muttergesellschaft der New York Times eine Wertberichtigung um 166 Mio. Dollar für ihren Zeitungsbesitz vorgenommen, die Muttergesellschaft der Chicago Tribune und der Los Angeles Times hat sogar Konkurs angemeldet.. Insgesamt wurden bei amerikanischen Zeitungen 2008 über 15 000 Stellen gestrichen.

Papercuts_small

(Grafik: Papercuts stellt Entlassungen bei amerikanischen Zeitungen auf einer Google Map dar; auf die Seite hat bereits Dirk von Gehlen in seinen Digitalen Notizen hingewiesen.)

Zwei langsame, aber kontinuierliche Trends — die Abwanderung der User und die Abwanderung der werbetreibenden Wirtschaft ins Netz — und die dramatisch schlechte Konjunktursituation verstärken sich gegenseitig.

Nicht nur Beschäftigte amerikanischer Zeitungen blicken in einen Abgrund. Die Situation in England ähnelt der in den USA. Ein Bericht der
Beratungsfirma Deloitte sagt für 2009 voraus, dass täglich ca. 9
Millionen Tageszeitungen verkauft werden, nach 11 Millionen 2008 und
12,8 Millionen 2002 [Writing on the wall for newspapers]. Jede zehnte Zeitung werde schließen müssen. Das Werbevolumen werde sinken, die Rubrikenmärkte dürften drastisch schrumpfen.

Wie deutsche Medienhäuser auf die erwarteten Gewinneinbrüche reagieren, hat Christiane Schulzki-Haddouti zusammengestellt.

Weltweit wird der Zeitungsbranche für 2009 vorausgesagt, dass die Werbeeinnahmen um 3,6 Prozent sinken — das ist mehr als bei allen anderen Medien. Bei einer von UBS gesponserten Medienkonferenz in New York prophezeite Adam Smith von der Firma GroupM einen Kulturwandel in der Zeitungsbranche: Die Gewinnmargen für lokale und regionale Zeitungen würden unwiderruflich von 30% auf 10% fallen.

Wenn man den Analysen in Wirtschaftszeitungen glauben darf, so ist diese Entwicklung unumkehrbar. Zeitungsverlage werden nie wieder zu ihrer einstigen Größe — und das heißt auch: zu den einstigen Gewinnen — zurückfinden. Um ihr Geschäft überhaupt profitabel weiter betreiben zu können, müssen sie sich neu orientieren.

Online-Zeitung statt gedruckte Zeitung?

Andererseits: Bei der LA Times — also einer Zeitung im Konkursverfahren — übertreffen die Einnahmen aus dem Online-Geschäft erstmals die Kosten der Redaktion, und insgesamt haben die Zugriffe auf die Online-Ausgaben der US-Zeitungen im vergangenen Jahr deutlich zugenommen. Die Nutzung der 30 stärksten Zeitungssites in den USA stieg steil an; die LA Times hatte 143% der Benutzer des Vorjahrs. Studien zeigen, dass das Web in den USA 2008 zum ersten Mal als Nachrichtenmedium die Zeitungen überholte; bei jungen Erwachsenen liegt es mit dem Fernsehen gleichauf.

Pew

(Grafik: Copyright © 2008 Pew Research Center All Rights Reserved)

Die nächstliegende Frage ist natürlich: Wird oder kann Online Print ablösen und verwandeln sich die Zeitungen mehr und mehr in Online- Zeitungen? Ziemlich sicher kann man sagen, und dass Zeitungen auf absehbare Zeit online nicht so viel verdienen können, wie ihnen im Print verlorengeht. Wie James Surowiecki im New Yorker festgestellt hat, subventionieren die Leser der Printausgaben die redaktionelle Qualität der Websites der Zeitungen.

Do what you do best and link to the rest als wirtschaftliche Maxime

Interessanter als die simple Alternative Online oder Print? ist die Frage, ob sich die Zeitungen auch qualitativ verändern, welche Folgen die Krise für ihre Angebote hat. Die erste und sichtbarste Folge der Krise ist natürlich, dass die Zeitungen ihr redaktionelles Angebot kürzen: Damit gleiten sie auf einer Todesspirale abwärts — weniger Inhalt macht die Blätter für die Leser weniger attraktiv, weniger Leser zwingen dazu, inhaltlich noch weiter abzuspecken.

Todesspirale

(Grafik: Telemedicus/Anja Assion; some rights reserved)

In den USA zeichnet sich aber auch eine andere Entwicklung ab. Zeitungen schließen neue Allianzen, an die vor kurzem noch niemand gedacht hat. Frühere Konkurrenten überlegen ihre Vertriebe zusammen zu legen. Bündnisse zur gemeinsamen Online-Vermarktung haben erstmals Erfolgschancen. Jeff Jarvis empfiehlt den Zeitungen, nur noch über die Themen selbst zu berichten, bei denen sie die größte Kompetenz haben und sonst auf andere Angebote zu verweisen.

Man versteht Jarvis‘ Satz „cover what you do best, link to the rest“ meist als Anweisung an Autorinnen: Schreibe über die Dinge, die du kennst und linke auf alle anderen Information. Er drückt aber auch ein Geschäftsprinzip für Verlage aus: Mache mit deinen Publikationen, was du am besten kannst, und greife überall da auf andere zurück, wo sie die besseren Informationen haben. Die Regel zieht letztlich die Konsequenz daraus, dass im Netz jede Benutzerin und jeder Benutzer ihre
eigenen Informationen selbst zusammenstellen kann. Wenn ich auf
einer anderen Website weit bessere Informationen über Wirtschaft
finde als auf der Website meiner Zeitung, werde ich sie dort holen. Es
bringt also relativ wenig, wenn meine Zeitung versucht, mir ähnliche
Informationen auch noch anzubieten — möglicherweise aber viel,
wenn sie mich auf die bestmöglichen Informationen hinweist. In gedruckten
(Tages-)zeitungen ist das anders: Da erwarteten die Leserinnen vollständige
Berichterstattung über alle Themen in einem Blatt.

Jarvis empfiehlt zum Beispiel, dass eine Zeitung wie die Los Angeles Times die nationale und internationale Berichterstattung von einer Site wie der Washington Post übernimmt und umgekehrt anderen Zeitungen Ihre Berichterstattung über das Entertainment-Business und Hollywood zur Verfügung stellt. Die Los Angeles Times würde zu einem Spezialisten für Ereignisse in ihrer Region. Ich vermute, dass sich auf Dauer im Netz nur eine solche Aufgabenteilung oder Verknüpfung unterschiedlicher Angebote wird durchsetzen können. (Das kann, muss aber nicht auf Kosten der Qualität gehen.) Das unbundling der Nachrichten könnte auf zwei Stufen stattfinden: beim Verbraucher, der sich sein individuelles Nachrichtenpaket zusammenstellt, und bei Zeitungen und Newsportalen, die — außer ihren eigenen Berichten — eine redaktionelle Auswahl aus der Vielzahl weiterer Nachrichten anbieten. Für Journalisten könnte das bedeuten, dass sie die größten Arbeitsmarktchancen haben, wenn sie sich einerseits thematisch
spezialisieren und andererseits für möglichst viele Abspielplattformen
arbeiten können. (Im deutschen Sprachraum reagierte Thomas Knüwer schnell auf Jarvis‘ Vorschlag für die LA Times; er konzentrierte sich aber auf die Frage, warum Zeitungen hier nach wir vor Angst vor Hyperlinks haben.)

Eine Publikation oder Website als Knoten in einem Netz zu verstehen, zu dessen Qualität die Beziehungen zu den anderen Knoten gehört (einschließlich den Mitbewerbern) ist für traditionelle Verlage neu. Dieses Modell ist möglicherweise das Gegenteil der Vision von Medienmanagern, die so viele Inhalte wie möglich in möglichst vielen Medien aus einer Hand anbieten wollen. Diese Manager-Vision verträgt sich allerdings kaum mit der sehr viel stärkeren Position der Kunden im Netz. Wer sie verwirklichen wollte, müsste den Benutzerinnen die Macht wieder zu nehmen, zu der ihnen das Netz gerade verholfen hat. Im Netz suchen die Kunden nach Spezialisten, nach dem Angebot, das ihre Bedürfnisse am besten erfüllt. So werden sie es auch mit Medien halten. Die Zeitungskrise führt möglicherweise bei einigen Medienmanagern erstmals zu der Einsicht, dass sie sich auf diese veränderten Verhältnisse einstellen müssen.

Für Armin Thurnher: Notizen zu einer Rechtfertigung des Internets

Armin Thurnher sorgt sich in seinem Kommentar Warum ich mich weigere, das Internet als Medium wirklich ernst zu nehmen im Falter vom 17.12.2008 um die Qualität der öffentlichen Diskussion. Ich fürchte, dass Interventionen wie dieser Artikel dem Niveau der Debatten über die Medien mehr schaden als nutzen, denn sie zielen nicht auf das Internet sondern auf eine Karikatur des Netzes: Urheberrechtsverletzer, anonyme Poster, gefakete Identitäten und irrationale Suchmaschinen-Algorithmen bestimmen das Bild. Diese Karikatur ist sicher nicht beabsichtigt; Thurnher hat Gegenargumente verdient. Auch und gerade in seinen Missverständnissen ist er ein interessanterer und nicht zuletzt eleganterer Widerpart als Wolfgang Lorenz mit seinem Sager vom Scheiss-Internet. Außerdem teilen viele der Gebildeten unter den Verächtern des Internets seine Vorstellungen von diesem Medium, das sie nur mit intellektuellen Beisszangen anfassen. Leider hat von den österreichischen Bloggern kaum jemand auf Thurnher reagiert (Ausnahmen: Gerald Bäck, Tom Schaffer; [Update und Korrektur, 24. Dezember: nachzutragen sind Blumenau, Andreas Ulrich und Bruckner]). Hier ein paar Kommentare zu Zitaten aus Thurnhers Artikel:

… egomanische Ich-AGs der Blogosphäre

Ich weiß nicht, ob Armin Thurnher Blogs liest. Selbst wenn: Diesen Eintrag wird er vermutlich nicht finden. Da ich ihn mit seinem Artikel nicht verlinken kann, wird er ihn nicht in seinen Referrer-Links oder Trackbacks entdecken. Ich kann im Falter auch keinen Kommentar schreiben, bestenfalls einen Leserbrief, den dann die Redaktion prüft. Im Qualitätsmedium Zeitung kommen nur wenige zu Wort, und diese wenigen erhalten nur selten Antworten von Lesern. Das Medium Zeitung ist exklusiv. Warum Thurnher, der die Regeln dieses Mediums beherrscht, von den egomanischen Ich-AGs der Blogosphäre spricht, gehört zu den vielen Rätseln, die sein Text aufgibt.

… unterläuft das Freiheitsgefühl im Internet das Urheberrecht, also jede Form des geistigen Eigentums als illegitim

Ob ein Gefühl ein Recht als illegitim unterlaufen kann, sei dahingestellt. Aber nicht nur das Formulierung, das Argument selbst ist schief. Als das Urherberrecht — und vor allem die rechtlich abgesicherten Formen der Verwertung von geistigem Eigentum — durchgesetzt wurde, konnte man Inhalte nur verbreiten, indem man materielle Träger (meist aus Papier) vervielfältigte. Dabei achteten die Gesetzgeber übrigens darauf, dass die Gesellschaft geistige Leistungen angemessen weiter nutzen konnte, z.B. durch das Zitatrecht, die Möglichkeit Lizenzen zu erwerben oder auch durch die Kopierschutzabgaben. In Zeiten der digitalen Kopie und des fast unbegrenzten Speicherplatzes (also einer früher unvorstellbaren Beschleunigung und Vervielfältigung des Verkehrs der Ideen) lassen sich diese Rechte nicht nur nicht wirksam schützen, sie behindern die geistigen Leistungen, die im Web möglich werden, so wie Softwarepatente die Entwicklung von Software mehr blockieren als fördern. Es ist nicht Schuld des Internets, dass das bestehende Recht sich auf technische Verhältnisse bezieht, die erst durch die Digitalisierung als historisch bedingt und überholt erkannt werden können. Aufgeklärte Juristen wie Lawrence Lessig haben es als ihre Aufgabe erkannt, diesen Entwicklungen Rechnung zu tragen. Sie haben die Creative Commons-Lizenz erarbeitet um die freie Kultur im Netz zu sichern. Weitere rechtliche Regelungen werden folgen. Wer das Internet erst als Medium nutzen möchte, wenn das Rechtssystem nachgezogen hat, hätte Luther und Erasmus raten müssen, keine Bücher zu publizieren, bevor die Obrigkeit das Verlagswesen endlich unter ihren Schutz — und damit unter ihre Kontrolle — stellen würde.

Zweitens meint dieses Freiheitsgefühl ohne den Grund der Freiheit auszukommen, dass sich nämlich Personen offen mit ihrer Identität zu ihren Grundsätzen und Äußerungen bekennen …

Auch in dieser Formulierung unterstellt Thurnher einem Gefühl, es sei durch eine Meinung begründet. Vor allem aber: Er ignoriert, dass man sich im Internet durchaus als Person mit seiner Identität zu seinen Grundsätzen und Äußerungen bekennen kann. Und Thurnher scheint nicht zu wissen, dass das Konzept der Identität (und damit verbunden Probleme der Authentifizierung und des Datenschutzes) zu den Themen gehören, die von Entwicklern und Theoretikern des Web am intensivsten diskutiert werden.

Thurnher wirft dem Internet vor, dass man in ihm anonym posten kann. Wer aber wird gezwungen, sich anonym zu äußern (jedenfalls in den westlichen, freien Gesellschaften) oder anonyme Posts zu lesen? Jeder, der ernsthaft im Web publiziert — ob als egomanische Ich-AG oder nicht — nennt seinen Namen. Ich kenne keinen Blogger, der nicht als Person greifbar ist. Social Networks, Twitter und andere Web 2.0-Dienste bringen Autorinnen — als Personen — und ihre Leserinnen näher zusammen, als es irgenwo in den Printmedien möglich ist: Wer will, kann sich zeitnah und in allen seinen Äußerungen vom Bookmark zum Reiseplan verfolgen lassen. Unbekannt bleiben allenfalls die Schreiberinnen und Schreiber hinter den Websites der sogenannten Qualitätsmedien. Dort ist die Nennung von Autoren oft ebenso unüblich wie das Linken auf im Web zugängliche Quellen von Artikeln.

Sicher: Man kann anonym posten. Sicher: Anonymität ist meist ein Zeichen der Unseriosität. Medien wie der ORF und der Standard wären wahrscheinlich gut beraten, wenn sie anonyme Poster blockierten. Für Blogs hat das schon vor Jahren Tim O’Reilly in seinem Code of Conduct gefordert. Ich verbringe selbst zwischen 2 und 12 Stunden am Tag damit, Texte im Web zu lesen. Ich glaube nicht, dass ich mich in diesem Jahr auch nur eine Stunde mit anonymen Postings beschäftigt habe. Gegen Beleidigungen und Verunglimpfungen in Kommentaren ohne Nennung des Verfassers kann man schon heute rechtlich vorgehen.

… Solange die Frage der Identität im Internet nicht geklärt ist, darf man dieses Medium nicht ernst nehmen. Was spräche denn dagegen, im Netz nur Menschen zur Publikation zuzulassen, die sich identifizieren, wie in anderen Öffentlichkeiten auch?

Jeder kann im Web eine fingierte Identität anzunehmen und dort unter einer Maske aufzutreten, etwa als lonelygirl15 bei youTube. Aber diese Art der Verwendung von Pseudonymen ist nicht typisch für das Internet, sie ist in gedruckten Medien genauso möglich und durchaus üblich, von Josefine Mutzenbacher bis zu Dr. Sommer in der Bravo. Über Jahrhundert haben Gelehrte daran gezweifelt, dass der Autor William Shakespeare mit einem Schauspieler aus Stratford-on-Avon identisch ist. Soll man Shakespeare deshalb nicht ernst nehmen?

Es geht hier nicht um Datenschutz und digitale Bürgerrechte, aber das Thema Anonymität lässt sich ohne Rücksicht auf den Datenschutz nicht diskutieren. Die Freiheit wird nicht von der Anonymität im Internet bedroht, sondern von ihrer Aufhebung. Jede und jeder kann sich im Internet äußern. Wer bei allen Äußerungen den Urheber identifizieren will, verlangt eine Kontrolle, die nichts und niemand auslässt. (Und auch damit paktiert er mit der Musikindustrie, die sich durch allumfassende Kontrolle ein raubritterartiges Recht auf Weitergabe von Musik sichern will.) Liberale sollten danach nicht rufen. Nichts gefährdet die Freiheit mehr als die technische Möglichkeit, genauere Daten über jede einzelne und jeden einzelnen zu gewinnen, zu speichern und auszuwerten, als es selbst den totalitären Regimen des 20. Jahrhunderts möglich war. Wer das Urheberrecht aus der Zeit der Druckerpresse im Internetzeitalter durchsetzen und wer Anonymität im Internet ausschließen will, gefährdet die Freiheit, die er verteidigen will. Die Staaten, die schon heute nur Menschen zur Publikation zulassen wollen, die sich identifizieren, heißen China und Russland; im Italien Berlusconis ist ähnliches geplant.

Ferner geht im Internet das Gefühl für Qualität verloren.

Da stellt sich die Frage: Bei wem? Bei den Digital Natives oder bei denen, die von außen auf das Internet schauen und nicht mit ihm umgehen können? Clay Shirky hat gerade darauf hingewiesen, dass die Klagen über den Bildungsverfall durch das Internet Argumente wiederholen, die in den 50er und 6oer Jahren gegen das Fernsehen vorgebracht wurden. In seinem Interview, dass ich Thurnher gerne empfehlen würde (so wie Shirkys Buch Here Comes Everybody) weist er darauf hin, dass heute dank des Internets viel mehr Menschen viel mehr schreiben als je zuvor. Kann man angesichts von Kronenzeitung, Österreich und ORF 1 ernsthaft dem Internet vorwerfen, dem Gefühl für Qualität zu schaden?

Thurnhers Beispiel — eine Google News-Falschmeldung, die auf einen irrtümlich verwendeten 6 Jahre alten Zeitungsartikel zurückgeht — besagt nur, dass man Google News nicht mehr trauen darf als anderen Quellen. Es gibt genug Beispiele dafür, dass Blogger Falschmeldungen der traditionellen Medien korrigierten; ein bekannter Fall sind die angeblichen Dokumente zur Miltärzeit von George Bush, die von Bloggern als Fakes erkannt wurden. Auch ich traue einem Redakteur der NZZ mehr als anderen Quellen — weil er bei der NZZ arbeitet, nicht weil er ein Zeitungsredakteur ist.

Solange über die erwähnten Punkte aber nicht einmal ernsthaft diskutiert wird, löst das Internet nicht die Probleme der Öffentlichkeit, es verschärft sie nur

Dass über die von Thurnher erwähnten Punkte nicht ernsthaft diskutiert wird — im Internet und von Menschen, die das Internet als Medium weiterentwickeln wollen — kann man nur behaupten, wenn man sich mit dem Internet nicht ernsthaft beschäftigt. Auf ein paar dieser Diskussionen habe ich in meinem ersten Post zu Thurnher schon verwiesen. Dass Thurnher diese Diskussionen ignoriert und über sie hinwegschreibt, ist symptomatisch für eine Haltung, die er nicht nur mit Wolfgang Lorenz, sondern auch mit einem Konrad Paul Liessmann oder auch Norbert Bolz teilt. Wie sie ist Thurnher ein Kenner des herkömmlichen Medienbetriebs, in dem er seit Jahrzehnten aktiv ist. Thurnher, Lorenz oder Liessmann glauben, dass sie etwas vom Web oder vom Internet verstehen, weil sie viel von der Presse und den Mechanismen der Massenmedien verstehen. Mit einer Art déformation professionelle nehmen sie das Internet als defizienten Modus der Medien wahr, die ihm vorausgingen. Aber: ich kann es leider nur so lehrerhaft sagen: Das Internet ist ein komplexes Phänomen, es hat eigene Regeln, eigene Prinzipien und eine eigene Geschichte, die man nicht lieben muss, aber kennen sollte, wenn man über dieses Medium schreibt. Vielleicht muss man dazu sogar, um Clay Shirky noch einmal zu bemühen, einiges von dem verlernen, was man über die Medien zu wissen meint.

Gnade uns Gott, es kommt eine Krise

Das Default-Argument zum Schluss: Hätten die Anhänger Barack Obamas das Internet als Medium nicht wirklich ernst genommen, Obama wäre wahrscheinlich nicht zum Präsidenten gewählt worden. Er selbst nimmt es so ernst, dass er seine Politik zuerst im Web präsentiert und diskutiert — bis hin zur Publikation der transition manuals für die Mitglieder der neuen Administration. Gleichzeitig kreuzen die US-Zeitungen gerade durch eine Krise, neben der die Probleme unserer Printmedien wirken wie der Föhn neben einem Hurrikan. Die American Society of Newspaper Editors traut sich nicht recht, das Wort paper in ihrem Namen zu behalten. Unsere Diskussionen über des Scheiss-Internet oder darüber, ob man das Internet als Medium wirklich ernst nehmen soll, nehmen sich vor diesem Hintergrund aus wie die Diskussionen mit Fundamentalisten über den Wahrheitsgehalt des Schöpfungsberichts.

Warum ich mich weigere, Armin Thurnher ernst zu nehmen, wenn er über das Internet schreibt

Nur eine erste Antwort: Weil er nicht weiß, wovon er spricht, und weil er desavouiert, was er hochhält. Ahnungsloser lässt sich kaum schreiben.

Am Ende von Thurnhers Kommentar im gestrigen Falter (Printausgabe) finden sich zwei Argumente:

  1. Das „Internet“ bedrohe das Urheberrecht.

  2. Das Problem der Identität im Web sei nicht gelöst, jeder könne anonym posten.

Hat Armin Thurnher je von den Creative Commons, von den Arbeiten Lawrence Lessigs gehört? Hat er sich mit den Diskussionen über OpenID, über Identity 2.0 beschäftigt? Hält er es überhaupt für der Mühe wert, zu dem Medium zu recherchieren, das er hier verurteilen will?

Wer das Internet nicht ernst nimmt, weil anonym Unsinn gepostet werden kann, darf den Falter nicht mehr ernst nehmen, weil die Krone ein Schmierblatt ist. Und wer dem Internet vorwirft, das Urheberrecht zu gefährden, erklärt die Reproduktion von materiellen Informationsträgern zur Norm für die Medien der Zukunft.

Ich habe Armin Thurnher bewundert, seit ich österreichische Zeitungen lese. Ich ziehe den Falter allen anderen österreichischen Blättern vor. Schade, dass sich ausgerechnet Thurnher damit zufrieden gibt, Gemeinplätze wiederzuverwerten, wenn er über das Internet schreibt!

So weit die nächtliche Reaktion eines egomanischen Bloggers. Weiteres mit mehr Ruhe in den kommenden Tagen!

Warum sollen wir noch Journalisten ausbilden, wenn der Journalismus stirbt?

An unserem Studiengang kommt es immer wieder zu Diskussionen über die Zukunft des Journalismus. Dabei geht es auch um unser zukünftiges Masterprogramm. Ich bin dafür, auch darin Journalisten auszubilden und das auch öffentlich deutlich zu machen, so wie wir es jetzt im Bachelorstudiengang tun.

Für unsere Hochschule ist die Frage, wie wir es mit dem Journalismus halten, zentral. Ich möchte nicht, dass der Eindruck entsteht, dass ich als Evangelist der sozialen Medien den Journalismus für tot halte. Das Gegenteil ist der Fall. Meine Position möchte ich in einigen plakativen, provisorischen und persönlichen Thesen beschreiben. Ich werde an ihnen weiterarbeiten und hoffe auf eine Diskussion.

  1. Apokalyptische Schemata und revolutionäre Rhetorik sagen mehr über ihre Urheber aus als über die Wirklichkeit. Entwicklungen in komplexen Systemen lassen sich grundsätzlich nicht voraussagen. Wer über die Medien in der Zukunft spricht, und meint, er könne seine Aussagen verifizieren, ist bestenfalls ein Scharlatan.

  2. Der Journalismus endet nicht, weil die Verlage sterben. Die Geschäftsmodelle der Verlagsbranche sind in einer Krise. Verlage haben immer davon gelebt, Inhalte zu kaufen oder zu erstellen, Träger für diese Inhalte zu reproduzieren und sie zu distribuieren. Dieses Modell ist für digitale Inhalte obsolet. (Damit ist aber nicht gesagt, dass es nicht auch Inhalte geben wird, die weiterhin auf Papier verteilt werden.) Viele Verlage und Medienhäuser bewegen sich auf einer Todesspirale: Einnahmeverluste lassen die Qualität sinken und umgekehrt. Dass mit dieser Krise der Journalismus aufhört, ist so unwahrscheinlich, wie dass die Krise der großen Plattenlabels zum Untergang der Popmusik führt — auch wenn die Labels das behaupten.

  3. Journalismus im Web findet verteilt und dezentral statt. Das Web vernetzt Menschen und Medien: Wenn alles mit allem verknüpft werden kann, entwickeln sich die Knoten am besten, die für die anderen Knoten wichtig sind und sich intelligent mit ihnen verbinden.

  4. Unsere Kultur wird auf den Journalismus so wenig verzichten wie auf die Wissenschaft oder die unabhängige Rechtsprechung. Journalismus dient im Kern dazu, unbeeinflusst von Interessen über aktuelle Ereignisse zu informieren; dazu haben sich eine Reihe von Methoden, Techniken und Praktiken entwickelt. Kulturell sind sie vergleichbar mit anderen Methoden der Wahrheitsfindung im Rechtssystem, in der Philologie und Historiographie oder in den Naturwissenschaften. (Ich bin vielleicht naiv, aber wie Tim Bray glaube ich an die Wahrheit. Ich bin davon überzeugt, dass die Bedeutung eines Satzes in seinen Wahrheitsbedingungen besteht.)

  5. Die journalistischen Recherche- und Verifikationsmethoden verändern sich radikal. Immer mehr Informationen sind öffentlich zugänglich; Journalistinnen können (und sollen) publizieren, wie sie zu ihren Aussagen kommen; Newsrooms werden transparent arbeiten, wenn sie in einer vernetzten Öffentlichkeit eine Chance haben wollen. Journalismus hängt immer mehr von Daten ab und muss mit Daten umgehen. Diese Veränderungen bedeuten für den Journalismus Chancen auf größere Aktualität, mehr Kontext, direkteren Zugang zu Quellen, also zu größerer Qualität. Die Grundlagenkrise wird den Journalismus so wenig umbringen, wie Grundlagenkrisen in der Wissenschaft des 20. Jahrhunderts zum Ende der Physik geführt hat.

  6. Die Gesellschaft wird mehr und nicht weniger Journalismus brauchen. Je mehr die Gesellschaft zu einer Informations- oder Wissensgesellschaft wird, desto größer wird der Bedarf nach verlässlicher Information. Das Leben von immer mehr Menschen hängt davon ab, dass sie nicht nur über Politik, sondern auch über Entwicklungen in der Wirtschaft, der Wissenschaft und den Medien informiert werden. Je mehr Firmen und Organisationen auf Kommunikation angewiesen sind, desto wichtiger werden neutrale Informationsquellen. Wenn journalistische Qualität weniger von Unternehen (Verlagen) finanziert wird, wird der gesellschaftliche Druck wachsen, die anders zu ermöglichen, z.B. im öffentlich-rechtlichen System und durch Non-Profit-Organisationen und NGOs.

  7. Es entwickeln sich neue Geschäftsmodelle und Berufsbilder. Es gibt viele Beispiele dafür, dass journalistische Kompetenz im Web erfolgreich vermarktet werden kann, von der Sportberichterstattung bei adrivo bis zu einem Branchenmagazin wie turi2. Zum Erfolg gehört es dabei, die Vorteile des Webs zu nutzen und auf eine überflüssige materielle Infrastruktur zu verzichten.

  8. Journalistische Kompetenz wird mehr und mehr außerhalb der traditionellen Berufsfelder gefragt werden. Jeder Mensch und jede Organisation kann im Web selbst publizieren. Blogs, Microblogs und Wikis haben bereits einen blühenden Mikrojournalismus hervorgebracht. Erfolg mit solchen Publikationen ist auch eine Sache journalistischer Kompetenz. Journalisten sind deshalb immer mehr auch als Vermittler und Pädagogen gefragt. Dass jeder journalistisch arbeiten kann, bedeutet aber nicht, dass es keine professionellen Journalisten mehr geben wird. Die professionelle Fotografie ist nicht untergegangen, weil sich jeder Mensch eine Kamera leisten kann.

  9. Öffentlichkeitsarbeit und PR werden sich nicht weniger radikal verändern als der Journalismus. Aus der Krise in der Medienbranche kann man nicht schließen, dass es sinnvoller sei, für PR und Unternehmenskommunikation auszubilden. PR, die sich auf die klassischen Medien verlässt, wird weniger wichtig werden, wenn diese Medien zu Randphänomenen werden. Gerade in der Organisations- und Unternehmenskommunikation ist aber journalistische Kompetenz gefragt, und dabei wird es sich immer mehr die Kompetenzen handeln, die Robert Scoble „Journalismus Plus“ nennt.

  10. Erfolgsfaktoren für Journalistinnen sind Medien- und Netzwerkkompetenz und Wissen auf einem Fachgebiet. Durch das Web sinkt die Bedeutung von materieller Infrastruktur und hierarchischer Organisation. Inhaltlich kompetente Menschen können direkt die Öffentlichkeit und die Medien erreichen. Noch mehr als bisher wird der Erfolg eines Journalisten damit von seiner fachlichen Kompetenz und seiner Fähigkeit abhängen, sich eine persönliche Marke aufzubauen. Wie und wie gut so etwas funktionieren kann, zeigen in unserer Region Georg Holzer oder Norbert Mappes-Niediek.

Apture: Rich Media für Blogs und Zeitungen

In den letzten Wochen habe ich öfter über Linkjournalismus geschrieben. Der Ausdruck meint eine Methode — berichte, wo du dich auskennst, und linke auf den Rest! — und eine Haltung: verwende die Informationen, die du und deine Leser brauchen, und verweise auf ihre Urheber, auch wenn es deine Konkurrenten sind. Über Apture schreibe ich zugleich begeistert und skeptisch: Apture bietet enorme neue Möglichkeiten für den Linkjournalismus, kann aber auch benutzt werden, um die walled gardens der überkommenen Verlage vor den Stürmen des Webs und des Markts zu schützen.

Mit Apture kann eine Autorin einen Text einfach und wirkungsvoll mit Rich Media (Text, Bild, Audio, Video) ausstatten. Die Medien erscheinen in Popup-Fenstern, wenn der Benutzer mit ihnen verlinkte Textstellen überfährt. Sie stammen aus einem Pool aus frei zugänglichem Material, proprietäre Medien können hinzukommen.

Apture bei der BBC und der Washington Post

Die BBC hat Apture im Sommer auf ihrer News-Site getestet. Im Augenblick wird diskutiert, wie man weiter vorgehen will, und wie überhaupt auf den BBC-Seiten mit Links umgegangen werden soll. Am 8. Dezember gab die Washington Post bekannt, dass sie mit Apture zusammenarbeitet; sie will damit

offer readers a highly engaging way to view political data, congressional records, video, news and abstracts within a single washingtonpost.com browser experience. In addition, washingtonpost.com will make this data and content available to any blog or Web site that uses the Apture publishing platform [MarketWatch; dazu Only open news is good news – CNET News].

Andere Seiten, die Apture verwenden, können über die Washington Post auf dieselben Inhalte zugreifen.

Lawrence Lessig übernimmt in seinem Blog das Video, das zeigt, wir die Washington-Post mit Apture über den US-Kongress informiert. Es ist eine gute Einführung in die Technologie und ihre Möglichkeiten:

Ein Layer für Medien

Apture kommt den Bedürfnissen der Benutzerinnen wie der Autoren so sehr entgegen, dass man öfter leise wow sagt, wenn man es kennen lernt. Der Benutzer kann die Fenster vergrößern und verkleinern, er kann Serien von Medien durchblättern, zu bestimmten Stellen in Audios und Videos springen oder sich das Inhaltsverzeichnis eines Wikipedia-Artikels anzeigen lassen. Die Autorin installiert lediglich ein kleines JavaScript-Fragment — etwa als unsichtbares Widget in einem Weblog. Dann muss sie nur ein Wort markieren, und es erscheint ein Auswahlmenü für Medien. Apture durchsucht und verwendet Medien, die unter Creative Commons lizensiert sind. Eigene PDF-Dokumente kann man über Scribd hinzufügen. Man kann einen Text mit einer ausführlichen Dokumentation ausstatten, indem man auf mehrere Inhalte zugleich verweist. Bemerkenswert und so wohl einmalig: Apture-Authoring findet am fertigen Text außerhalb eines Content Management Systems statt. Da Apture ein eigenes Layer bildet, kann man seine Texte zur wikiartigen Bearbeitung durch andere Apture-Benutzer freigeben.

Die für mich beste Beschreibung der Möglichkeiten Aptures stammt von Ben Metcalfe, der zu Aptures board of advisors gehört. Wie Apture funktioniert, erfährt man im Apture Wiki. Allerdings gibt es dort nur wenig technische Informationen. Robin Good führt gründlich in Apture ein

Man kann Apture an- und abschalten, die Texte selbst werden durch Apture nicht verändert, sie erhalten lediglich ein zusätzliches Layer. Das erlaubt es, sie so anzulegen, dass sie auch ohne die Ergänzung durch Apture funktionieren — ein Muss unter Usability- und Accessibility-Gesichtspunkten. (Unter dieser Perspektive beschäftige ich mich hier nicht mit Apture, sie spielt wohl bei der Diskussion in der BBC eine wichtige Rolle.) Die Apture-Links können dynamisch sein und auf Material verweisen, das jeweils aktuell gesucht wird.

Hoffnung für Verleger?

Apture lässt sich mit jedem gängigen Blogging-Tool zusammen verwenden. Entworfen wurde es sowohl für Bloggerinnen wie für Verlage. Blogger müssen für Apture nichts bezahlen; Apture will Geld verdienen, indem es an den Werbeerlösen von Publikationen beteiligt wird, die Apture verwenden. Für Verlage ist an Apture attraktiv — und das ist eine seiner problematischen Seiten — dass die User auf den mit Medien ausgestatteten Seiten bleiben und nicht durch Links zu anderen Angeboten geschickt werden. Das Apture-Marketing nährt den Pfeifentraum der Medienhäuser, alle Inhalte aus einer Hand anzubieten. Die Praxis wird zeigen, ob Apture die Vernetzung und damit den Linkjournalismus unterstützen wird oder das Abschotten von Inhalten.

PeopleBrowsr — ein Steuerpult für soziale Netze

Ein Hinweis auf PeopleBrowsr — hier kommte etwas Wichtiges auf uns zu! Robert
Scoble:

For the past few weeks I’ve been using PeopleBrowsr. Very cool. It’s
the most significant thing to happen to social networking since
FriendFeed came on the scene a year ago. [Twitter (and all social networks) will never be the same thanks to PeopleBrowsr«]

Wie PeopleBrowsr funktioniert, zeigt Scobles Video

PeopleBrowsr stellt der Benutzerin ein Steuerpult für soziale Netze zur
Verfügung. Über das Steuerbord kann man die Streams und
Benutzerprofile, auf die man in verschiedenen sozialen Netzen
(z.B. Twitter, flickr, YouTube, seesmic, friendfeed, LinkedIn) Zugriff
hat, ansehen, mischen und manipulieren. PeopleBrowsr ist eine
gemeinsame Schnittstelle zu den Daten verschiedener sozialer Netze,
die es erlaubt, diese Daten zu kombinieren, zu ergänzen (z.B. indem
man Informationen über Personen eingibt) und über die Grenzen der
einzelnen Services hinweg zu nutzen, indem man z.B. Botschaften an
eine Gruppe schickt, zu der User von Twitter, flickr und seesmic
gehören.

Brian Solis, der PeopleBrowsr mitgestaltete, schreibt:

With one simple to use browser-based hub, everyone can view, group, and communicate with friends, and friends of friends, in and across all of the popular networks. You can update status, view posts, connect with contacts, make new friends, and share content within and between networks. [PeopleBrowsr Centralizes Conversations & Relationships: Introduces A Dashboard for Social Networks]

Man kann mit PeopleBrowsr Personen, aber natürlich auch Marken
verfolgen, man kann sich ein Addressbuch anlegen, und man kann
differenziert suchen und sich die Suchergebnisse als Stream anzeigen lassen.

Ich habe PeopleBrowsr nur kurz getestet; die Alphaversion ist
vielversprechend. Es wird versucht, das Maximum aus den Daten
herauszuholen, die Personen im Web über sich selbst und ihre
Aktivitäten publizieren — auch ein Anlass dafür, sich intensiv mit dem Thema
Öffentlichkeit und Privatsphäre im Web 2.0 zu beschäftigen.

Die Frage: "Welchen Sinn hat Twitter?" hat keinen Sinn

Ich habe noch nie etwas zu Twitter geschrieben, weil mir dazu nie etwas Interessantes eingefallen ist. Währenddessen häufen sich in meinen ungelesenen starred items und meiner Read It Later-Liste Texte über Twitter. Ein paar meiner Studis und Kollegen sind sehr erfolgreiche Twitterer, und viele sind von Twitter begeistert. Hier ein paar erste Bemerkungen zu Twitter bzw. zum Microblogging (ich verwende die Ausdrücke synonym). Sie gehören in eine Materialsammlung zu den Formen der Webkommunikation (und sind weder inhaltlich noch stilistisch ausgereift).
Ich finde, fast alle Texte über Twitter, die nicht einfach Tools beschreiben, haben etwas gemeinsam: Sie schreiben, wie man Twitter für das nutzt, was die Autorin auch schon am meisten interessiert hat, bevor es Twitter gab — dabei kann es sich um Marketing, Journalismus, PR, Wissensaustausch oder Celebrity Gossip handeln. Je mehr ich über Twitter nachdenke, desto mehr finde ich: Die Frage: Welchen Sinn hat Twitter? hat keinen Sinn. Twitter ist kein Werkzeug, sondern eine Kommunikationsform. Und wie Kommunikation selbst haben auch Kommunikationsformen wohl keinen höheren Zweck — oder sehr viele unterschiedliche Zwecke, die immer wieder neu besprochen, ausgehandelt und festgelegt werden, während man kommuniziert. Mit Twitter kann man twittern, so wie man mit einem Telefon telefonieren, oder mit einem Blog bloggen kann.

Punkte, die mir bei Twitter wichtig sind:

  1. Twittern/Microblogging ist ein eigenes Format der Webkommunikation, das nicht durch andere Formen (z.B. Blogs, Wikis) ersetzbar ist, aber mit ihnen verglichen werden kann.
  2. Twitter erlaubt es offenen Gruppen von Menschen (und auch Services) im Web, sich zu beobachten und zu kommunizieren, und erleichtert es ihnen damit, sich zu organisieren.
  3. Twitter ist ein Teil des Webs. Twitter kann damit die Möglichkeiten des Webs und der Webkommunikation nutzen und ist für andere Formen der Webkommunikation einschließlich aller technischen Erweiterungen direkt anschlussfähig.
  4. Man twittert in der Öffentlichkeit des Webs; Twittern ist eine Publikationsform und eine Option für jeden, der im Web publiziert.

Weblogs — Twitter — Wikis

Vom Bloggen unterscheidet sich Twittern u.a. dadurch,

  • dass es in Echtzeit beobachtet wird,
  • dass Twitterer ihre Follower kennen, und
  • dass man mehrere oder viele Twitterer gleichzeitig beobachtet.

Wie das Bloggen ist Twittern aber eine hypertextuelle Gattung. Es ist also auch asynchron beobachtbar, und jede Äußerung ist verlinkbar, so dass man immer wieder an sie anschließen kann. Der Übergang zwischen Twittern und Bloggen ist fließend — man kann ohne Follower twittern, und man kann Twitterer im Web beobachten, ohne sich bei dem Service anzumelden. Aber das Besondere an Twitter besteht darin, dass man anderen ohne einen zwischengeschalteten Service (wie einen Feedreader) in Echtzeit folgt, und dass man weiß, wer einem selbst folgt.
Mit dem Schreiben in Wikis hat Microblogging auf den ersten Blick wenig gemeinsam, aber auch bei Twitter arbeiten viele Autoren zusammen an Seiten, und wie in einem Wiki kann man sehr leicht zwischen den Seiten navigieren. Wie
Wikis macht es auch Twitter so leicht wie nur möglich mitzumachen. Es gibt (Hashtags, @-Syntax) sogar etwas wie ein spezielles Markup. Während bei einem Wiki Wissen zusammengestellt wird und damit etwas Dauerhaftes entsteht (das aber trotzdem von einer Community getragen und geschützt werden muss, wie es für die Wikipedia Clay Shirky beschreibt), erfährt man bei Twitter, was gerade los ist. Wikis wurden von vielen für etwas Absurdes gehalten, bis dann die Wikipedia gezeigt hat, was mit diesem Format möglich ist. Genauso hielten und halten viele Twitter für sinnlos. Möglicherweise werden sie erleben, dass Twitter alles, was mit Nachrichten zu tun hat, so revolutioniert wie es die Wikis mit dem Wissensaustausch getan haben und tun.

Many to many

Am interessantesten erscheint mir bei Twitter, dass damit viele mit vielen kommunizieren können. Das wird nicht durch das Subskribieren von Twitterern ermöglicht, sondern durch die Beschränkung der Länge der Tweets auf 140 Zeichen. Man twittert immer in eine Wolke von Menschen hinein. Ein Menge von Botschaften unterschiedlicher Sprecher tritt an die Stelle von Monologen oder Dialogen.
Mit Twitter wird eine andere Form von Community oder Gruppe möglich als durch Wikis (zielgerichtete Kollaboration) oder Blogs (Gedanken- und Erfahrungsaustausch). Durch Twitternachrichten lässt sich eine Webcommunity permanent beobachten. Vielleicht ist das der Kern des Phänomens: Twitter gibt Communities im Weg die Möglichkeit, sich in Echtzeit zu wahrzunehmen. Dabei ist der Austausch synchron und asynchron ohne Medienbruch für andere Webteilnehmer prinzipiell offen; das unterscheidet Twitter von Gruppenchats oder dem Austausch in social networks.

Anschlusskommunikation

Twitter erlaubt einen unmittelbaren, interaktiven Umgang mit Echtzeitkommunikation über die unmittelbare Kommunikationssituation hinaus. Es macht Echtzeitkommunikation im Web anschlussfähig, weil sie direkt im Web beobachtbar und adressierbar ist. Man kann auf Tweets verlinken, man kann Streams von Tweets in Widgets zeigen, und man kann sie mit den verschiedensten Tools auswerten bzw. für Mashups verwenden. Vielleicht kann man sagen: Twittern erschließt für das Web eine Kommunikationsform, die vorher zwar im Internet (seit dem IRC) aber nur außerhalb des Webs möglich war. Damit erschließt es umgekehrt für die Echtzeitkommunition die Vielfalt der Möglichkeiten des Webs.

Twittern als Publikationsform

Wenn man twittert, statt zu chatten, begibt man sich in die Öffentlichkeit des Webs (auch wenn sich diese Öffentlichkeit einschränken lässt, indem man seine Tweets nur Followern zugänglich macht, die man vorher akzeptiert). Noch mehr als andere Formen der Webkommunikation ist dabei Twittern writing as a performing art. Twittern hat nur da einen Sinn, wo man die Vorteile des Webs benötigt, z.B. Verlinkbarkeit von Informationen, Zugänglichkeit für eine große, potenziell unbeschränkte Öffentlichkeit und Kombinierbarkeit von verschiedenen Medien. Wenn Twittern nicht nur eine Kuriosität ist, sondern eine der wichtgen Kommunikationsformen im Web, ist es damit eine ständigen Option für alle, die im Web publizieren. Wo immer öffentliche Information in Echtzeit (und am besten durch mehrere Autoren) sinnvoll ist, stellt sich die Frage, warum man nicht einfach twittert.

Publish2 — social bookmarking für Journalisten

In die rechte Kolumne von Lost and Found habe ich unter Tips ein Linkblog eingefügt. Gemacht ist das Linkblog mit Publish2 (Blog hier), einem Service für Journalisten zum Sammeln und Austauschen von Links. Ins Leben gerufen hat ihn Scott Karp, der in seinem Blog Publishing 2.0 den Link-Journalismus ausgerufen hat und promotet. Publish2 hat die meisten Funktionen von Delicious und erlaubt es, Links auch an Delicious zu posten. (Was ich tue, denn für mich bleibt Delicious das wichtigste Werkzeug, um Informationen zu sammeln.)

Publish2 enthält aber auch Funktionen, die delicious nicht bietet, und die die Recherche und das Publizieren erleichtern. So kann man bei demselben Link private und öffentliche Notizen machen. In eigenen Feldern können das Veröffentlichungsdatum und die Quelle festgehalten werden. Außerdem gibt es drei Kategorien von Bookmarks: außer denen für die Publikation von Links kann man welche für laufende Recherchen und für Hinweise auf eigene Publikationen anlegen. Außer an Delicious lassen sich Links auch an Twitter schicken, wahlweise mit eigenem Text oder dem öffentlichen Kommentar für die Linksammlung.

Wichtigstes Arbeitsmittel ist ein Bookmarklet. Wie es funktioniert, habe ich in einem Screencast festgehalten:

Link: Das publish2-Bookmarklet

Die Linksammlung jedes Benutzers ist auf einer Seite erreichbar; dort können die Links ausgetauscht und auch kommentiert werden. (Meine Publish2-Links sind außer in diesem Blog hier zu finden. Ein RSS-Feed kann hier über Feedburner abonniert werden.) Über diese Linksammlung kann man sich mit wenigen Klicks ein Widget erstellen, das man als Linkblog in sein Blog einbauen kann.

Publish2 integriert das Sammeln von Links in den journalistischen Workflow, und zwar in einer webgemäßen Weise, bei der Informationen auf allen Bearbeitungsstufen geteilt werden. Es gehört so in eine Reihe mit anderen Netzwerken für Journalisten, die verteiltes gemeinsames Arbeiten im Web erlauben, z.B. Wired Journalists.

Der Offenheit des Web 2.0 widerspricht, dass man zugelassen werden muss, wenn man Publish2 verwenden will. Es wird gecheckt, ob man entprechend professsionellen Standards arbeitet — für mich riecht das etwas nach Korporatismus. Ich fände es besser, wenn man sich innerhalb des Service ein Netzwerk von Vertrauenspersonen aufbauen könnte, statt gleich am Eingang geprüft zu werden. Allerdings hat die Bestätigung meines Accounts nur eine Stunde gedauert (als media outlet habe ich mein Blog angegeben) und ich freue mich, an dieser Initiative teilnehmen zu können.

Work in Progress

Ich arbeite noch immer an einem Redesign dieses Blogs — vor allem, um in einer dritten Kolumne ein Linkblog und eine Blogroll hinzuzufügen. Leider erlaubt es Typepad nicht mehr, ein vorhandenes Design in Advanced Templates zu konvertieren. Damit lassen sich Disqus-Kommentare nicht mehr einfach in ein Typepad-Blog integrieren. Die Kommentare der letzten Wochen sind vorläufig leider nicht mehr sichtbar.

Suche mit Lijit

Ich bin dabei, das Layout meines Blogs zu verändern. Eine Änderung habe ich schon vorgenommen und ein Widget für die Suche mit Lijit eingebaut. Lijit schlägt Benutzern, die auf eine Seite meines Blogs stoßen, weil sie bei Google oder auf dem Blog selbst einen Suchbegriff eingegeben haben, weitere Inhalte vor. Dabei wird nicht nur in meinem Blog gesucht, sondern auch in anderen Inhalten von mit selbst oder von Leuten, die zu meinem Netzwerk gehören. Die Suchergebnisse stellt Lijit in einem Overlay-Fenster dar. Der Service beruht auf der Google Suche. Einerseits können also meine eigenen Inhalte besser gefunden werden. Andererseits können Leserinnen mein Blog als Ausgangspunkt für Abfragen nehmen, bei denen nur Quellen verwendet werden, denen ich vertraue.

Auf Lijit bin ich durch Louis Gray gestoßen; ich habe erst ein wenig damit experimentiert. Eine sehr gute Erfahrung habe ich mit der Kundenkommunikation von Lijit gemacht: ich konnte mein Blog zunächst nicht durchsuchen, weil Lijit bei Suchabfragen ein www. vor den URL meines Blogs setzte. Nach einem Mail dauerte es keine 10 Minuten, und der Fehler war behoben. Thx Daniel Weiss!

Update, 13:28: Völlig entgangen war mir Ritchies ausführliches Post über Lijit.