Viel Neues fällt mir nicht ein zu der Debatte, die Armin Thurnher durch seinen ISPA-Auftritt und seinen Leitartikel wieder angefacht hat— Helge und viele andere haben genug Antworten gegeben. Ich hatte vermutet, Thurnher würde das Thema nicht mehr aufgreifen, um sich nicht weiter zu demontieren. Aber er nimmt einer Szene, die den Falter ernst nimmt, übel, dass sie dessen Chefredakteur nicht mehr ernst nimmt—jedenfalls nicht, wenn er sich über das Internet äußert, über das er—Entschuldigung !—losschwadroniert, als könne man es (deliberativ) in den Griff bekommen, indem man ausmacht und diskutiert, wieviel an ihm gut und wieviel schlecht ist.

Thurnher schreibt lieber (und besser) über Thurnher als über das Web; er inszeniert sich theatralisch als Opfer einer Hetzmeute und als Sachwalter der Aufklärung. Helge vergleicht ihn mit einem spätmittelalterlichen Abt (und denkt vielleicht an Johannes Trithemius, dessen gedruckte Polemik gegen den Buchdruck Clay Shirky aufgriff). Aus meinem Studium fallen mir Gottsched und der Sturm und Drang ein—ich weiß nicht, wie weit der Vergleich trägt.

Schade finde ich, dass Thurnher seinen Kritikern nicht seine Augenhöhe zutraut, dass er ihnen nicht einmal Artikulationsfähigkeit zuspricht: Sie blöken und jaulen. Und weil sie als Masse den großen Einzelnen Thurnher verfolgen, werden auch nur die wenigsten namentlich erwähnt. Wer sich nur akklamativ statt deliberativ äußert, wird auch als Quelle nicht verlinkt. (Helge hat es allerdings geschafft, den Falter zum Print-Linkjournalismus zu bewegen—hoffentlich nicht nur bei seiner Antwort auf Thurnher.) Thurnher fordert den Diskurs, aber er spricht nicht mit seinen Kritikern, sondern polemisiert über sie.

Wenn ich es richtig sehe, gehöre auch ich zu den implizit Erwähnten. Thurnher wirft mir vor, ich traue ihm nicht zu Blogs zu lesen. Für den Fall, dass er diesen Beitrag findet, empfehle ich ihm das Cluetrain Manifesto, vor allem die Sätze 3 und 4:

Conversations among human beings sound human. They are conducted in a human voice.

Whether delivering information, opinions, perspectives, dissenting arguments or humorous asides, the human voice is typically open, natural, uncontrived.

Wir suchen einen Dialog mit menschlicher Stimme. Es liegt auch an Armin Thurnher, ob er zustande kommt.

Sollen Journalisten akademisch ausgebildet werden? Wie sollen Journalisten akademisch ausgebildet werden? Ein Dauerthema in Journalismus- und J-school-Blogs. (J-school ist der englische Ausdruck für Journalismus-Schulen, vor allem für die Journalismus-Fakultäten an den Universitäten.)

„Open J-School“

In den starred items meines Feedreaders haben sich einige Posts zu diesem Thema angesammelt; ein paar habe ich am Wochenende gelesen. Ein Schlagwort in Jay Rosen’s Tweets fasst die Diskussionen zusammen: open J-school, offene Journalistenschule. Gefordert ist eine Ausbildung in Sichtweite von und oft in Tuchfühlung mit den Änderungen in der Medien- und Kommunikationstechnik und der Wirtschaft. Sie muss widerspiegeln, dass sich die Rolle der Journalisten radikal wandelt, dass die Journalisten von Gatekeepern zu Knoten in einem Netzwerk werden, in dem Nachrichten immer mehr horizontal statt vertikal verbreitet werden.

Journalisten brauchen heute Kompetenzen, die die klassische Ausbildung—in Schulen oder Hochschulen, aber auch on the job—nicht vermitteln kann. Andere Disziplinen müssen eine größere Rolle spielen:

Mostly, I think j-schools need to be coordinating (even integrating) more closely with other departments — mainly business schools and departments of computer science and library science. … But if journalists need to learn skills that, by and large, j-schools and journalism professors don’t yet possess, then it probably makes sense to partner with other relevant departments in a college or university [Amy Gahran: Busting J-School Silos: What Will it Take?].

Allerdings zweifel Amy Gahran an der Fähigkeit von Journalistenschulen und der Universität insgesamt, auf schnelle Veränderungen zu reagieren, sie warnt vor institutioneller Trägheit.

Web Literacy

Web-Kompetenz, web literacy, ist die wichtigste unter den Fähigkeiten, die Journalisten heute und in Zukunft brauchen, die ihnen aber bisher nicht ausreichend vermittelt werden können. King Kaufman:

If you’re not willing to work on the Web, do more than write, get your hands dirty with code, blog, be a social media pro, etc, than journalism isn’t for you. If you don’t like turmoil, seek a different career. Journalism is going through a massive transformation right now, and unfortunately most journalism schools are not preparing students for those transformations [Let’s be honest about J-school – King Kaufman – Open Salon].

Allerdings macht web literacy allein keinen guten Journalisten, darüber sind sich die amerikanischen J-Blogger einig. Journalisten werden auch in Zukunft vor allem Geschichten finden und erzählen. Auf den journalistischen Anspruch dürfen Journalistenschulen nicht verzichten. Doc Searls kann niemand Missachtung des Web oder Wirtschaftsferne vorwerfen. Er macht sich darüber lustig, dass die renommierte Medill School of Journalism den Journalismus aus ihrem Namen tilgt, und spricht von der School of Journalism Marketing and Stuff. Achten wir auch hier darauf, dass wir nicht zu einer Schule für Journalismus, Marketing und Zeugs werden!

Breites Bachelor-Studium

Journalismus als Handwerk lässt sich nicht an Schulen und Universitäten lernen. Mindy McAdams:

No one learns how to do anything by sitting in a classroom and listening to a teacher. That might be a great way to get started — but the real learning is going to happen somewhere else [Teaching Online Journalism » Experience, the best teacher].

Trotzdem ist es sinnvoll, Journalismus zu studieren—allerdings in dem Wissen, dass die journalistische Praxis auch nur in der Praxis erlernt werden kann. Auch on the Job lassen sich die Fähigkeiten, die Journalisten in Zukunft brachen, heute kaum erwerben.

On-the-job training (as if there were anyone in today’s newsrooms who would or could train the new kid) is not going to suffice, because today’s journalist actually does need to be well educated.

Interessant ist, dass in den USA deutlich zwischen den Funktionen des Bachelor- oder Undergraduate- und des Master- oder Graduate-Studiums unterschieden wird. Ich glaube wie Mindy McAdams, dass das Bachelor-Studium eine breite Qualifikation vermitteln, also auch allgemeinbildend sein sollte:

The years spent at university as an undergrad are not meant to be job training. In North America, at least, those years serve as a transition between who you were as a child and who you will become. That has to do with a lot more than the job you will get after graduation.

Gerade gegenüber radikalem sozialen, ökonomischen und technischen Wandel sind die allgemeinen Qualifikationen oder Metaqualifikationen wichtiger als ein Fachwissen, das ohnehin nicht beständig ist:

The general ed courses fulfill the role that a liberal arts education has always fulfilled (or at least, they’re meant to): completing your education. Put another way, the undergraduate journey is supposed to lead to your becoming an educated person.

Der Sinn eines Bachelor-Studiums im Journalismus besteht also nicht nur darin, auf eine Berufstätigkeit als Journalist vorzubereiten. Die journalistische Bildung oder Ausbildung kann zu vielen anderen Tätigkeiten führen. Um es etwas phrasenhaft auszudrücken: Je wichtiger Kommunikation in vielen sozialen Bereichen wird, und je mehr dank der Möglichkeiten des Netzes jeder Medien herstellen und veröffentlichen kann, desto größer wird der Bedarf nach Menschen mit einer journalistischen Ausbildung, die in ganz verschiedenen Berufen und Funktionen für die Qualität von Informationen verantwortlich sind. Dazu muss die Ausbildung sich allerdings vor allem an journalistischer Qualität orientieren:

I do not think universities commit fraud if they admit hundreds of new journalism majors each year. I do believe that a journalism program commits fraud if it hands out journalism degrees to students who can’t write, can’t fact-check properly, or can’t use the necessary tools of journalism in the 21st century. [Teaching Online Journalism » Why does anyone major in journalism?]

Business-Orientierung im Master

Journalistische Master-Programme sind in den USA und in Großbritannien zunehmend mehr auf Entreperneurship ausgerichtet. Nicht so sehr unmittelbar journalistische Qualitäten sind das Ziel (die sich besser außerhalb der Hochschue erwerben lassen), als die Fähigkeit, mit diesen Fähigkeiten selbst wirtschaftlich zu überleben und neue Typen von Dienstleistungen und Medien zu entwickeln. King Kaufman:

If you already have journalism experience and lots of clips, I’d only attend a program that is going to modernize your skills and thought processes (and you’re not a self starter). This is where programs that are heavy into entrepreneurism make a lot of sense.

Außer in entsprechenden Programmen in den USA (z.B. an der CUNY Graduate School of Journalism und der New York University) wird journalistische Entrepreneuship jetzt auch an der Universität Birmingham unterrichtet.

Die NewYorker Columbia University sucht nach neuen Geschäftsmodellen für Nachrichten; dabei arbeitet sie mit Unternehmen zusammen, die sich untereinander lange erbittert Konkurrenz gemacht haben.

Hier in Graz sind wir mit der Konzeption unseres Master noch nicht fertig. Es ist sicher sinnvoll, dass wir uns intensiv mit den Diskussionen in den USA beschäftigen—schon weil es dort eine ganz andere Tradition von journalistischen Bachelor- und Masterstudiengängen gibt. Die Orientierung an Allgemeinbildung im Bachelor und an Entrepreneurship im Master halte ich auch bei unseren Studiengang (in dem Journalismus und PR unterrichtet werden) für eine sinnvolle, wenn auch sicher nicht für die einzige, Option. Das Ideal einer open J-School sollten wir in jedem Fall hochhalten.

In der letzten Woche habe ich ein paar Tage in Alpbach bei den Wirtschaftsgesprächen verbracht. Am Mittwoch saß ich im Panel einer Arbeitsgruppe zum Thema Vertrauen in einer vernetzten Welt. Wir haben über so unterschiedliche Themen gesprochen wie die elektronische Gesundheitsakte, das Urheberrecht und den Datenschutz in sozialen Netzwerken.

Be open!

Wenn dieser Beitrag etwas länglich-unsicher ausfällt, liegt das nicht an der Veranstaltung. Sie war spannend und die Gespräche waren intensiv: Alpbach ist ein guter Platz um interessante Leute kennen zu lernen, die auch selbst andere Menschen kennen lernen wollen und sich öffnen. Aber weil man dort intensiv kommuniziert, und zwar in einer eher festlichen Stimmung, ist Alpbach kein guter Platz zum Schreiben. Von Alpbach bin ich dann direkt nach München zu (sehr interessanten) Terminen bei Burda gefahren, und von dort nach Graz, wo mich die Berufsrealität eingeholt hat—die leider nicht nur von offenen Menschen geprägt wird.

Ich war zum ersten Mal in Alpbach und kann noch nicht absehen, wohin die vielen neuen Informationen und Kontakte führen werden. Zuerst war ich skeptisch, das Ganze kam mir zu sehr wie eine Business-Großveranstaltung mit vielen wichtigen Männern in dunklen Anzügen und Krawatten vor, während ich entspannte informelle Gespräche in einer kreativen Atmosphäre erwartet hatte. Jetzt, im Rückblick, denke ich genau an solche kreative Gespräche zurück und bedauere, dass ich nicht länger an ihnen teilnehmen konnte.

Diskussionszirkel als Podium

Die meisten dieser Gespräche habe ich mit den Leuten geführt, mit denen ich auch auf dem Podium gesessen habe— das habe ich bei anderen Diskussionsveranstaltungen außer bei Barcamps noch nicht erlebt. Eingerahmt wurden diese Diskurse von Gesprächen mit Julian, der mit einem Stipendium schon vor mir in Alpbach war, mit Chris Langreiter, der am Dienstag spontan für zwei Stunden nach Alpbach gekommen ist, mit Luca Hammer, der als Blogger nach Alpbach eingeladen war (und viele, die ihn nicht kannten, sehr schnell beeindruckt hat), und am Freitg auch noch kurz mit Christoph Chorherr.

Blogger sagen öffentlich was andere unter Freunden sagen, hat Luca in Alpbach getwittert. Genau das tue ich jetzt und hoffe, dass es allen, über die ich dabei schreibe, recht ist. Ich bitte um Kommentare, wenn ich etwas missverstanden habe. Ich muss die Eindrücke selbst erst verarbeiten. Die meisten Themen der Diskussion waren mir nicht vertraut und die anderen Teilnehmer kannte ich vorher nicht. Deshalb archiviere ich ein paar Eindrücke und Links, die vielleicht für andere in dieser Ausführlichkeit nicht interessant sind.

Die gemeinsame Vorbereitung unserer Diskussion hat für mich schon am Montagabend begonnen, an dem ich beim Abendessen Theresa Philippi kennengelernt habe, die als Juristin die elektronische Gesundheitsakte (ELGA) mit vorbereitet. Theresa Philippi hat mir übrigens am letzten Tag erklärt, dass das Forum Alpbach unmittelbar nach dem Krieg von Widerstandskämpfern gegen die Nazis gegründet wurde, und dass Innsbruck als einzige größere österreichische Stadt von innen befreit wurde.

Vom ELGA-Projekt habe ich vorher überhaupt nichts gewusst, und mit der ganzen Problematik medizinischer Daten im Netz habe ich mich nie beschäftigt. Die elektronische Gesudheitsakte, die Frage, ob sie in der geplanten Form realistisch ist, der Umgang mit digitalen Patientendaten, ihr Schutz, und schließlich auch die Frage, wie Firmen wie 23andMe mit genetischen Daten umgehen, nahm dann die erste Hälfte unserer Arbeitsgruppensitzung ein und war sicher der interessanteste Teil. Das lag auch daran, dass neben Theresa Philippi zwei weitere Experten auf dem Podium saßen: Nikolaus Forgó , der in Hannover und Wien IT-Recht lehrt, und der Diskussionsleiter Gerald Reischl, der in der Google Falle auch 23andMe beschreibt. Reischl hat dort übrigens selbst eine Genanalyse durchführen lassen. (Ich fand sehr bemerkenswert, wie Gerald Reischl die Themen journalistisch auf den Punkt brachte, ohne zu versimpeln. Reischl kann Aufmerksamkeit generieren, Publizität herstellen, Veröffentlichungsprozesse beherrschen: ein gutes Beispiel für eine der Schlüsselkompetenzen, die wir unseren Studenten vermitteln wollen.)

Wenn ich es richtig verstanden habe, war fast niemand in der Diskusion grundsätzlich dagegen, die medizinischen Daten von Patienten digital zu archivieren. Dennoch hatte Theresa Philippi, die für das Projekt sprach und die juristischen Probleme nicht verniedlichte, einen schweren Stand: Es wurde allgemein, auch von einigen Teilnehmern im Publikum, bezweifelt, dass die ELGA in absehbarer Zeit verwirklicht werden kann und dass die Daten der Patienten sicher sind, wenn sie so gespeichert werden, wie es bisher vorgesehen ist. Bei ELGA sollen nämlich die Patientendaten dezentral bei den einzelnen Ärzten oder in ihrem Auftrag archiviert werden. Das heisst: Jeder Arzt betreibt einen eigenen Server mit Patientendaten, auf den dann andere zugreifen können. Den Zugriff sollen dabei übrigens nicht nur andere Ärzte haben, sondern alle, die Gesundheitsberufe ausüben, also zum Beispiel auch Physiotherapeuten—insgesamt über 100.000 Personen in Österreich, wenn ich es richtig verstanden habe. Das hört sich unglaublich an, so als hätten die Leute bei ELGA von Cloud Computing noch nie etwas gehört (wahrscheinlich ist die Wirklichkeit nicht so simpel). So wie sich mir die Sache während der Diskussion darstellte—ich habe dazu kaum recherchiert—, verwechselt man bei ELGA digitale Patientendaten mit analogen Daten und glaubt, dass man sie im Wesentlichen gleich behandeln kann, also z.B. den einzelnen Arzt dafür verantwortlich machen kann, dass sie nicht missbraucht werden. An die Stelle des Aktenordners tritt die Festplatte oder der Server des Dienstleisters. Tatsächlich sind aber Daten im Netz eben Daten im Netz, egal wo sie physikalisch liegen. Sie müssen im Netz verwaltet und gegen die dort möglichen Risiken geschützt werden. Diese Risiken betreffen übrigens nicht nur den Zugang, sondern auch die Weitergabe und Weiterverarbeitung von Daten.

[Ein paar unsystematisch zusammengestellte Informationen zur ELGA: Bericht von Dieter Hack in der futurezone; Datenschutz: Im Spucknapf des digitalen Zeitalters (Artikel in der „Presse“ zu den Bedenken Nikolaus Forgós gegenüber ELFA, 23andMe und den Verwendundungsmöglichkeiten von Daten aus Gesundheitsforen); Informationen zu ELGA und E-Health in Österreich der unabhängigen (?) „Initiative Elga“]

Digitale Identität funktioniert nur im Plural

In Zusammenhang mit ELGA, aber auch sonst immer wieder, kamen wir auch auf das Problem der Authentifizierung und der digitalen Identität. Für ELGA soll man sich wohl mit der Bürgerkarte identifizieren. Die Bürgerkarte ist aber, wie Nikolaus Forgó darstellte, gerade ein Beispiel für eine staatlich verordnete technische Lösung, die von fast niemand akzeptiert wird.

Ich glaube, dass im Netz nur Identitätslösungen funktionieren, also angenommen werden, die mit mehreren Identitäten für jeweils unterschiedliche Zwecke oder in unterschiedlichen Zusammenhängen arbeiten. Zur Vorbereitung auf Alpbach habe ich Kim Camerons Laws of Identity (PDF-Version) gelesen, und ich finde dieses Konzept sehr schlüssig. Microsoft hat es inzwischen technisch als CardSpace umgesetzt. Dabei hat der User die Wahl zwischen unterschiedlichen Identitäten, die er für verschiedene Zwecke benutzt. Man könnte sich zum Beispiel vorstellen, dass es eine eigene Gesundheitsidentität gibt, die man verwendet, um medizinische Daten zu aggregieren, die aber nichts mit den Identiät zu tun hat, die man den Sozial- und Krankenversicherungen, dem Finanzamt oder seinem Arbeitgeber gegenüber verwendet.

Rätselraten zum Urheberrecht

Die anderen Themen haben wir nicht mit der Intensität und in der Tiefe diskutiert, zu der wir bei der elektronischen Gesundheitsakte gefunden haben. Es ging einerseits um das Schicksal des Urheberrechts im Internet und die Möglichkeit, für Inhalte Geld zu bekommen, andererseits um die Frage, wie man richtig mit sozialen Netzen umgeht und welche Daten man in ihnen veröffentlichen kann. Ich selbst habe zum Urheberrecht im Internet eine klare Meinung, nämlich die, dass es sich dort nicht wie in der analogen Welt aufrechterhalten lässt, und dass es nicht den Zugang zu Inhalten und ihre Weiterverarbeitung erschweren darf. Ich glaube, dass nicht Inhalte Geld kosten dürfen und können, sondern nur Services. Mir ist natürlich klar, dass diese Position so holzschnittartig ist, weil ich mich wenig mit diesem Thema beschäftigt habe, und dass es auch Argumente gegen sie gibt, die man nicht einfach vom Tisch wischen darf.

In Alpbach habe ich in der Sitzung der Arbeitsgrupppe, aber auch vorher, immer wieder mit Karin Haager und Ulrich Müller-Uri über das Urheberrecht im Netz gesprochen. Sie sind die Gründer der Firma flimmit, die legale Film-Downloads anbietet. flimmit verzichtet auf jedes DRM-System, aus der richtigen Überlegung heraus, dass man User, die freiwillig für Inhalte zahlen, obwohl sie auch illegale Plattformen benutzen könnten, nicht auch noch kriminialisieren soll, indem man beschränkt, was sie mit den erworbenen Inhalten machen können. Bei den Gespächen mit Karin und Uli habe ich viel gelernt, auch weil es sich um richtige Filmfreaks handelt, die aus Liebe zu einem Thema arbeiten. Deshalb können sie einem einen Zugang zu neuen Themen öffnen—ich hoffe, dass wir in Verbindung bleiben.

Daten sind keine physikalischen Objekte

Zwischengedanke: Vielleicht gibt es eine Parallele zwischen der Vorstellung, elektronische Patientenakten könnten ähnlich wie Akten auf Papier aufbewahrt und geschützt werden, und der Vorstellung, man könne das Kopieren, Verändern und Tauschen von Inhalten im Web staatlich/juristisch beschränken. In beiden Fällen wird der Cyberspace analog zur physikalischen Welt verstanden, als könne man in ihm Grenzen setzen und Regeln definieren wie in der Politik und im Recht der territorial organisierten Staaten. Nichts ist trügerischer. Zwischen Daten im Netz bestehen ganz andere Beziehungen und sie ermöglichen ganz andere Operationen als sie von physikalischem Eigentum bekannt sind. Das gilt sowohl für Angriffe und für Gegenmittel wie z.B. Verschlüsselungen als auch für spontane Verbindungen z.B. in Peer-to-peer-Netzwerken. Die Adressen von Daten sind einfach nicht dasselbe wie Positionen im physikalischen Raum; deshalb kann man Daten nicht sichern, indem man sie auf den Festplatten oder Servern von Ärzten wie in Aktenschränken unterbringt, und deshalb sind Filesharing-Netze möglich, die nur aus Links bestehen und selbst überhaupt keine Inhalte anbieten. Es hat mit den (nützlichen!) Eigenschaften von Daten im Netz zu tun, dass sich für jede blockierte Pirate Bay sofort ein paar neue bilden, deshalb gefährden die Angriffe auf das illegale Filesharing tendenziell immer das Netz überhaupt.

Nicht sehr viel Neues bieten konnten wir wohl in der Diskussion über die Risiken sozialer Netzwerke und die Gefahren unbedachter Veröffentlichungen im Internet. Vielleicht kommt es mir auch nur so vor, weil ich das Thema nicht für so relevant halte bzw. glaube, dass der Hinweis auf diese Risiken vor allem dazu dient, gegen eine neues und unbekanntes Medium zu polemisieren. (Was nicht heisst, dass Publikationen im Web nicht eine hohes Maß an Bewusstheit verlangen, auch wenn es nur um Amateurfotos geht, und dass media literacy erforderlich ist, um sich im Web zu bewegen.)

Microsoft als Nice Guy und Good Citizen

Die Veranstaltung war von Microsoft gesponsort. Obwohl es in der Konstellation durchaus möglich gewesen wäre, kam es überhaupt nicht zu einem Microsoft-Bashing. Im Gegenteil verstanden es die Microsoft-Leute nicht schlecht, bei den Teilnehmern die Vorstellungen von Vertrauen und Sicherheit mit ihrer Marke zu assoziieren. Was die Identitäts-Architektur angeht, ist das wohl auch nicht unverdient. Ob, was im Gespräch manchmal durchklang, Microsoft gut daran tut, vor dem Monopolistengehabe Googles zu warnen (z.B. indem man den Diskusssionsteilnehmern zum Abschluss Gerald Reischls Google-Falle schenkte)? Ich glaube, das ist keine gute Strategie. Microsoft ist, was PR (z.B. demonstrierte Corporate Social Responsibility) und Kooperation mit Institutionen z.B. im Erziehungswesen angeht, einfach viel weiter als Google. Man spürt bei den Microsoft-Vertretern—jedenfalls kommt es mir so vor—dass sie demonstrieren wollen, dass im Web auch eine Firma wie Microsoft nicht mehr allein die Regeln bestimmen kann, sondern dass die Firma am meisten erreicht, wenn sie sich als nice guy einführt. Wie auch immer: Ich habe einige nette Microsoft-Kollegen kennengelernt: Ausser Gerhard Göschl, der mit am Podium saß, auch Thomas Lutz und Andreas Exner. Mit Petra Jenner habe ich eine interessantes —für sie sicher nicht das erste—Gespräch darüber geführt, warum so wenig Frauen in der IT-Branche sind, und gelernt, dass die Freundinnen da wohl eine entscheidende Rolle spielen.

Warum interessieren wir uns so wenig für Microsoft?

Noch ein Zwischengedanke (nicht im Auftrag des Sponsors der Veranstaltung): In der österreichischen Social Web-Szene beschäftigen wir uns mit Micosoft immer nur am Rande. Wer weiss, was dort überhaupt stattfindet? Möglicherweise macht uns der Hype um den Apple AppStore oder die jeweils neuesten facebook-Features blind für Entwicklungen, die das Web in den nächsten Jahren viel mehr beeinflussen werden, und die durch die Präsenz von Microsoft in Firmen und anderen Einrichtungen viel breiter wirken können als die Marketing-Aktionen der angesagteren Firmen.

Marginalisierung des Rechts?

Die Diskussion hatte direkt oder indirekt immer mit juristischen Themen zu tun. Sie hat sehr dadurch gewonnen, dass Juristen an ihr teilnahmen, für die das Internet kein fremdes Territoritorium ist. Nikolaus Forgó machte vor allem bei der elektronischen Patientenakte sehr deutlich auf die Datenschutz-Probleme aufmerksam, und er sorgte auch dafür, dass wir bei der Frage der illegalen Downloads wenigstens mit einer gewissen Präzision sprachen. Er sprach zum Abschluss der Diskussion davon, dass das Recht im Internet mit einem Bedeutungsverlust rechnen muss, und er scheint diese Entwicklung für unabwendbar zu halten (während andere Verzweiflungsmaßnahmen wie Internetsperren befürworten.) Der Abschluss passte zu einer Diskussion, die viele Probleme aufgezeigt, aber keine Scheinlösungen angeboten hat.

Wer wissen will, wie die Zukunft von Hauptstadtzeitungen aussehen kann—besser: was im Web an ihre Stelle treten kann— muss Michael Wolffs Artikel über Politico in Vanity Fair lesen. Ein paar Newsprofis haben Politico während der Obama-Kampagne gegründet. Die Site konzentriert sich auf die Berichterstattung über das politische Washington. Dabei wird nahezu in Echtzeit eine Unmenge an Informationen geliefert, die die Site und ihre Reporter zu einer Quelle für viele andere Medien machen. Politico hat sich dem verschrieben, was man in den USA beat reporting nennt. Der Beat sind hier die Aktivitäten der politischen Klasse in der amerikanischen Hauptstadt. Die Site ist inzwischen ein Must für amerikanische Politik-Interessierte; sie finanziert sich halbe/halbe aus Anzeigenerlösen und dem Verkauf einer Printversion. Die Online-Version erreicht 6,7 Millionen Unique Clients im Monat; die Printversion erzielt—dank der Bekanntheit der Site und der medialen Präsenz der Reporter—7,5 Millionen Dollar Anzeigenerlöse im Jahr bei einer Reichweite von nur 32.000.

Ich will Wolffs Geschichte hier nicht referieren. Passagen wie die Einleitung und der Schluss über die Unzeitgemäßheit der Allgemeinen Zeitung im 21. Jahrhundert oder die Darstellung des Wettbewerbs zwischen den Washingtoner Verlegerfamilien verdienen, dass man sie im Original liest. Ich möchte nur auf drei Punkte hinweisen, die ich so noch nie formuliert gefunden habe—trotz der Flut an Artikeln über Untergang oder Zukunft der Zeitungen:

  1. Politico ist eine Site von Journalisten, die die besten Kenner ihres Themas sind. Allen Unkenrufen vom Ende des Journalismus zum Trotz findet kompetenter Fachjournalismus ein Publikum, selbst wenn es um die Interna einer Administration geht, die in den vergangenen Jahren angegeblich niemand interessiert haben.

  2. Politico ist keine Online-Zeitung mit umfassendem redaktionellen Programm. Die Website ist monothematisch, aber sie behandelt ihr Thema gründlicher und genauer als die Konkurrenz. Genau das passt ins Web, in dem sich Benutzer ihre Quellen selbst zusammenstellen können.

  3. Politico konzentriert sich auf eine internettypische Berichterstattung: Die Reporter berichten in Echtzeit, filtern kaum und suchen sich ihre Themen selbst. Publish first, edit after! Auf die Arbeitsgänge und Aufgabenverteilung einer klassischen Redaktion verzichtet die Site. Wichtig sind zeitliche, räumliche und persönliche Nähe zum Geschehen.

Politico ist die erfolgreich verwirklichte Antithese zu dem Verlegertraum, man könne dieselben Inhalte über beliebige Plattformen abspielen. Politico funktioniert nur durch das Netz, auch wenn die von der Online-Ausgabe abgeleitetet Special Interest-Printversion für die Hälfte der Einkünfte geradesteht.

In Wolffs Artikel wirkt Politico wie ein vervielfachter Rober Scoble, der sich mit Politik statt mit dem Web beschäftigt. Offenbar bereiten Helmut Markwort und seine Kollegen einen Relaunch des Focus vor. Sie sollten sich an Politico orientieren.

(Zum Geschäftsmodell von Politico siehe auch dieses Post Rex Hammocks [via Steve Rubel].)

In einer Frankfurter Rundschau, die ich vorgestern auf dem Flug von Frankfurt nach Graz gelesen habe, bin ich auf einen Artikel über adaptives Denken gestoßen; Gerd Gigerenzer beschreibt darin, weshalb intuitive Entscheidungen in den meisten komplexen Situationen erfolgreicher sind als Entscheidungen, die auf einem möglichst umfassenden Tatsachenwissen basieren. Beispiel: Ein Baseballspieler fängt einen fliegenden Ball nicht, indem er dessen Flugbahn berechnet. Er verwendet stattdessen eine ganz einfache Methode:

1. Fixiere den Ball mit deinen Augen. 2. Beginne zu laufen. 3. Passe Deine Laufgeschwindigkeit so an, dass der Blickwinkel konstant bleibt. Der Spieler kann alle Informationen ignorieren, die man benötigt, um die Flugbahn des Balls zu berechnen. Er löst dieses Problem nicht durch etwas Komplexes, sondern durch etwas ganz Einfaches. Er beachtet nur eine einzige Größe, den Blickwinkel, den er konstant zu halten versucht.

Wie könnte ein solcher Anpassungsmethode für die Gegenstände aussehen, die ich vermittele? Kann ich mich auf ein Objekt konzentrieren und mich—wie der Baseballspieler—so bewegen, dass ich es immer im Auge behalte und dadurch etwas erreiche, nämlich ein langfristig nutzbares Wissen zu vermitteln?

Ich überlege, ob ich diesen Punkt nicht am besten mit dem Ausdruck Hypertext bezeichnen kann (ich benutze Hypertext und Hypermedium synonym). Hypertext unterscheidet das Web von anderen Medien und er unterscheidet es von den anderen Teilen des Internet. Die gesamte Architektur des Web dient dazu, Hypermedialität zu ermöglichen. Hypertext ist die Ursache dafür, dass man digitale Oberflächen, bis heute Bildschirme, verwenden muss, um im Web zu kommunizieren. Dabei ist das Web letztlich ein Hypertext, genauer: ein hypermediales System. Von jedem Punkt aus kann zu jedem anderen verlinkt werden. Auch was man Web auf Knopfdruck nennt, ist nicht etwas, das als zusätzliches Element zum Hypertext hinzukommt; Hypertext besteht gerade darin, dass ich in Echtzeit von einem Element zu einem mit ihm verknüpften gelangen kann. Das Web ist ein Real-Time-Medium, in dem alle Inhalte gleichzeitig erreichbar sind und beliebig miteinander verbunden werden können.

Für meinen Unterricht bedeutet das:

  1. Es gibt eine Ebene der technischen Basis, auf der es darum geht, was Hypertext ist, wie er technisch realisiert wird, mit welchen Mitteln man ihn produziert und wie man ihn publiziert. Zu dieser Ebene gehört auch, wie Hypertext und Medien zusammenspielen, wie man Hypertext durchsucht und wie er dargestellt wird.

  2. Es gibt hypertextuelle Formate oder Genres, die z.T. erst entwickelt werden und sich ständig verändern. Beispiele sind Blogs, Microblogs, Wikis oder Profile. (Dabei ist eine offene Frage, ob ein konkreter Text nicht meist zu mehreren dieser Genres gehört.) Diese Genres realisieren Eigenschaften des Hypertexts in kommunikativen Situationen oder für kommunikative Zwecke. Sie gehören nicht zur Ebene der Anwendungen (siehe unten), aber sie werden auf dieser Ebene in bestimmter Weise interpretiert und geformt. Dies ist die Ebene der sozialen Medien, der Kommunikation im Web.

  3. Es gibt Anwendungen für Hypertext—für meinen Unterricht relevant sind dabei Journalismus und Public Relations. (Politische Kommunikation, Wissenschaft, Wissenmanagement oder Lehre und Unterricht sind weitere Anwendungen). Diese Anwendungen stellen Kontexte für Hypertext dar, und sie werden durch die Möglichkeit hypermedialer Kommunikation verändert. Die Kommunikationsformate der zweiten Ebene werden auf dieser Ebene einerseits eingeschränkt und andererseits erweitert.

  4. Auf einer vierten Ebene lässt sich das, was auf den ersten drei—der technischen, der kommunikativen und der institutionellen—stattfindet, wissenschaftlich untersuchen: das wäre die Ebene der Webwissenschaft.

Für meine Unterricht an unserem Studiengang ist die zweite Ebene wohl die wichtigste. Zukünftige Medienpraktiker müssen die Kommunikationsformen im Web und ihre Dynamik verstehen. Dabei ist aber die Hypertextualität das verbindende Element: Es kommt darauf an, die spezifischen hypertextuellen Möglichkeiten dieser Formate zu begreifen, insbesondere die Verknüpfungsmöglichkeiten, durch die sie auf der Anwendungs- oder Institutionsebene relevant werden. Um diesen Unterricht auf einem Hochschulniveau, also wissenschaftlich fundiert geben zu können, ist dabei eine Rückbindung an die vierte Ebene wichtig—die allerdings gerade erst entsteht. Hier ist für mich—sozusagen als passende Analyse-Ebene für die hypertextuellen Formate oder Genres—eine mikrosoziologische Untersuchung von Webkommunikation am interessantesten, wie sie bisher nur rudimentär existiert.

Mitarbeiter der Wissenschaftlichen Dienste des Deutschen Bundestags haben eine ausführliche Dokumentation Über das Für und Wider der urheberrechtlichen Diskussion im Zusammenhang mit dem Heidelberger Appell erstellt [via Hugo E. Martin]. Zu Open Access stellen sie fest:

Die Kritik an Open Access kann kaum nachvollzogen werden. Die hier gemachten Vorwürfe treffen eher auf die traditionellen Vertriebswege zu als auf das neue Publikationsmodell. Mit der digitalen Plattform steht den Rechteinhabern eine adäquate Publikationsalternative zur Verfügung, die insbesondere vor dem Hintergrund der Geschwindigkeit, in der neues Wissen geschaffen wird, erhebliche Vorteile gegenüber den in der Regel teureren traditionellen Vertriebswegen hat. Die Vorteile werden auch in den einschlägigen Untersuchungen der EU und der OECD bestätigt.

Auch bei der Analyse der Google-Buchsuche kommen sie zu dem Ergebnis, dass sie die Möglichkeiten der Urheber eher erweitert als beschränkt—bei allen angebrachten Bedenken gegenüber einer Monopolstellung Googles.

Für mich wird immer deutlicher, dass der Heidelberger Appell Teil einer FUD-Kampagne (FUD steht für Fear, Uncertainty and Doubt) von Leuten ist, die Konkurrenz bekämpfen und alte Privilegien sichern wollen. Er gehört in eine Kategorie mit der Forderung der deutschen Altmedienverlage nach „Leistungsschutz“, nur ist er noch verschwiemelter, weil noch schwieriger argumentativ zu stützen.

Reblog this post [with Zemanta]

Gestern habe ich in einem Aufsatz Jörg R. Bergmanns (als PDF hier) gelesen:

Wenn nun z.B. ein Sprecher die Worte eines anderen zitiert, tritt der, der diese Worte aktiviert, neben den, von dem diese Worte stammen. Diese Aufspaltung des Sprechers im Zitat aber hat weitreichende Konsequenzen, etwa die, daß die Person, die spricht, die Verantwortung für die Äußerung, die sie wiedergibt, an denjenigen delegieren kann, dessen Worte sie zitiert und dem diese Worte gewissermaßen ‚gehören‘.

In der gleichen Weise, in der GOFFMAN das Konzept des ‚Sprechers‘ dekonstruiert, zieht er auch verschiedene Beteiligungsrollen, die im Konzept des ‚Hörers‘ enthalten sind, typologisch auseinander. So unterscheidet er u.a. ratifizierte von nicht ratifizierten Zuhörern, und im Hinblick auf die erste Gruppe nochmals zwischen angesprochenen und nicht angeprochenen Rezipienten bzw. zwischen zufälligen Mithörern und absichtlichen Lauschern bei der zweiten Gruppe. Alle diese möglichen Zuhörertypen faßt GOFFMAN dann zu dem zusammen, was er als „participation framework“ bezeichnet.

Was tue ich eigentlich, wenn ich bei Twitter etwas retweete, also einen Tweet eines anderen von meiner Adresse aus weiterschicke und den anderen dabei nenne? Auch dabei zitiere ich, allerdings in einer anderen Form: Der Zitierte ist verlinkt und wird darüber benachrichtigt, dass ich ihn zitiere. Der zitierte Tweet geht an meine Follower, das sind (grob) die ratifizierten Zuhörer, und er ist für andere Webuser zugänglich, die nicht ratifizierten Zuhörer (die ich nicht ausgeschlossen habe, was bei Twitter möglich wäre).

Ich bin in einer „Gesprächssituation“ die dem mündlichen Zitieren sehr ähnlich ist und andererseits davon auch sehr verschieden (dasselbe gilt für schriftliche Zitate): Vergleichbar mit dem mündlichen Zitat, aber nicht völlig, ist der zeitliche Charakter der Kommunikation: Ich erreiche meine Follower zu einem Zeitpunkt x, wobei aber mein Tweet archiviert ist und ihn die meisten in einer bestimmten Zeitspanne wahrnehmen, nachdem er abgesendet ist—ausgedehnt dadurch, dass er auch bei FriendFeed (wo es ebenfalls ratifizierte und nicht ratifizierte Leser gibt) und möglicherweise auch auf Facebook (wo nicht ratifizierte Adressaten ausgeschlossen sind) zu lesen ist.

Wenn ich retweete, kommuniziere ich bewusst: Ich will meine Follower über etwas informieren, das ich für interessant, witzig oder wichtig halte. Das erwarten sie vermutlich auch von mir, und deshalb haben sie meine Tweets abonniert. Was das Retweeten angeht, erwarten sie von mir eine Auswahl: Sie würden mir nicht mehr folgen, wenn ich eine großen Zahl der Tweets, die ich erhalte, einfach weiterschicken würde.

Für meine Follower habe ich eine bestimmte Rolle, zu der eine bestimmte Frequenz von Botschaften und ein bestimmter Charakter dieser Botschaften gehört. Was ich retweete, muss in diese Frequenz und zu diesem Charakter passen, es muss zu meiner Rolle passen. Wenn ich etwas retweete, erweitere ich andererseits meine Rolle, und zwar um so etwas wie einen Teil der (individuellen) Rolle der Person, deren Tweets ich weiterschicke. Sie ist für mich eine Ergänzung und ich eigne mir zum Beispiel etwas von ihrer Autorität an.

Anders als beim mündlichen Zitat gibt es ein @-Link zu der Person, die ich zitiere, sie erfährt davon (sie erhält meinen Tweet als eine Antwort auf ihre Tweets) und meine Follower können sich zu ihr durchklicken. Sie könnte mich „bannen“, wenn ihr nicht passt, dass ich sie zitiere. Sie kann mir aber auch folgen, wenn sie erst durch mein Retweeten davon erfährt, dass ich ihr folge. Wie stehen also in einer ziemlich spezifischen Beziehung zueinander, die durch die Institution Twitter möglich wird oder zu ihr gehört, und die wiederum auf der Institution Web (ohne die es diese Links nicht gäbe) basiert. Diese Art der Beziehung gibt es im Web (außer bei Microblogging-Diensten) so sonst nicht, und es gibt sie erst recht nicht außerhalb des Webs.

Meine Beziehungen zu den Leuten, denen ich followe (deren ratifizierter Zuhörer ich bin und die von mir gelegentlich retweetet werden) gehören zu meiner Rolle als Twitterer. Das wird bei Twitter dadurch unterstrichen, dass für jeden auf meiner Twitterpage sichtbar ist, wem ich folge. Ähnliches gilt für die Twitterer, die mir folgen.

Diese Twitter-spezifischen Erwartungen stehen wieder in komplizierten Beziehungen, zu anderen Rollen, die ich im Web (z.B. als Blogger, als Autor anderer Texte, als Mitglied in bestimmten sozialen Netzwerken) und außerhalb des Webs (z.B. als Lehrer) habe. Als jemand, der twittert, bin ich ein Autor in einer bestimmten medialen Öffentlichkeit, und ich kann auch im Web nur als solcher wahrgenommen werden—von Menschen, die mich sonst gar nicht kennen. Ich konstruiere mich Twitter-spezifisch, und nur Leute, die dieses Medium mit seinen besonderen Erwartungshaltungen nicht verstehen, reagieren auf meine Tweets ausschließlich wie auf in einer anderen Öffentlichkeit geäußerte Sätze.

Zurück zum Retweeten, einer Twitter-typischen Form des Zitierens: Etwas verkürzt und abgehoben kann ich sagen: Das Retweeten konstituiert mich mit als Twitterer, der als Bestandteil eines Netzwerks von Leuten, denen er folgt, schreibt. Durch die Möglichkeit des Retweetens werde ich zum Autor einer sehr bestimmten Form von Hypertexten, die es ohne Microblogging nicht gäbe. Meine Autorenrolle ist von anderen Twitter-typischen Rollen (Follower, Followee) nicht ablösbar.

Das sind Anfangsüberlegungen zu einer Beschreibung von Web-spezifischen Rollen- und Erwartungssystemen. (Wobei ich voraussetzungsvolle Konzepte wie Rolle und Öffentlichkeit nur provisorisch verwende.) Ich hoffe, dass ich sie demnächst methodisch abgesicherter und systematischer fortsetzen kann. Naheliegend ist es, als nächstes die „individuellen“ Rollen oder Charakterisierungen einzelner Autoren und die zum System Twitter gehörenden Rollen voneinander zu unterscheiden. Leider kenne ich Goffman bisher fast gar nicht: Allein der Ausdruck participation framework ist für jemand, der sich mit sozialen Medien beschäftigt, faszinierend.

Für die Medien ist der wichtigste Trend im Web der Übergang zum Realtime-Web. Twitter ist das spektakulärste Beispiel für einen Service, über den man Informationen in Echtzeit austauschen kann (es geht um Austausch und um beliebige Quellen, nicht um isolierte Dienste wie etwa Börsenticker.) Google Wave, im Gegensatz zu Twitter hochkomplex, soll Echtzeit-Kollaboration erlauben, um etwa gemeinsam und dezentral Medien zu produzieren und aktuell zu halten. (Google Wave basiert nicht auf den gängigen Web-Techniken, sondern auf dem XMPP-Protokoll; Anil Dash z.B. zweifelt deshalb daran, dass es sich im Web, das inkrementelle Veränderungen bevorzugt, durchsetzen kann.)

PubsubHubbub erlaubt Twitter-artige Echtzeit-Updates, aber unabhängig von einem zentralen Server wie bei Twitter.

Es ist nett zu sehen, dass wenigstens ein paar Leute bei Google die Möglichkeit sehen, ein Twitter-artiges Benachrichtigungssystem im Small Pieces Loosely Joined-Stil zu entwickeln,

schreibt Dave Winer [via hackr].

Es handelt sich um eine Erweiterung zu Atom-Newsfeeds (die Ausdehnung auf RSS 2.0 ist geplant). ‚Hubbub-befähigte Feeds enthalten ein Link zu einem Hub, an den sie Aktualisierungen in Echtzeit melden, und der seinerseits Clients, die ihn abonniert haben, sofort über die Änderung informiert. Der Client (z.B. ein Online-Newsreader) muss die Informationen also nicht mehr pollen (=zu einer Zeit x abrufen), sondern die Informationen werden an ihn gepusht. Für die Benutzer bedeutet das: So wie sie jetzt via Twitter Statusmeldungen erhalten, können sie bald beliebige Informationen in Echtzeit abonnieren. Voraussetzung ist nur ein Newsfeed, der der mit ‚Hubbub arbeitet.

Der Google Reader verwendet jetzt ‚Hubbub bei den Empfehlungen (Shared Items). Friendfeed, ebenfalls ‚Hubbub-enabled, wird damit fast augenblicklich über neue Shared Items informiert und stellt sie sofort dar. Wie das aussieht, zeigt dieses Demo-Video:

Auch Feedburner, Googles Service zum Erzeugen und Vermarkten von RSS-Feeds, unterstützt dieses Abo-Verfahren; dazu gibt es ein neues Feature namens PingShot, das man für seinen Feed nur auswählen muss. Aktualisierungen werden dann, wie bei den Shared Items im Reader, an einen Hub-Server von Google geschickt und weiterverteilt. (Ich weiss nicht, ob er mit Googles Demo-Server für das neue Feed-Subskriptionsverfahren identisch ist.)

PubsubHubbub ist eine offene Technologie, die nicht Google gehört. Google unterstützt sie aber intensiv. Google gehörte auch zu den frühesten Implementierern des Atom-Formats, auf denen ‚Hubbub basiert. Mehr Informationen gibt es auf der Projekt-Site und im ersten Entwurf der Spezifikation. Wie ein PubsubHubbub-Server, also ein Hub, arbeitet, zeigt diese Präsentation.

Ich werde mich mit ‚Hubbub (und dem Pushbutton Web) intensiver beschäftigen, dieses Post ist nur ein erster Hinweis. (Auf Deutsch habe ich außer diesem Post Fabian Pimmingers nicht viel darüber gefunden.) Das Verfahren wird es vor allem erlauben, zu bestimmten Themen (Topics) Echtzeit-Informationen zu erhalten: Wie interessant das für Journalismus und Unternehmenskommunikation ist, liegt auf der Hand.

chairman burdaImage by couchpotatoes via Flickr

Ich möchte mich nicht lange mit der Debatte um Leistungschutz (= Raubritterzoll für Verlage) und Schutz der Journalisten vor Google (= Sicherung ihres Gatekeeper-Anspruchs) beschäftigen. Ich glaube, dass dort intellektuell wenig interessante Nachhutgefechte geführt werden—so wichtig es ist, dass die Freiheit im Netz nicht weiter eingeschränkt wird. Der VDZ, der DJV und ihre Vorsitzenden haben ein ganz schlichtes materielles Interesse, und dafür treten sie ein wie seinerzeit Arbeitgeber und Arbeitnehmer an der Ruhr für die Erhaltung des unwirtschaftlichen Bergbaus. Da man nicht gut sagen kann, dass man von der Gesellschaft geschützt und subventioniert werden möchte, weil man sich nicht umstellen kann oder will, beruft man sich auf höhere Ziele: damals an der Ruhr auf die Sicherung der nationalen Energieversorgung, heute auf die unersätzliche Funktion des Journalismus in der Demokratie. Und damit das Ganze medial richtig hochgekocht werden kann, macht man—mit Vorliebe ausländische—Feinde aus: damals die Ölscheichs, heute Google—die Datenkrake, wie sie das zeitgenössische Wörterbuch der Gemeinplätze bezeichnet.

Mir fällt diese Sommerloch-Debatte ein, weil ich gerade die Vorversion einer (von mir betreuten) Diplomarbeit Birgit Bröckels über journalistische Aspekte der Suchmaschinenoptimierung lese. Birgit Bröckel beschäftigt sich im Detail damit, wie eine Journalistin Texte so redaktionell bearbeiten kann, dass die Benutzer sie via Suchmaschine auch finden. Sie resümiert:

Suchmaschinenoptimierung ist Useroptimierung.

Diese Arbeit—übrigens im Auftrag eines Verlags geschrieben—zeigt, was Google tatsächlich mit journalistischen Angeboten tut: Mit allen Mitteln und einer ständig weiterentwickelten Technik herauszufinden, welche von ihnen am besten eine Frage beantworten, die die User haben. Suchmaschinen gehen dabei subtil vor, wie jeder merkt, der sich etwas mit Suchmaschinenoptimierung beschäftigt. Dass Google zur Killerapplikation (Hubert Burda) geworden ist, liegt nicht an einem Bündnis mit dunklen Mächten, sondern daran, dass es so objektiv ist und—bei aller möglichen Kritik—sicher unabhängiger von Anzeigenkunden ist als die Verleger, die sich jetzt zu Hütern der Pressefreiheit erklären.

Wenn einstürzende Medienhäuser gegen Google kämpfen, meinen sie die Autonomie der Nutzer: Google ist vor allem ein Instrument, mit dem sie gezielt Fragen stellen können. Was die Verlage stört—und was sie im Netz tatsächlich überflüssig macht— ist, dass sich die Nutzer ihre Informationsangebote selbst zusammenstellen können. Hubert Burda, der es besser weiß, ist nicht dafür zu beneiden, dass er in der FAZ für seinen Verband schreiben muss:

Verlage […] brauchen die Sicherheit, dass ihnen das ausschließliche Recht auf Vervielfältigung, Verbreitung, öffentliche Wiedergabe und öffentliche Zugänglichmachung für Presseerzeugnisse zusteht, und das muss auch für digitale Medien gelten.

Mit derselben Logik (es war immer so …) hätten die Eisenbahnen fordern können, Autostraßen und Flughäfen zu verbieten, um das auschließliche Recht zu behalten, Menschen und Güter über weitere Strecken zu transportieren.

Google wird für seine Leistungen bezahlt—weil Menschen auf die Anzeigen klicken, die Google ihnen aufgrund seiner Technologie gezielter anbieten kann, als das bei traditioneller Werbung möglich ist. Google verdient viel Geld, weil die Nutzer seiner Technologie trauen—wer daran etwas ändern, also: mitschneiden, möchte, sollte sich auch auf anderen Gebieten dafür aussprechen, Erfolg zu bestrafen. Wenn die deutschen Verleger Google als ein Risiko für die Transparenz im Netz (Hubert Burda) ansehen—warum gründen sie nicht selbst eine Suchmaschine, die dank des Engagements ihrer Betreiber für objektive Information transparenter und benutzerfreundlicher arbeitet als Google? Gerade Burda zeigt mit fitter.de, dass es hier Potenziale jenseits von Google gibt. Die VDZ-Suchmaschine als Google-Alternative (News-Suche sponsored by DJV …): Damit könnten die Verleger sogar die Piratenpartei hinter sich bringen!

Reblog this post [with Zemanta]

Ich experimentiere etwas mit Posterous, aber wirklich angetan bin ich von dem Service noch nicht. Abgesehen davon, dass ich nichts davon halte, dieselben Inhalte über alle möglichen Plattformen zu verstreuen: Ein Posterous-Blog unterscheidet sich von einem Typepad- oder WordPress-Blog wohl vor allem dadurch, dass es weniger
Möglichkeiten bietet. Interessant für Leute, die kein Blog haben – aber gibt es einen Grund umzusteigen? Was mich auch ärgert: Posterous
versteht nicht nur kein markdown (eine vereinfachte Weise, HTML zu schreiben, an die ich mich gewöhnt habe), sondern setzt auch normales HTML-Markup nicht wirklich um; z.B. kann man Zitate nicht mit q auszeichnen.

Was mich an Posterous interessiert, hat mit dem Service selbst nichts zu tun: die Möglichkeit spontaner zu bloggen, nicht nur mehr oder weniger gedrechselte Posts zu verfassen. Ich überlege, ob ich mir wie Robert ein Siteblog für Notizen, Live-Berichterstattung und ähnliches anlege. Aber was spricht dagegen, das direkt in meinem Blog oder in einem zweiten Typepad-Blog zu tun?

Ich vermute, dass Posterous vor allem das mobile Bloggen erleichtert,
und dass man es sehr gut verwenden kann, um Medien zu veröffentlichen oder wiederzuveröffentlichen. Als Autorenwerkzeug für Text ist es mir zu beschränkt. Aber vielleicht habe ich es auch nur noch nicht richtig verstanden.

Posted via email from Heinz’s posterous