Wer wissen will, wie die Zukunft von Hauptstadtzeitungen aussehen kann—besser: was im Web an ihre Stelle treten kann— muss Michael Wolffs Artikel über Politico in Vanity Fair lesen. Ein paar Newsprofis haben Politico während der Obama-Kampagne gegründet. Die Site konzentriert sich auf die Berichterstattung über das politische Washington. Dabei wird nahezu in Echtzeit eine Unmenge an Informationen geliefert, die die Site und ihre Reporter zu einer Quelle für viele andere Medien machen. Politico hat sich dem verschrieben, was man in den USA beat reporting nennt. Der Beat sind hier die Aktivitäten der politischen Klasse in der amerikanischen Hauptstadt. Die Site ist inzwischen ein Must für amerikanische Politik-Interessierte; sie finanziert sich halbe/halbe aus Anzeigenerlösen und dem Verkauf einer Printversion. Die Online-Version erreicht 6,7 Millionen Unique Clients im Monat; die Printversion erzielt—dank der Bekanntheit der Site und der medialen Präsenz der Reporter—7,5 Millionen Dollar Anzeigenerlöse im Jahr bei einer Reichweite von nur 32.000.

Ich will Wolffs Geschichte hier nicht referieren. Passagen wie die Einleitung und der Schluss über die Unzeitgemäßheit der Allgemeinen Zeitung im 21. Jahrhundert oder die Darstellung des Wettbewerbs zwischen den Washingtoner Verlegerfamilien verdienen, dass man sie im Original liest. Ich möchte nur auf drei Punkte hinweisen, die ich so noch nie formuliert gefunden habe—trotz der Flut an Artikeln über Untergang oder Zukunft der Zeitungen:

  1. Politico ist eine Site von Journalisten, die die besten Kenner ihres Themas sind. Allen Unkenrufen vom Ende des Journalismus zum Trotz findet kompetenter Fachjournalismus ein Publikum, selbst wenn es um die Interna einer Administration geht, die in den vergangenen Jahren angegeblich niemand interessiert haben.

  2. Politico ist keine Online-Zeitung mit umfassendem redaktionellen Programm. Die Website ist monothematisch, aber sie behandelt ihr Thema gründlicher und genauer als die Konkurrenz. Genau das passt ins Web, in dem sich Benutzer ihre Quellen selbst zusammenstellen können.

  3. Politico konzentriert sich auf eine internettypische Berichterstattung: Die Reporter berichten in Echtzeit, filtern kaum und suchen sich ihre Themen selbst. Publish first, edit after! Auf die Arbeitsgänge und Aufgabenverteilung einer klassischen Redaktion verzichtet die Site. Wichtig sind zeitliche, räumliche und persönliche Nähe zum Geschehen.

Politico ist die erfolgreich verwirklichte Antithese zu dem Verlegertraum, man könne dieselben Inhalte über beliebige Plattformen abspielen. Politico funktioniert nur durch das Netz, auch wenn die von der Online-Ausgabe abgeleitetet Special Interest-Printversion für die Hälfte der Einkünfte geradesteht.

In Wolffs Artikel wirkt Politico wie ein vervielfachter Rober Scoble, der sich mit Politik statt mit dem Web beschäftigt. Offenbar bereiten Helmut Markwort und seine Kollegen einen Relaunch des Focus vor. Sie sollten sich an Politico orientieren.

(Zum Geschäftsmodell von Politico siehe auch dieses Post Rex Hammocks [via Steve Rubel].)

In einer Frankfurter Rundschau, die ich vorgestern auf dem Flug von Frankfurt nach Graz gelesen habe, bin ich auf einen Artikel über adaptives Denken gestoßen; Gerd Gigerenzer beschreibt darin, weshalb intuitive Entscheidungen in den meisten komplexen Situationen erfolgreicher sind als Entscheidungen, die auf einem möglichst umfassenden Tatsachenwissen basieren. Beispiel: Ein Baseballspieler fängt einen fliegenden Ball nicht, indem er dessen Flugbahn berechnet. Er verwendet stattdessen eine ganz einfache Methode:

1. Fixiere den Ball mit deinen Augen. 2. Beginne zu laufen. 3. Passe Deine Laufgeschwindigkeit so an, dass der Blickwinkel konstant bleibt. Der Spieler kann alle Informationen ignorieren, die man benötigt, um die Flugbahn des Balls zu berechnen. Er löst dieses Problem nicht durch etwas Komplexes, sondern durch etwas ganz Einfaches. Er beachtet nur eine einzige Größe, den Blickwinkel, den er konstant zu halten versucht.

Wie könnte ein solcher Anpassungsmethode für die Gegenstände aussehen, die ich vermittele? Kann ich mich auf ein Objekt konzentrieren und mich—wie der Baseballspieler—so bewegen, dass ich es immer im Auge behalte und dadurch etwas erreiche, nämlich ein langfristig nutzbares Wissen zu vermitteln?

Ich überlege, ob ich diesen Punkt nicht am besten mit dem Ausdruck Hypertext bezeichnen kann (ich benutze Hypertext und Hypermedium synonym). Hypertext unterscheidet das Web von anderen Medien und er unterscheidet es von den anderen Teilen des Internet. Die gesamte Architektur des Web dient dazu, Hypermedialität zu ermöglichen. Hypertext ist die Ursache dafür, dass man digitale Oberflächen, bis heute Bildschirme, verwenden muss, um im Web zu kommunizieren. Dabei ist das Web letztlich ein Hypertext, genauer: ein hypermediales System. Von jedem Punkt aus kann zu jedem anderen verlinkt werden. Auch was man Web auf Knopfdruck nennt, ist nicht etwas, das als zusätzliches Element zum Hypertext hinzukommt; Hypertext besteht gerade darin, dass ich in Echtzeit von einem Element zu einem mit ihm verknüpften gelangen kann. Das Web ist ein Real-Time-Medium, in dem alle Inhalte gleichzeitig erreichbar sind und beliebig miteinander verbunden werden können.

Für meinen Unterricht bedeutet das:

  1. Es gibt eine Ebene der technischen Basis, auf der es darum geht, was Hypertext ist, wie er technisch realisiert wird, mit welchen Mitteln man ihn produziert und wie man ihn publiziert. Zu dieser Ebene gehört auch, wie Hypertext und Medien zusammenspielen, wie man Hypertext durchsucht und wie er dargestellt wird.

  2. Es gibt hypertextuelle Formate oder Genres, die z.T. erst entwickelt werden und sich ständig verändern. Beispiele sind Blogs, Microblogs, Wikis oder Profile. (Dabei ist eine offene Frage, ob ein konkreter Text nicht meist zu mehreren dieser Genres gehört.) Diese Genres realisieren Eigenschaften des Hypertexts in kommunikativen Situationen oder für kommunikative Zwecke. Sie gehören nicht zur Ebene der Anwendungen (siehe unten), aber sie werden auf dieser Ebene in bestimmter Weise interpretiert und geformt. Dies ist die Ebene der sozialen Medien, der Kommunikation im Web.

  3. Es gibt Anwendungen für Hypertext—für meinen Unterricht relevant sind dabei Journalismus und Public Relations. (Politische Kommunikation, Wissenschaft, Wissenmanagement oder Lehre und Unterricht sind weitere Anwendungen). Diese Anwendungen stellen Kontexte für Hypertext dar, und sie werden durch die Möglichkeit hypermedialer Kommunikation verändert. Die Kommunikationsformate der zweiten Ebene werden auf dieser Ebene einerseits eingeschränkt und andererseits erweitert.

  4. Auf einer vierten Ebene lässt sich das, was auf den ersten drei—der technischen, der kommunikativen und der institutionellen—stattfindet, wissenschaftlich untersuchen: das wäre die Ebene der Webwissenschaft.

Für meine Unterricht an unserem Studiengang ist die zweite Ebene wohl die wichtigste. Zukünftige Medienpraktiker müssen die Kommunikationsformen im Web und ihre Dynamik verstehen. Dabei ist aber die Hypertextualität das verbindende Element: Es kommt darauf an, die spezifischen hypertextuellen Möglichkeiten dieser Formate zu begreifen, insbesondere die Verknüpfungsmöglichkeiten, durch die sie auf der Anwendungs- oder Institutionsebene relevant werden. Um diesen Unterricht auf einem Hochschulniveau, also wissenschaftlich fundiert geben zu können, ist dabei eine Rückbindung an die vierte Ebene wichtig—die allerdings gerade erst entsteht. Hier ist für mich—sozusagen als passende Analyse-Ebene für die hypertextuellen Formate oder Genres—eine mikrosoziologische Untersuchung von Webkommunikation am interessantesten, wie sie bisher nur rudimentär existiert.

Mitarbeiter der Wissenschaftlichen Dienste des Deutschen Bundestags haben eine ausführliche Dokumentation Über das Für und Wider der urheberrechtlichen Diskussion im Zusammenhang mit dem Heidelberger Appell erstellt [via Hugo E. Martin]. Zu Open Access stellen sie fest:

Die Kritik an Open Access kann kaum nachvollzogen werden. Die hier gemachten Vorwürfe treffen eher auf die traditionellen Vertriebswege zu als auf das neue Publikationsmodell. Mit der digitalen Plattform steht den Rechteinhabern eine adäquate Publikationsalternative zur Verfügung, die insbesondere vor dem Hintergrund der Geschwindigkeit, in der neues Wissen geschaffen wird, erhebliche Vorteile gegenüber den in der Regel teureren traditionellen Vertriebswegen hat. Die Vorteile werden auch in den einschlägigen Untersuchungen der EU und der OECD bestätigt.

Auch bei der Analyse der Google-Buchsuche kommen sie zu dem Ergebnis, dass sie die Möglichkeiten der Urheber eher erweitert als beschränkt—bei allen angebrachten Bedenken gegenüber einer Monopolstellung Googles.

Für mich wird immer deutlicher, dass der Heidelberger Appell Teil einer FUD-Kampagne (FUD steht für Fear, Uncertainty and Doubt) von Leuten ist, die Konkurrenz bekämpfen und alte Privilegien sichern wollen. Er gehört in eine Kategorie mit der Forderung der deutschen Altmedienverlage nach „Leistungsschutz“, nur ist er noch verschwiemelter, weil noch schwieriger argumentativ zu stützen.

Reblog this post [with Zemanta]

Gestern habe ich in einem Aufsatz Jörg R. Bergmanns (als PDF hier) gelesen:

Wenn nun z.B. ein Sprecher die Worte eines anderen zitiert, tritt der, der diese Worte aktiviert, neben den, von dem diese Worte stammen. Diese Aufspaltung des Sprechers im Zitat aber hat weitreichende Konsequenzen, etwa die, daß die Person, die spricht, die Verantwortung für die Äußerung, die sie wiedergibt, an denjenigen delegieren kann, dessen Worte sie zitiert und dem diese Worte gewissermaßen ‚gehören‘.

In der gleichen Weise, in der GOFFMAN das Konzept des ‚Sprechers‘ dekonstruiert, zieht er auch verschiedene Beteiligungsrollen, die im Konzept des ‚Hörers‘ enthalten sind, typologisch auseinander. So unterscheidet er u.a. ratifizierte von nicht ratifizierten Zuhörern, und im Hinblick auf die erste Gruppe nochmals zwischen angesprochenen und nicht angeprochenen Rezipienten bzw. zwischen zufälligen Mithörern und absichtlichen Lauschern bei der zweiten Gruppe. Alle diese möglichen Zuhörertypen faßt GOFFMAN dann zu dem zusammen, was er als „participation framework“ bezeichnet.

Was tue ich eigentlich, wenn ich bei Twitter etwas retweete, also einen Tweet eines anderen von meiner Adresse aus weiterschicke und den anderen dabei nenne? Auch dabei zitiere ich, allerdings in einer anderen Form: Der Zitierte ist verlinkt und wird darüber benachrichtigt, dass ich ihn zitiere. Der zitierte Tweet geht an meine Follower, das sind (grob) die ratifizierten Zuhörer, und er ist für andere Webuser zugänglich, die nicht ratifizierten Zuhörer (die ich nicht ausgeschlossen habe, was bei Twitter möglich wäre).

Ich bin in einer „Gesprächssituation“ die dem mündlichen Zitieren sehr ähnlich ist und andererseits davon auch sehr verschieden (dasselbe gilt für schriftliche Zitate): Vergleichbar mit dem mündlichen Zitat, aber nicht völlig, ist der zeitliche Charakter der Kommunikation: Ich erreiche meine Follower zu einem Zeitpunkt x, wobei aber mein Tweet archiviert ist und ihn die meisten in einer bestimmten Zeitspanne wahrnehmen, nachdem er abgesendet ist—ausgedehnt dadurch, dass er auch bei FriendFeed (wo es ebenfalls ratifizierte und nicht ratifizierte Leser gibt) und möglicherweise auch auf Facebook (wo nicht ratifizierte Adressaten ausgeschlossen sind) zu lesen ist.

Wenn ich retweete, kommuniziere ich bewusst: Ich will meine Follower über etwas informieren, das ich für interessant, witzig oder wichtig halte. Das erwarten sie vermutlich auch von mir, und deshalb haben sie meine Tweets abonniert. Was das Retweeten angeht, erwarten sie von mir eine Auswahl: Sie würden mir nicht mehr folgen, wenn ich eine großen Zahl der Tweets, die ich erhalte, einfach weiterschicken würde.

Für meine Follower habe ich eine bestimmte Rolle, zu der eine bestimmte Frequenz von Botschaften und ein bestimmter Charakter dieser Botschaften gehört. Was ich retweete, muss in diese Frequenz und zu diesem Charakter passen, es muss zu meiner Rolle passen. Wenn ich etwas retweete, erweitere ich andererseits meine Rolle, und zwar um so etwas wie einen Teil der (individuellen) Rolle der Person, deren Tweets ich weiterschicke. Sie ist für mich eine Ergänzung und ich eigne mir zum Beispiel etwas von ihrer Autorität an.

Anders als beim mündlichen Zitat gibt es ein @-Link zu der Person, die ich zitiere, sie erfährt davon (sie erhält meinen Tweet als eine Antwort auf ihre Tweets) und meine Follower können sich zu ihr durchklicken. Sie könnte mich „bannen“, wenn ihr nicht passt, dass ich sie zitiere. Sie kann mir aber auch folgen, wenn sie erst durch mein Retweeten davon erfährt, dass ich ihr folge. Wie stehen also in einer ziemlich spezifischen Beziehung zueinander, die durch die Institution Twitter möglich wird oder zu ihr gehört, und die wiederum auf der Institution Web (ohne die es diese Links nicht gäbe) basiert. Diese Art der Beziehung gibt es im Web (außer bei Microblogging-Diensten) so sonst nicht, und es gibt sie erst recht nicht außerhalb des Webs.

Meine Beziehungen zu den Leuten, denen ich followe (deren ratifizierter Zuhörer ich bin und die von mir gelegentlich retweetet werden) gehören zu meiner Rolle als Twitterer. Das wird bei Twitter dadurch unterstrichen, dass für jeden auf meiner Twitterpage sichtbar ist, wem ich folge. Ähnliches gilt für die Twitterer, die mir folgen.

Diese Twitter-spezifischen Erwartungen stehen wieder in komplizierten Beziehungen, zu anderen Rollen, die ich im Web (z.B. als Blogger, als Autor anderer Texte, als Mitglied in bestimmten sozialen Netzwerken) und außerhalb des Webs (z.B. als Lehrer) habe. Als jemand, der twittert, bin ich ein Autor in einer bestimmten medialen Öffentlichkeit, und ich kann auch im Web nur als solcher wahrgenommen werden—von Menschen, die mich sonst gar nicht kennen. Ich konstruiere mich Twitter-spezifisch, und nur Leute, die dieses Medium mit seinen besonderen Erwartungshaltungen nicht verstehen, reagieren auf meine Tweets ausschließlich wie auf in einer anderen Öffentlichkeit geäußerte Sätze.

Zurück zum Retweeten, einer Twitter-typischen Form des Zitierens: Etwas verkürzt und abgehoben kann ich sagen: Das Retweeten konstituiert mich mit als Twitterer, der als Bestandteil eines Netzwerks von Leuten, denen er folgt, schreibt. Durch die Möglichkeit des Retweetens werde ich zum Autor einer sehr bestimmten Form von Hypertexten, die es ohne Microblogging nicht gäbe. Meine Autorenrolle ist von anderen Twitter-typischen Rollen (Follower, Followee) nicht ablösbar.

Das sind Anfangsüberlegungen zu einer Beschreibung von Web-spezifischen Rollen- und Erwartungssystemen. (Wobei ich voraussetzungsvolle Konzepte wie Rolle und Öffentlichkeit nur provisorisch verwende.) Ich hoffe, dass ich sie demnächst methodisch abgesicherter und systematischer fortsetzen kann. Naheliegend ist es, als nächstes die „individuellen“ Rollen oder Charakterisierungen einzelner Autoren und die zum System Twitter gehörenden Rollen voneinander zu unterscheiden. Leider kenne ich Goffman bisher fast gar nicht: Allein der Ausdruck participation framework ist für jemand, der sich mit sozialen Medien beschäftigt, faszinierend.

Für die Medien ist der wichtigste Trend im Web der Übergang zum Realtime-Web. Twitter ist das spektakulärste Beispiel für einen Service, über den man Informationen in Echtzeit austauschen kann (es geht um Austausch und um beliebige Quellen, nicht um isolierte Dienste wie etwa Börsenticker.) Google Wave, im Gegensatz zu Twitter hochkomplex, soll Echtzeit-Kollaboration erlauben, um etwa gemeinsam und dezentral Medien zu produzieren und aktuell zu halten. (Google Wave basiert nicht auf den gängigen Web-Techniken, sondern auf dem XMPP-Protokoll; Anil Dash z.B. zweifelt deshalb daran, dass es sich im Web, das inkrementelle Veränderungen bevorzugt, durchsetzen kann.)

PubsubHubbub erlaubt Twitter-artige Echtzeit-Updates, aber unabhängig von einem zentralen Server wie bei Twitter.

Es ist nett zu sehen, dass wenigstens ein paar Leute bei Google die Möglichkeit sehen, ein Twitter-artiges Benachrichtigungssystem im Small Pieces Loosely Joined-Stil zu entwickeln,

schreibt Dave Winer [via hackr].

Es handelt sich um eine Erweiterung zu Atom-Newsfeeds (die Ausdehnung auf RSS 2.0 ist geplant). ‚Hubbub-befähigte Feeds enthalten ein Link zu einem Hub, an den sie Aktualisierungen in Echtzeit melden, und der seinerseits Clients, die ihn abonniert haben, sofort über die Änderung informiert. Der Client (z.B. ein Online-Newsreader) muss die Informationen also nicht mehr pollen (=zu einer Zeit x abrufen), sondern die Informationen werden an ihn gepusht. Für die Benutzer bedeutet das: So wie sie jetzt via Twitter Statusmeldungen erhalten, können sie bald beliebige Informationen in Echtzeit abonnieren. Voraussetzung ist nur ein Newsfeed, der der mit ‚Hubbub arbeitet.

Der Google Reader verwendet jetzt ‚Hubbub bei den Empfehlungen (Shared Items). Friendfeed, ebenfalls ‚Hubbub-enabled, wird damit fast augenblicklich über neue Shared Items informiert und stellt sie sofort dar. Wie das aussieht, zeigt dieses Demo-Video:

Click here to display content from YouTube.
Learn more in YouTube’s privacy policy.

Auch Feedburner, Googles Service zum Erzeugen und Vermarkten von RSS-Feeds, unterstützt dieses Abo-Verfahren; dazu gibt es ein neues Feature namens PingShot, das man für seinen Feed nur auswählen muss. Aktualisierungen werden dann, wie bei den Shared Items im Reader, an einen Hub-Server von Google geschickt und weiterverteilt. (Ich weiss nicht, ob er mit Googles Demo-Server für das neue Feed-Subskriptionsverfahren identisch ist.)

PubsubHubbub ist eine offene Technologie, die nicht Google gehört. Google unterstützt sie aber intensiv. Google gehörte auch zu den frühesten Implementierern des Atom-Formats, auf denen ‚Hubbub basiert. Mehr Informationen gibt es auf der Projekt-Site und im ersten Entwurf der Spezifikation. Wie ein PubsubHubbub-Server, also ein Hub, arbeitet, zeigt diese Präsentation.

Ich werde mich mit ‚Hubbub (und dem Pushbutton Web) intensiver beschäftigen, dieses Post ist nur ein erster Hinweis. (Auf Deutsch habe ich außer diesem Post Fabian Pimmingers nicht viel darüber gefunden.) Das Verfahren wird es vor allem erlauben, zu bestimmten Themen (Topics) Echtzeit-Informationen zu erhalten: Wie interessant das für Journalismus und Unternehmenskommunikation ist, liegt auf der Hand.

chairman burdaImage by couchpotatoes via Flickr

Ich möchte mich nicht lange mit der Debatte um Leistungschutz (= Raubritterzoll für Verlage) und Schutz der Journalisten vor Google (= Sicherung ihres Gatekeeper-Anspruchs) beschäftigen. Ich glaube, dass dort intellektuell wenig interessante Nachhutgefechte geführt werden—so wichtig es ist, dass die Freiheit im Netz nicht weiter eingeschränkt wird. Der VDZ, der DJV und ihre Vorsitzenden haben ein ganz schlichtes materielles Interesse, und dafür treten sie ein wie seinerzeit Arbeitgeber und Arbeitnehmer an der Ruhr für die Erhaltung des unwirtschaftlichen Bergbaus. Da man nicht gut sagen kann, dass man von der Gesellschaft geschützt und subventioniert werden möchte, weil man sich nicht umstellen kann oder will, beruft man sich auf höhere Ziele: damals an der Ruhr auf die Sicherung der nationalen Energieversorgung, heute auf die unersätzliche Funktion des Journalismus in der Demokratie. Und damit das Ganze medial richtig hochgekocht werden kann, macht man—mit Vorliebe ausländische—Feinde aus: damals die Ölscheichs, heute Google—die Datenkrake, wie sie das zeitgenössische Wörterbuch der Gemeinplätze bezeichnet.

Mir fällt diese Sommerloch-Debatte ein, weil ich gerade die Vorversion einer (von mir betreuten) Diplomarbeit Birgit Bröckels über journalistische Aspekte der Suchmaschinenoptimierung lese. Birgit Bröckel beschäftigt sich im Detail damit, wie eine Journalistin Texte so redaktionell bearbeiten kann, dass die Benutzer sie via Suchmaschine auch finden. Sie resümiert:

Suchmaschinenoptimierung ist Useroptimierung.

Diese Arbeit—übrigens im Auftrag eines Verlags geschrieben—zeigt, was Google tatsächlich mit journalistischen Angeboten tut: Mit allen Mitteln und einer ständig weiterentwickelten Technik herauszufinden, welche von ihnen am besten eine Frage beantworten, die die User haben. Suchmaschinen gehen dabei subtil vor, wie jeder merkt, der sich etwas mit Suchmaschinenoptimierung beschäftigt. Dass Google zur Killerapplikation (Hubert Burda) geworden ist, liegt nicht an einem Bündnis mit dunklen Mächten, sondern daran, dass es so objektiv ist und—bei aller möglichen Kritik—sicher unabhängiger von Anzeigenkunden ist als die Verleger, die sich jetzt zu Hütern der Pressefreiheit erklären.

Wenn einstürzende Medienhäuser gegen Google kämpfen, meinen sie die Autonomie der Nutzer: Google ist vor allem ein Instrument, mit dem sie gezielt Fragen stellen können. Was die Verlage stört—und was sie im Netz tatsächlich überflüssig macht— ist, dass sich die Nutzer ihre Informationsangebote selbst zusammenstellen können. Hubert Burda, der es besser weiß, ist nicht dafür zu beneiden, dass er in der FAZ für seinen Verband schreiben muss:

Verlage […] brauchen die Sicherheit, dass ihnen das ausschließliche Recht auf Vervielfältigung, Verbreitung, öffentliche Wiedergabe und öffentliche Zugänglichmachung für Presseerzeugnisse zusteht, und das muss auch für digitale Medien gelten.

Mit derselben Logik (es war immer so …) hätten die Eisenbahnen fordern können, Autostraßen und Flughäfen zu verbieten, um das auschließliche Recht zu behalten, Menschen und Güter über weitere Strecken zu transportieren.

Google wird für seine Leistungen bezahlt—weil Menschen auf die Anzeigen klicken, die Google ihnen aufgrund seiner Technologie gezielter anbieten kann, als das bei traditioneller Werbung möglich ist. Google verdient viel Geld, weil die Nutzer seiner Technologie trauen—wer daran etwas ändern, also: mitschneiden, möchte, sollte sich auch auf anderen Gebieten dafür aussprechen, Erfolg zu bestrafen. Wenn die deutschen Verleger Google als ein Risiko für die Transparenz im Netz (Hubert Burda) ansehen—warum gründen sie nicht selbst eine Suchmaschine, die dank des Engagements ihrer Betreiber für objektive Information transparenter und benutzerfreundlicher arbeitet als Google? Gerade Burda zeigt mit fitter.de, dass es hier Potenziale jenseits von Google gibt. Die VDZ-Suchmaschine als Google-Alternative (News-Suche sponsored by DJV …): Damit könnten die Verleger sogar die Piratenpartei hinter sich bringen!

Reblog this post [with Zemanta]

Ich experimentiere etwas mit Posterous, aber wirklich angetan bin ich von dem Service noch nicht. Abgesehen davon, dass ich nichts davon halte, dieselben Inhalte über alle möglichen Plattformen zu verstreuen: Ein Posterous-Blog unterscheidet sich von einem Typepad- oder WordPress-Blog wohl vor allem dadurch, dass es weniger
Möglichkeiten bietet. Interessant für Leute, die kein Blog haben – aber gibt es einen Grund umzusteigen? Was mich auch ärgert: Posterous
versteht nicht nur kein markdown (eine vereinfachte Weise, HTML zu schreiben, an die ich mich gewöhnt habe), sondern setzt auch normales HTML-Markup nicht wirklich um; z.B. kann man Zitate nicht mit q auszeichnen.

Was mich an Posterous interessiert, hat mit dem Service selbst nichts zu tun: die Möglichkeit spontaner zu bloggen, nicht nur mehr oder weniger gedrechselte Posts zu verfassen. Ich überlege, ob ich mir wie Robert ein Siteblog für Notizen, Live-Berichterstattung und ähnliches anlege. Aber was spricht dagegen, das direkt in meinem Blog oder in einem zweiten Typepad-Blog zu tun?

Ich vermute, dass Posterous vor allem das mobile Bloggen erleichtert,
und dass man es sehr gut verwenden kann, um Medien zu veröffentlichen oder wiederzuveröffentlichen. Als Autorenwerkzeug für Text ist es mir zu beschränkt. Aber vielleicht habe ich es auch nur noch nicht richtig verstanden.

Posted via email from Heinz’s posterous

Die Fachgruppe PR und Organisationskommunikation der DGPuK hat ein Positionspapier Akademische PR-Ausbildung in Deutschland publiziert. Verantwortliche Autoren sind Thomas Pleil und René Seidenglanz.

Das Papier ist knapp und übersichtlich; es beginnt mit einer guten Zusammenfassung. Die folgende Grafik (entnommen der S. 3 des Papiers) zeigt, wie die DGPuK die Rolle der akademischen PR-Ausbildung versteht:

Rolle der akademischen PR-Ausbildung, Positionspapier der DGPuK, S. 3

Nach der ersten Lektüre würde ich das Papier so charakterisieren: Es begründet und fordert den akademischen Charakter der PR-Ausbildung: Die PR-Ausbildung soll wissenschaftlich fundiert sein und sowohl auf eine praktische Tätigkeit in der PR wie auf eine wissenschaftliche Karriere vorbereiten. Die akademisch ausgebildeten PR-Leute sollen nicht nur Wissen anwenden, sondern dazu in der Lage sein, die eigene Tätigkeit mit wissenschaftlichen Maßstäben zu bewerten und zugleich kritisch zu reflektieren, z.B. in Hinsicht auf gesellschaftliche und wirtschaftliche Entwicklungen. Das Papier bindet die PR-Ausbildung an die Kommunikationswissenschaft, fordert aber auch, PR-Praktikern eine weit über eine rein fachliche oder fachwissenschaftliche Qualifikation hinausgehende Kompetenz zum kritischen Nachdenken zu vermitteln.

Das ist eine aufklärerische Position, die sich am Leitbild eines autonomen und auf Wissen und Reflexion gestützten Handelnden orientiert—im Gegensatz zum reinen Praktiker, der nur Anweisungen seiner Kunden oder Vorgesetzten umsetzt. Es ist außerdem eine sehr anspruchsvolle Position: Die Ausbildung wird an Forschung gebunden; für die akademische PR-Ausbildung an Hochschulen und Fachhochschulen sollen vor allem Wissenschaftler verantwortlich sein, die selbst forschen, die also nicht nur einen bereits erarbeiteten Wissensbestand vermitteln.

Für mich ist die Bindung der Ausbildung an die Forschung ein wichtiger Punkt: An den österreichischen Fachhochschulen wird Forschung betrieben, und die Hochschulen sind verpflichtet, den Lehrenenden Forschung zu ermöglichen; nur die Lehre ist aber fix finanziert. Forschungstätigkeit hängt von Aufträgen aus der Wirtschaft oder von Förderungen ab, die man akquirieren muss. Wenn wir die Forderungen des Papiers an unserem Studiengang umsetzen wollen, müssen die Lehrenden Freiräume für die Foschung erhalten, die von Projekten für Auftraggeber unabhängig sind. In einem gewissen Ausmaß—das muss ich hinzufügen—hat man diese Freiheit im Rahmen der Weiterbildung und der Vorbereitung für die Lehre, aber sie ist von Zufällen und der Gutwilligkeit der Vorgesetzten und der Verwaltung abhängig.

Noch zwei Bemerkungen zu Themen, die in dem Papier nicht explizit behandelt werden, eine zu dem kommunikativen Kompetenzen, die wir vermitteln, und eine zu meinem eigenen Unterrichtsgebiet, der Webkommunikation:

  1. Kommunikative Kompetenzen: Für mich hat die Ausbildung von Kommunikatoren immer auch eine rhetorische, vielleicht könnte man auch sagen: gestalterische Komponente, die nicht einfach zu den nichtakdemischen, rein praktischen Teilen der Ausbildung gehört. Vor allem an Fachhochschulen sehe ich hier Ähnlichkeiten mit der Ausbildung an Kunst- oder Musikhochschulen. Ich fände es sinnvoll, diese Komponente in einem Positionspapier zur akademischen Aubildung von Kommunikatoren explizit und differenziert zu berücksichtigen—womit ich auf keinen Fall für eine Entakademisierung plädieren möchte.

  2. Webkommunikation: Auf Webkommunikation geht das Papier nicht ein—wahrscheinlich, um die zentralen Aussagen nicht durch weitere Themen zu verwässern. Für die PR bringt das Web radikale Veränderungen, und für die Aubildung und die wissenschaftliche Kommunikation neue Formen, die wir gerade erst auszuloten beginnen. Für eine Bewertung der Konsequenzen des Webs für die akademische PR-Ausbildung wäre wohl ein eigenes Papier (oder Wiki) nötig. Zur wissenschaftlichen Fundierung in diesem Bereich gehört wohl auch die entstehende Webwissenschaft— die man auch als Teilgebiet der Kommunikationswissenschaft verstehen kann.

Für unsere Diskussionen am Studiengang und in der Hochschule ist das Papier hilfreich, auch wenn es sich nur auf die Ausbildung in Deutschland bezieht. Es formuliert klar und verständlich Sinn und Anspruch einer akademischen Kommunikationsausbildung. Es bezieht eine Position, die ich als Lehrender auf diesem Gebiet gern auch als Verpflichtung annehme.

Ein Bericht der MacArthur-Stiftung ermutigt zum partizipatorischen Lernen

Ein neuer Report der MacArthur Foundation gilt der Zukunft der Lerninstitutionen in der digitalen Welt. Eine ausführliche PDF-Version ist erschienen; ein Buch zum selben Thema entsteht gerade in offener Zusammenarbeit im Web. Wer will, kann Anmerkungen zu jeder Seite des Werks machen; es soll 2010 herauskommen.

Dank des Reports verstehe ich Erfahrungen und Konflikte besser, mit denen ich bei der Vermittlung von Webkompetenz an einer Fachhochschule täglich zu tun habe. Er ist voller Argumente dagegen, Lehren und Lernen als Reproduktion von Wissen in einem von Autoritäten kontrollierte Setting, als Klonen, zu verstehen.

Nennen wir das geklontes Lernen, Klonen von Wissen und Klone als das erstrebte Produkt. Solche Lernmodelle—oder „Klonkulturen“—sind oft verdummend und kontraproduktiv; sie lassen viele Kinder gelangweilt, frustriert und unmotiviert zu lernen zurück. [S. 21]

Die Autoren betrachten das Web nicht als technische Plattform sondern als eine Umgebung, die Lernen ermöglichen will. Im Web lernen wir partizipativ: Unabhängig von den Zufällen von Ort und Zeit und unabhängig von den hierarchischen Bildungssystemen können sich Menschen austauschen und ihr Wissen erweitern. Neue Lerninstitutionen entstehen; die spektakulärste und erfolgreichste ist die Wikipedia. Wer heute aufwächst und Zugang zum Web hat, hat sich daran gewöhnt, partizipativ und online zu lernen. Bildungseinrichtungen wollen sich diesen Lernformen zwar oft mir viel Geld für neue Technik anpassen. Sie sind als Institutionen aber meist blind dafür, dass sich im Web nicht technische, sondern kulturelle Veränderungen abspielen. Nicht nur die Formen des Lernens ändern sich, sondern auch die Inhalte und die Rolle des Lernens in der Gesellschaft.

Remixing als Lern- und Lehrstrategie

Remixing nennt der Report das, was Web-orientierte Lernende und auch wir Lehrenden mit den hergebrachten akademischen Unterrichtsformen machen. Wenn wir etwas wissen wollen, suchen wir alle heute zuerst im Web, fragen in unseren sozialen Netzwerken, wenden uns via Email oder Skype an Bekannte (ich selbst als jemand, der vor der Erfindung von Web und PC aufgewachsen ist, viel weniger als meine Studenten). In diese partizipatorische Lernwelt montieren wir, was wir aus den hierarchisch geordneten Welten der alten Schule und Hochschule und auch des alten Verlagswesens benutzen wollen oder benutzen müssen: vom wissenschaftlichen Buch bis zu Lehr- und Prüfungsformen wie Seminar, Vorlesung und Diplomarbeit.

Was der McArthur-Report als remixing bezeichnet, nennt Martin Lindner die Bildung hacken. Wir suchen Methoden für ein Aufbohren der Lern- und Lehrstrategien aus der Zeit vor dem Web, die über ein bloßes Addieren (oder Subtrahieren) von Altem und Neuem hinausgehen. Genau darin sehen die Autoren des Reports eine Hauptaufgabe für Bildungsinstitutionen. Es fehlen Übersetzungen zwischen der Welt der Webkommunikation und Institutionen, welche die Qualität des Lernens und Lehrens überprüfen. In der Open Source-Welt sind Institutionen für die Sicherung der Qualität und eines gerechten Zugangs schon vor einiger Zeit entstanden, und sie bilden sich gerade auch (Stichwörter: Open Access, Creative Commons) für Publikationen heraus. Vielleicht stellen E-Portfolios einen wichtigen Schritt bei der Entwicklung partizipativer Lerninstitutionen dar, denn sie dokumentieren, was jemand online gelernt und entwickelt hat.

Clash of Cultures

Wenn man den Report liest, versteht man besser, warum Vertreter des weborientierten Lernens bei Repräsentanten von Bildungskonzepten aus der Vor-Web-Zeit oft radikaler Ablehnung begegnen. (Ich weiß, wovon ich spreche!) Die Autoren stellen ausführlich und zum Teil auch polemisch dar, wie radikal sich das partizipative, kollektive Lernen im Web davon unterscheidet, wie bisher individuell Qualifikationen in Schulen und Hochschulen erworben werden. Die Hierarchien, die mit akademischen Titeln und den unterschiedlichen Rollen von Lehrenden und Lernenden an Hochschulen verbunden sind, verlieren beim Wissensaustausch im Web an Bedeutung. Nicht nur, weil die Studenten oft mehr über das Web wissen als ihre Lehrer: Das Lernen im Web ist noch deutlicher als bisher unabgeschlossen; feste Wissensbestände haben ihren Wert verloren. Sie können jederzeit überholt sein. Faktenwissen kann zudem online abgerufen und muss nicht memoriert werden. Lernen ist lebenslang

… auch in dem, vielleicht antiplatonischen, Sinn, dass die zunehmend schnellen Wechsel in der Gestaltung der Welt bedeuten, dass wir zwangsläufig von neuem lernen müssen, uns dabei neues Wissen aneignen, um den Herausforderungen neuer Bedingungen gewachsen zu sein, während wir die Lehren der Anpassungsfähigkeit bei uns tragen, der Anwendung der Lehren auf neuartige Situationen und Herausforderungen. Dabei handelt es sich nicht nur darum, wirtschaftlichen Zwängen zu gehorchen; in steigendem Maß verlangen es auch „unsere“ Gesellschaft und Kultur. [S. 33]

Damit ändert sich die Aufgabe von Schulen und Hochschulen. Sie müssen nicht Normen und Regeln durchsetzen und sich damit selbst perpetuieren, sondern ihre Mitglieder mobilisieren und die Lernenden flexibler machen:

Traditionell wurden Institutionen mit Konzepten wie Regeln, Regulierungen und Normen erfasst, die die Interaktion, Produktion und Distribution innerhalb der Struktur der Institution regeln. Die Netzkultur und die zu ihr gehörenden Lernpraktiken und -vereinbarungen legen es nahe, Institutionen, besonders diejenigen, die das Lernen fördern, als Mobilisierungsnetze zu denken. Die Netzwerke ermögliche eine Mobilisierung, die Flexibilität, Interaktvität und Ergebnisse betont. [S.33/34]

Die Kultur einer Institution darf sich nicht mehr am immer Gleichen, sie muss sich an der Veränderung ausrichten. Sie soll nicht feststellen, was ist, sondern zu dem befähigen, was wird:

Die institutionelle Kultur verschiebt sich so von Gewichtigen zum Leichten, von der Beurteilung zur Befähigung. [S. 34]

Partizipatorisches Lernen fordert schwerfällige Hierarchien heraus: vom Umgangs von Lernenden und Lehrenden miteinander bis zum Verständnis von Wissen und Lehre:

Die Herausforderungen der institutionellen Kultur durch das partizipatorische Lernen (wobei diese Herausforderungen auch hinsichtlich anderer institutioneller Ebenen und Ausprägungen bedacht werden sollten) reichen vom Banalen zum Grundsätzlichen, von Disziplinarmaßnahmen gegen protokollwidriges und unkonventionelles Verhalten bis zu normativen Vorstellungen davon, was Wissen konstituiert und wie es autorisiert wird. [S. 36]

Keine Experimente?

Viele Formulierungen des Berichts sind nicht neu. Was die Autoren als partizipatorisches Lernen verstehen, ist viel älter als das Web—und tatsächlich ist das Web nicht zuletzt entstanden, um einen Austausch von Wissen und Informationen unabhängig von bremsenden Hierarchien jeder Art zu ermöglichen. Es ist weit mehr Folge als Ursache des Bedarfs nach neuen Formen des Lernens.

Aus meiner Sicht als Lehrer an einer Fachhochschule verstehe ich den Report als Ermutigung, mit der Vermittlung und den Definitionen des zu vermittelnden Wissens zu experimentieren. Zu den Formen können Barcamps gehören, aber auch Vernetzungen von Lehrveranstaltungen mit der Vermittlung von Wissen außerhalb der Hochschule, z.B. in Medien oder in Unternehmen. Partizipatorisches Lernen an der Hochschule wird nur funktionieren, wenn die Studenten selbständiger und selbstbewusster werden. Mir ist klar, dass Studierende und Lehrende, die die Möglichkeiten und Herausforderungen des Webs ernst nehmen, immer wieder auf aggressiven Widerstand stoßen werden: Auch in Hochschulen fühlen sich viele bedroht, wenn Hierarchien in Frage gestellt werden. Ich bin mir aber sicher, dass Klonierungskulturen nicht in das Fachhochschulwesen passen. Zu Recht werden hier in Österreich FH-Studiengänge höchstens für fünf Jahre akkreditiert, damit sie didaktisch und inhaltlich immer wieder neu begründet werden.

Ergänzung, 13.7.09: In dem Post gehen die Ausdrücke partizipatorisch und partizipativ durcheinander. Partizipativ ist wohl besser.
Die Übersetzungen der Zitate sind von mir. Die Seitenangaben beziehen sich auf das oben verlinkte PDF-Dokument.
Ergänzung, 14.7.09: In der ersten Zeile Link zu MIT-Press hinzugefügt.

Wie viele Webnutzer fürchte ich, nicht satt zu werden. Ich verfolge weit mehr Quellen — meist Newsfeeds und Life-Streams —, als ich verdauen kann. Trotzdem erinnere ich mich selten an einen neuen Geschmack, dafür aber an viel Fades: Blogger, Journalisten und Akademiker kochen fast immer nach denselben Rezepten und geben sich zufrieden, wenn die Gäste nicht rebellieren. Der organische Intellektuelle ernährt sich von Fastfood und Hausmannskost.

Martin Lindner hat mir gestern eine Küche gezeigt, in der eine neue und exakte Verarbeitung Eigenschaften gewöhnlicher Zutaten betont, die bisher niemand herausschmeckte. Venkatesh Rao analysiert in einem langen Post die Rhetorik des Hyperlinks, das er als Wasserstoffmolekül der Information bezeichnet. Rao fragt, welche Rolle Links bei der Konstruktion der Bedeutung eines Texts haben. Ich will seinen komplexen und anspielungsreichen Beitrag hier nicht referieren oder zusammenfassen, dazu muss ich noch mehr über ihn nachdenken. Wer sich dafür interessiert, was Hypertext ist, sollte ihn lesen. (Ich werden ihn beim Unterrichten des Schreibens für das Web sicher als einen Basistext benutzen.) Ich will hier nur drei Gedanken oder Themen hervorheben:

  1. Rao unterscheidet scharf zwischen Hyperlinks und herkömmlichen Verweisen in gedruckten Texten. Mit einem Link kann man auf eine Quelle verweisen, also zitieren, man kann aber auch auf ganz andere Informationen zeigen. Links vermischen Stimme, Figur und Grund, sie öffnen die Texte, geben dem Leser die Möglichkeit, eigene Wege in oder zwischen verschiedenen Texten einzuschlagen und heben letztlich die Einheit des Textes auf, lassen alle Texte zu einem werden.

  2. Rao begründet, warum Links zu einer eigenen Rhetorik von Hypertexten führen. Sie bilden nicht nur eine Zusatzschicht neben oder über anderen Textebenen. Dass sich eine verlinkter Text anders auf seinen Kontext bezieht als ein nicht verlinkter Text, drückt sich auch auf der sprachlich-stilistischen Ebene aus. Der Satz Amitabh stared grimly from a tattered old Sholay poster, ist z.B. für einen nicht-indischen Leser nur mit Zusatzinformationen zu entschlüsseln, die gedruckt anders (durch Kommentierungen und Erläuterungen) gegeben werden müssen als es im Web möglich ist, wo man schreiben kann: Amitabh stared down grimly from a ratty old Sholay poster. (Ich sage das hier sehr trocken; Rao führt es mit Beispielen, farbig und spannend aus.)

  3. Rao zeigt — quasi nebenbei — dass der Leser, wenn er einen Text im Web versteht, sich bei der Konstruktion der Bedeutung anders auf den damit verlinkten Autor bezieht als bei gedruckten Texten. Online-Profile des Autors beeinflussen z.B., wie dessen Blogposts interpretiert werden — und umgekehrt.

Eine wichtige Konsequenz dieser Überlegungen: Das Web ist nicht ein Metamedium, also eine Plattform für Text, Bild, Ton und andere Medien, sondern ein eigenes Medium, dessen Grammatik aud den verschiedenen Typen von Links besteht, die in ihm möglich sind.

Für die Analyse könnte der Ansatz Raos bedeuten, dass man für das Web charakteristische Phänomene als als spezifische Formen von Verlinkung oder zumindest als daran gekoppelt beschreiben kann (Web-Wissenschaft als Link-Wissenschaft). Online-Reputation ließe sich dann als Bedeutungkonstrukt erfassen, das von der Verlinkung von Online-Profilen, persönlichen Äußerungen z.B. in Blogs und einem transparenten sozialen Netzwerk abhängt. Auch für die Formate des Online-Journalismus sind Linktypen charakteristisch, durch die z.B. Blogposts, Wikis, Bookmarks und Foren aufeinander bzw. auf einen Topic bezogen werden. Die verschiedenen Formate von Microcontent (Blogs, Wikis, Microblogs) sind unterschiedliche Formen der Entwicklung von Text um Links herum.

Praktisch heisst das: Man führt in die Kommunikation im Web ein, indem man den Umgang mit Links lehrt. Das hört sich sehr bescheiden an — aber nur so lange, wie man Links als technische Phänomene und nicht als soziale Beziehungen begreift.