Wer wissen will, wie die Zukunft von Hauptstadtzeitungen aussehen kann—besser: was im Web an ihre Stelle treten kann— muss Michael Wolffs Artikel über Politico in Vanity Fair lesen. Ein paar Newsprofis haben Politico während der Obama-Kampagne gegründet. Die Site konzentriert sich auf die Berichterstattung über das politische Washington. Dabei wird nahezu in Echtzeit eine Unmenge an Informationen geliefert, die die Site und ihre Reporter zu einer Quelle für viele andere Medien machen. Politico hat sich dem verschrieben, was man in den USA beat reporting nennt. Der Beat sind hier die Aktivitäten der politischen Klasse in der amerikanischen Hauptstadt. Die Site ist inzwischen ein Must für amerikanische Politik-Interessierte; sie finanziert sich halbe/halbe aus Anzeigenerlösen und dem Verkauf einer Printversion. Die Online-Version erreicht 6,7 Millionen Unique Clients im Monat; die Printversion erzielt—dank der Bekanntheit der Site und der medialen Präsenz der Reporter—7,5 Millionen Dollar Anzeigenerlöse im Jahr bei einer Reichweite von nur 32.000.

Ich will Wolffs Geschichte hier nicht referieren. Passagen wie die Einleitung und der Schluss über die Unzeitgemäßheit der Allgemeinen Zeitung im 21. Jahrhundert oder die Darstellung des Wettbewerbs zwischen den Washingtoner Verlegerfamilien verdienen, dass man sie im Original liest. Ich möchte nur auf drei Punkte hinweisen, die ich so noch nie formuliert gefunden habe—trotz der Flut an Artikeln über Untergang oder Zukunft der Zeitungen:

  1. Politico ist eine Site von Journalisten, die die besten Kenner ihres Themas sind. Allen Unkenrufen vom Ende des Journalismus zum Trotz findet kompetenter Fachjournalismus ein Publikum, selbst wenn es um die Interna einer Administration geht, die in den vergangenen Jahren angegeblich niemand interessiert haben.

  2. Politico ist keine Online-Zeitung mit umfassendem redaktionellen Programm. Die Website ist monothematisch, aber sie behandelt ihr Thema gründlicher und genauer als die Konkurrenz. Genau das passt ins Web, in dem sich Benutzer ihre Quellen selbst zusammenstellen können.

  3. Politico konzentriert sich auf eine internettypische Berichterstattung: Die Reporter berichten in Echtzeit, filtern kaum und suchen sich ihre Themen selbst. Publish first, edit after! Auf die Arbeitsgänge und Aufgabenverteilung einer klassischen Redaktion verzichtet die Site. Wichtig sind zeitliche, räumliche und persönliche Nähe zum Geschehen.

Politico ist die erfolgreich verwirklichte Antithese zu dem Verlegertraum, man könne dieselben Inhalte über beliebige Plattformen abspielen. Politico funktioniert nur durch das Netz, auch wenn die von der Online-Ausgabe abgeleitetet Special Interest-Printversion für die Hälfte der Einkünfte geradesteht.

In Wolffs Artikel wirkt Politico wie ein vervielfachter Rober Scoble, der sich mit Politik statt mit dem Web beschäftigt. Offenbar bereiten Helmut Markwort und seine Kollegen einen Relaunch des Focus vor. Sie sollten sich an Politico orientieren.

(Zum Geschäftsmodell von Politico siehe auch dieses Post Rex Hammocks [via Steve Rubel].)

In einer Frankfurter Rundschau, die ich vorgestern auf dem Flug von Frankfurt nach Graz gelesen habe, bin ich auf einen Artikel über adaptives Denken gestoßen; Gerd Gigerenzer beschreibt darin, weshalb intuitive Entscheidungen in den meisten komplexen Situationen erfolgreicher sind als Entscheidungen, die auf einem möglichst umfassenden Tatsachenwissen basieren. Beispiel: Ein Baseballspieler fängt einen fliegenden Ball nicht, indem er dessen Flugbahn berechnet. Er verwendet stattdessen eine ganz einfache Methode:

1. Fixiere den Ball mit deinen Augen. 2. Beginne zu laufen. 3. Passe Deine Laufgeschwindigkeit so an, dass der Blickwinkel konstant bleibt. Der Spieler kann alle Informationen ignorieren, die man benötigt, um die Flugbahn des Balls zu berechnen. Er löst dieses Problem nicht durch etwas Komplexes, sondern durch etwas ganz Einfaches. Er beachtet nur eine einzige Größe, den Blickwinkel, den er konstant zu halten versucht.

Wie könnte ein solcher Anpassungsmethode für die Gegenstände aussehen, die ich vermittele? Kann ich mich auf ein Objekt konzentrieren und mich—wie der Baseballspieler—so bewegen, dass ich es immer im Auge behalte und dadurch etwas erreiche, nämlich ein langfristig nutzbares Wissen zu vermitteln?

Ich überlege, ob ich diesen Punkt nicht am besten mit dem Ausdruck Hypertext bezeichnen kann (ich benutze Hypertext und Hypermedium synonym). Hypertext unterscheidet das Web von anderen Medien und er unterscheidet es von den anderen Teilen des Internet. Die gesamte Architektur des Web dient dazu, Hypermedialität zu ermöglichen. Hypertext ist die Ursache dafür, dass man digitale Oberflächen, bis heute Bildschirme, verwenden muss, um im Web zu kommunizieren. Dabei ist das Web letztlich ein Hypertext, genauer: ein hypermediales System. Von jedem Punkt aus kann zu jedem anderen verlinkt werden. Auch was man Web auf Knopfdruck nennt, ist nicht etwas, das als zusätzliches Element zum Hypertext hinzukommt; Hypertext besteht gerade darin, dass ich in Echtzeit von einem Element zu einem mit ihm verknüpften gelangen kann. Das Web ist ein Real-Time-Medium, in dem alle Inhalte gleichzeitig erreichbar sind und beliebig miteinander verbunden werden können.

Für meinen Unterricht bedeutet das:

  1. Es gibt eine Ebene der technischen Basis, auf der es darum geht, was Hypertext ist, wie er technisch realisiert wird, mit welchen Mitteln man ihn produziert und wie man ihn publiziert. Zu dieser Ebene gehört auch, wie Hypertext und Medien zusammenspielen, wie man Hypertext durchsucht und wie er dargestellt wird.

  2. Es gibt hypertextuelle Formate oder Genres, die z.T. erst entwickelt werden und sich ständig verändern. Beispiele sind Blogs, Microblogs, Wikis oder Profile. (Dabei ist eine offene Frage, ob ein konkreter Text nicht meist zu mehreren dieser Genres gehört.) Diese Genres realisieren Eigenschaften des Hypertexts in kommunikativen Situationen oder für kommunikative Zwecke. Sie gehören nicht zur Ebene der Anwendungen (siehe unten), aber sie werden auf dieser Ebene in bestimmter Weise interpretiert und geformt. Dies ist die Ebene der sozialen Medien, der Kommunikation im Web.

  3. Es gibt Anwendungen für Hypertext—für meinen Unterricht relevant sind dabei Journalismus und Public Relations. (Politische Kommunikation, Wissenschaft, Wissenmanagement oder Lehre und Unterricht sind weitere Anwendungen). Diese Anwendungen stellen Kontexte für Hypertext dar, und sie werden durch die Möglichkeit hypermedialer Kommunikation verändert. Die Kommunikationsformate der zweiten Ebene werden auf dieser Ebene einerseits eingeschränkt und andererseits erweitert.

  4. Auf einer vierten Ebene lässt sich das, was auf den ersten drei—der technischen, der kommunikativen und der institutionellen—stattfindet, wissenschaftlich untersuchen: das wäre die Ebene der Webwissenschaft.

Für meine Unterricht an unserem Studiengang ist die zweite Ebene wohl die wichtigste. Zukünftige Medienpraktiker müssen die Kommunikationsformen im Web und ihre Dynamik verstehen. Dabei ist aber die Hypertextualität das verbindende Element: Es kommt darauf an, die spezifischen hypertextuellen Möglichkeiten dieser Formate zu begreifen, insbesondere die Verknüpfungsmöglichkeiten, durch die sie auf der Anwendungs- oder Institutionsebene relevant werden. Um diesen Unterricht auf einem Hochschulniveau, also wissenschaftlich fundiert geben zu können, ist dabei eine Rückbindung an die vierte Ebene wichtig—die allerdings gerade erst entsteht. Hier ist für mich—sozusagen als passende Analyse-Ebene für die hypertextuellen Formate oder Genres—eine mikrosoziologische Untersuchung von Webkommunikation am interessantesten, wie sie bisher nur rudimentär existiert.

Mitarbeiter der Wissenschaftlichen Dienste des Deutschen Bundestags haben eine ausführliche Dokumentation Über das Für und Wider der urheberrechtlichen Diskussion im Zusammenhang mit dem Heidelberger Appell erstellt [via Hugo E. Martin]. Zu Open Access stellen sie fest:

Die Kritik an Open Access kann kaum nachvollzogen werden. Die hier gemachten Vorwürfe treffen eher auf die traditionellen Vertriebswege zu als auf das neue Publikationsmodell. Mit der digitalen Plattform steht den Rechteinhabern eine adäquate Publikationsalternative zur Verfügung, die insbesondere vor dem Hintergrund der Geschwindigkeit, in der neues Wissen geschaffen wird, erhebliche Vorteile gegenüber den in der Regel teureren traditionellen Vertriebswegen hat. Die Vorteile werden auch in den einschlägigen Untersuchungen der EU und der OECD bestätigt.

Auch bei der Analyse der Google-Buchsuche kommen sie zu dem Ergebnis, dass sie die Möglichkeiten der Urheber eher erweitert als beschränkt—bei allen angebrachten Bedenken gegenüber einer Monopolstellung Googles.

Für mich wird immer deutlicher, dass der Heidelberger Appell Teil einer FUD-Kampagne (FUD steht für Fear, Uncertainty and Doubt) von Leuten ist, die Konkurrenz bekämpfen und alte Privilegien sichern wollen. Er gehört in eine Kategorie mit der Forderung der deutschen Altmedienverlage nach „Leistungsschutz“, nur ist er noch verschwiemelter, weil noch schwieriger argumentativ zu stützen.

Reblog this post [with Zemanta]

Gestern habe ich in einem Aufsatz Jörg R. Bergmanns (als PDF hier) gelesen:

Wenn nun z.B. ein Sprecher die Worte eines anderen zitiert, tritt der, der diese Worte aktiviert, neben den, von dem diese Worte stammen. Diese Aufspaltung des Sprechers im Zitat aber hat weitreichende Konsequenzen, etwa die, daß die Person, die spricht, die Verantwortung für die Äußerung, die sie wiedergibt, an denjenigen delegieren kann, dessen Worte sie zitiert und dem diese Worte gewissermaßen ‚gehören‘.

In der gleichen Weise, in der GOFFMAN das Konzept des ‚Sprechers‘ dekonstruiert, zieht er auch verschiedene Beteiligungsrollen, die im Konzept des ‚Hörers‘ enthalten sind, typologisch auseinander. So unterscheidet er u.a. ratifizierte von nicht ratifizierten Zuhörern, und im Hinblick auf die erste Gruppe nochmals zwischen angesprochenen und nicht angeprochenen Rezipienten bzw. zwischen zufälligen Mithörern und absichtlichen Lauschern bei der zweiten Gruppe. Alle diese möglichen Zuhörertypen faßt GOFFMAN dann zu dem zusammen, was er als „participation framework“ bezeichnet.

Was tue ich eigentlich, wenn ich bei Twitter etwas retweete, also einen Tweet eines anderen von meiner Adresse aus weiterschicke und den anderen dabei nenne? Auch dabei zitiere ich, allerdings in einer anderen Form: Der Zitierte ist verlinkt und wird darüber benachrichtigt, dass ich ihn zitiere. Der zitierte Tweet geht an meine Follower, das sind (grob) die ratifizierten Zuhörer, und er ist für andere Webuser zugänglich, die nicht ratifizierten Zuhörer (die ich nicht ausgeschlossen habe, was bei Twitter möglich wäre).

Ich bin in einer „Gesprächssituation“ die dem mündlichen Zitieren sehr ähnlich ist und andererseits davon auch sehr verschieden (dasselbe gilt für schriftliche Zitate): Vergleichbar mit dem mündlichen Zitat, aber nicht völlig, ist der zeitliche Charakter der Kommunikation: Ich erreiche meine Follower zu einem Zeitpunkt x, wobei aber mein Tweet archiviert ist und ihn die meisten in einer bestimmten Zeitspanne wahrnehmen, nachdem er abgesendet ist—ausgedehnt dadurch, dass er auch bei FriendFeed (wo es ebenfalls ratifizierte und nicht ratifizierte Leser gibt) und möglicherweise auch auf Facebook (wo nicht ratifizierte Adressaten ausgeschlossen sind) zu lesen ist.

Wenn ich retweete, kommuniziere ich bewusst: Ich will meine Follower über etwas informieren, das ich für interessant, witzig oder wichtig halte. Das erwarten sie vermutlich auch von mir, und deshalb haben sie meine Tweets abonniert. Was das Retweeten angeht, erwarten sie von mir eine Auswahl: Sie würden mir nicht mehr folgen, wenn ich eine großen Zahl der Tweets, die ich erhalte, einfach weiterschicken würde.

Für meine Follower habe ich eine bestimmte Rolle, zu der eine bestimmte Frequenz von Botschaften und ein bestimmter Charakter dieser Botschaften gehört. Was ich retweete, muss in diese Frequenz und zu diesem Charakter passen, es muss zu meiner Rolle passen. Wenn ich etwas retweete, erweitere ich andererseits meine Rolle, und zwar um so etwas wie einen Teil der (individuellen) Rolle der Person, deren Tweets ich weiterschicke. Sie ist für mich eine Ergänzung und ich eigne mir zum Beispiel etwas von ihrer Autorität an.

Anders als beim mündlichen Zitat gibt es ein @-Link zu der Person, die ich zitiere, sie erfährt davon (sie erhält meinen Tweet als eine Antwort auf ihre Tweets) und meine Follower können sich zu ihr durchklicken. Sie könnte mich „bannen“, wenn ihr nicht passt, dass ich sie zitiere. Sie kann mir aber auch folgen, wenn sie erst durch mein Retweeten davon erfährt, dass ich ihr folge. Wie stehen also in einer ziemlich spezifischen Beziehung zueinander, die durch die Institution Twitter möglich wird oder zu ihr gehört, und die wiederum auf der Institution Web (ohne die es diese Links nicht gäbe) basiert. Diese Art der Beziehung gibt es im Web (außer bei Microblogging-Diensten) so sonst nicht, und es gibt sie erst recht nicht außerhalb des Webs.

Meine Beziehungen zu den Leuten, denen ich followe (deren ratifizierter Zuhörer ich bin und die von mir gelegentlich retweetet werden) gehören zu meiner Rolle als Twitterer. Das wird bei Twitter dadurch unterstrichen, dass für jeden auf meiner Twitterpage sichtbar ist, wem ich folge. Ähnliches gilt für die Twitterer, die mir folgen.

Diese Twitter-spezifischen Erwartungen stehen wieder in komplizierten Beziehungen, zu anderen Rollen, die ich im Web (z.B. als Blogger, als Autor anderer Texte, als Mitglied in bestimmten sozialen Netzwerken) und außerhalb des Webs (z.B. als Lehrer) habe. Als jemand, der twittert, bin ich ein Autor in einer bestimmten medialen Öffentlichkeit, und ich kann auch im Web nur als solcher wahrgenommen werden—von Menschen, die mich sonst gar nicht kennen. Ich konstruiere mich Twitter-spezifisch, und nur Leute, die dieses Medium mit seinen besonderen Erwartungshaltungen nicht verstehen, reagieren auf meine Tweets ausschließlich wie auf in einer anderen Öffentlichkeit geäußerte Sätze.

Zurück zum Retweeten, einer Twitter-typischen Form des Zitierens: Etwas verkürzt und abgehoben kann ich sagen: Das Retweeten konstituiert mich mit als Twitterer, der als Bestandteil eines Netzwerks von Leuten, denen er folgt, schreibt. Durch die Möglichkeit des Retweetens werde ich zum Autor einer sehr bestimmten Form von Hypertexten, die es ohne Microblogging nicht gäbe. Meine Autorenrolle ist von anderen Twitter-typischen Rollen (Follower, Followee) nicht ablösbar.

Das sind Anfangsüberlegungen zu einer Beschreibung von Web-spezifischen Rollen- und Erwartungssystemen. (Wobei ich voraussetzungsvolle Konzepte wie Rolle und Öffentlichkeit nur provisorisch verwende.) Ich hoffe, dass ich sie demnächst methodisch abgesicherter und systematischer fortsetzen kann. Naheliegend ist es, als nächstes die „individuellen“ Rollen oder Charakterisierungen einzelner Autoren und die zum System Twitter gehörenden Rollen voneinander zu unterscheiden. Leider kenne ich Goffman bisher fast gar nicht: Allein der Ausdruck participation framework ist für jemand, der sich mit sozialen Medien beschäftigt, faszinierend.

Für die Medien ist der wichtigste Trend im Web der Übergang zum Realtime-Web. Twitter ist das spektakulärste Beispiel für einen Service, über den man Informationen in Echtzeit austauschen kann (es geht um Austausch und um beliebige Quellen, nicht um isolierte Dienste wie etwa Börsenticker.) Google Wave, im Gegensatz zu Twitter hochkomplex, soll Echtzeit-Kollaboration erlauben, um etwa gemeinsam und dezentral Medien zu produzieren und aktuell zu halten. (Google Wave basiert nicht auf den gängigen Web-Techniken, sondern auf dem XMPP-Protokoll; Anil Dash z.B. zweifelt deshalb daran, dass es sich im Web, das inkrementelle Veränderungen bevorzugt, durchsetzen kann.)

PubsubHubbub erlaubt Twitter-artige Echtzeit-Updates, aber unabhängig von einem zentralen Server wie bei Twitter.

Es ist nett zu sehen, dass wenigstens ein paar Leute bei Google die Möglichkeit sehen, ein Twitter-artiges Benachrichtigungssystem im Small Pieces Loosely Joined-Stil zu entwickeln,

schreibt Dave Winer [via hackr].

Es handelt sich um eine Erweiterung zu Atom-Newsfeeds (die Ausdehnung auf RSS 2.0 ist geplant). ‚Hubbub-befähigte Feeds enthalten ein Link zu einem Hub, an den sie Aktualisierungen in Echtzeit melden, und der seinerseits Clients, die ihn abonniert haben, sofort über die Änderung informiert. Der Client (z.B. ein Online-Newsreader) muss die Informationen also nicht mehr pollen (=zu einer Zeit x abrufen), sondern die Informationen werden an ihn gepusht. Für die Benutzer bedeutet das: So wie sie jetzt via Twitter Statusmeldungen erhalten, können sie bald beliebige Informationen in Echtzeit abonnieren. Voraussetzung ist nur ein Newsfeed, der der mit ‚Hubbub arbeitet.

Der Google Reader verwendet jetzt ‚Hubbub bei den Empfehlungen (Shared Items). Friendfeed, ebenfalls ‚Hubbub-enabled, wird damit fast augenblicklich über neue Shared Items informiert und stellt sie sofort dar. Wie das aussieht, zeigt dieses Demo-Video:

Auch Feedburner, Googles Service zum Erzeugen und Vermarkten von RSS-Feeds, unterstützt dieses Abo-Verfahren; dazu gibt es ein neues Feature namens PingShot, das man für seinen Feed nur auswählen muss. Aktualisierungen werden dann, wie bei den Shared Items im Reader, an einen Hub-Server von Google geschickt und weiterverteilt. (Ich weiss nicht, ob er mit Googles Demo-Server für das neue Feed-Subskriptionsverfahren identisch ist.)

PubsubHubbub ist eine offene Technologie, die nicht Google gehört. Google unterstützt sie aber intensiv. Google gehörte auch zu den frühesten Implementierern des Atom-Formats, auf denen ‚Hubbub basiert. Mehr Informationen gibt es auf der Projekt-Site und im ersten Entwurf der Spezifikation. Wie ein PubsubHubbub-Server, also ein Hub, arbeitet, zeigt diese Präsentation.

Ich werde mich mit ‚Hubbub (und dem Pushbutton Web) intensiver beschäftigen, dieses Post ist nur ein erster Hinweis. (Auf Deutsch habe ich außer diesem Post Fabian Pimmingers nicht viel darüber gefunden.) Das Verfahren wird es vor allem erlauben, zu bestimmten Themen (Topics) Echtzeit-Informationen zu erhalten: Wie interessant das für Journalismus und Unternehmenskommunikation ist, liegt auf der Hand.

chairman burdaImage by couchpotatoes via Flickr

Ich möchte mich nicht lange mit der Debatte um Leistungschutz (= Raubritterzoll für Verlage) und Schutz der Journalisten vor Google (= Sicherung ihres Gatekeeper-Anspruchs) beschäftigen. Ich glaube, dass dort intellektuell wenig interessante Nachhutgefechte geführt werden—so wichtig es ist, dass die Freiheit im Netz nicht weiter eingeschränkt wird. Der VDZ, der DJV und ihre Vorsitzenden haben ein ganz schlichtes materielles Interesse, und dafür treten sie ein wie seinerzeit Arbeitgeber und Arbeitnehmer an der Ruhr für die Erhaltung des unwirtschaftlichen Bergbaus. Da man nicht gut sagen kann, dass man von der Gesellschaft geschützt und subventioniert werden möchte, weil man sich nicht umstellen kann oder will, beruft man sich auf höhere Ziele: damals an der Ruhr auf die Sicherung der nationalen Energieversorgung, heute auf die unersätzliche Funktion des Journalismus in der Demokratie. Und damit das Ganze medial richtig hochgekocht werden kann, macht man—mit Vorliebe ausländische—Feinde aus: damals die Ölscheichs, heute Google—die Datenkrake, wie sie das zeitgenössische Wörterbuch der Gemeinplätze bezeichnet.

Mir fällt diese Sommerloch-Debatte ein, weil ich gerade die Vorversion einer (von mir betreuten) Diplomarbeit Birgit Bröckels über journalistische Aspekte der Suchmaschinenoptimierung lese. Birgit Bröckel beschäftigt sich im Detail damit, wie eine Journalistin Texte so redaktionell bearbeiten kann, dass die Benutzer sie via Suchmaschine auch finden. Sie resümiert:

Suchmaschinenoptimierung ist Useroptimierung.

Diese Arbeit—übrigens im Auftrag eines Verlags geschrieben—zeigt, was Google tatsächlich mit journalistischen Angeboten tut: Mit allen Mitteln und einer ständig weiterentwickelten Technik herauszufinden, welche von ihnen am besten eine Frage beantworten, die die User haben. Suchmaschinen gehen dabei subtil vor, wie jeder merkt, der sich etwas mit Suchmaschinenoptimierung beschäftigt. Dass Google zur Killerapplikation (Hubert Burda) geworden ist, liegt nicht an einem Bündnis mit dunklen Mächten, sondern daran, dass es so objektiv ist und—bei aller möglichen Kritik—sicher unabhängiger von Anzeigenkunden ist als die Verleger, die sich jetzt zu Hütern der Pressefreiheit erklären.

Wenn einstürzende Medienhäuser gegen Google kämpfen, meinen sie die Autonomie der Nutzer: Google ist vor allem ein Instrument, mit dem sie gezielt Fragen stellen können. Was die Verlage stört—und was sie im Netz tatsächlich überflüssig macht— ist, dass sich die Nutzer ihre Informationsangebote selbst zusammenstellen können. Hubert Burda, der es besser weiß, ist nicht dafür zu beneiden, dass er in der FAZ für seinen Verband schreiben muss:

Verlage […] brauchen die Sicherheit, dass ihnen das ausschließliche Recht auf Vervielfältigung, Verbreitung, öffentliche Wiedergabe und öffentliche Zugänglichmachung für Presseerzeugnisse zusteht, und das muss auch für digitale Medien gelten.

Mit derselben Logik (es war immer so …) hätten die Eisenbahnen fordern können, Autostraßen und Flughäfen zu verbieten, um das auschließliche Recht zu behalten, Menschen und Güter über weitere Strecken zu transportieren.

Google wird für seine Leistungen bezahlt—weil Menschen auf die Anzeigen klicken, die Google ihnen aufgrund seiner Technologie gezielter anbieten kann, als das bei traditioneller Werbung möglich ist. Google verdient viel Geld, weil die Nutzer seiner Technologie trauen—wer daran etwas ändern, also: mitschneiden, möchte, sollte sich auch auf anderen Gebieten dafür aussprechen, Erfolg zu bestrafen. Wenn die deutschen Verleger Google als ein Risiko für die Transparenz im Netz (Hubert Burda) ansehen—warum gründen sie nicht selbst eine Suchmaschine, die dank des Engagements ihrer Betreiber für objektive Information transparenter und benutzerfreundlicher arbeitet als Google? Gerade Burda zeigt mit fitter.de, dass es hier Potenziale jenseits von Google gibt. Die VDZ-Suchmaschine als Google-Alternative (News-Suche sponsored by DJV …): Damit könnten die Verleger sogar die Piratenpartei hinter sich bringen!

Reblog this post [with Zemanta]

Ich experimentiere etwas mit Posterous, aber wirklich angetan bin ich von dem Service noch nicht. Abgesehen davon, dass ich nichts davon halte, dieselben Inhalte über alle möglichen Plattformen zu verstreuen: Ein Posterous-Blog unterscheidet sich von einem Typepad- oder WordPress-Blog wohl vor allem dadurch, dass es weniger
Möglichkeiten bietet. Interessant für Leute, die kein Blog haben – aber gibt es einen Grund umzusteigen? Was mich auch ärgert: Posterous
versteht nicht nur kein markdown (eine vereinfachte Weise, HTML zu schreiben, an die ich mich gewöhnt habe), sondern setzt auch normales HTML-Markup nicht wirklich um; z.B. kann man Zitate nicht mit q auszeichnen.

Was mich an Posterous interessiert, hat mit dem Service selbst nichts zu tun: die Möglichkeit spontaner zu bloggen, nicht nur mehr oder weniger gedrechselte Posts zu verfassen. Ich überlege, ob ich mir wie Robert ein Siteblog für Notizen, Live-Berichterstattung und ähnliches anlege. Aber was spricht dagegen, das direkt in meinem Blog oder in einem zweiten Typepad-Blog zu tun?

Ich vermute, dass Posterous vor allem das mobile Bloggen erleichtert,
und dass man es sehr gut verwenden kann, um Medien zu veröffentlichen oder wiederzuveröffentlichen. Als Autorenwerkzeug für Text ist es mir zu beschränkt. Aber vielleicht habe ich es auch nur noch nicht richtig verstanden.

Posted via email from Heinz’s posterous

Wir wollen versuchen, an unserer Hochschule ein Kompetenzzentrum Webkommunikation aufzubauen (den Namen verstehe ich immer noch als Arbeitstitel; Helmuth Bronnenmayer hat vorgeschlagen, dass wir das Ganze WebKomm abkürzen, was mir gut gefällt). In den letzten Wochen habe ich mit Karin Raffer und Julian Ausserhofer viel darüber diskutiert, wie wir methodisch vorgehen wollen. Die Frage ist: Wie bekommen wir die sozialen Aspekte der Webkommunikation in den Blick, ohne die technischen Aspekte zu ignorieren. Wir wollen nicht einen der sterilen akademischen Diskurse über Webkommunikation fortsetzen, bei denen die technische, ich könnte auch sagen: die Geek-Seite der Sache ausgespart bleibt. Wir suchen nach einem Ansatz, um Webkommunikation so zu beschreiben, dass man die Kompetenz zu dieser Kommunikation dann auch methodisch sauber entwickeln kann—bei angehenden PR-Leuten und Journalisten an unserem Studiengang wie bei Leuten, die für die Webauftritte von Unternehmen oder Organisationen verantwortlich sind.

Ich scheue mich etwas aufzuschreiben, in welcher Richtung wir arbeiten wollen, weil das für Praktiker in Unternehmen oder Medienhäusern in dieser Anfangsphase wahrscheinlich extrem abstrakt und theoretisch klingt. Wir wollen uns an sozialwissenschaftlichen Traditionen orientieren, die die Handlungskompetenz der Akteure in den Mittelpunkt stellen, an der Ethnomethodologie, der Gesprächsanalyse und der Akteur-Netzwerk-Theorie. Dabei suchen wir nach Möglichkeiten, empirisch zu untersuchen, wie Menschen im Web tatsächlich Kommunikationsprozesse vollziehen—vielleicht könnte ich auch sagen: wie sie sich im Web verständigen und welche Faktoren dabei eine Rolle spielen. Die Frage nach dem Wie bezieht sich auf Regeln oder Methoden, die die Akteure beherrschen (vor allem auf konstitutive Regeln im Sinne von Searle), die Frage nach den Faktoren auf die Phänomene, die sie berücksichtigen, und die ihr Aktionsfeld bestimmen—nicht auf hinter ihnen wirkende anonyme Kräfte oder Systeme. Vielleicht könnte ich auch sagen: Wir wollen beschreiben, welche Erwartungen bei der Verständigung im Web ineinandergreifen. Die Menschen, die sich im Web verständigen, erwarten etwas voneinander, ihre Erwartungen bauen aufeinander auf; sie erwarten aber auch etwas von der Technik, mit der sie dabei umgehen, und sie wissen, was die Technik von ihnen erwartet. Wir wollen beschreiben, wie sie die Beteiligten und Elemente der Kommunikation klassifizieren, welche Folgen von Sprech- oder Schreibakten (einschließlich Reparaturhandlungen) sie beherrschen, und wie sie dabei mit nichtmenschlichen Objekten und Akteuren, z.B. Browsern oder Suchmaschinen, umgehen.

Im Moment kommt es mir so vor, als könnte man die soziale Seite der Webkommunikation am leichtesten beschreiben, wenn man von Erwartungssystemen (also geordneten Erwartungen der Kommunikationsteilnehmer aneinander und an ihre Umwelt) ausgeht und diese analysiert. Dann kann man klären, ob und wie sie sich von der Erwartungssystemen in anderen Verständigungsformen unterscheiden. Möglicherweise kann man solche Erwartungssysteme auf ganz unterschiedlichen Ebenen beschreiben: Welche Erwartungen verbinden sich mit einem Hyperlink? Welche Erwartungen erzeugt jemand, der ein Profil von sich selbst im Web publiziert? Welche Erwartungen spielen bei der Verwendung eines Browsers eine Rolle, und wie spielen Erwartungen an deterministische technische Abläufe und Erwartungen von nicht vorhersagbaren Informationen und Kommunikationsakten ineinander? Wie weit bieten sich im Web ganz spezifische Möglichkeiten, Erwartungssysteme auf nicht erwartete Phänomene einzustellen und sie ihnen anzupassen?

Das sind Anfangsfragen, möglicherweise ist schon ihre Formulierung naiv. (Den Ausdruch Erwartungssysteme benutze ich nur zur Selbstverständigung.) Wir möchten jedenfalls in dieser Richtung weiterarbeiten und zuerst Forschungs- und Literaturberichte zur Anwendung von Ethnomethodologie, Gesprächsanalyse und Akteur-Netzwerk-Theorie (dazu hat Julian bereits seine Diplomarbeit verfasst) auf die Webkommunikation schreiben. Wir freuen uns auf Dialoge mit Praktikern und hoffentlich auch mit Soziologen, die uns helfen können, unsere Methoden zu verbessern.

Ich habe eine Seite über Mobilen Journalismus, kurz MoJo, angelegt, um Informationen dazu zu sammeln und zu ordnen. In meinem Feedreader haben sich in den letzten Wochen Posts über journalistisches Arbeiten mit Mobiltelefonen gehäuft—meist auf Englisch. Das Thema wird bei uns aktueller werden—auch wenn, wie beim Videojournalismus, zunächst sicher vor allem die Bedenkenträger darüber diskutieren werden.