Mich fasziniert eine Formulierung, die Teodora Petkova in einem Tweet wie nebenbei verwendet, um auf ein Blogpost hinzuweisen: digital text, having found its great home – the Web. Diese Formulierung drückt sehr genau aus, was das Web für Texte heute ist: ihre Heimat, der Raum, in den sie gehören und in denen sich ihre Möglichkeiten am besten verwirklichen lassen. Wenn man es so versteht, ist das Web nicht ein Kanal, eine Plattform für Publikationen neben anderen, sondern es hat einen besonderen Status. Weiterlesen

Ein Interview mit Bruno Latour (siehe jetzt hier) hat mich angeregt, mich mit den Querverbindungen zwischen Latour und der Semiotik von A.J. Greimas zu beschäftigen. Der Greimas’sche Begriff des internen Referenten und Latours Konzept der Referenzketten eignen sich möglicherweise dazu, Eigenschaften von Hypertext, vor allem seiner rhetorischen Wirkung, zu beschreiben.

Weiterlesen

Wired hat gestern getitelt: The Web Is Dead. Dave Winer und Jason Kottke antworteten ironisch. Tim Bray stellte lakonisch fest:

Glanced at Wired’s „Web is Dead“ piece. Big graph at top of page 1 is violently misleading. Not worth reading. http://is.gd/elIQxless than a minute ago via Tweetie for Mac

In Mitteleuropa, wo Google Streetview zum nationalen Thema werden kann, und wo Verleger ein Leistungsschutzrecht fordern, um überholte Geschäftsmodelle zu sichern, wird man die Geschichte ernster nehmen als in den USA. (Und man kann sie verwenden, um Studenten—und vielen Medienleuten—den Unterschied zwischen dem Web und dem Internet zu erklären.) Deshalb hier einige Richtigstellungen und Gegenargumente.

Weiterlesen

HTML5 ist aus einer Angelegenheit von Markup-Spezialisten fast schon ein Modethema geworden. Fast 10 Jahre hat sich der HTML-Standard kaum verändert; jetzt müssen alle, die Webseiten realisieren, umdenken, weil es neue Techniken gibt, um die Inhalte zu strukturieren, um Medien einzubauen, um Interaktivität zu ermöglichen, Seiten zu animieren und ihre Oberfläche zu designen. Was müssen Journalisten und Kommunikatoren darüber wissen? Wieviel sollten sie in Aus- und Weiterbildung darüber lernen?

Weiterlesen

In der Welt der Web-Markupsprache HTML hat sich spätestens seit der Gründung der WHAT WG eine Revolution abgezeichnet. Aber erst im vergangenen Jahr ist sie tatsächlich ausgebrochen. Die Vorstellung des HTML 5-fähigen Safari 4 markiert sie ebenso wie der Start von Google Wave, das HTML 5 verwendet. Jetzt beginnt YouTube damit, HTML 5 statt Flash anzubieten, und Apple setzt wie beim iPhone beim iPad auf HTML 5 statt auf Flash. Steve Jobs hat gerade erst Adobe als „faul“ verhöhnt (via @MichaelReuter). Für Robert Scoble entscheidet sich in den nächsten Wochen, ob Flash noch eine Chance hat— Google habe dabei mehr mitzureden als Adobe selbst.

Ich merke, dass ich mich im Unterricht mit HTML 5 beschäftigen muss. Bisher habe ich, so weit das überhaupt zeitlich geht, in XHTML 1.0 eingeführt, und meine eigenen Kenntnisse auf diesem Gebiet sind ziemlich eingerostet.

Vielleicht lag es am Videocamp 2010, dem ich ein paar Stunden via Livestream gefolgt bin—jedenfalls habe ich meine eigene HTML 5-Weiterbildung gestern damit begonnen, Artikel über das video-Element zu lesen. In ein HTML 5-Dokument kann man Videos und Audios mit den Tags <video> und <audio> einbetten, so wie man bisher schon mit <img> angibt, wo und wie in einer HTML-Seite ein Bild dargestellt werden soll. Der Browser muss es nicht mehr einer fremden Anwendung—derzeit bei Computern meist Flash—überlassen, das Video oder Audio darzustellen. Die Region, in der das Video erscheint, kann mit CSS gestaltet werden, und per JavaScript hat man Zugriff auch auf diesen Teil des DOM-Trees.

Firefox, Chrome und Safari verstehen die Elemente video und audio. Für den Internet Explorer 9 ist HTML 5-Support angekündigt; ich habe noch nicht herausgefunden, ob das auch für die Video- und Audio-Darstellung gilt. Bisher muss man beim Internetexplorer mit Skripten auf Flash zurückgreifen, wenn man die HTML 5-Elemente für Multimedia verwendet, oder man kann das Plugin Google Chrome Frame benutzen (ich habe das nicht getestet; zu den fall back-Möglichkeiten auch: html5 video fallbacks with markup und Video for Everybody).

Was mit HTML 5 möglich ist, sieht man, wenn man im Safari 4 diese Seite öffnet. Auf sie bin ich durch eine andere spektakuläre HTML 5-Demo gestoßen [via ReadWriteWeb].

Ich bin noch auf der Suche nach Reise- oder eher nach Sprachführern für das HTML 5-Land. Eine gute Zusammenstellung bieten wohl die Web Design References. Empfehlen kann ich schon jetzt Mark Pilgrims Kapitel Video on the Web in seinem Online-Book-in-Progress Dive Into HTML5. Pilgrim beschreibt genau, wie man Videos mit offenen Tools in offenen Formaten anbieten kann, und welche Rückfallmöglichkeiten es da gibt, wo Browser diese Formate nicht unterstützen. Ein anderes ausführliches Tutorial zur Verwendung offener Videoformate mit HTML 5 hier.

Ein Linknest als Basislager für weitere Expeditionen (bzw. als Materialsammlung für meinen Unterricht):

John Gruber beklagt, dass sich bei den HTML 5-fähigen Browsern z.T. das Autobuffern (das Laden von Videos, bevor der Play-Button gedrückt wird), nicht unterbinden läst. Scott Gilbertson bedauert im Webmonkey zu Recht, dass YouTube jetzt zwar das video-element unterstützt, aber nicht die offene Codec Ogg Theora, die leider auch nicht Bestandteil des HTML 5-Standards werden wird. DailyMotion bringt 300.000 mit video eingebettete Videos, die mit Ogg Theora encodiert sind. Momente oder Abschnitte in Videos lassen sich in HTML 5-Dokumenten mit JavaScript ansteuern. Das Abspielen kann man, jedenfalls beim Firefox auch mit der Tastatur steuern. Es wurden eine Reihe alternativer Vorschläge dafür gemacht, wie Untertitel mit JavaScript hinzugefügt werden können; Bruce Lawson weist hier und hier, darauf hind, wie dringend dieses Problem gelöst werden muss, um Sites mit eingebetteten Videos barrierefrei zu machen.

Vor langer Zeit hat die SGML-Szene HyTime als Standard für zeitbasierte Medien ausgedacht. Mit HTML 5 werden vielleicht einige der Hoffnungen von damals Wirklichkeit.

In einer Frankfurter Rundschau, die ich vorgestern auf dem Flug von Frankfurt nach Graz gelesen habe, bin ich auf einen Artikel über adaptives Denken gestoßen; Gerd Gigerenzer beschreibt darin, weshalb intuitive Entscheidungen in den meisten komplexen Situationen erfolgreicher sind als Entscheidungen, die auf einem möglichst umfassenden Tatsachenwissen basieren. Beispiel: Ein Baseballspieler fängt einen fliegenden Ball nicht, indem er dessen Flugbahn berechnet. Er verwendet stattdessen eine ganz einfache Methode:

1. Fixiere den Ball mit deinen Augen. 2. Beginne zu laufen. 3. Passe Deine Laufgeschwindigkeit so an, dass der Blickwinkel konstant bleibt. Der Spieler kann alle Informationen ignorieren, die man benötigt, um die Flugbahn des Balls zu berechnen. Er löst dieses Problem nicht durch etwas Komplexes, sondern durch etwas ganz Einfaches. Er beachtet nur eine einzige Größe, den Blickwinkel, den er konstant zu halten versucht.

Wie könnte ein solcher Anpassungsmethode für die Gegenstände aussehen, die ich vermittele? Kann ich mich auf ein Objekt konzentrieren und mich—wie der Baseballspieler—so bewegen, dass ich es immer im Auge behalte und dadurch etwas erreiche, nämlich ein langfristig nutzbares Wissen zu vermitteln?

Ich überlege, ob ich diesen Punkt nicht am besten mit dem Ausdruck Hypertext bezeichnen kann (ich benutze Hypertext und Hypermedium synonym). Hypertext unterscheidet das Web von anderen Medien und er unterscheidet es von den anderen Teilen des Internet. Die gesamte Architektur des Web dient dazu, Hypermedialität zu ermöglichen. Hypertext ist die Ursache dafür, dass man digitale Oberflächen, bis heute Bildschirme, verwenden muss, um im Web zu kommunizieren. Dabei ist das Web letztlich ein Hypertext, genauer: ein hypermediales System. Von jedem Punkt aus kann zu jedem anderen verlinkt werden. Auch was man Web auf Knopfdruck nennt, ist nicht etwas, das als zusätzliches Element zum Hypertext hinzukommt; Hypertext besteht gerade darin, dass ich in Echtzeit von einem Element zu einem mit ihm verknüpften gelangen kann. Das Web ist ein Real-Time-Medium, in dem alle Inhalte gleichzeitig erreichbar sind und beliebig miteinander verbunden werden können.

Für meinen Unterricht bedeutet das:

  1. Es gibt eine Ebene der technischen Basis, auf der es darum geht, was Hypertext ist, wie er technisch realisiert wird, mit welchen Mitteln man ihn produziert und wie man ihn publiziert. Zu dieser Ebene gehört auch, wie Hypertext und Medien zusammenspielen, wie man Hypertext durchsucht und wie er dargestellt wird.

  2. Es gibt hypertextuelle Formate oder Genres, die z.T. erst entwickelt werden und sich ständig verändern. Beispiele sind Blogs, Microblogs, Wikis oder Profile. (Dabei ist eine offene Frage, ob ein konkreter Text nicht meist zu mehreren dieser Genres gehört.) Diese Genres realisieren Eigenschaften des Hypertexts in kommunikativen Situationen oder für kommunikative Zwecke. Sie gehören nicht zur Ebene der Anwendungen (siehe unten), aber sie werden auf dieser Ebene in bestimmter Weise interpretiert und geformt. Dies ist die Ebene der sozialen Medien, der Kommunikation im Web.

  3. Es gibt Anwendungen für Hypertext—für meinen Unterricht relevant sind dabei Journalismus und Public Relations. (Politische Kommunikation, Wissenschaft, Wissenmanagement oder Lehre und Unterricht sind weitere Anwendungen). Diese Anwendungen stellen Kontexte für Hypertext dar, und sie werden durch die Möglichkeit hypermedialer Kommunikation verändert. Die Kommunikationsformate der zweiten Ebene werden auf dieser Ebene einerseits eingeschränkt und andererseits erweitert.

  4. Auf einer vierten Ebene lässt sich das, was auf den ersten drei—der technischen, der kommunikativen und der institutionellen—stattfindet, wissenschaftlich untersuchen: das wäre die Ebene der Webwissenschaft.

Für meine Unterricht an unserem Studiengang ist die zweite Ebene wohl die wichtigste. Zukünftige Medienpraktiker müssen die Kommunikationsformen im Web und ihre Dynamik verstehen. Dabei ist aber die Hypertextualität das verbindende Element: Es kommt darauf an, die spezifischen hypertextuellen Möglichkeiten dieser Formate zu begreifen, insbesondere die Verknüpfungsmöglichkeiten, durch die sie auf der Anwendungs- oder Institutionsebene relevant werden. Um diesen Unterricht auf einem Hochschulniveau, also wissenschaftlich fundiert geben zu können, ist dabei eine Rückbindung an die vierte Ebene wichtig—die allerdings gerade erst entsteht. Hier ist für mich—sozusagen als passende Analyse-Ebene für die hypertextuellen Formate oder Genres—eine mikrosoziologische Untersuchung von Webkommunikation am interessantesten, wie sie bisher nur rudimentär existiert.

Gestern habe ich in einem Aufsatz Jörg R. Bergmanns (als PDF hier) gelesen:

Wenn nun z.B. ein Sprecher die Worte eines anderen zitiert, tritt der, der diese Worte aktiviert, neben den, von dem diese Worte stammen. Diese Aufspaltung des Sprechers im Zitat aber hat weitreichende Konsequenzen, etwa die, daß die Person, die spricht, die Verantwortung für die Äußerung, die sie wiedergibt, an denjenigen delegieren kann, dessen Worte sie zitiert und dem diese Worte gewissermaßen ‚gehören‘.

In der gleichen Weise, in der GOFFMAN das Konzept des ‚Sprechers‘ dekonstruiert, zieht er auch verschiedene Beteiligungsrollen, die im Konzept des ‚Hörers‘ enthalten sind, typologisch auseinander. So unterscheidet er u.a. ratifizierte von nicht ratifizierten Zuhörern, und im Hinblick auf die erste Gruppe nochmals zwischen angesprochenen und nicht angeprochenen Rezipienten bzw. zwischen zufälligen Mithörern und absichtlichen Lauschern bei der zweiten Gruppe. Alle diese möglichen Zuhörertypen faßt GOFFMAN dann zu dem zusammen, was er als „participation framework“ bezeichnet.

Was tue ich eigentlich, wenn ich bei Twitter etwas retweete, also einen Tweet eines anderen von meiner Adresse aus weiterschicke und den anderen dabei nenne? Auch dabei zitiere ich, allerdings in einer anderen Form: Der Zitierte ist verlinkt und wird darüber benachrichtigt, dass ich ihn zitiere. Der zitierte Tweet geht an meine Follower, das sind (grob) die ratifizierten Zuhörer, und er ist für andere Webuser zugänglich, die nicht ratifizierten Zuhörer (die ich nicht ausgeschlossen habe, was bei Twitter möglich wäre).

Ich bin in einer „Gesprächssituation“ die dem mündlichen Zitieren sehr ähnlich ist und andererseits davon auch sehr verschieden (dasselbe gilt für schriftliche Zitate): Vergleichbar mit dem mündlichen Zitat, aber nicht völlig, ist der zeitliche Charakter der Kommunikation: Ich erreiche meine Follower zu einem Zeitpunkt x, wobei aber mein Tweet archiviert ist und ihn die meisten in einer bestimmten Zeitspanne wahrnehmen, nachdem er abgesendet ist—ausgedehnt dadurch, dass er auch bei FriendFeed (wo es ebenfalls ratifizierte und nicht ratifizierte Leser gibt) und möglicherweise auch auf Facebook (wo nicht ratifizierte Adressaten ausgeschlossen sind) zu lesen ist.

Wenn ich retweete, kommuniziere ich bewusst: Ich will meine Follower über etwas informieren, das ich für interessant, witzig oder wichtig halte. Das erwarten sie vermutlich auch von mir, und deshalb haben sie meine Tweets abonniert. Was das Retweeten angeht, erwarten sie von mir eine Auswahl: Sie würden mir nicht mehr folgen, wenn ich eine großen Zahl der Tweets, die ich erhalte, einfach weiterschicken würde.

Für meine Follower habe ich eine bestimmte Rolle, zu der eine bestimmte Frequenz von Botschaften und ein bestimmter Charakter dieser Botschaften gehört. Was ich retweete, muss in diese Frequenz und zu diesem Charakter passen, es muss zu meiner Rolle passen. Wenn ich etwas retweete, erweitere ich andererseits meine Rolle, und zwar um so etwas wie einen Teil der (individuellen) Rolle der Person, deren Tweets ich weiterschicke. Sie ist für mich eine Ergänzung und ich eigne mir zum Beispiel etwas von ihrer Autorität an.

Anders als beim mündlichen Zitat gibt es ein @-Link zu der Person, die ich zitiere, sie erfährt davon (sie erhält meinen Tweet als eine Antwort auf ihre Tweets) und meine Follower können sich zu ihr durchklicken. Sie könnte mich „bannen“, wenn ihr nicht passt, dass ich sie zitiere. Sie kann mir aber auch folgen, wenn sie erst durch mein Retweeten davon erfährt, dass ich ihr folge. Wie stehen also in einer ziemlich spezifischen Beziehung zueinander, die durch die Institution Twitter möglich wird oder zu ihr gehört, und die wiederum auf der Institution Web (ohne die es diese Links nicht gäbe) basiert. Diese Art der Beziehung gibt es im Web (außer bei Microblogging-Diensten) so sonst nicht, und es gibt sie erst recht nicht außerhalb des Webs.

Meine Beziehungen zu den Leuten, denen ich followe (deren ratifizierter Zuhörer ich bin und die von mir gelegentlich retweetet werden) gehören zu meiner Rolle als Twitterer. Das wird bei Twitter dadurch unterstrichen, dass für jeden auf meiner Twitterpage sichtbar ist, wem ich folge. Ähnliches gilt für die Twitterer, die mir folgen.

Diese Twitter-spezifischen Erwartungen stehen wieder in komplizierten Beziehungen, zu anderen Rollen, die ich im Web (z.B. als Blogger, als Autor anderer Texte, als Mitglied in bestimmten sozialen Netzwerken) und außerhalb des Webs (z.B. als Lehrer) habe. Als jemand, der twittert, bin ich ein Autor in einer bestimmten medialen Öffentlichkeit, und ich kann auch im Web nur als solcher wahrgenommen werden—von Menschen, die mich sonst gar nicht kennen. Ich konstruiere mich Twitter-spezifisch, und nur Leute, die dieses Medium mit seinen besonderen Erwartungshaltungen nicht verstehen, reagieren auf meine Tweets ausschließlich wie auf in einer anderen Öffentlichkeit geäußerte Sätze.

Zurück zum Retweeten, einer Twitter-typischen Form des Zitierens: Etwas verkürzt und abgehoben kann ich sagen: Das Retweeten konstituiert mich mit als Twitterer, der als Bestandteil eines Netzwerks von Leuten, denen er folgt, schreibt. Durch die Möglichkeit des Retweetens werde ich zum Autor einer sehr bestimmten Form von Hypertexten, die es ohne Microblogging nicht gäbe. Meine Autorenrolle ist von anderen Twitter-typischen Rollen (Follower, Followee) nicht ablösbar.

Das sind Anfangsüberlegungen zu einer Beschreibung von Web-spezifischen Rollen- und Erwartungssystemen. (Wobei ich voraussetzungsvolle Konzepte wie Rolle und Öffentlichkeit nur provisorisch verwende.) Ich hoffe, dass ich sie demnächst methodisch abgesicherter und systematischer fortsetzen kann. Naheliegend ist es, als nächstes die „individuellen“ Rollen oder Charakterisierungen einzelner Autoren und die zum System Twitter gehörenden Rollen voneinander zu unterscheiden. Leider kenne ich Goffman bisher fast gar nicht: Allein der Ausdruck participation framework ist für jemand, der sich mit sozialen Medien beschäftigt, faszinierend.

Wie viele Webnutzer fürchte ich, nicht satt zu werden. Ich verfolge weit mehr Quellen — meist Newsfeeds und Life-Streams —, als ich verdauen kann. Trotzdem erinnere ich mich selten an einen neuen Geschmack, dafür aber an viel Fades: Blogger, Journalisten und Akademiker kochen fast immer nach denselben Rezepten und geben sich zufrieden, wenn die Gäste nicht rebellieren. Der organische Intellektuelle ernährt sich von Fastfood und Hausmannskost.

Martin Lindner hat mir gestern eine Küche gezeigt, in der eine neue und exakte Verarbeitung Eigenschaften gewöhnlicher Zutaten betont, die bisher niemand herausschmeckte. Venkatesh Rao analysiert in einem langen Post die Rhetorik des Hyperlinks, das er als Wasserstoffmolekül der Information bezeichnet. Rao fragt, welche Rolle Links bei der Konstruktion der Bedeutung eines Texts haben. Ich will seinen komplexen und anspielungsreichen Beitrag hier nicht referieren oder zusammenfassen, dazu muss ich noch mehr über ihn nachdenken. Wer sich dafür interessiert, was Hypertext ist, sollte ihn lesen. (Ich werden ihn beim Unterrichten des Schreibens für das Web sicher als einen Basistext benutzen.) Ich will hier nur drei Gedanken oder Themen hervorheben:

  1. Rao unterscheidet scharf zwischen Hyperlinks und herkömmlichen Verweisen in gedruckten Texten. Mit einem Link kann man auf eine Quelle verweisen, also zitieren, man kann aber auch auf ganz andere Informationen zeigen. Links vermischen Stimme, Figur und Grund, sie öffnen die Texte, geben dem Leser die Möglichkeit, eigene Wege in oder zwischen verschiedenen Texten einzuschlagen und heben letztlich die Einheit des Textes auf, lassen alle Texte zu einem werden.

  2. Rao begründet, warum Links zu einer eigenen Rhetorik von Hypertexten führen. Sie bilden nicht nur eine Zusatzschicht neben oder über anderen Textebenen. Dass sich eine verlinkter Text anders auf seinen Kontext bezieht als ein nicht verlinkter Text, drückt sich auch auf der sprachlich-stilistischen Ebene aus. Der Satz Amitabh stared grimly from a tattered old Sholay poster, ist z.B. für einen nicht-indischen Leser nur mit Zusatzinformationen zu entschlüsseln, die gedruckt anders (durch Kommentierungen und Erläuterungen) gegeben werden müssen als es im Web möglich ist, wo man schreiben kann: Amitabh stared down grimly from a ratty old Sholay poster. (Ich sage das hier sehr trocken; Rao führt es mit Beispielen, farbig und spannend aus.)

  3. Rao zeigt — quasi nebenbei — dass der Leser, wenn er einen Text im Web versteht, sich bei der Konstruktion der Bedeutung anders auf den damit verlinkten Autor bezieht als bei gedruckten Texten. Online-Profile des Autors beeinflussen z.B., wie dessen Blogposts interpretiert werden — und umgekehrt.

Eine wichtige Konsequenz dieser Überlegungen: Das Web ist nicht ein Metamedium, also eine Plattform für Text, Bild, Ton und andere Medien, sondern ein eigenes Medium, dessen Grammatik aud den verschiedenen Typen von Links besteht, die in ihm möglich sind.

Für die Analyse könnte der Ansatz Raos bedeuten, dass man für das Web charakteristische Phänomene als als spezifische Formen von Verlinkung oder zumindest als daran gekoppelt beschreiben kann (Web-Wissenschaft als Link-Wissenschaft). Online-Reputation ließe sich dann als Bedeutungkonstrukt erfassen, das von der Verlinkung von Online-Profilen, persönlichen Äußerungen z.B. in Blogs und einem transparenten sozialen Netzwerk abhängt. Auch für die Formate des Online-Journalismus sind Linktypen charakteristisch, durch die z.B. Blogposts, Wikis, Bookmarks und Foren aufeinander bzw. auf einen Topic bezogen werden. Die verschiedenen Formate von Microcontent (Blogs, Wikis, Microblogs) sind unterschiedliche Formen der Entwicklung von Text um Links herum.

Praktisch heisst das: Man führt in die Kommunikation im Web ein, indem man den Umgang mit Links lehrt. Das hört sich sehr bescheiden an — aber nur so lange, wie man Links als technische Phänomene und nicht als soziale Beziehungen begreift.

Wenn man Ted Nelson fast nur indirekt kennt — als Erfinder des Ausdrucks Hypertext und als Sonderling, der nicht verwunden hat, dass das WWW viel primitiver ist als das von Nelson konzipierte System — ist man von Nelsons neuem Buch überrascht: Nelson weist zwar auch auf sich und seine Leistungen hin, aber nur sehr zurückhaltend und nicht im Detail. Wenn ich es nicht übersehen habe, ist z.B. von Transklusionen nur einmal die Rede. (Transklusionen gehören wie bidirektionale Links zum Hypertext im Sinne Nelsons.)

Cover des Buchs

Nelson will in diesem Buch nicht seine eigenen Theorien vorstellen, sondern er will zeigen, dass die Computerwelt, wie wir sie kennen — vom PC auf dem Schreibtisch bis zum WWW — historisch geworden ist, überall auf Entscheidungen zurückgeht, die oft politisch oder wirtschaftlich motiviert waren, und dass sie deshalb auch nur historisch zu erklären ist. Nelson schreibt witzig und für ein breites Publikum; sein Buch ist eine gute Einführung in die Geschichte des Computing. Schwierige Konzepte versucht er nicht populär zu erklären, sondern er weist nur auf sie hin. Die Leserin oder der Leser soll erkennen, dass nichts von dem, was uns heute im Computing selbstverständlich erscheint, natürlich und technisch notwendig ist; alles hätte auch anders kommen können, und auch heute ist die Zukunft offen.

Die Geschichte, die Nelson erzählt, beginnt mit der Einführung von Hierarchien:

Hierarchy is the official metaphysic of the computer world.

Die karolingische Minuskel (mit der Nelson die Einführung von URLs durch Tim Berners-Lee vergleicht) spielt in ihr eine ebenso wichtige Rolle wie die Erfindung von Satzzeichen und Lochkarten. Die Kapitelzählung beginnt im negativen Bereich mit dem Kapitel -27; erst mit Unix und dem Jahr 1970 ist das Kapitel 1 erreicht: Unix ist die Basis des heutigen Computing und des Internets. (Für Nelsons Xanadu ist das Kapitel -11 reserviert.) Mit Social Networks und Second Life ist im Kapitel 20 die Gegenwart erreicht: Auch bei ihnen handelt es sich, wie bei allen Schritten vor ihnen, um Konstrukte, nicht um quasi natürliche Realitäten.

Für mich hat Nelsons Methode etwas Nietzscheanisches: Er erzählt eine Genealogie, so wie Nietzsche die Genealogie der Moral erzählt hat. Erzählt wird von Phänomenen, denen sich nicht einfach ausweichen lässt, die man aber verdrehen, ironisieren und subvertieren kann, mit einer gaya scienza, die bei Nelson eine unfeierlich-nerdige Gestalt annimmt.

Den eigentlichen Reiz des Buchs macht die Fülle von Fakten, Beobachtungen und Reflexionen aus, oft aus der Perspektive eines Beteiligten oder eines persönlichen Bekannten der Beteiligten berichtet. Wenige Portraits in Nelsons Buch sind mit so viel Sympathie ausgeführt wie das von Richard Stallman, dem Gründer der Free Software Foundation und Erfinder von GNU/Linux.

Viele Schüler und Studenten bekommen durch Bücher wie Weischedels Philosophische Hintertreppe einen Zugang zur Philosophie. Ich kann mir vorstellen, dass durch Nelsons Buch auch Nichtinformatiker einen Zugang zum Computing als sozialem und historischen Phänomen erhalten. Dabei wird ihnen ein kritischer, aber nicht verbitterter Blick auf die Geschichte vermittelt — und die Lust daran zu zeigen, dass die Metaphysiken der Hierarchie nicht unausweichlich sind.