Clay Tokens a la Schmandt-Besserat
Ursprünglich hochgeladen von macloo

Zum Bild [via flickr] siehe: Denise Schmandt-Besserat, Exzerpt und Inhaltsverzeichnis aus: How Writing Came About. Ich bin auf die Archäologin Schmandt-Besserat durch Howard Rheingold gestoßen. Sie hat erforscht, wie sich die Schrift der Sumerer aus Ton-Objekten entwickelt hat, mit denen Güter wie Tiere oder Krüge gezählt wurden. Die Objekte — sie spricht von tokens — repräsentierten einzelne Gegenstände oder auch Mengen von Objekten (zu überprüfen; ich habe heute zum ersten Mal davon gelesen). Sie waren in der Jungsteinzeit über Jahrtausende in Gebrauch und sind an vielen Stellen nachgewiesen. Sie wurden offenbar selbst in Behältern aufbewahrt — zum Beispiel von jemand, der für eine Herde verantwortlich war — und um eine Übersicht über den Inhalt dieser Behälter zu bewahren, ging man irgendwann dazu über, die Zählmarken in die noch nicht getrockneten Deckel der Tonbehälter zu pressen. Mit der Entdeckung, dass diese Deckel allein zur Repräsentation von Objekten genügen und man auf die Behälter mit den Tonobjekten verzichten kann, beginnt die Geschichte der Schrift (in unserer Geschichte; die Schriftsysteme in Ostasien und Mittelamerika haben einen anderen Ursprung).

Am Beginn der Schrift stand also nicht eine Bilderschrift, sondern das Zählen und Rechnen — wenn man will: die jungsteinzeitlichen Computertechnik.

Links: Denise Schmandt-Besserats Homepage. Kurzdarstellung ihrer Theorie: 1, 2, 3 leads to A, B, C: Denise Schmandt-Besserat: Research Impact. In der Wikipedia steht über die inzwischen emeritierte Forscherin:

Schmandt-Besserat’s present interest is the cognitive aspects of the token system that functioned as an extension of the human brain to collect, manipulate, store and retrieve data. She studies how processing an increasing volume of data over thousands of years brought people to think in greater abstraction. She also continues her research on Neolithic symbolism at the site of of ‚Ain Ghazal, near Amman, Jordan.

74% aller deutschen Journalisten haben die Wikipedia zu Recherchezwecken verwendet. Wichtigstes Instrument der Recherche ist laut der PR-Agentur Storymaker Google.

(Der Online-Standard verzichtet leider auf ein Link zur Quelle — hier die Pressemeldung der Agentur — und bleibt damit hinter dem Wikipedia-Grundsatz Say where you found the material zurück.)

Für den Studiengang, an dem ich arbeite ist das eine Anregung, die Wikipedia und Google ausführlicher zu behandeln und das Arbeiten mit ihnen intensiver zu üben. Zugleich müssen wir wieder einmal die Frage stellen, worin die Professionalität von Journalistinnen heute noch bestehen kann. Die Storymaker-Studie nennt außer Google und der Wikipedia als wichtigste Informationsquellen die Online-Archive der Redaktionen und Gespräche mit kompetenten Personen. Ob die internen Archive noch lange eine Informationsvorsprung sichern werden, ist zumindest fraglich — es spricht nichts dafür, dass sie nicht bald von frei oder fast frei zugänglichen Quellen im Netz überholt werden. Und gut gepflegte soziale Netzwerke werden nicht nur Journalisten Zugang zu Informanten bieten.

Professionalität im Journalismus bestünde dann zum einen darin, Instrumente, die allen zur Verfügung stehen, besser zu beherrschen. Und zum anderen darin, Informationsprozesse (ich entschuldige mich für das hässliche Wort-Provisorium) zu organisieren, also Netzwerke oder Sub-Netzwerke zu organisieren, die ihren Teilnehmern bestimmte Informationen zur Verfügung stellen. Medien werden dann vielleicht nichts anderes mehr sein, als soziale Netze, deren Zweck Information oder auch Unterhaltung ist.

Zurück zur Pressemeldung von Storymaker und zu unserem Studiengang: Die Studie hat noch einen weiteren Aspekt, der für uns wichtig ist, da wir auch PR-Leute ausbilden: Journalistinnen informieren sich über Unternehmen vor allem über deren Websites, dort suchen sie auch nach Angaben zu kompetenten Gesprächspartnern. Sie erwarten dort fundierte inhaltliche Informationen zu den Firmen und ihren Arbeitsgebieten. Sie

vermissen … hier „häufig“ oder „manchmal“ Fakten (88 Prozent), Hintergrundinformationen (82 Prozent), verständliche Texte (80 Prozent), Links zu weiterführenden Quellen (68 Prozent) und druck- und pressefähige Bilder (65 Prozent). Videoclips oder Audiofiles würden etwa ein Zehntel (9 Prozent) der Journalisten gerne zur Verfügung gestellt bekommen.

Wir sind gerade dabei, ein Projekt zur Verbesserung der inhaltlichen Qualität steirischer Unternehmens-Websites zu starten (auch das eine Frage der literacy), da ist diese Meldung Wasser auf unsere Mühlen! In unseren Lehrveranstaltungen müssen wir uns mit diesen Themen noch viel mehr als bisher beschäftigen.

Logo_gov_bc
Richard Pope berichtet sehr amüsant von einem Barcamp für Government Geeks im Londoner Google-Hauptquartier. U.a.:

There’s no lack of enthusiasm with the GovGeeks, but they seem to feel constricted by the currently slow moving, contract orientated ways of the civil service, as well as the ever changing grand plans from above of the more strategic looking civil servants (someone presented a truly mind-boggling-design-by-commitee flowchart of how the future version of direct.gov.uk is supposed to work).

Sicher auch ein Vorbild für unser PolitCamp im Mai! Organisiert hat das BarCamp Jeremy Gould. Hier fasst er seine Erfahrungen zusammen [via currybetdotnet].

Howard Rheingold über Co-Evolution of Technology, Media and Collective Action. (Man kann sich auf der Seite auch ein Video der Präsentation in Second Life ansehen.)

Rheingold versucht in einer Viertelstunde einen Überblick über die Geschichte der Menschheit. Die These ist: Mediale Revolutionen ermöglichen jeweils völlig neue Formen des kollektiven Handelns, sie erlauben es,

to organize collective action on scales that we weren’t able to organize before.

Interessant sind die Konzepte, mit denen Rheingold arbeitet, vor allem der in der Soziologie entwickelte Begriff des kollektiven Handelns (collective action), daneben auch der begriff der symbolischen Kommunikation. Die Voraussetzung der collective action ist dabei nur indirekt die Technologie. Zwischen Technologie und gesellschaftlichem Handeln „vermittelt“ — um es sehr deutsch auszudrücken — die literacy. Rheingold verwendet, vor allem wenn er über die Gegenwart spricht, diesen Begriff im Plural, spricht z.B. von multiple literacies. literacy ist ein soziales Phänomen, sie ist gesellschaftlich reguliert.

Rheingold wehrt sich ausdrücklich dagegen, ein technischer Determinist zu sein. Er verweist auf das Beispiel der Druckerpresse, die in Ostasien früher als in Europa erfunden, aber in zentralisierten Gesellschaften kaum verwendet wurde. Neue Techniken sind nur eine Bedingung dafür, dass die Barrieren für kollektive Aktionen niedriger werden. Sie senken zunächst vor allem die Schwelle für der Erwerb von Bildung.

Rheingolds Keynote ist nur die Einleitung zu einem ausführlichen White Paper (pdf).

Am Wochenende habe ich das BarCamp Senza Confini in Klagenfurt besucht. Dank an Georg Holzer, Martin Gratzer, Ed Wohlfahrt und die anderen Organisatoren und Teilnehmer für zwei Tage konzentrierte Information und entspannten Austausch!

Warum macht es Spaß ein Barcamp zu besuchen? Am meisten sicher wegen der Menschen, die man wiedertrifft oder kennenlernt und mit denen man sich in zwischen und nach den Sessions unterhält. Bei den österreichischen Barcamps, die ich bisher besucht habe, hat sich so etwas wie eine Community herausgebildet, Leute, die in einem losen Diskussionszusammenhang stehen und nicht einen Verein oder eine fixierte Institution brauchen, um sich zu unterhalten. Angenehm ist nicht zuletzt, dass hier Prestige und Konkurrenz so gut wie keine Rolle spielen.

Barcamps bilden so etwas wie Satzzeichen in einer fortlaufenden Online-Kommunikation. Es kommen Leute zusammen, die sich untereinander in Weblogs, Social Netwoks oder via Twitter verfolgen. Auch die Barcamps selbst werden dokumentiert, man kann online an sie anschließen. Vielleicht bilden Barcamps eine eigene, komplexe Textgattung oder Metatextgattung (weniger steil ausgedrückt: eine webgestützte Kommunikationsform): wie bei anderen Online-Publikationsformen gehören zu ihnen spezifische Formen, sich gegenseitig zu beobachten (z.B. über das Wiki) und charakteristisches Bündel von Möglichkeiten, um kommunikativ aneinander anzuschließen.

Barcamps dienen nicht nur dazu, sich in komprimierter Form wechselseitig auf dem Laufenden zu halten. Sie sind Gelegenheiten, einen Überblick über die Szene zu erhalten und aus unterschiedlichen Perspektiven zu diskutieren. Ich kenne keine bessere Form, um über die Kommunikation im Web zu kommunizieren.

Hier eine Zusammenfassung meiner Notizen aus Klagenfurt und ein paar dazu gesammelte Links:

Power Laws: Die Biegung entscheidet

Die Präsentation von Matthias Lux über Power Laws habe ich leider nur zum Teil mitbekommen. (Sie ist online nachzulesen: Power Laws — Popularity And Interestingness). Matthias Lux ging es vor allem um den bend, also den Knick in den Zipf- oder Pareto-Kurven. Sie steigen nicht gleichmäßig an, sondern erst wenig und dann — manchmal — von einem bestimmten Punkt an steil. Laut Matthias ist dieser bend die Voraussetzung dafür, dass etwas tatsächlich zu einem Massenerfolg wird. Und offenbar lässt sich, wenn der bend erreicht ist, auch voraussagen, dass etwas zu einem Erfolg wird.

Ich merke mir den Begriff preferential attachment. (Preferential attachment means that the more connected a node is, the more likely it is to receive new links.) Muss endlich Barabási lesen!

Deconstructing the Horizontal Myths of Web 2.0?

Enrico Maria Milič‚ Präsentation Deconstructing the Horizontal Myths of Web 2.0 hat mich enttäuscht, auch wenn das Material interessant war. (Welcher Inhalt soll auch auf einen so aufgeblasenen Titel folgen?) Aus Statistiken über das Bloggen in Italien und den USA hat er letztlich nicht mehr abgeleitet als ein paar gut gemeinte Binsenweisheiten: Den meisten Bloggern gehe gar nicht um politische Themen, auch in der Blogosphäre herrsche eine gender hierarchy. Aber wer hat je etwas anderes behauptet? Die apostrofierten journalists and big names of the blogosphere jedenfalls nicht.

In diesem Fall ist die Auswertung von Fragebögen nicht ein wissenschaftliches Instrument, sondern ein Surrogat für eine Forschungsstrategie und eine definierte Methodik. Sie ermöglicht es, den eigentlichen Gegenstand, nämlich die Kommunikation in Weblogs, gerade nicht zu untersuchen. Matthias Lux ging in seiner Präsentation von vorhandenem Wissen über Eigenschaften von Netzen aus. Seine Überlegungen waren nicht mehr als Gedankenspiele (die er selbst zu sehr relativierte), aber in so etwas wie einem netzorientierten frame of reference. Enrico Maria Milič verzichtete für seine Auswertung von Fragebögen zu den Interessen von Bloggern auf jede blog- oder netzspezifische Hypothese und fand wohl deshalb nur Banalitäten.

Max Kossatz: Blogger Connections vs. Tags

Neue Perspektiven zeigte dagegen Max Kossatz in seiner Session über Blogger Connections auf. Auch er geht von Netzphänomenen aus. Max arbeitet an Werkzeugen, mit denen sich die Blogosphäre adäquater erfassen lässt, als es Technorati schafft. Dazu renoviert er zusammen mit Ritchie Pettauer die Deutschen Blogcharts und kartographiert die Beziehungen zwischen Bloggern in blogsvision. (Für eine alternative Visualisierung benutzt Walter Rafelsberger seine Rhizome Navigation. )

Wenn jemand nach interessanten Blogs oder Blogs zu einem Thema sucht, kann er mit den Beziehungen zwischen Bloggern mehr anfangen als mit mehr oder weniger willkürlich vergebenen Tags. Das ist Max Kossatz‘ Ausgangspunkt; deshalb wertet blogsvision die Blogrolls aus statt Tags. Die kartografische Erfassung wird allerdings dadurch erschwert, dass die IP-Adresse oft nichts mit dem Ort zu dem hat, an dem gebloggt wird. (Der Ausgangspunkt blogger connections erinnert mich an die people centered navigation, über die Ton Zijlstra im September 2006 beim Wiener Barcamp gesprochen hat.)

Facebook Ads: Demografisches Targeting via Wizard

Gestern hat Max Kossatz in einer zweiten Session zusammen mit Ritchie Pettauer das Facebook-Anzeigentool vorgestellt. Damit lassen sich über einen Wizard Anzeigen demografisch gezielt schalten (in Österreich wegen der geringen Nutzerzahl bis jetzt noch für ein paar Cent). Werbung und Kommunikation wachsen so tatsächlich zusammen — es fehlt nur noch, dass die UserInnen ihrerseits auswählen können, welche Anzeigen sie sehen wollen. Ritchie ging dann auch noch kurz auf Naymz ein; was er dazu sagte, kann man ähnlich in seinem Blog nachlesen. Naymz ist ein Social Network für professionelle Kontakte, das in den Staaten schon zu LinkedIn aufgeschlossen hat. Die Mitglieder können sich wechselseitig empfehlen; erwirbt man einen premium-Account, promoted nayms den eigenen Namen, z.B. durch Google Ads.

Zemanta: Blog-Ergänzung durch semantische Analyse

Max Kossatz‘ blogsvision dient dazu, interessante Inhalte dadurch zu finden, dass man den Beziehungen zwischen Bloggern nachgeht. Zemanta, ein slowenisches Startup, das von seinen Gründern vorgestellt wurde, findet mit semantischen Technologien Inhalte, die z.B. zu einem Blogeintrag passen. In ihrer Präsentation beschrieben Andraž Tori und Jure Cuhalev vor allem, wie sie über das Londoner Seedcamp an Risikokapital für ihr Projekt gekommen sind. Sie hoben die erfolgsorientierte Methode, Geld für die Produktentwicklung zu bekommen, von den bürokratisierten EU-Forschungsförderungen ab, die oft in Projektruinen enden. Nach meinen Erfahrungen mit EU-Projekten kann ich das leider nachvollziehen. (Etwas älteres Interview mit Andraž Tori hier.)

Coden mit Adobe Flex

Ich war auf zwei im engeren Sinn technischen Sessions. Bernd Buchegger und Ronald Linasi, bekennende Coder von trinitec, stellten Flex, Adobes Framework für Rich Internet Applications, vor und berichteten dabei auch über das neue Flex 3. Auch wenn ich kein Entwickler bin, haben mich die Aussagen zur agilen und Modell-gestützten Entwicklung am meisten interessiert. Ich weiß noch nicht, wie ich das in meinen Unterricht einfließen lassen kann, aber ich glaube, dass ein Grundverständnis dafür, was eine Web-Applikation ist und wie man sie entwickelt, auch für Jounalistinnen und Unternehmenskommunikatoren wichtig ist: Sie werden immer weniger analoge Produkte oder statische Webinhalte erstellen und immer mehr an dynamischen, miteinander vernetzten Anwendungen mitarbeiten.

Das richtige CSS-Framework finden

Horst Gutmann erläuterte einige CSS-Frameworks, darunter YAML, mit dem ich gerade selbst Erfahrungen mache (Präsentation hier). Seinen Vortrag fand ich ausgesprochen klar und verständlich, u.a. weil er verglich, wie sich mit drei Framworks ein konkretes Problem lösen lässt: das Anlegen eines vierspaltigen Layouts. Im nächten Semester habe ich eine Lehrveranstaltung zu HTML und CSS. Diesmal werde ich versuchen, die Studentinnen mit wenigstens einem dieser Frameworks arbeiten zu lassen — u.a., weil sie damit eher ein Erfolgserlebnis haben dürften als bei dem Versuch, mit etwas Basiswissen ein komplettes Layout aufzubauen.

Fiber to the home in Österreich: Gemeinden aufklären!

Ein ganz anderes Thema habe ich durch Alexander List kennengelernt, der sich mit der aktuellen Situation der Breitbandvernetzung in Österreich beschäftigte. Die Fakten hat er auch im Barcamp Wiki zusammensgestellt. Im Moment verhindern die Telcos in Österreich, dass die technischen Möglichkeiten für eine breitbandige Vernetzung aller Haushalte ausgenutzt werden, während es z.B. im Nachbarland Slowenien üblich ist, die Haushalte direkt an das Glasfasernetz anzuschließen. Alexander List war sich mit denjenigen unter den Zuhörern, die sich auf diesem Gebiet auskennen, darüber einig, dass ein massives Lobbying auf der Gemeindeebene das beste Mittel ist, um zu verhindern, dass Österreich hier noch weiter zurückfällt.

Mehr zum BarCamp in Klagenfurt u.a. hier: Barcamp Senza Confini, Teil 1 auf datenschmutz.net, mgratzer’s Blog » BarCamp Senza Confini Day 1, Jans Technik-Blog: Barcamps

Wie bildet man Journalisten so aus, dass sie ihre Fähigkeiten online vermarkten können? Mark Glaser hat zusammengestellt, was an amerikanischen J-Schools versucht wird, um angehende Journalisten auch zu Unternehmern auszubilden. Dazu hat er eine Reihe von Größen des amerikanischen Online-Journalismus befragt.

Zwei Statements Glasers, die ich für plakativ, aber bemerkenswert halte:

  1. Die journalistische Karriere heute beginnt oft nicht mehr mit dem Volontoriat in einer Redaktion, sondern mit der Selbstvermarktung als Blogger, Podcaster o.ä. (Das hängt nicht nur mit der aktuellen wirtschaftlichen Situation zusammen, sondern mit der Veränderung des Berufs der Journalistin und der journalistischen Produkte. Siehe dazu, gerade gestern, wie Peter Hogenkamp die Unterschiede in der Arbeitsweise eine Bloggernetzwerks und einer herkömmlichen Redaktion beschreibt.)

  2. Werbung muss bei Online-Publikationen als Inhalt verstanden werden. Sie funktioniert nur, wenn die Benutzerinnen sie wollen und sie einen eigenen Mehrwert hat. Wer publiziert, muss sie in sein redaktionelles (nicht nur wirtschaftliches) Konzept integrieren.

Kleines Detail am Rande: Kurz bevor die Pressekonferenz mit Le Pen und Co. im Sitzungssaal des FPÖ-Parlamentsklubs begann, kam ORF-Generaldirektor Alexander Wrabetz bei der Tür des FPÖ-Klubs heraus. Er hatte einen Termin bei FPÖ-Chef Strache [Eine Stunde mit den Patrioten « DiePresse.com].

Das ist einer der widerwärtigsten Züge der österreichischen Politik- und Medienlandschaft: In ihr gelten Leute als respektabel, die Demokraten in westlichen Ländern nicht einmal als Gesprächspartner akzeptieren würden. Der ORF biedert sich Strache, Mölzer und Westenthaler als Dauerinszenator an — immerhin verdankt Wrabetz ja auch diesen Figuren seinen Job. Und hier in der Steiermark faselt Hermann Schützenhöfer von einer möglichen "Läuterung" der FPÖ.

Siegfried Nagl hat am Grazer Wahlabend von Problemen gesprochen, die sich mit Ausgrenzung allein nicht lösen ließen. Ich vermute, dass er damit nicht die Ausländer, sondern die in Graz besonders unappetitliche FPÖ meinte. Wenn die ÖVP sich auf dieser Seite nicht eindeutig abgrenzt, macht sie den Rechtsradikalismus in der Steiermark weiter hoffähig. Sie darf sich nicht wundern, wenn ihr die Polit-Zombies dann die Themen diktieren.

Ich komme schon seit Wochen nicht mehr zum Bloggen, weil ich ein paar Projekte zuendebringen muss, bevor ich richtig ins neue Jahr starten kann. (Leider ist es nicht meine Stärke, Dinge abzuschließen.) Dabei arbeite ich mit Plone und mit Drupal. Ich frage mich manchmal, wie ein Vergleich dieser beiden Content Management Systeme aussehen würde.

Ich würde es — aus der Perspektive eines technisch interessierten Users, nicht eines Entwicklers — so sagen: Man kann mit Plone mehr anfangen, aber die Eintrittsschwelle liegt deutlich höher. Für Websites, bei denen man die Systeme einfach out-of-the-box verwenden kann, spielen die Unterschiede keine große Rolle. Wenn man aber eigene Inhaltstypen entwickeln und das Layout der Seiten kontrollieren möchte, unterscheiden sich die Systeme deutlich. Die Lernkurve bei Drupal ist viel flacher, führt aber wahrscheinlich auch nicht so hoch wie bei Plone.

Für mich ist vor allem interessant, wie schwierig es ist, neue Inhaltstypen zu entwickeln, und wie aufwändig es ist, Layouts anzupassen oder zu erstellen. Bei Drupal benutze ich dazu das Content Construction Kit. Damit ist es relativ einfach, Inhaltstypen zu erstellen, die aus verschiedenen Feldern bestehen. Man klickt sie sich im Grunde zusammen. Für Daten oder Feldtypen, die der Drupal-Kern nicht anbietet, z.B. für Bilder, kann man zusätzliche Module installieren. Um den Inhalt in Listen darzustellen, z.B. auf Überblicksseiten, benutzt man das Modul Views, bei dem man mit einer Art wizard Abfragen an die Datenbank erstellt, mit denen man die gewünschten Inhalte zusammenstellt. Für das Layout erstellt oder verändert man Templates; dabei präsentiert einem das Modul Contemplate die Variablen, über die man die Inhalte in das Template einfließen lässt. Für Leute die Angst vor Code haben, ist das zwar nicht geeignet, man braucht aber keine Kenntnisse in PHP (der Sprache, in der Drupal geschrieben) ist.

Ein Problem bei Drupal: Es gibt eine Vielzahl von Modulen, mit denen sich der bewusst schmal gehaltene Funktionsumfang des Drupal-Kerns erweitern lässt; und man braucht Zeit und vielleicht auch etwas Gespür um herauszubekommen, wie ausgereift die Module sind. Was die Module dabei in der Datenbank verändern, sieht man als Drupal-User nicht. Wahrscheinlich ist die beste Strategie, mit so wenig Modulen wie möglich auszukommen und bei denen, die man wirklich braucht, via Google herauszukriegen, welche Erfahrungen andere mit ihnen gemacht haben. Ich bin z.B. erst nach einiger Zeit darauf gekommen, dass man für Bilder in unterschiedlichen Größen wohl besser das Modul ImageCache als das gängigere Modul Image verwendet.

Bei Plone ist es nicht unbedingt schwieriger, neue Inhaltstypen zu erstellen, allerdings muss man entweder in den Python-Code eingreifen oder mit der Unified Modelling Language (UML) arbeiten — was sich anspruchsvoller anhört, als es nach meinen ersten Erfahrungen ist. Inhaltstypen bei Plone werden als so genannte Archetypes angelegt. Wenn man einen nicht bereits vorhandenen Inhaltstyp braucht — bei mir geht es um eine Datenbank mit Beschreibungen historischer Darstellungen des Fürstentums Anhalt — muss man entweder einen Archetype neu schreiben oder ihn mit einem UML-Tool entwickeln und den Code generieren lassen. Wenn ich es richtig sehe, ist der zweite Weg der übliche. Ich habe ArgoUML als UML-Software installiert; außerdem braucht man das Pytonmodul ArchGenXML, das aus einem als XML exportierten UML-Schema den Archetype bzw. mehrere aufeinander bezogene Archetypes produziert. Was einem UML und ArchGenXML leider nicht abnehmen, ist die Erstellung der Templates für die Oberfläche. Nach den Erfahrungen, die ich mit einem älteren Prototyp meines Projekts gemacht habe, muss man dazu die Zope-eigenen Template-Sprachen TAL und METAL verwenden. Was sich bei Plone 3, der neuesten Plone-Version verändert hat, kann ich noch nicht sagen.

Ich mache gerade zum ersten Mal Bekanntschaft mit einem UML-Tool und bin davon ziemlich fasziniert (wobei ich nur ein Minimum an UML verwende). Man kann mit UML — so weit bin ich allerdings noch nicht — auch ganze Workflows für Plone-Applikationen entwerfen und den Code automatisch erzeugen lassen. Ich vermute, dass dabei dann erst die eigentlichen Stärken von Plone zum Tragen kommen.

Was würde ich antworten, wenn mich jemand fragt, ob sie für ein Projekt Drupal oder Plone benutzen soll? Uns stellt sich das Problem gerade an der FH, wo eine neue Website für die Design-Studiengänge entwickelt wird (an die sich die in den Wirtschaftsfachbereich verbannten Journalisten hoffentlich anschließen dürfen). Ich würde — wie wahrscheinlich jeder andere auch — zuerst sagen, dass es auf das Projekt ankommt. Wenn die Sicherheitsarchitektur und Workflows eine grosse Rolle spielen, dürfte Zope/Plone das stärkere System sein. Wenn es allerdings um eine normale Content-Site geht, würde ich die Entscheidung vor allem davon abhängig machen, wer die Site entwickelt. Stehen wirklich Coder zur Verfügung, die sich außerdem etwas mit Python auskennen (der Programmiersprache, in der Plone geschrieben ist), dürfte es letztlich einfacher sein, mit Plone zu arbeiten. Wenn es darum geht, mit etwas Grundwissen eine dynamische Website auf die Beine zu stellen (vor allem eine Community-orientierte), dann ist wohl eher Drupal zu empfehlen. Außerdem hat Drupal den Vorteil, dass PHP- und MySQL-Knowhow relativ weit verbreitet ist, während Python leider immer noch zu unbekannt ist, obwohl es — finde ich — die Programmiersprache für Nichtprogrammierer sein könnte.

Da ich nicht Coder unterrichte, sondern Journalistinnen und PR-Leute, frage ich mich natürlich auch, ob ich mich gerade in Dinge versteige, die mit meinem Job nichts mehr zu tun haben. Es klingt vielleicht abstrus: Aber für den Unterricht kann ich möglicherweise am ehesten UML verwenden. Ich könnte mir vorstellen, dass man damit auch Nichttechniker sehr gut in die Entwicklug von Websites/Webapplikationen einführen kann — aber das ist ein anderes Thema.

(PS: Ich bin auf diesem Gebiet noch mehr Dilettant als auf einigen anderen. Ich bitte also um Korrekturen, wenn ich Unsinn geschrieben habe.)

Der Standard hat in gestern in einem kleinen Scoop Ergebnisse einer Studie publiziert, die der steirische Landesrat Hirt seit Wochen unter Verschluss hält: Feinstaubgehalt der Luft und Sterblichkeit durch Herz- und Kreislaufkrankheiten hängen direkt zusammen. Menschen sterben früher, wenn Feinstaub in der Luft ist, und zwar schon, wennn die offiziellen Grenzwerte noch lange nicht erreicht sind. Beunruhigend für jeden, der in Österreichs Feinstaub-Hauptstadt Graz lebt!

Der Standard interessierte sich nicht nur für die Gefährlichkeit des Feinstaubs — die ist, wenn auch nicht so genau, schon länger bekannt. Dem Standard ging es auch um den kleinen Skandal im großen: Dass ein Landesrat (das entspricht einem deutschen Landesminister) nach Gutdünken darüber befindet, ob und wann die Ergebnisse einer Studie, die er selbst in Auftrag gegeben hat, den Bürgern präsentiert werden. Die Ö1-Nachrichten um 18:00 ließen den offenbar gänzlich überforderten Hirt noch kurz zu Wort kommen, immer noch mit der (für die steirische Landesregierung durchaus charakteristischen) anmaßenden Haltung, selbst entscheiden zu können, welche Wahrheiten der Bevölkerung zuzumuten sind. Offenbar hält er seine Behörde für den berufensten Interpreten wissenschaftlicher Aussagen. In der 19:00-Uhr-Sendung von "Steiermark heute", der Fernsehnachrichtensendung, die von der Masse der Bevölkerung in der Steiermark gesehen wird, war davon überhaupt nicht mehr die Rede. Die Ergebnisse der Studie wurden im Nachrichtenblock kurz erwähnt, nachdem zuvor ausfühlich darüber berichtet worden war, dass es auf den steirischen Bergen zu immer gefährlicheren Skiunfällen kommt. Die Landesregierung kam nur brav als Auftraggeber vor. Ihre Publikationspolitik war kein Thema, so wenig wie später in der ZiB2 um 22:00.

Vielleicht ein Zufall, vielleicht Nachlässigkeit oder Desinteresse der Redaktion! Wahrscheinlicher aber ist, dass man sich beim steirischen ORF gescheut hat, die Landesregierung anzugreifen — schließlich wird ja die Stelle des ORF-Landesdirektors auch politisch besetzt. Der ORF klagt darüber, dass ihm die Zuschauer weglaufen. Aber wenn er die Chance hat, über ein Thema zu berichten, dass die Menschen hier wirklich interessiert, fällt ihm nicht viel ein.

PS: Der Kleinen Zeitung war die Geschichte heute die Titelstory wert (Claudia Giglers Artikel hier). Bei den Grünen hat Peter Hagenauer das unerträgliche Verhalten des Gesudheitslandesrats zum Thema gemacht. Aber die Grünen vermeiden es geradezu, das Thema Feinstaub in den Mittelpunkt des Grazer Kommunalwahlkampfes zu stellen. Stattdessen möchten sie bei der Tagung des Nationalratsclubs, die heute in Graz beginnt, endlich mit einer systematischen Diskussion über soziale Gerechtigkeit beginnen.

Material für das PolitCamp:

Der Senatsauschuss für Homeland Security and Governmental Affairs hat im Dezember ein Hearing zum Thema “E-Government 2.0: Improving Innovation, Collaboration, and Access” veranstaltet, bei dem Jimmy Wales von der Wikipedia-Foundation, John Lewis Needham von Google und Ari Schwartz vom Center for Democracy & Technology gesprochen haben. Die Statements sind inzwischen online, man kann das Hearing auch via RealVideo verfolgen.

Für einen europäischen Leser ist vor allem eindrucksvoll, mit welchem Drive der Ausschuss darauf drängt, mit Internettechnik Politik sowohl demokratischer und öffentlicher als auch effizienter zu machen. Joe Lieberman, der Ausschussvorsitzende und einer der prominentesten amerikanischen Politiker, bezeichnet in seinem Einleitungsstatement die Wikipedia als the most thrilling example of what collaborative technology can produce . An drei Themen des Hearings können wir anschließen: den freien Zugang zu politisch relevanten Informationen, die Verwendung von Wikis, um Informationen zu teilen (siehe auch Wikipolitik) und den Schutz der Privatsphäre.

Suchmaschinenfreundliche öffentliche Datenbanken

Das Hauptziel des Senatsausschusss ist es im Augenblick, Regierungsdokumente, aber auch Studien, die der Kongress in Auftrag gegeben hat, für Suchmaschinen zugänglich zu machen. Der Senat ist dabei, den E-Government Act zu aktualisieren. Dabei wird vor allem Wert darauf gelegt, dass die Bürger alle öffentlich wichtigen Informationen auch tatsächlich finden können. Google arbeitet dabei — sicher vor allem aus Eigeninteresse — mit Regierungsstellen auf verschiedenen Ebenen zusammen. Vor allem geht es dabei darum, Behörden und Regierungsstellen dazu zu bringen, sich an den Sitemap-Standard zu halten, den außer Google auch wichtige andere Suchmaschinen unterstützen.

Wikis in der politischen Kommunikation

Jimbo Wales stellt in seinem Statement sehr allgemein dar, was Wikis und die Wikipedia sind und was sie leisten. Er spricht vom horizontalen und vertikalen Teilen von Informationen — Begriffe, mit denen sich gut klassifizieren lässt, wie Web 2.0 Technik in der Politik verwendet wird oder werden kann:

You can control access, but a wiki might be useful to an agency that wants
to facilitate sharing information up and down the hierarchy (increased
vertical sharing). And controlled-access wikis could be used to set up inter-
agency information sharing as well (increased horizontal sharing).

Die Accessibility-Initiativen des Ausschusses betreffen vor allem das vertikale Teilen von Informationen, und zwar von oben nach unten (in diesem Kontext etwas atavistische Begriffe).

Wer Wikis noch immer für eine fixe Idee von Spinnern hält, sollte Wales‘ Bemerkungen über die Intellipedia lesen, ein Wiki, das die amerikanischen Geheimdienste zusammen betreiben. Wales zitiert Tom Fingar, einen der Verantwortlichen für die Koordination der US-Geheimdienste:

Fingar sagte, dass eine weltweit verteilte Gruppe von Geheimdienstlern und Analytikern neulich die Intellipdia benutzten um zu beschreiben, wie irakische Aufständische Chlor in improvisierten Bomben verarbeiten. „Sie entwickelten es in ein paar Tagen Interaktion in der Intellipedia“, sagte Fingar. „Keine Bürokratie, kein darf-ich-Mama, keine internen Meetings. Sie machten, und das Ergebnis war super. Das wird sich durchsetzen. .”

[Übersetzt nach dem Originalzitat bei Defensenews.com]

Übrigens bereiten die amerikanischen Geheimdienstler auch ein eigenes, MySpace-artiges soziales Netzwerk vor.

Wales empfiehlt, Wiki-Technik für öffentliche und interne Regierungsprojekte zu verwenden. Die entscheidende Lektion der Wikipedia bestehe darin, dass

eine offene Plattform, die es den Interessenten erlaubt, einfach und schnell zu teilzunehmen, das Teilen von Informationen in einer äußerst kostenintensiven Weise erleichten kann, und aus dem Wissen einer weitaus größeren Gruppe von von Menschen schöpfen kann, als traditionelle Methoden möglich machten.

Privacy Impact Assessments

Bei uns ist die amerikanische Regierung im Augenblick vor allem als Datenkrake bekannt. Ari Schwartz, der den E-Government Act von 2002 ausdrücklich lobt, kritisiert in seinem Statement heftig und detailliert, dass sich die Bush-Regierung in zentralen Bereichen nicht an vom Kongress verabschiedete Regeln hält. Der E-Government Act fordert Privacy Impact Assessments vor allen Massnahmen, bei denen neue Technik verwendet wird oder personenbezogene Daten gesammelt werden. Die PIAs würden, so Schwartz, als eine der drei Säulen des US-Datenschutzes bezeichnet. Tatsächlich spielen sie aber in den meisten wichtigen Behörden keine Rolle oder werden bei Maßnamen wie der Integration von RFID-Chips in Pässe nur pro forma angelegt. (Eine Ausnahme sei das Department of Homeland Security — für nicht mit der amerikanischen Politik Vertraute wie mich eine Überraschung.) Schwartz fordert vom Kongress eine generelle Revision der Bestimmungen zum Schutz der Privatsphäre; bei allen sei zu fragen, ob sie heute noch ausreichen.

Wir sollten bei den Diskussionen in Frühjahr die Entwicklungen in den USA berücksichtigen; dabei lässt sich sicher nicht einfach zwischen sympathischen (Demokratisierung, Partizipation) und unsympathischen (Datensammlung, Einschränkung von Grundrechten) Tendenzen unterscheiden. Es geht wohl u.a. darum wie man Security-Regeln auf den verschiedenen Ebenen der Kommunikation im Netz implementieren kann — so wie ja auch bei der Entwicklung eines Betriebssystem Funktionen und Sicherheitsbestimmungen nicht voneinander getrennt werden können.

[siehe auch: Schwerer Zugang zu staatlichen Infos – futurezone.ORF.at, OpenCongress – E-Government Reauthorization Act of 2007]