Ich komme schon seit Wochen nicht mehr zum Bloggen, weil ich ein paar Projekte zuendebringen muss, bevor ich richtig ins neue Jahr starten kann. (Leider ist es nicht meine Stärke, Dinge abzuschließen.) Dabei arbeite ich mit Plone und mit Drupal. Ich frage mich manchmal, wie ein Vergleich dieser beiden Content Management Systeme aussehen würde.

Ich würde es — aus der Perspektive eines technisch interessierten Users, nicht eines Entwicklers — so sagen: Man kann mit Plone mehr anfangen, aber die Eintrittsschwelle liegt deutlich höher. Für Websites, bei denen man die Systeme einfach out-of-the-box verwenden kann, spielen die Unterschiede keine große Rolle. Wenn man aber eigene Inhaltstypen entwickeln und das Layout der Seiten kontrollieren möchte, unterscheiden sich die Systeme deutlich. Die Lernkurve bei Drupal ist viel flacher, führt aber wahrscheinlich auch nicht so hoch wie bei Plone.

Für mich ist vor allem interessant, wie schwierig es ist, neue Inhaltstypen zu entwickeln, und wie aufwändig es ist, Layouts anzupassen oder zu erstellen. Bei Drupal benutze ich dazu das Content Construction Kit. Damit ist es relativ einfach, Inhaltstypen zu erstellen, die aus verschiedenen Feldern bestehen. Man klickt sie sich im Grunde zusammen. Für Daten oder Feldtypen, die der Drupal-Kern nicht anbietet, z.B. für Bilder, kann man zusätzliche Module installieren. Um den Inhalt in Listen darzustellen, z.B. auf Überblicksseiten, benutzt man das Modul Views, bei dem man mit einer Art wizard Abfragen an die Datenbank erstellt, mit denen man die gewünschten Inhalte zusammenstellt. Für das Layout erstellt oder verändert man Templates; dabei präsentiert einem das Modul Contemplate die Variablen, über die man die Inhalte in das Template einfließen lässt. Für Leute die Angst vor Code haben, ist das zwar nicht geeignet, man braucht aber keine Kenntnisse in PHP (der Sprache, in der Drupal geschrieben) ist.

Ein Problem bei Drupal: Es gibt eine Vielzahl von Modulen, mit denen sich der bewusst schmal gehaltene Funktionsumfang des Drupal-Kerns erweitern lässt; und man braucht Zeit und vielleicht auch etwas Gespür um herauszubekommen, wie ausgereift die Module sind. Was die Module dabei in der Datenbank verändern, sieht man als Drupal-User nicht. Wahrscheinlich ist die beste Strategie, mit so wenig Modulen wie möglich auszukommen und bei denen, die man wirklich braucht, via Google herauszukriegen, welche Erfahrungen andere mit ihnen gemacht haben. Ich bin z.B. erst nach einiger Zeit darauf gekommen, dass man für Bilder in unterschiedlichen Größen wohl besser das Modul ImageCache als das gängigere Modul Image verwendet.

Bei Plone ist es nicht unbedingt schwieriger, neue Inhaltstypen zu erstellen, allerdings muss man entweder in den Python-Code eingreifen oder mit der Unified Modelling Language (UML) arbeiten — was sich anspruchsvoller anhört, als es nach meinen ersten Erfahrungen ist. Inhaltstypen bei Plone werden als so genannte Archetypes angelegt. Wenn man einen nicht bereits vorhandenen Inhaltstyp braucht — bei mir geht es um eine Datenbank mit Beschreibungen historischer Darstellungen des Fürstentums Anhalt — muss man entweder einen Archetype neu schreiben oder ihn mit einem UML-Tool entwickeln und den Code generieren lassen. Wenn ich es richtig sehe, ist der zweite Weg der übliche. Ich habe ArgoUML als UML-Software installiert; außerdem braucht man das Pytonmodul ArchGenXML, das aus einem als XML exportierten UML-Schema den Archetype bzw. mehrere aufeinander bezogene Archetypes produziert. Was einem UML und ArchGenXML leider nicht abnehmen, ist die Erstellung der Templates für die Oberfläche. Nach den Erfahrungen, die ich mit einem älteren Prototyp meines Projekts gemacht habe, muss man dazu die Zope-eigenen Template-Sprachen TAL und METAL verwenden. Was sich bei Plone 3, der neuesten Plone-Version verändert hat, kann ich noch nicht sagen.

Ich mache gerade zum ersten Mal Bekanntschaft mit einem UML-Tool und bin davon ziemlich fasziniert (wobei ich nur ein Minimum an UML verwende). Man kann mit UML — so weit bin ich allerdings noch nicht — auch ganze Workflows für Plone-Applikationen entwerfen und den Code automatisch erzeugen lassen. Ich vermute, dass dabei dann erst die eigentlichen Stärken von Plone zum Tragen kommen.

Was würde ich antworten, wenn mich jemand fragt, ob sie für ein Projekt Drupal oder Plone benutzen soll? Uns stellt sich das Problem gerade an der FH, wo eine neue Website für die Design-Studiengänge entwickelt wird (an die sich die in den Wirtschaftsfachbereich verbannten Journalisten hoffentlich anschließen dürfen). Ich würde — wie wahrscheinlich jeder andere auch — zuerst sagen, dass es auf das Projekt ankommt. Wenn die Sicherheitsarchitektur und Workflows eine grosse Rolle spielen, dürfte Zope/Plone das stärkere System sein. Wenn es allerdings um eine normale Content-Site geht, würde ich die Entscheidung vor allem davon abhängig machen, wer die Site entwickelt. Stehen wirklich Coder zur Verfügung, die sich außerdem etwas mit Python auskennen (der Programmiersprache, in der Plone geschrieben ist), dürfte es letztlich einfacher sein, mit Plone zu arbeiten. Wenn es darum geht, mit etwas Grundwissen eine dynamische Website auf die Beine zu stellen (vor allem eine Community-orientierte), dann ist wohl eher Drupal zu empfehlen. Außerdem hat Drupal den Vorteil, dass PHP- und MySQL-Knowhow relativ weit verbreitet ist, während Python leider immer noch zu unbekannt ist, obwohl es — finde ich — die Programmiersprache für Nichtprogrammierer sein könnte.

Da ich nicht Coder unterrichte, sondern Journalistinnen und PR-Leute, frage ich mich natürlich auch, ob ich mich gerade in Dinge versteige, die mit meinem Job nichts mehr zu tun haben. Es klingt vielleicht abstrus: Aber für den Unterricht kann ich möglicherweise am ehesten UML verwenden. Ich könnte mir vorstellen, dass man damit auch Nichttechniker sehr gut in die Entwicklug von Websites/Webapplikationen einführen kann — aber das ist ein anderes Thema.

(PS: Ich bin auf diesem Gebiet noch mehr Dilettant als auf einigen anderen. Ich bitte also um Korrekturen, wenn ich Unsinn geschrieben habe.)

Der Standard hat in gestern in einem kleinen Scoop Ergebnisse einer Studie publiziert, die der steirische Landesrat Hirt seit Wochen unter Verschluss hält: Feinstaubgehalt der Luft und Sterblichkeit durch Herz- und Kreislaufkrankheiten hängen direkt zusammen. Menschen sterben früher, wenn Feinstaub in der Luft ist, und zwar schon, wennn die offiziellen Grenzwerte noch lange nicht erreicht sind. Beunruhigend für jeden, der in Österreichs Feinstaub-Hauptstadt Graz lebt!

Der Standard interessierte sich nicht nur für die Gefährlichkeit des Feinstaubs — die ist, wenn auch nicht so genau, schon länger bekannt. Dem Standard ging es auch um den kleinen Skandal im großen: Dass ein Landesrat (das entspricht einem deutschen Landesminister) nach Gutdünken darüber befindet, ob und wann die Ergebnisse einer Studie, die er selbst in Auftrag gegeben hat, den Bürgern präsentiert werden. Die Ö1-Nachrichten um 18:00 ließen den offenbar gänzlich überforderten Hirt noch kurz zu Wort kommen, immer noch mit der (für die steirische Landesregierung durchaus charakteristischen) anmaßenden Haltung, selbst entscheiden zu können, welche Wahrheiten der Bevölkerung zuzumuten sind. Offenbar hält er seine Behörde für den berufensten Interpreten wissenschaftlicher Aussagen. In der 19:00-Uhr-Sendung von "Steiermark heute", der Fernsehnachrichtensendung, die von der Masse der Bevölkerung in der Steiermark gesehen wird, war davon überhaupt nicht mehr die Rede. Die Ergebnisse der Studie wurden im Nachrichtenblock kurz erwähnt, nachdem zuvor ausfühlich darüber berichtet worden war, dass es auf den steirischen Bergen zu immer gefährlicheren Skiunfällen kommt. Die Landesregierung kam nur brav als Auftraggeber vor. Ihre Publikationspolitik war kein Thema, so wenig wie später in der ZiB2 um 22:00.

Vielleicht ein Zufall, vielleicht Nachlässigkeit oder Desinteresse der Redaktion! Wahrscheinlicher aber ist, dass man sich beim steirischen ORF gescheut hat, die Landesregierung anzugreifen — schließlich wird ja die Stelle des ORF-Landesdirektors auch politisch besetzt. Der ORF klagt darüber, dass ihm die Zuschauer weglaufen. Aber wenn er die Chance hat, über ein Thema zu berichten, dass die Menschen hier wirklich interessiert, fällt ihm nicht viel ein.

PS: Der Kleinen Zeitung war die Geschichte heute die Titelstory wert (Claudia Giglers Artikel hier). Bei den Grünen hat Peter Hagenauer das unerträgliche Verhalten des Gesudheitslandesrats zum Thema gemacht. Aber die Grünen vermeiden es geradezu, das Thema Feinstaub in den Mittelpunkt des Grazer Kommunalwahlkampfes zu stellen. Stattdessen möchten sie bei der Tagung des Nationalratsclubs, die heute in Graz beginnt, endlich mit einer systematischen Diskussion über soziale Gerechtigkeit beginnen.

Material für das PolitCamp:

Der Senatsauschuss für Homeland Security and Governmental Affairs hat im Dezember ein Hearing zum Thema “E-Government 2.0: Improving Innovation, Collaboration, and Access” veranstaltet, bei dem Jimmy Wales von der Wikipedia-Foundation, John Lewis Needham von Google und Ari Schwartz vom Center for Democracy & Technology gesprochen haben. Die Statements sind inzwischen online, man kann das Hearing auch via RealVideo verfolgen.

Für einen europäischen Leser ist vor allem eindrucksvoll, mit welchem Drive der Ausschuss darauf drängt, mit Internettechnik Politik sowohl demokratischer und öffentlicher als auch effizienter zu machen. Joe Lieberman, der Ausschussvorsitzende und einer der prominentesten amerikanischen Politiker, bezeichnet in seinem Einleitungsstatement die Wikipedia als the most thrilling example of what collaborative technology can produce . An drei Themen des Hearings können wir anschließen: den freien Zugang zu politisch relevanten Informationen, die Verwendung von Wikis, um Informationen zu teilen (siehe auch Wikipolitik) und den Schutz der Privatsphäre.

Suchmaschinenfreundliche öffentliche Datenbanken

Das Hauptziel des Senatsausschusss ist es im Augenblick, Regierungsdokumente, aber auch Studien, die der Kongress in Auftrag gegeben hat, für Suchmaschinen zugänglich zu machen. Der Senat ist dabei, den E-Government Act zu aktualisieren. Dabei wird vor allem Wert darauf gelegt, dass die Bürger alle öffentlich wichtigen Informationen auch tatsächlich finden können. Google arbeitet dabei — sicher vor allem aus Eigeninteresse — mit Regierungsstellen auf verschiedenen Ebenen zusammen. Vor allem geht es dabei darum, Behörden und Regierungsstellen dazu zu bringen, sich an den Sitemap-Standard zu halten, den außer Google auch wichtige andere Suchmaschinen unterstützen.

Wikis in der politischen Kommunikation

Jimbo Wales stellt in seinem Statement sehr allgemein dar, was Wikis und die Wikipedia sind und was sie leisten. Er spricht vom horizontalen und vertikalen Teilen von Informationen — Begriffe, mit denen sich gut klassifizieren lässt, wie Web 2.0 Technik in der Politik verwendet wird oder werden kann:

You can control access, but a wiki might be useful to an agency that wants
to facilitate sharing information up and down the hierarchy (increased
vertical sharing). And controlled-access wikis could be used to set up inter-
agency information sharing as well (increased horizontal sharing).

Die Accessibility-Initiativen des Ausschusses betreffen vor allem das vertikale Teilen von Informationen, und zwar von oben nach unten (in diesem Kontext etwas atavistische Begriffe).

Wer Wikis noch immer für eine fixe Idee von Spinnern hält, sollte Wales’ Bemerkungen über die Intellipedia lesen, ein Wiki, das die amerikanischen Geheimdienste zusammen betreiben. Wales zitiert Tom Fingar, einen der Verantwortlichen für die Koordination der US-Geheimdienste:

Fingar sagte, dass eine weltweit verteilte Gruppe von Geheimdienstlern und Analytikern neulich die Intellipdia benutzten um zu beschreiben, wie irakische Aufständische Chlor in improvisierten Bomben verarbeiten. “Sie entwickelten es in ein paar Tagen Interaktion in der Intellipedia”, sagte Fingar. “Keine Bürokratie, kein darf-ich-Mama, keine internen Meetings. Sie machten, und das Ergebnis war super. Das wird sich durchsetzen. .”

[Übersetzt nach dem Originalzitat bei Defensenews.com]

Übrigens bereiten die amerikanischen Geheimdienstler auch ein eigenes, MySpace-artiges soziales Netzwerk vor.

Wales empfiehlt, Wiki-Technik für öffentliche und interne Regierungsprojekte zu verwenden. Die entscheidende Lektion der Wikipedia bestehe darin, dass

eine offene Plattform, die es den Interessenten erlaubt, einfach und schnell zu teilzunehmen, das Teilen von Informationen in einer äußerst kostenintensiven Weise erleichten kann, und aus dem Wissen einer weitaus größeren Gruppe von von Menschen schöpfen kann, als traditionelle Methoden möglich machten.

Privacy Impact Assessments

Bei uns ist die amerikanische Regierung im Augenblick vor allem als Datenkrake bekannt. Ari Schwartz, der den E-Government Act von 2002 ausdrücklich lobt, kritisiert in seinem Statement heftig und detailliert, dass sich die Bush-Regierung in zentralen Bereichen nicht an vom Kongress verabschiedete Regeln hält. Der E-Government Act fordert Privacy Impact Assessments vor allen Massnahmen, bei denen neue Technik verwendet wird oder personenbezogene Daten gesammelt werden. Die PIAs würden, so Schwartz, als eine der drei Säulen des US-Datenschutzes bezeichnet. Tatsächlich spielen sie aber in den meisten wichtigen Behörden keine Rolle oder werden bei Maßnamen wie der Integration von RFID-Chips in Pässe nur pro forma angelegt. (Eine Ausnahme sei das Department of Homeland Security — für nicht mit der amerikanischen Politik Vertraute wie mich eine Überraschung.) Schwartz fordert vom Kongress eine generelle Revision der Bestimmungen zum Schutz der Privatsphäre; bei allen sei zu fragen, ob sie heute noch ausreichen.

Wir sollten bei den Diskussionen in Frühjahr die Entwicklungen in den USA berücksichtigen; dabei lässt sich sicher nicht einfach zwischen sympathischen (Demokratisierung, Partizipation) und unsympathischen (Datensammlung, Einschränkung von Grundrechten) Tendenzen unterscheiden. Es geht wohl u.a. darum wie man Security-Regeln auf den verschiedenen Ebenen der Kommunikation im Netz implementieren kann — so wie ja auch bei der Entwicklung eines Betriebssystem Funktionen und Sicherheitsbestimmungen nicht voneinander getrennt werden können.

[siehe auch: Schwerer Zugang zu staatlichen Infos – futurezone.ORF.at, OpenCongress – E-Government Reauthorization Act of 2007]

Wenn andere Männer in meinem Alter wollen, dass stundenlang nichts passiert, gehen sie wahrscheinlich angeln. Ich beschäftige mich dagegen damit, Open Source Software auf einem Mac zu installieren. Hier ein Bericht über eine Plone-Installation, die mich insgesamt fast einen Tag beschäftigt hat — nicht zuletzt, weil ich nicht gründlich genug gegoogelt habe, um Hilfen zu finden.

Continue reading

Für das PolitCamp, das im Frühjahr stattfindet, wünsche ich mir einen Diskussionsstrang zum Verhältnis von Expertentum und Politik. Wie das Wissen erzeugt, diskutiert und validiert wird, das politischen Entscheidungen zugrundeliegt, kann und sollte sich durch soziale Medien und social information management ändern. Problematisch dürfte dabei nicht so sehr sein, wie Wissen publiziert, sondern wie es validiert wird, wie sich verhindern lässt, dass die wisdom of the crowds zu willkürlichen Augenblicksentscheidungen führt.

Einen Ansatzpunkt für solche Diskussionen habe ich über Howard Rheingolds Bookmarks gefunden: den Artikel Wikipolitics der amerikanischen Juristin Beth Simone Noveck. Sie beschäftigt sich damit, wie offene Communities von kompetenten Bürgern durch Online-Zusammenarbeit politische Entscheidungen vorbereiten können. Solche Communities könnten — und sollten — an die Stelle der geeschlossenen Gremien von berufenen Fachleute treten, die heute die Weichen für einen großen Teil der politischen Entscheidungen stellen. Zitat:

Now, however, new technology may be changing the relationship between democracy and expertise, affording an opportunity to improve competence by making good information available for better governance.

Beth Simone Noveck bezieht sich dabei auf Philip Tetlock, der die Ansprüche von als Experten agierenden politischen Beratern, Aussagen über die Zukunft machen zu könne, demontiert hat:

In his award-winning book On Political Judgment, social psychologist Philip Tetlock analyzed the predictions of those professionals who advise government about political and economic trends. Pitting these professional pundits against minimalist performance benchmarks, he found "few signs that expertise translates into greater ability to make either ’well-calibrated’ or ’discriminating’ forecasts." It turns out that professional status has much less bearing on the quality of information than we might assume, and that professionals ’whether in politics or other domains’ are notoriously unsuccessful at making informed predictions.

Die Alternative bezeichnet sie als collaborative governance:

… we want to design practices for “collaborative governance,” shared processes of responsibility in information-gathering and decision-making that combine the technical expertise of public experts with the legal standards of professional decision-makers. There are plenty of people with expertise to share if their knowledge can successfully be connected to those decision-makers who need it. It is not necessary to pre-select authenticated and known professionals when structures can be put in place to ensure that informational inputs are discernable, specific, well-labeled, and easy to search, sort, and use.

Als Beispiel dafür, wie eine solche Community arbeiten kann, beschreibt sie, wie im amerikanischen Patentwesen in einem offenen Prozess geklärt wird, ob für Entwicklungen, für die ein Patent beansprucht wird, prior art vorliegt.

Interessant ist dabei u.a. dass ein Verfahren festgelegt wurde, um sicherzustellen, dass die Mitwirkung der Community nicht zu juristisch problematischen und/oder unsachlichen Entscheidungen führt. In diesem Fall ist die Mitwirkung darauf beschränkt, Informationen in das Verfahren einzubringen, die von wenigen Experten nicht erhoben werden könnten. Der eigentliche Entscheidungsprozess ist Angelegenheit von dazu legitimierten Personen. Manche mögen das für übervorsichtig halten; tatsächlich ist damit aber dem Gegenargument, Wiki-artige Prozesse führten zu Willkürentscheidungen, der Boden entzogen. Umgekehrt dürfte in vielen Bereichen das Problem gerade darin bestehen, Wissen in Entscheidungsprozesse einzubringen, insbesondere wenn es Positionen von Interessengruppen in Frage stellt.

Was der Artikel auch deutlich macht: Man ist hier schnell auf einer sehr grundsätzlichen Ebene, es geht um Themen wie das neuzeitliche Politikverständnis und die Rolle der Bürokratie bzw. um die Voraussetzungen und Folgen von bürokratischer oder technokratischer Herrschaft. Wenn so etwas wie Wikipolitik durchsetzbar ist, bricht man mit einem jahrhundertelangen Prozess der Professionalisierung, Verwissenschaftlichung und Bürokratisierung von Politik. Um darüber auf dem PolitCamp diskutieren zu können, müsste man auch Fachleute z.B. für Wissenssoziologie und für die Entwicklung des modernen Staates hinzuziehen.

Liest man einen Begriff wie Wikipolitik, stellen sich schnell idyllische, prämoderne Vorstellungen von einer sich selbst verwaltenden überschaubaren Gemeinschaft ein. Tatsächlich steht man, wenn man einen solchen Begriff positiv verwendet, auch in rätedemokratischen bzw. anarchistischen Traditionen. Es gibt aber Motive dafür, eine Wikipolitik zu fordern, die mit der älteren Kritiken an der repräsentativen Demokratie wenig zu tun haben, wenn sie ihnen auch nicht widersprechen dürften. Es geht darum, die Möglichkeiten des Web zu nutzen, um in einer überkomplexen, also grundsätzlich nicht mehr überschaubaren Gesellschaft überhaupt informiert politisch zu agieren. Möglicherweise lassen sich heute nur über webgestützte kollaborative Prozesse und dezentral Informationen in politische Entscheidungsprozesse einspeisen, ohne die diese zu einer reinen Selbstfortsetzung bürokratischer Administration mit unterschiedlichen Geschmacksrichtungen bzw. Farbcodes degenerieren.

Wer wissen will, wie ich meinen Eltern erklären würde, was ein Feedreader ist, kann es sich hier anhören:

Link: sevenload.com

Ob das jemand versteht, der nicht weiß, um was es geht? Meinen eigenen Eltern habe ich für einen Test des Videos wahrscheinlich schon zu viel erklärt. Die Idee der Blogpiloten, Blogger unter dem Motto Wie sag ich es meinen Eltern? Schlüsselbegriffe des Web erklären zu lassen, ist jedenfalls hervorragend.

Michael Neumayr, ein JuK-Student, fragt: Ist Journalismus an der FH Joanneum nicht erwünscht?

Ich bin (noch) nicht so pessimistisch wie Michael und glaube, dass die Landesregierung auf Argumente hören wird. Allerdings wird es wohl nötig sein, diese Argumente laut und deutlich vorzutragen. Es wäre ein Akt der freiwilligen Selbstprovinzialisierung, wenn es die Steiermark dem FH-Standort Wien allein überlassen würde, Journalisten bis zum Master-Abschluss auszubilden. Für so deppert, um ein Lieblinswort unseres Landeshauptmanns zu verwenden, halte ich ich die steirische Regierung nicht.

Vor einiger Zeit haben mich Kollegen, die Sozialarbeit unterrichten, gebeten, sie bei der Entwicklung eines wissenschaftlichen Online-Journals zu beraten. Es war für mich die erste Gelegenheit, mich mit dem Thema Open Access zu beschäftigen. Darunter versteht man den freien Zugang zu den Ergebnissen wissenschaftlicher Arbeit — im Gegensatz zur kostenpflichtigen Publikation durch Verlage. Open Access kann dadurch realisiert werden, dass Wissenschaftler eigene Versionen von Artikeln, die sie in einer Zeitschrift publizieren, archivieren und zugänglich machen. Die wichtigste Form von Open Access-Publikationen sind aber Zeitschriften, die ihre Inhalte kostenfrei zur Verfügung stellen. Viel Material zu Open Access findet man auf der Informationsplattform Open Access. Eine gute Informationsquelle sind Peter Subers Open Access News

Open Access-Zeitschriften verzichten auf die Kommerzialisierung von wissenschaftlichen Publikationen, aber nicht auf redaktionelle Kontrolle und die in der Wissenschaft übliche Begutachtung von Artikeln durch andere Wissenschaftler (Peer Review).

Am Mittwoch hatte ich einen längeren Termin an der FH St. Pölten, um ein Redaktionssystem für Open Access-Zeitschriften vorzustellen: Open Journal Systems, abgekürzt OJS. OJS wurde vor allem an der University of British Columbia und der Simon Fraser University in Kanada entwickelt. Wir haben es auf einem Server unseres Studiengangs installiert.

OJS ist ein Publikationssystem, in dessen Mittelpunkt Herausgeber (englisch: editor) stehen. Der Herausgeber überwacht und organisisert fünf Stufen einer Publikation:

  1. Einreichen von Beiträgen
  2. Begutachtung
  3. Redaktion der Beiträge
  4. Zusammenstellung von Ausgaben
  5. Publikation

Mit OJS lassen sich auch kostenpflichtige Zeitschriften publizieren, deren Artikel erst einige Zeit nach der Veröffentlichung frei zugänglich sind.

Der ganze Redaktionsprozess kann und sollte online abgewickelt werden, wobei alle relevanten Dokumente auf dem Server administriert werden. Es ist aber auch möglich, die Dokumente als Email-Anhänge zu verschicken.

Der Workflow umfasst alle Stufen, die ein Artikel vom Einreichen bis zum Archivieren durchläuft. Für jede Stufe wird eine eigene Version erzeugt und gespeichert, und in jeder Stufe arbeiten Personen mit bestimmten redaktionellen Rollen (Verfasser, Herausgeber, Redakteur, Gutachter, Layouter, Korrekturleser) an dem Artikel. Eine Person kann dabei mehrere Rollen übernehmen. Anders als bei üblichen Web-Redaktionssystemen wird der Text des Artikels nicht online bearbeitet. Erst nach der Begutachtung und Redaktion produziert eine Layouterin die Versionen für die Veröffentlichung. Es sind beliebige digitale Formate möglich, in der Regel wird wohl eine HTML und eine PDF-Version publiziert.

Wer in das System eingeloggt ist, muss eine der vorgesehenen Rollen übernehmen. Er sieht dann eine Liste mit den Artikeln, die er bearbeiten soll, und mit den Aufgaben, die er übernommen hat. Wenn er fertig ist, gibt er den Text an den nächsten Bearbeiter weiter und informiert ihn mit einer Email, für die es jeweils eine Standardvorlage gibt.

OJS bildet einen kompletten Redaktionsprozess aus der Offline-Welt online ab. Es ist denkbar, dass sich eine OJS-Publikation in nichts von einer herkömmlichen Zeitschrift unterscheidet — außer darin, dass sie nur in digitalen Dokumenten vorliegt. Allerdings sind die Formate nicht eingeschränkt. Mit OJS lassen sich auch reine HTML- oder XML-Journale publizieren, wobei allerdings das auf Frames basierende Interface stört. Alle Möglichkeiten des Web werden bei der Archivierung und Indizierung genutzt. Metadaten werden entsprechend den Regeln der Open Archives Initiative verwaltet; die Artikel können mit Digital Object Identifiern versehen werden.

Ich kann OJS nicht mit Konkurrenzsystemen vergleichen, und ich habe auch noch keine Erfahrung mit der tatsächlichen Publikation einer Online-Journals mit diesem System. Auf meinem jetzigen Kenntnisstand erscheint es mir ausgereift und empfehlenswert für Gruppen, die eine Open-Access-Zeitschrift publizieren wollen. OJS ist mehr als eine Software (oder einfach: eine gute Software); wer es benutzt, profitiert von den Erfahrungen, die bei vielen ähnlichen Publikationen gemacht wurden.