Material für das PolitCamp:

Der Senatsauschuss für Homeland Security and Governmental Affairs hat im Dezember ein Hearing zum Thema “E-Government 2.0: Improving Innovation, Collaboration, and Access” veranstaltet, bei dem Jimmy Wales von der Wikipedia-Foundation, John Lewis Needham von Google und Ari Schwartz vom Center for Democracy & Technology gesprochen haben. Die Statements sind inzwischen online, man kann das Hearing auch via RealVideo verfolgen.

Für einen europäischen Leser ist vor allem eindrucksvoll, mit welchem Drive der Ausschuss darauf drängt, mit Internettechnik Politik sowohl demokratischer und öffentlicher als auch effizienter zu machen. Joe Lieberman, der Ausschussvorsitzende und einer der prominentesten amerikanischen Politiker, bezeichnet in seinem Einleitungsstatement die Wikipedia als the most thrilling example of what collaborative technology can produce . An drei Themen des Hearings können wir anschließen: den freien Zugang zu politisch relevanten Informationen, die Verwendung von Wikis, um Informationen zu teilen (siehe auch Wikipolitik) und den Schutz der Privatsphäre.

Suchmaschinenfreundliche öffentliche Datenbanken

Das Hauptziel des Senatsausschusss ist es im Augenblick, Regierungsdokumente, aber auch Studien, die der Kongress in Auftrag gegeben hat, für Suchmaschinen zugänglich zu machen. Der Senat ist dabei, den E-Government Act zu aktualisieren. Dabei wird vor allem Wert darauf gelegt, dass die Bürger alle öffentlich wichtigen Informationen auch tatsächlich finden können. Google arbeitet dabei — sicher vor allem aus Eigeninteresse — mit Regierungsstellen auf verschiedenen Ebenen zusammen. Vor allem geht es dabei darum, Behörden und Regierungsstellen dazu zu bringen, sich an den Sitemap-Standard zu halten, den außer Google auch wichtige andere Suchmaschinen unterstützen.

Wikis in der politischen Kommunikation

Jimbo Wales stellt in seinem Statement sehr allgemein dar, was Wikis und die Wikipedia sind und was sie leisten. Er spricht vom horizontalen und vertikalen Teilen von Informationen — Begriffe, mit denen sich gut klassifizieren lässt, wie Web 2.0 Technik in der Politik verwendet wird oder werden kann:

You can control access, but a wiki might be useful to an agency that wants
to facilitate sharing information up and down the hierarchy (increased
vertical sharing). And controlled-access wikis could be used to set up inter-
agency information sharing as well (increased horizontal sharing).

Die Accessibility-Initiativen des Ausschusses betreffen vor allem das vertikale Teilen von Informationen, und zwar von oben nach unten (in diesem Kontext etwas atavistische Begriffe).

Wer Wikis noch immer für eine fixe Idee von Spinnern hält, sollte Wales‘ Bemerkungen über die Intellipedia lesen, ein Wiki, das die amerikanischen Geheimdienste zusammen betreiben. Wales zitiert Tom Fingar, einen der Verantwortlichen für die Koordination der US-Geheimdienste:

Fingar sagte, dass eine weltweit verteilte Gruppe von Geheimdienstlern und Analytikern neulich die Intellipdia benutzten um zu beschreiben, wie irakische Aufständische Chlor in improvisierten Bomben verarbeiten. „Sie entwickelten es in ein paar Tagen Interaktion in der Intellipedia“, sagte Fingar. „Keine Bürokratie, kein darf-ich-Mama, keine internen Meetings. Sie machten, und das Ergebnis war super. Das wird sich durchsetzen. .”

[Übersetzt nach dem Originalzitat bei Defensenews.com]

Übrigens bereiten die amerikanischen Geheimdienstler auch ein eigenes, MySpace-artiges soziales Netzwerk vor.

Wales empfiehlt, Wiki-Technik für öffentliche und interne Regierungsprojekte zu verwenden. Die entscheidende Lektion der Wikipedia bestehe darin, dass

eine offene Plattform, die es den Interessenten erlaubt, einfach und schnell zu teilzunehmen, das Teilen von Informationen in einer äußerst kostenintensiven Weise erleichten kann, und aus dem Wissen einer weitaus größeren Gruppe von von Menschen schöpfen kann, als traditionelle Methoden möglich machten.

Privacy Impact Assessments

Bei uns ist die amerikanische Regierung im Augenblick vor allem als Datenkrake bekannt. Ari Schwartz, der den E-Government Act von 2002 ausdrücklich lobt, kritisiert in seinem Statement heftig und detailliert, dass sich die Bush-Regierung in zentralen Bereichen nicht an vom Kongress verabschiedete Regeln hält. Der E-Government Act fordert Privacy Impact Assessments vor allen Massnahmen, bei denen neue Technik verwendet wird oder personenbezogene Daten gesammelt werden. Die PIAs würden, so Schwartz, als eine der drei Säulen des US-Datenschutzes bezeichnet. Tatsächlich spielen sie aber in den meisten wichtigen Behörden keine Rolle oder werden bei Maßnamen wie der Integration von RFID-Chips in Pässe nur pro forma angelegt. (Eine Ausnahme sei das Department of Homeland Security — für nicht mit der amerikanischen Politik Vertraute wie mich eine Überraschung.) Schwartz fordert vom Kongress eine generelle Revision der Bestimmungen zum Schutz der Privatsphäre; bei allen sei zu fragen, ob sie heute noch ausreichen.

Wir sollten bei den Diskussionen in Frühjahr die Entwicklungen in den USA berücksichtigen; dabei lässt sich sicher nicht einfach zwischen sympathischen (Demokratisierung, Partizipation) und unsympathischen (Datensammlung, Einschränkung von Grundrechten) Tendenzen unterscheiden. Es geht wohl u.a. darum wie man Security-Regeln auf den verschiedenen Ebenen der Kommunikation im Netz implementieren kann — so wie ja auch bei der Entwicklung eines Betriebssystem Funktionen und Sicherheitsbestimmungen nicht voneinander getrennt werden können.

[siehe auch: Schwerer Zugang zu staatlichen Infos – futurezone.ORF.at, OpenCongress – E-Government Reauthorization Act of 2007]

Wenn andere Männer in meinem Alter wollen, dass stundenlang nichts passiert, gehen sie wahrscheinlich angeln. Ich beschäftige mich dagegen damit, Open Source Software auf einem Mac zu installieren. Hier ein Bericht über eine Plone-Installation, die mich insgesamt fast einen Tag beschäftigt hat — nicht zuletzt, weil ich nicht gründlich genug gegoogelt habe, um Hilfen zu finden.

Continue reading

Für das PolitCamp, das im Frühjahr stattfindet, wünsche ich mir einen Diskussionsstrang zum Verhältnis von Expertentum und Politik. Wie das Wissen erzeugt, diskutiert und validiert wird, das politischen Entscheidungen zugrundeliegt, kann und sollte sich durch soziale Medien und social information management ändern. Problematisch dürfte dabei nicht so sehr sein, wie Wissen publiziert, sondern wie es validiert wird, wie sich verhindern lässt, dass die wisdom of the crowds zu willkürlichen Augenblicksentscheidungen führt.

Einen Ansatzpunkt für solche Diskussionen habe ich über Howard Rheingolds Bookmarks gefunden: den Artikel Wikipolitics der amerikanischen Juristin Beth Simone Noveck. Sie beschäftigt sich damit, wie offene Communities von kompetenten Bürgern durch Online-Zusammenarbeit politische Entscheidungen vorbereiten können. Solche Communities könnten — und sollten — an die Stelle der geeschlossenen Gremien von berufenen Fachleute treten, die heute die Weichen für einen großen Teil der politischen Entscheidungen stellen. Zitat:

Now, however, new technology may be changing the relationship between democracy and expertise, affording an opportunity to improve competence by making good information available for better governance.

Beth Simone Noveck bezieht sich dabei auf Philip Tetlock, der die Ansprüche von als Experten agierenden politischen Beratern, Aussagen über die Zukunft machen zu könne, demontiert hat:

In his award-winning book On Political Judgment, social psychologist Philip Tetlock analyzed the predictions of those professionals who advise government about political and economic trends. Pitting these professional pundits against minimalist performance benchmarks, he found "few signs that expertise translates into greater ability to make either ’well-calibrated’ or ’discriminating’ forecasts." It turns out that professional status has much less bearing on the quality of information than we might assume, and that professionals ’whether in politics or other domains’ are notoriously unsuccessful at making informed predictions.

Die Alternative bezeichnet sie als collaborative governance:

… we want to design practices for „collaborative governance,“ shared processes of responsibility in information-gathering and decision-making that combine the technical expertise of public experts with the legal standards of professional decision-makers. There are plenty of people with expertise to share if their knowledge can successfully be connected to those decision-makers who need it. It is not necessary to pre-select authenticated and known professionals when structures can be put in place to ensure that informational inputs are discernable, specific, well-labeled, and easy to search, sort, and use.

Als Beispiel dafür, wie eine solche Community arbeiten kann, beschreibt sie, wie im amerikanischen Patentwesen in einem offenen Prozess geklärt wird, ob für Entwicklungen, für die ein Patent beansprucht wird, prior art vorliegt.

Interessant ist dabei u.a. dass ein Verfahren festgelegt wurde, um sicherzustellen, dass die Mitwirkung der Community nicht zu juristisch problematischen und/oder unsachlichen Entscheidungen führt. In diesem Fall ist die Mitwirkung darauf beschränkt, Informationen in das Verfahren einzubringen, die von wenigen Experten nicht erhoben werden könnten. Der eigentliche Entscheidungsprozess ist Angelegenheit von dazu legitimierten Personen. Manche mögen das für übervorsichtig halten; tatsächlich ist damit aber dem Gegenargument, Wiki-artige Prozesse führten zu Willkürentscheidungen, der Boden entzogen. Umgekehrt dürfte in vielen Bereichen das Problem gerade darin bestehen, Wissen in Entscheidungsprozesse einzubringen, insbesondere wenn es Positionen von Interessengruppen in Frage stellt.

Was der Artikel auch deutlich macht: Man ist hier schnell auf einer sehr grundsätzlichen Ebene, es geht um Themen wie das neuzeitliche Politikverständnis und die Rolle der Bürokratie bzw. um die Voraussetzungen und Folgen von bürokratischer oder technokratischer Herrschaft. Wenn so etwas wie Wikipolitik durchsetzbar ist, bricht man mit einem jahrhundertelangen Prozess der Professionalisierung, Verwissenschaftlichung und Bürokratisierung von Politik. Um darüber auf dem PolitCamp diskutieren zu können, müsste man auch Fachleute z.B. für Wissenssoziologie und für die Entwicklung des modernen Staates hinzuziehen.

Liest man einen Begriff wie Wikipolitik, stellen sich schnell idyllische, prämoderne Vorstellungen von einer sich selbst verwaltenden überschaubaren Gemeinschaft ein. Tatsächlich steht man, wenn man einen solchen Begriff positiv verwendet, auch in rätedemokratischen bzw. anarchistischen Traditionen. Es gibt aber Motive dafür, eine Wikipolitik zu fordern, die mit der älteren Kritiken an der repräsentativen Demokratie wenig zu tun haben, wenn sie ihnen auch nicht widersprechen dürften. Es geht darum, die Möglichkeiten des Web zu nutzen, um in einer überkomplexen, also grundsätzlich nicht mehr überschaubaren Gesellschaft überhaupt informiert politisch zu agieren. Möglicherweise lassen sich heute nur über webgestützte kollaborative Prozesse und dezentral Informationen in politische Entscheidungsprozesse einspeisen, ohne die diese zu einer reinen Selbstfortsetzung bürokratischer Administration mit unterschiedlichen Geschmacksrichtungen bzw. Farbcodes degenerieren.

Wer wissen will, wie ich meinen Eltern erklären würde, was ein Feedreader ist, kann es sich hier anhören:

Link: sevenload.com

Ob das jemand versteht, der nicht weiß, um was es geht? Meinen eigenen Eltern habe ich für einen Test des Videos wahrscheinlich schon zu viel erklärt. Die Idee der Blogpiloten, Blogger unter dem Motto Wie sag ich es meinen Eltern? Schlüsselbegriffe des Web erklären zu lassen, ist jedenfalls hervorragend.

Michael Neumayr, ein JuK-Student, fragt: Ist Journalismus an der FH Joanneum nicht erwünscht?

Ich bin (noch) nicht so pessimistisch wie Michael und glaube, dass die Landesregierung auf Argumente hören wird. Allerdings wird es wohl nötig sein, diese Argumente laut und deutlich vorzutragen. Es wäre ein Akt der freiwilligen Selbstprovinzialisierung, wenn es die Steiermark dem FH-Standort Wien allein überlassen würde, Journalisten bis zum Master-Abschluss auszubilden. Für so deppert, um ein Lieblinswort unseres Landeshauptmanns zu verwenden, halte ich ich die steirische Regierung nicht.

Vor einiger Zeit haben mich Kollegen, die Sozialarbeit unterrichten, gebeten, sie bei der Entwicklung eines wissenschaftlichen Online-Journals zu beraten. Es war für mich die erste Gelegenheit, mich mit dem Thema Open Access zu beschäftigen. Darunter versteht man den freien Zugang zu den Ergebnissen wissenschaftlicher Arbeit — im Gegensatz zur kostenpflichtigen Publikation durch Verlage. Open Access kann dadurch realisiert werden, dass Wissenschaftler eigene Versionen von Artikeln, die sie in einer Zeitschrift publizieren, archivieren und zugänglich machen. Die wichtigste Form von Open Access-Publikationen sind aber Zeitschriften, die ihre Inhalte kostenfrei zur Verfügung stellen. Viel Material zu Open Access findet man auf der Informationsplattform Open Access. Eine gute Informationsquelle sind Peter Subers Open Access News

Open Access-Zeitschriften verzichten auf die Kommerzialisierung von wissenschaftlichen Publikationen, aber nicht auf redaktionelle Kontrolle und die in der Wissenschaft übliche Begutachtung von Artikeln durch andere Wissenschaftler (Peer Review).

Am Mittwoch hatte ich einen längeren Termin an der FH St. Pölten, um ein Redaktionssystem für Open Access-Zeitschriften vorzustellen: Open Journal Systems, abgekürzt OJS. OJS wurde vor allem an der University of British Columbia und der Simon Fraser University in Kanada entwickelt. Wir haben es auf einem Server unseres Studiengangs installiert.

OJS ist ein Publikationssystem, in dessen Mittelpunkt Herausgeber (englisch: editor) stehen. Der Herausgeber überwacht und organisisert fünf Stufen einer Publikation:

  1. Einreichen von Beiträgen
  2. Begutachtung
  3. Redaktion der Beiträge
  4. Zusammenstellung von Ausgaben
  5. Publikation

Mit OJS lassen sich auch kostenpflichtige Zeitschriften publizieren, deren Artikel erst einige Zeit nach der Veröffentlichung frei zugänglich sind.

Der ganze Redaktionsprozess kann und sollte online abgewickelt werden, wobei alle relevanten Dokumente auf dem Server administriert werden. Es ist aber auch möglich, die Dokumente als Email-Anhänge zu verschicken.

Der Workflow umfasst alle Stufen, die ein Artikel vom Einreichen bis zum Archivieren durchläuft. Für jede Stufe wird eine eigene Version erzeugt und gespeichert, und in jeder Stufe arbeiten Personen mit bestimmten redaktionellen Rollen (Verfasser, Herausgeber, Redakteur, Gutachter, Layouter, Korrekturleser) an dem Artikel. Eine Person kann dabei mehrere Rollen übernehmen. Anders als bei üblichen Web-Redaktionssystemen wird der Text des Artikels nicht online bearbeitet. Erst nach der Begutachtung und Redaktion produziert eine Layouterin die Versionen für die Veröffentlichung. Es sind beliebige digitale Formate möglich, in der Regel wird wohl eine HTML und eine PDF-Version publiziert.

Wer in das System eingeloggt ist, muss eine der vorgesehenen Rollen übernehmen. Er sieht dann eine Liste mit den Artikeln, die er bearbeiten soll, und mit den Aufgaben, die er übernommen hat. Wenn er fertig ist, gibt er den Text an den nächsten Bearbeiter weiter und informiert ihn mit einer Email, für die es jeweils eine Standardvorlage gibt.

OJS bildet einen kompletten Redaktionsprozess aus der Offline-Welt online ab. Es ist denkbar, dass sich eine OJS-Publikation in nichts von einer herkömmlichen Zeitschrift unterscheidet — außer darin, dass sie nur in digitalen Dokumenten vorliegt. Allerdings sind die Formate nicht eingeschränkt. Mit OJS lassen sich auch reine HTML- oder XML-Journale publizieren, wobei allerdings das auf Frames basierende Interface stört. Alle Möglichkeiten des Web werden bei der Archivierung und Indizierung genutzt. Metadaten werden entsprechend den Regeln der Open Archives Initiative verwaltet; die Artikel können mit Digital Object Identifiern versehen werden.

Ich kann OJS nicht mit Konkurrenzsystemen vergleichen, und ich habe auch noch keine Erfahrung mit der tatsächlichen Publikation einer Online-Journals mit diesem System. Auf meinem jetzigen Kenntnisstand erscheint es mir ausgereift und empfehlenswert für Gruppen, die eine Open-Access-Zeitschrift publizieren wollen. OJS ist mehr als eine Software (oder einfach: eine gute Software); wer es benutzt, profitiert von den Erfahrungen, die bei vielen ähnlichen Publikationen gemacht wurden.

Ein paar Gedanken, mit denen ich zur Participation 2.0 fahre. Es sind globale Formulierungen, die ich in dieser Allgemeinheit vor allem als Hilfsmittel/zur Selbstorientierung verwenden möchte. Ich bin gespannt, ob ich sie am Sonntag nach der Veranstaltung konkretisieren kann, oder ob sie sich als nutzlos herausstellen.

Zum Thema Web, Politik, Partizipation fallen mir spontan vier Dinge ein, sie liegen auf unterschiedlichen Ebenen, und ich weiß nicht, ob wirklich ein innerer Zusammenhang zwischen ihnen besteht:

  1. Vom Nerd zum Aktivisten: Die Leute, die das Internet und das Web entwickeln, sind keine apolitischen Techniker, sondern sie entwickeln ein Kommunikations- und Interaktionsmedium. Viele von ihnen haben sich immer zugleich politisch engagiert, viele von ihnen verstehen ihre Aktivität im Netz als politisch. Wenn mehr Leute erkennen, dass das Web eine Mitmach- und Do-it-yourself-Medium ist und daran Spaß haben, werden sie sich allein dadurch auch politisch engagieren. Die Entwicklung des Web schwappt gerade von den Hardcore-Nerds zu den crowds, den Mengen der User über. Immer mehr Leute erkennen, dass Web-Technik nicht als Werkzeug für Spezialisten entwickelt wurde, sondern für Bastler: Man muss sich nur nehmen, was man braucht, und es so weiterentwickeln, wie es einem gefällt.

  2. In einer Gesellschaft, für deren Organisation virtuelle Objekte wichtiger sind als reale Objekte, verändert sich die Repräsentation und damit die Macht. Für alle sozialen Strukturen, die wir kennen, war vor allem die Verteilung der Gesellschaftsmitglieder im Raum charakteristisch, sie hing davon ab und bestimmte, wer wie und mit wem kommunizierte. Macht war und ist daran gebunden, Menschen bzw. soziale Netze in einem Raum zu repräsentieren. Am meisten Macht hat, wer das größte Territorium bzw. das Territorium mit den meisten Ressourcen kontrolliert. (Ich bin hier von Bruno Latour und den Theoretikern der Actor Network Theory abhängig, mit denen ich mich in den kommenden Jahren intensiv beschäftigen möchte.) Wir nehmen gerade an Prozessen teil, in denen virtuelle Objekte und ein virtueller Raum neben den physikalischen treten und der virtuelle Raum die Kontrolle über den physikalischen übernimmt. Wahrscheinlich werden auch in diesem virtuellen Raum die sozialen Beziehungen über Objekte organisiert und stabilisiert, aber sie sind sicher von ganz anderer Art als im physikalischen Raum. Man kann z.B. die Frage stellen, ob man Macht im herkömmlichen Sinn der Repräsentation von Raum und Resssourcen im virtuellen Raum überhaupt braucht.

  3. Die politischen Lagerbildungen aus dem Industriezeitalter greifen nicht mehr; unsere Parteien und Strukturen sind diesem Zeitalter aber noch immer verhaftet. Es ist offensichtlich, dass das, was man bisher als Politik bezeichnet, und was die Franzosen politique politicienne nennen, große Schwierigkeiten mit dem Web und den Informationstechniken hat, zu denen das Web gehört. Die Symptome sind zahlreich — von den Anti-Weblogs von Politikern wie Buchinger bis zur Datenparanoia von Schäuble und Co. Dieser Art von Politik geht es um Machtgewinn, Machterhaltung und Machtgebrauch im physikalischen Raum, in Territorien. Dabei sind die alten Industrien und Wirtschaftsstrukturen für sie weiter maßgeblich, also Strukturen, die gerade von einer vernetzten, dezentralen Infrastruktur abgelöst werden. Bezeichnenderweise ist hier die Sozialdemokratie am konservativsten, weil sie am stärksten mit den Arbeitern, Angestellten und auch mit den Bossen aus dem Industriezeitalter assoziiert ist.

  4. Die wichtigen politischen, sozialen und ethischen Fragen der Gegenwart verlangen aufgrund ihrer Komplexität nach den Mitteln des Web. Man kann das Web als eine Technik oder als ein Medium verstehen, dass Kommunikation in einer überkomplexen Realität ermöglicht. Dezentrale, hypertextuelle Kommunikationsstrukturen werden Verhältnissen gerecht, die sich prinzipiell nicht mehr unter einer Perspektive totalisieren lassen. Das Web ist am CERN erfunden worden, nachdem alle Versuche, Information und Kommunikation dort hierarchisch zu organisieren, gescheitert waren. Man kann die Gründungsgeschichte des Web vielleicht als eine Metapher für das verstehen, was das Web heute in der globalen politischen Kommunikation leisten müsste, nämlich eine lose und flexible Verknüpfung von unterschiedlichsten und weltweit verteilten Kommunikationspartnern und Datenquellen, die so etwas wie eine wissensbasierte politische Arbeit erlaubt. Politik und Partizipation im Web darf nicht dazu dienen, das Netz für eigentlich schon untergegangene Politikmodelle zu funktionalisieren, sondern sie sollte über eine Sozialisierung des Cyberspace auf die Politik in der Realität außerhalb des Web wirken.

Das Gebiet, das ich unterrichte — im Augenblick bezeichne ich es am liebsten als „soziale Medien“— umfasst mehr oder weniger das, was man als Online-Journalismus und Online-PR bezeichnet. Auf meiner geistigen Landkarte grenzt es an zwei andere Gebiete, auf der einen Seite an die Technik und auf der anderen Seite an die „Soziologie“ — damit meine ich die theoretische Analyse und empirische Untersuchung der gesellschaftlichen Rolle, die Online-Kommunikation spielt.

Was die Technik angeht, ist mir relativ klar, welche Verbindungen es zum Thema „soziale Medien“ gibt; allerdings fällt es mir hier schwer, die Grenzen genau zu bestimmen. Was muss eine angehende Online-Journalistin darüber wissen, wie ein Content Management System funktioniert? Ist es für jemand, der sich mit Online-PR beschäftigt, wichtig, die Unterschiede zwischen den Newsfeed-Formaten RSS und Atom zu verstehen? Nützt ihr Wissen über REST oder das end-to-end-Prinzip? Wie auch immer — es ist klar, um welche Themen und Techniken es hier geht, und man kann in jedem Einzelfall überlegen, welche Rolle das technische Wissen für die praktische Arbeit spielt.

Anders ist es für mich bei der sozialen Dimension des Online-Publishing. Hier ist mir völlig unklar, wie die Verbindung zwischen Theorie und Praxis aussieht oder aussehen kann. Wo wird soziologisches Wissen praktisch relevant? Welche Rolle spielen hier für den Praktiker wissenschaftliche Theorien? Geht es hier um Soziologie oder eher um Wissen, das sich auf ganz unterschiedliche Themen (z.B. Ökonomie, Politik) bezieht? Wo ist dieses Wissen mehr als eine relativ willkürliche Interpretation, eine Art ideologischer Begleitung dessen, was ohnehin geschieht?

Seit ich unterrichte, suche ich nach soziologischen Theorien, die mir dabei helfen, diese Fragen überhaupt richtig zu stellen, so dass ich einerseits besser begründen kann, was ich im Unterricht tue, und andererseits Forschungsarbeiten auf diesem Gebiet begründen kann. Im Grunde vermisse ich bei jeder Diplomarbeit, die ich betreue, ein brauchbares theoretisches und methodisches Fundament.

In den letzten Wochen habe ich mich zum ersten Mal und nur sehr oberflächlich mit der Actor-Network-Theory beschäftigt. Jetzt überlege ich, ob der Teil meiner inneren Landkarte, den ich oben beschrieben habe, sich vielleicht aus einer falschen Perspektive ergibt — denn dieses Bild setzt voraus, es gebe so etwas wie eine Welt eigener sozialer Gesetze oder Regeln, und diese ließen sich soziologisch mehr oder weniger richtig und genau beschreiben oder rekonstruieren.

In der vorletzten Woche habe ich einen kurzen Text übersetzt, den Bruno Latour zusammen mit einer Studentin geschrieben hat. Der Text beschreibt einen Kühlschrank in einem mikrobiologischen Labor, und zwar als ein Objekt, ohne das die gesamte wissenschaftliche Arbeit in dem Labor bis hin zur Klassifikation der dort untersuchten Lebensformen und zur Organisation der Kompetenzhierarchie unter den Wissenschaftlern nicht stattfinden könnte. Der Kühlschrank ist das, was Latour oft als „nichtmenschlichen Akteur“ bezeichnet.

Die Übersetzung war für mich ein Anlass, Latour und seinen theoretischen Weggefährten kennen zu lernen. Zum Glück sind viele Texte Latours online zugänglich. (Weitere Texte werde ich bei Bibsonomy unter dem Tag ANT sammeln.)

Zunächst fasziniert mich an Latour die Konzentration auf Artefakte. Das Web besteht nicht nur aus Menschen, sondern auch aus Artefakten, und so etwas wie ein soziologisches Herangehen an das Web kann nur gelingen, wenn es die technische Ebene nicht durchstreicht. So wie der Kühlschrank, den Latours Text beschreibt, ein mikrobiologisches Labor organisiert (und nicht nur Ausdruck einer Organisation ist, die auch ohne ihn auf einer rein „sozialen“ Ebene existieren könnte), so organisieren Webanwendungen und Mittel der Webkommunikation inzwischen die unterschiedlichsten sozialen Zusammenhänge, von virtuellen Teams bis zur Blogger-Community. Alle diese Artefakte existieren nicht isoliert — der Kühlschrank ist noch kein Labor — aber sie sind auch nicht nur Ausdruck oder Niederschlag einer „hinter“ ihnen liegenden sozialen Wirklichkeit.

Viel interessanter als die Konzentration auf die Artefakte ist aber das Verständnis von „Gesellschaft“, das hinter ihr steht. Latour begreift Gesellschaft als Vergesellschaftung von Heterogenem, als Menge der Aktivitäten die unterschiedliche Realitäten oder Realitätsebenen in Verbindung zueinander bringen. Die soziale Aktivität besteht darin, Netzwerke aus verschiedenartigen Akteuren zu erzeugen. Dabei wird jede der Komponenten eines solchen Netzwerks transformiert oder übersetzt. Latour und die anderen Vertreter der Actor Network Theory bezeichnen ihren Ansatz auch als „Soziologie der Übersetzung“.

Das soziologische Wissen ist dabei nicht in erster Linie Sache der Soziologen, die die Gesellschaft beobachten; es liegt zunächst bei den Akteuren selbst, bei denen, die Wissen über Vergesellschaftung verwenden oder entwickeln, um Gesellschaft — bescheidener gesagt: Netzwerke — zu erzeugen. (Hier schließt Latour an die Ethnomethodologie Harold Garfinkels an.) So ist jeder Wissenschaftler oder Techniker, der Artefakte entwickelt, auch ein — guter oder schlechter — Soziologe, denn er entwickelt Apparate oder Konzepte in einem sozialen Netzwerk und verwendet dabei sein Wissen über dieses Netzwerk.

Zurück zum Ausgangsmodell: Ausgehend von der ANT würde man das Soziale nicht als eine eigene „Schicht“ neben denen der Technik und der Praxis verstehen, und auch Technik und Praxis ließen sich nicht als relativ unabhängige „Schichten“ beschreiben. Die Formen der Online-PR oder des Online-Journalismus ließen sich als „Netzwerke“ beschreiben, die Komponenten unterschiedlicher Art zu einem Feld „vergesellschaften“ und dabei transformieren, zu diesem Feld gehört so etwas wie ein bestimmtes „soziales Wissen“. Ein erfolgreicher Blogger ließe sich dann auch als ein guter Soziologe verstehen, der dazu in der Lage ist, ein Netzwerk aufzubauen und zu organisieren.

Ich bin noch lange nicht weit genug in die ANT eingedrungen, um mit wirkliche Forschungsprojekte vorstellen zu können, bei denen man sie auf dem Gebiet der sozialen Medien verwendet. Aber sie erscheint vielversprechend. Jetzt hoffe ich auf ein paar ruhige Urlaubstage mit Zeit zu ausgedehnterer Lektüre.

In den USA machen Watchdog-Gruppen politische Vorgänge mit Mashups transparent. Ein Beispiel zeigt, wie Lobbies mit Spenden verhindern, dass kalifornische Abgeordnete für Umweltschutz stimmen:

Maplighttimber

Für Mashups mit öffentlich zugänglichen Daten benötigt man Application Programming Interfaces (APIs): Schnittstellen, über die sich die benötigten Informationen automatisiert beschaffen lassen.

Wired hat politischen Mashups einen Artikel gewidmet: Web Mashups Turn Citizens Into Washington’s Newest Watchdogs; er beginnt:

Tread carefully, politicians — concerned citizens are watching your every move on the web. Their tools? Custom data mashups that use public databases to draw correlations between every vote cast and every dollar spent in Washington.

Den Hinweis verdanke ich dem ProgrammableWeb-Blog:
„Can web mashups keep politicians on their toes?“

ProgrammableWeb ist ein laufend aktualisiertes Verzeichnis von APIs, die sich für Mashups nutzen lassen; es bietet außerdem viele zusätzliche Informationen zum Thema Mashups. Die Site listet neun APIs zu Regierungsausgaben in den USA. Nachahmswerte Highlights: OMB Watch/fedspendin.org und Follow The Money