In Frankreich hat die Zeitschrift Le Tigre einen Mann ohne seine Zustimmung porträtiert und dazu ausschließlich Daten aus Web-Diensten wie YouTube und facebook benutzt: Französischer Internetnutzer unfreiwillig in Zeitschrift porträtiert. Auf der Website der Zeitschrift findet sich in der Rubrik Portrait Google übrigens nur der Hinweis darauf, dass sich die Zeitschrift nicht an der medialen Aufregung über die Geschichte beteiligen wolle, und dass sie zwischen der realen Person (die offenbar gegen den Artikel geklagt hat) und einer medialen Kunstfigur unterscheide.

Mich interessiert hier nicht die reale Geschichte hinter der Meldung (sie hat offenbar auch die Medien wie den Standard nicht interessiert, die sich auf Agenturmeldungen verlassen haben und nicht einmal auf die Zeitschrift verlinken.) Mich interessiert das Publikumsinteresse, dem sie ihren Nachrichtenwert verdankt. Die Meldung bedient das dumpfe Unbehagen an Google, facebook usw., die in unsere Privatsphäre eindringen. Immer wieder höre ich von Bekannten, man müsse ja nicht alles veröffentlichen; zwei meiner Kollegen haben mich sogar gebeten, ihnen keine Mails via GMail zu schicken.

Ich bin mit diesem Thema (Datenschutz und Web 2.0) nicht fertig, und ich schreibe auch aus einem dumpfen Gefühl heraus: Ich habe den Eindruck, dass es vielen, die sich über Suchmaschinen und soziale Netze beklagen, gar nicht um Datenschutz geht, sondern darum, sich vor der unheimlichen Welt des Netzes zu schützen und möglichst lange bei den gewohnten Formen der Kommunikation und Publikation zu bleiben (so wie die Verlage, die das Netz über Jahre ignoriert haben und dann jammern, weil Google ihre Bücher digitalisieren will.)

Ich möchte drei Gedanken formulieren, die mir bei der Diskussion dieses Themas wichtig sind, und die sicher nicht ausreichen, um hier eine Position zu begründen:

  1. Wer im Internet publiziert, publiziert. Wer Facebook, Twitter oder irgendeinen anderen Service benutzt, um etwas über sich zu veröffentlichen, gibt weder ihnen noch anderen damit einen Zugang zu seiner Privatsphäre, sondern verlässt die Privatsphäre. Er oder sie muss sich genauso überlegen, wie er sich und andere schützt, wie es sich jeder Autor von Büchern immer schon überlegt hat. Es ist schlicht viel leichter geworden, etwas zu publizieren, aber natürlich bleibt es eine persönliche Entscheidung, Daten von sich bei diesen Diensten freizugeben.

  2. Web 2.0-Anwendungen bieten einen konkreten Nutzen, der ohne Publikation von Daten nicht zu haben ist. Es geht nicht darum zu entscheiden, ob man von irgendeinem Moment an keine Privatspäre mehr haben will, sondern darum, ob man selbst und andere von der Teilnahme an einem solchen Service profitieren. Bei allen Formen des Wissenaustauschs profitiert man eindeutig von diesen Möglichkeiten, und warum soll man nicht im Netz auch persönliche Beziehungen beginnen? Dazu muss man immer auch etwas von sich freigeben, nicht nur im Netz.

  3. Man kann den Risiken, die mit Web 2.0-Anwendungen verknüpft sind, nicht dadurch begegnen, dass man auf sie verzichtet. Es ist nicht nur eine Frage von Gesetzen, sondern eine Sache der Liberalität und Toleranz einer Gesellschaft, jedem die Möglichkeit zu geben, sich auch in einer provozierenden und ungewohnten Art zu äußern. Wenn Bewerber um Jobs benachteiligt werden, weil Party-Fotos von ihnen im Netz kursieren, gehören nicht facebook und StudiVZ in den Orkus, sondern die dafür verantwortlichen Personalabteilungen.

Ich will die Gefahren, die mit der Verarbeitung einer Unmenge von persönlichen Daten verbunden sind, nicht ignorieren. Ich bin strikt gegen die Versuche (etwa der deutschen Minister Schäuble und von der Leyen) den kompletten Datenverkehr zu überwachen — dahinter stehen totalitäre Phantasien. Aber ich bin auch dagegen, ensthaft über digitale Burkas zu diskutieren oder sie jungen Leuten zu empfehlen. Eine freie Gesellschaft lebt davon, dass ihre Mitglieder sich äußern und sich zeigen — ich möchte dazu ermutigen, statt davor zu warnen.

In den USA machen Watchdog-Gruppen politische Vorgänge mit Mashups transparent. Ein Beispiel zeigt, wie Lobbies mit Spenden verhindern, dass kalifornische Abgeordnete für Umweltschutz stimmen:

Maplighttimber

Für Mashups mit öffentlich zugänglichen Daten benötigt man Application Programming Interfaces (APIs): Schnittstellen, über die sich die benötigten Informationen automatisiert beschaffen lassen.

Wired hat politischen Mashups einen Artikel gewidmet: Web Mashups Turn Citizens Into Washington’s Newest Watchdogs; er beginnt:

Tread carefully, politicians — concerned citizens are watching your every move on the web. Their tools? Custom data mashups that use public databases to draw correlations between every vote cast and every dollar spent in Washington.

Den Hinweis verdanke ich dem ProgrammableWeb-Blog:
“Can web mashups keep politicians on their toes?”

ProgrammableWeb ist ein laufend aktualisiertes Verzeichnis von APIs, die sich für Mashups nutzen lassen; es bietet außerdem viele zusätzliche Informationen zum Thema Mashups. Die Site listet neun APIs zu Regierungsausgaben in den USA. Nachahmswerte Highlights: OMB Watch/fedspendin.org und Follow The Money

Raymond Yee arbeitet an einem Buch über Remixing Data and Services on the Web: Mashup Guide. Auf der Website wird nicht nur das Buch nach und nach publiziert, Raymond beschreibt seinen Arbeitsfortschritt auch in einem Blog. Das Projekt ist enzyklopädisch breit angelegt, es wendet sich nicht vor allem an Techniker. Der Autor hat wohl eher Studenten im Auge, wie er sie an der UC Berkeley unterrichtet.

Wenn das Projekt gelingt, dann könnte es zu einer schwafelfreien Einführung in die Infrastruktur des Web 2.0 werden. Hoffentlich kann Raymond Yee so schnell schreiben, wie sich sein Thema verändert!

Drei junge IBM-Programmierer, Wing Yung, Elias Torres und Ben Szekely, haben als sommer work eine neue experimentelle Anwendung des Atom Publishing Protocols (APP) entwickelt: Queso. (Den Namen inspirierte — wie bei allen übrigen Komponenten dieser Software — ein mexikanisches Restaurant gegenüber der Arbeitsstätte der Entwickler.) Queso ist eine J2EE-Anwendung. Sie kombiniert das APP (Version 0.9) mit Technologien des Semantic Web. Dabei werden Ajax-Libraries für das User-Interface und JSON für die Datenübergabe an Anwendungen benutzt. Das APP wird für das Web-Frontend eines RDF-Servers (namens Boca) verwendet. Via APP lassen sich die in Boca gespeicherten Daten ergänzen und aktualisieren. Queso greift dabei auf die APP-Implementierung Abdera zurück, ein Inkubator-Projekt der Apache-Foundation.

Um die Atom-Dokumente als RDF-Tripel zu interpretieren, benutzt Queso das von Henry Story entwickelte Atom in OWL. Queso stellt ein Schnittstelle bereit, um auf die Inhalte des Servers mit der RDF-Abfrage SPARQL zuzugreifen. Die Queso-Entwickler verwenden also gleich eine ganze Serie von Web 2.0-Techniken für eine Semantic-Web-Anwendung.

Das APP dient bei Queso dazu, Daten, nicht Texte oder andere Medien, zu publizieren. (Die Entwickler wollen Boca anderen Entwicklern als Repository für Daten und für XHTML/Javascript-Sourcecode anbieten.) Die Atom-Entries repräsentieren Objekte (subjects im Sinne von RDF-Terminologie); die Atom-Elemente des Eintrags werden dabei als Informationen über Eigenschaften dieser Objekte verstanden. Dabei beschränkt sich Queso nicht auf die Metadaten, die das Atom Syndication Format zu Verfügung stellt. Wenn als Inhaltstyp des Dokuments XHTML angegeben ist, geht Boca davon aus, dass es den Regeln von RDFa folgt. Er wird dann auf dem Server als Serie von Statements über den Gegenstand interpretiert, den der Atom-Eintrag beschreibt. (RDFa ist eine Syntax, die RDF-Inhalte in XHTML verpackt.) Boca konstruiert aus den RDF-Tripeln einen Graphen und verwendet die Atom-Id als Namen für diesen Graphen.

Zugang zu den Daten auf dem Server bietet sowohl ein Atom-Browser wie die SPARQL-Schnittstelle. Atom dient dem Betrachten und Verändern der Daten, SPARQL dem Extrahieren von Informationen.

Der Vorteil der gesamten Anwendung besteht darin, dass Entwickler sehr einfach beliebige und beliebig strukturierte Daten als RDF-Tripel auf Boca ablegen und frei auf sie zugreifen können. Der Zugriff erfolgt dabei standardisiert und flexibel via SPARQL; JSON erlaubt es, die Daten weiterzuverarbeiten, ohne RDF parsen zu müssen. Boca erleichtert es damit, Mashups zu konstruieren, die Daten aus unterschiedlichen Quellen kombinieren.

Queso gehört in den Kontext der durch das Web möglichen Verknüpfungen von heterogenen Daten/Informationen. Auch wer RDF und dem Semantic Web skeptisch gegenübersteht, kann erkennen, dass es die RDF-Tripel-Struktur erleichtert, ganz unterschiedliche Daten aneinander zu binden. Dadurch könnten spontane Mashups wie das — ebenfalls bei IBM entwickelte — QEDwiki leicht realisiert werden.

Eine andere Assoziation: die Präsentationen The Application of Weblike Design to Data: Designing Data for Reuse von Matt Biddulph und Native to a Web of Data von Tom Coates. Beide kann man als Beschreibungen der Verwendung des Atom Publishing Protocols für die Publikation von Daten verstehen, ohne dass davon explizit die Rede wäre. Es geht in ihnen um ein REST-Interface zu Kollektionen von Daten, wie es von Queso experimentell verwirklicht wird.

[Quellen: Elias Torres » Blog Archive » Queso – a Semantic Web/Web 2.0 server~wingerz » Atom/XHTML/RDFa in Queso (Wing Yung); ~wingerz » A Queso Example (Wing Yung); Into the Woods » Blog Archive » Posting Atom Entries to Queso from Java(tm) (Ben Szekely)]

Amazon Elastic Compute Cloud (Amazon EC2) is a web service that provides resizable compute capacity in the cloud. It is designed to make web-scale computing easier for developers. [Services Store: Amazon EC2 / Amazon Web Services, via Randy Charles Morin]

Nach S3 der nächste große Schritt. Ich möchte dieses Angebot so schnell wie möglich testen. Eine der vielen Fragen, die ich habe — und sicher eine naive Frage: Kann Amazon sicherstellen, dass die Daten auf seinen Servern von niemand ausspioniert werden? Können sich amerikanische oder europäische Behörden den Zugriff auf die virtuellen Rechner bei Amazon erzwingen? (Aber ist der private Datenverkehr jetzt weniger sicher? Firmen wie Amazon haben ein massives Interesse daran, die Daten ihrer Benutzer zu schützen; sie sind vielleicht nicht die schlechtesten Verbündeten im Kampf für digitale Bürgerrechte.)

Auch wenn es einen weiteren Schritt in die Richtung gänzlicher Ausspionierbarkeit des Benutzers bedeutet: Die Zukunft liegt sicher in dieser Form des Leasing von Rechner-Power. Nicht nur, weil die reine Leistungsfähigkeit bald über der von lokalen Rechnern liegt. Einzelne Anwender, aber auch Firmen werden sich mit solchen Diensten einen großen Teil des Aufwands für die Systemadministration sparen.

Angebote wie EC2 können Dezentralisierungsprozesse weiter vorantreiben. Durch sie wird jeder einzelne, jede kleine Gruppe oder Firma über eine beliebig skalierbare IT-Infrastruktur verfügen.