Einfache, aber treffende Argumente — Joho the Blog: Down periscope! Prepare for humiliation! (Außerdem: Wie sollen Mashups und andere Web 2.0-Entwicklungen sich durchsetzen, wenn nur die Big Player die "Enduser", also die Web-Teilnehmer, schnell erreichen? Wie können die Möglichkeiten von Tools wie Amazons EC2 genutzt werden, wenn innovative kleine Firmen von den Telcos ausgebremst werden?)

Drei junge IBM-Programmierer, Wing Yung, Elias Torres und Ben Szekely, haben als sommer work eine neue experimentelle Anwendung des Atom Publishing Protocols (APP) entwickelt: Queso. (Den Namen inspirierte — wie bei allen übrigen Komponenten dieser Software — ein mexikanisches Restaurant gegenüber der Arbeitsstätte der Entwickler.) Queso ist eine J2EE-Anwendung. Sie kombiniert das APP (Version 0.9) mit Technologien des Semantic Web. Dabei werden Ajax-Libraries für das User-Interface und JSON für die Datenübergabe an Anwendungen benutzt. Das APP wird für das Web-Frontend eines RDF-Servers (namens Boca) verwendet. Via APP lassen sich die in Boca gespeicherten Daten ergänzen und aktualisieren. Queso greift dabei auf die APP-Implementierung Abdera zurück, ein Inkubator-Projekt der Apache-Foundation.

Um die Atom-Dokumente als RDF-Tripel zu interpretieren, benutzt Queso das von Henry Story entwickelte Atom in OWL. Queso stellt ein Schnittstelle bereit, um auf die Inhalte des Servers mit der RDF-Abfrage SPARQL zuzugreifen. Die Queso-Entwickler verwenden also gleich eine ganze Serie von Web 2.0-Techniken für eine Semantic-Web-Anwendung.

Das APP dient bei Queso dazu, Daten, nicht Texte oder andere Medien, zu publizieren. (Die Entwickler wollen Boca anderen Entwicklern als Repository für Daten und für XHTML/Javascript-Sourcecode anbieten.) Die Atom-Entries repräsentieren Objekte (subjects im Sinne von RDF-Terminologie); die Atom-Elemente des Eintrags werden dabei als Informationen über Eigenschaften dieser Objekte verstanden. Dabei beschränkt sich Queso nicht auf die Metadaten, die das Atom Syndication Format zu Verfügung stellt. Wenn als Inhaltstyp des Dokuments XHTML angegeben ist, geht Boca davon aus, dass es den Regeln von RDFa folgt. Er wird dann auf dem Server als Serie von Statements über den Gegenstand interpretiert, den der Atom-Eintrag beschreibt. (RDFa ist eine Syntax, die RDF-Inhalte in XHTML verpackt.) Boca konstruiert aus den RDF-Tripeln einen Graphen und verwendet die Atom-Id als Namen für diesen Graphen.

Zugang zu den Daten auf dem Server bietet sowohl ein Atom-Browser wie die SPARQL-Schnittstelle. Atom dient dem Betrachten und Verändern der Daten, SPARQL dem Extrahieren von Informationen.

Der Vorteil der gesamten Anwendung besteht darin, dass Entwickler sehr einfach beliebige und beliebig strukturierte Daten als RDF-Tripel auf Boca ablegen und frei auf sie zugreifen können. Der Zugriff erfolgt dabei standardisiert und flexibel via SPARQL; JSON erlaubt es, die Daten weiterzuverarbeiten, ohne RDF parsen zu müssen. Boca erleichtert es damit, Mashups zu konstruieren, die Daten aus unterschiedlichen Quellen kombinieren.

Queso gehört in den Kontext der durch das Web möglichen Verknüpfungen von heterogenen Daten/Informationen. Auch wer RDF und dem Semantic Web skeptisch gegenübersteht, kann erkennen, dass es die RDF-Tripel-Struktur erleichtert, ganz unterschiedliche Daten aneinander zu binden. Dadurch könnten spontane Mashups wie das — ebenfalls bei IBM entwickelte — QEDwiki leicht realisiert werden.

Eine andere Assoziation: die Präsentationen The Application of Weblike Design to Data: Designing Data for Reuse von Matt Biddulph und Native to a Web of Data von Tom Coates. Beide kann man als Beschreibungen der Verwendung des Atom Publishing Protocols für die Publikation von Daten verstehen, ohne dass davon explizit die Rede wäre. Es geht in ihnen um ein REST-Interface zu Kollektionen von Daten, wie es von Queso experimentell verwirklicht wird.

[Quellen: Elias Torres » Blog Archive » Queso – a Semantic Web/Web 2.0 server~wingerz » Atom/XHTML/RDFa in Queso (Wing Yung); ~wingerz » A Queso Example (Wing Yung); Into the Woods » Blog Archive » Posting Atom Entries to Queso from Java(tm) (Ben Szekely)]

Die Beispiele zu Dave Johnsons Buch RSS and Atom In Action können unabhängig vom Text heruntergeladen werden. Sie stehen unter einer Apache-Lizenz und dürfen damit frei verwendet werden. Johnson aktualisiert den Code, wenn es erforderlich ist.

Johnsons Blogapps zeigen vor allem verschiedene Möglichkeiten, Newsfeeds zu erzeugen und zu verarbeiten. Zu ihnen gehört ein kompletter Blog- und Wiki-Server, der das Atom Publishing Protocol unterstützt.

Das WWW ermöglicht es, in einem vor seiner Erfindung unvorstellbaren Ausmaß Informationen rekursiv weiterzuverarbeiten, also Informationen, die bereits prozessiert wurden, noch einmal auf einer neuen Stufe zu prozessieren, und zwar mit denselben Typen von Operationen. Es ist möglich, syndizierte Informationen wiederum zu syndizieren, katalogisierte Informationen wiederum zu katalogisieren, mit anderen Informationen kombinierte Informationen zu rekombinieren. Die Open Source-Bewegung verwendet dieses Verarbeitungsverfahren, um Code zu verbessern; Creative Commons oder Open Access ermöglichen es, wissenschaftlich und andere kulturelle Inhalte weiterzuverwenden.

Das Open Data Movement macht vorhandene große Datenbestände für das Weiterprozessieren im Netz zugänglich. Wichtig ist, dass sich nicht absehen lässt, was mit den Informationen geschieht. Offenheit ist hier nicht nur eine idealistische Forderung, sie ist die Voraussetzung dafür, die Potenziale der vorhandenen Informationen zu nutzen.

Ankündigung eines Vortrags von Matt Biddulph:

Following the success of open source, an open data movement is occurring online that seeks to gather, publish and enable the reuse of rich machine-readable datasets – like all programs ever broadcasted by the BBC.

By opening up these wellsprings of information, which were previously only accessible to large institutions, the open data movement has unleashed a new wave of creativity on the Web. Programmers, students, and companies are building mashups by overlaying photos, blog posts, and other objects to open datasets like the BBC Programme Catalogue, Wikipedia, Open Streetmap, and Thinglink.

[hackdiary: Talk in Helsinki this week: the Open Data Movement]

Lesenswert: Top 10 Mistakes Made by My Blogging Friends

OK, I’m gonna make one or two friends a little upset here, but I keep seeing them make some very critical blogging mistakes and I wanted to enumerate them before I’m the only blogger left with any readers and Google juice

Einige der von Randy Charles Morins aufgespießten Fehler  hängen mit der Zugänglichkeit von Feeds zusammen. (Die übrigen Hinweise sind nicht weniger wichtig!) Morin empfiehlt, einen Service wie FeedBurner zu verwenden, um sich das manuelle Redirecting bei einem Wechsel der Adresse zu ersparen; die eigenen Feeds regelmäßig zu testen; sie durch RSS Autodiscovery, deutlich sichtbare Links und ein Subskriptionsformular leicht beziehbar zu machen, Inhalte nicht für  webbasierte RSS-Reader zu blocken, und den kompletten Inhalt eines Blogs in Feeds aufzunehmen, damit RSS-Suchmaschinen ihn indexieren können.

Amazon Elastic Compute Cloud (Amazon EC2) is a web service that provides resizable compute capacity in the cloud. It is designed to make web-scale computing easier for developers. [Services Store: Amazon EC2 / Amazon Web Services, via Randy Charles Morin]

Nach S3 der nächste große Schritt. Ich möchte dieses Angebot so schnell wie möglich testen. Eine der vielen Fragen, die ich habe — und sicher eine naive Frage: Kann Amazon sicherstellen, dass die Daten auf seinen Servern von niemand ausspioniert werden? Können sich amerikanische oder europäische Behörden den Zugriff auf die virtuellen Rechner bei Amazon erzwingen? (Aber ist der private Datenverkehr jetzt weniger sicher? Firmen wie Amazon haben ein massives Interesse daran, die Daten ihrer Benutzer zu schützen; sie sind vielleicht nicht die schlechtesten Verbündeten im Kampf für digitale Bürgerrechte.)

Auch wenn es einen weiteren Schritt in die Richtung gänzlicher Ausspionierbarkeit des Benutzers bedeutet: Die Zukunft liegt sicher in dieser Form des Leasing von Rechner-Power. Nicht nur, weil die reine Leistungsfähigkeit bald über der von lokalen Rechnern liegt. Einzelne Anwender, aber auch Firmen werden sich mit solchen Diensten einen großen Teil des Aufwands für die Systemadministration sparen.

Angebote wie EC2 können Dezentralisierungsprozesse weiter vorantreiben. Durch sie wird jeder einzelne, jede kleine Gruppe oder Firma über eine beliebig skalierbare IT-Infrastruktur verfügen.

Aus zwei neuen amerikanischen Studien geht hervor, dass nur eine kleine Minderheit etwas mit Ausdrücken wie RSS und Podcasting anfangen kann. Das Pew Internet & American Life Project kommt zu dem Ergebnis:

The average American internet user is not sure what podcasting is, what an RSS feed does, or what the term „phishing“ means.

Eine von WorkPlace Print Media durchgeführten WorkPlace Habits Study stellt fest:

Of the respondents, 88 percent of working Americans don’t know what RSS is. Nine percent do know what RSS is, and a minuscule 2 percent said they subscribed to an RSS feed [Study: Most U.S. Workers Ask ‚What the Heck is RSS?‘ @ Media Buyer Planner (mir ist es nicht gelungen, diese Studie online aufzutreiben)].

Diese Resultate berechtigen Zweifel daran, dass sich Web 2.0-Techniken bald massenhaft durchsetzen werden [Advertising Age – Marketing Reality Check: Blogs, Pods, RSS]. Dass Internet-Benutzer nicht viel mit dem Ausdruck RSS verbinden, bedeutet aber nicht, dass Internet-Anbieter Feeds vernachlässigen dürften. Fiete Stegers hat gerade auf onlinejournalismus.de beschrieben, dass wichtige deutsche Online-Redaktionen auf Newsfeeds setzen.