Das WWW ermöglicht es, in einem vor seiner Erfindung unvorstellbaren Ausmaß Informationen rekursiv weiterzuverarbeiten, also Informationen, die bereits prozessiert wurden, noch einmal auf einer neuen Stufe zu prozessieren, und zwar mit denselben Typen von Operationen. Es ist möglich, syndizierte Informationen wiederum zu syndizieren, katalogisierte Informationen wiederum zu katalogisieren, mit anderen Informationen kombinierte Informationen zu rekombinieren. Die Open Source-Bewegung verwendet dieses Verarbeitungsverfahren, um Code zu verbessern; Creative Commons oder Open Access ermöglichen es, wissenschaftlich und andere kulturelle Inhalte weiterzuverwenden.

Das Open Data Movement macht vorhandene große Datenbestände für das Weiterprozessieren im Netz zugänglich. Wichtig ist, dass sich nicht absehen lässt, was mit den Informationen geschieht. Offenheit ist hier nicht nur eine idealistische Forderung, sie ist die Voraussetzung dafür, die Potenziale der vorhandenen Informationen zu nutzen.

Ankündigung eines Vortrags von Matt Biddulph:

Following the success of open source, an open data movement is occurring online that seeks to gather, publish and enable the reuse of rich machine-readable datasets – like all programs ever broadcasted by the BBC.

By opening up these wellsprings of information, which were previously only accessible to large institutions, the open data movement has unleashed a new wave of creativity on the Web. Programmers, students, and companies are building mashups by overlaying photos, blog posts, and other objects to open datasets like the BBC Programme Catalogue, Wikipedia, Open Streetmap, and Thinglink.

[hackdiary: Talk in Helsinki this week: the Open Data Movement]

Lesenswert: Top 10 Mistakes Made by My Blogging Friends

OK, I’m gonna make one or two friends a little upset here, but I keep seeing them make some very critical blogging mistakes and I wanted to enumerate them before I’m the only blogger left with any readers and Google juice

Einige der von Randy Charles Morins aufgespießten Fehler  hängen mit der Zugänglichkeit von Feeds zusammen. (Die übrigen Hinweise sind nicht weniger wichtig!) Morin empfiehlt, einen Service wie FeedBurner zu verwenden, um sich das manuelle Redirecting bei einem Wechsel der Adresse zu ersparen; die eigenen Feeds regelmäßig zu testen; sie durch RSS Autodiscovery, deutlich sichtbare Links und ein Subskriptionsformular leicht beziehbar zu machen, Inhalte nicht für  webbasierte RSS-Reader zu blocken, und den kompletten Inhalt eines Blogs in Feeds aufzunehmen, damit RSS-Suchmaschinen ihn indexieren können.

Amazon Elastic Compute Cloud (Amazon EC2) is a web service that provides resizable compute capacity in the cloud. It is designed to make web-scale computing easier for developers. [Services Store: Amazon EC2 / Amazon Web Services, via Randy Charles Morin]

Nach S3 der nächste große Schritt. Ich möchte dieses Angebot so schnell wie möglich testen. Eine der vielen Fragen, die ich habe — und sicher eine naive Frage: Kann Amazon sicherstellen, dass die Daten auf seinen Servern von niemand ausspioniert werden? Können sich amerikanische oder europäische Behörden den Zugriff auf die virtuellen Rechner bei Amazon erzwingen? (Aber ist der private Datenverkehr jetzt weniger sicher? Firmen wie Amazon haben ein massives Interesse daran, die Daten ihrer Benutzer zu schützen; sie sind vielleicht nicht die schlechtesten Verbündeten im Kampf für digitale Bürgerrechte.)

Auch wenn es einen weiteren Schritt in die Richtung gänzlicher Ausspionierbarkeit des Benutzers bedeutet: Die Zukunft liegt sicher in dieser Form des Leasing von Rechner-Power. Nicht nur, weil die reine Leistungsfähigkeit bald über der von lokalen Rechnern liegt. Einzelne Anwender, aber auch Firmen werden sich mit solchen Diensten einen großen Teil des Aufwands für die Systemadministration sparen.

Angebote wie EC2 können Dezentralisierungsprozesse weiter vorantreiben. Durch sie wird jeder einzelne, jede kleine Gruppe oder Firma über eine beliebig skalierbare IT-Infrastruktur verfügen.

Aus zwei neuen amerikanischen Studien geht hervor, dass nur eine kleine Minderheit etwas mit Ausdrücken wie RSS und Podcasting anfangen kann. Das Pew Internet & American Life Project kommt zu dem Ergebnis:

The average American internet user is not sure what podcasting is, what an RSS feed does, or what the term „phishing“ means.

Eine von WorkPlace Print Media durchgeführten WorkPlace Habits Study stellt fest:

Of the respondents, 88 percent of working Americans don’t know what RSS is. Nine percent do know what RSS is, and a minuscule 2 percent said they subscribed to an RSS feed [Study: Most U.S. Workers Ask ‚What the Heck is RSS?‘ @ Media Buyer Planner (mir ist es nicht gelungen, diese Studie online aufzutreiben)].

Diese Resultate berechtigen Zweifel daran, dass sich Web 2.0-Techniken bald massenhaft durchsetzen werden [Advertising Age – Marketing Reality Check: Blogs, Pods, RSS]. Dass Internet-Benutzer nicht viel mit dem Ausdruck RSS verbinden, bedeutet aber nicht, dass Internet-Anbieter Feeds vernachlässigen dürften. Fiete Stegers hat gerade auf onlinejournalismus.de beschrieben, dass wichtige deutsche Online-Redaktionen auf Newsfeeds setzen.

Davon könnte Apple zunächst mehr profitieren als Google. Apple bietet schon seit Jahren Synchronisierungsdienste an, für die es inzwischen bei Google Plattform-neutrale Gratis-Äquivalente gibt. Google und Apple zusammen könnten Apples iDisk zu einem Bündel von Web-Diensten ausbauen, das Benutzern aller Betriebssysteme offen steht. [Verbindung: Google-Chef Schmidt wird Aufsichtsrat bei Apple]

‚Comment is Free,‘ but designing communities is hard:  Nico McDonald über
Comment is free, das Kommentarblog des Guardian.  McDonald analysiert das Angebot des Guardian sehr genau und erklärt, warum dieses Gruppen-Weblog weit hinter den Erwartungen der Herausgeber zurückbleibt. Dabei wird klar, dass das Publikationsmodell traditioneller Medien sich mit personal publishing nicht  wirklich versöhnen lässt. Zeitungen wie der Guardian gelangen in eine Aporie: Sie bieten etwas an, für das man sie nicht braucht; ein Blogger, der etwas zu sagen hat, kann die Artikel des Guardian jederzeit auf einer anderen Plattform kommentieren.

Interessant sind McDonalds Bemerkungen über Identität und Identitätmanagement. McDonald schreibt, dass im Redaktionssystem des Guardian Personen nicht als Objekttyp vorkommen. Das ist der technische Ausdruck der Tatsache, dass hier Texte und nicht Personen und ihre Beziehungen verwaltet werden. Der Guardian ignoriert die digitale Identität der Kommentatoren seiner Artikel und schließt damit aus, dass sich eine Community aufbaut.

Benedikt Tüshaus und Klaus Meier haben untersucht, wie das Verfolgen von Echtzeit-Quoten sich auf journalistische Angebote im Web auswirkt – ein Musterbeispiel für angewandte Forschung über Online-Journalismus.

Wie werden die Klickzahlen in Online-Redaktionen eingesetzt? Welchen Einfluss hat ihre Verwendung auf redaktionelles Entscheiden? Und welche Konsequenzen ergeben sich daraus für die journalistische Qualität und das Qualitätsmanagement? – Diesen Fragen ging unsere Studie nach, für die wir neun Redaktionen von großen deutschen Online-Nachrichtenangeboten auswählten.  [onlinejournalismus.de » Im Quotenparadies ]

Weiterlesen

James Snell über die Verwendung von Atom in IBM’s QEDwiki:

So Atom is, essentially, a data index. The metadata for the entry (title, summary, etc) can be filled in using xpath/xquery statements over the XML document. What the demo doesn’t cover is the fact that, soon, we’ll have the ability to push documents back to the database using the Atom Publishing Protocol.

Die Feeds werden von IBMs XML-Datenbank DB2 9 (Viper) generiert.

(Meinen QEDwiki-Eintrag habe ich aktualisiert, unter anderem durch ein Link auf die Online-Demo.)

Technorati Tags: ,