Mitarbeiter der Wissenschaftlichen Dienste des Deutschen Bundestags haben eine ausführliche Dokumentation Über das Für und Wider der urheberrechtlichen Diskussion im Zusammenhang mit dem Heidelberger Appell erstellt [via Hugo E. Martin]. Zu Open Access stellen sie fest:

Die Kritik an Open Access kann kaum nachvollzogen werden. Die hier gemachten Vorwürfe treffen eher auf die traditionellen Vertriebswege zu als auf das neue Publikationsmodell. Mit der digitalen Plattform steht den Rechteinhabern eine adäquate Publikationsalternative zur Verfügung, die insbesondere vor dem Hintergrund der Geschwindigkeit, in der neues Wissen geschaffen wird, erhebliche Vorteile gegenüber den in der Regel teureren traditionellen Vertriebswegen hat. Die Vorteile werden auch in den einschlägigen Untersuchungen der EU und der OECD bestätigt.

Auch bei der Analyse der Google-Buchsuche kommen sie zu dem Ergebnis, dass sie die Möglichkeiten der Urheber eher erweitert als beschränkt—bei allen angebrachten Bedenken gegenüber einer Monopolstellung Googles.

Für mich wird immer deutlicher, dass der Heidelberger Appell Teil einer FUD-Kampagne (FUD steht für Fear, Uncertainty and Doubt) von Leuten ist, die Konkurrenz bekämpfen und alte Privilegien sichern wollen. Er gehört in eine Kategorie mit der Forderung der deutschen Altmedienverlage nach „Leistungsschutz“, nur ist er noch verschwiemelter, weil noch schwieriger argumentativ zu stützen.

Reblog this post [with Zemanta]

Ich komme leider erst jetzt dazu, meine Notizen von der Veranstaltung in Salzburg durchzugehen. Für mich war sie nicht zuletzt wegen der Hinweise auf Websites/Initiativen wichtig, die ich vorher nicht kannte. Vor allem die Bedeutung und die Geschichte der freien Radioszene war mir bis dahin völlig verborgen geblieben.

Christian_berger
Wegen des Themas (Literatur), des transmedialen Ansatzes (Radio und Online, Live-Sendung und Datenbank) und technisch (StreamOnTheFly) finde ich das Literadio-Projekt bemerkenswert, das Christian Berger in einer leider nur sehr schwach besuchten Session vorstellte. (Ein weiteres Projekt Christians, interessant im Horizont von media literacy: CoP-Social Software-Schule.) Das Projekt begann mit Live-Sendungen von der Frankfurter Buchmesse, die inzwischen seit sieben Jahren stattfinden. Während der gesamten Buchmesse werden Lesungen und Gespräche mit Autorinnen gesendet.

Literadio hat sich zu einem kooperativen Projekt entwickelt, bei dem Partner dezentral Programm machen und die Ergebnisse teilen. Die Beiträge sind im Web verfügbar und können von freien Radios ausgestrahlt werden. Der Inhalt kann als mp3 oder ogg-Stream und als Download bezogen werden. Das Archiv produziert für jede Serie (collection) Podcasts.

Literadio ist international angelegt, die Partner sind eingeladen mehrsprachig zu publizieren; zu allen Inhalten werden englische Metadaten angelegt. Verlage können die Plattform für ihre PR verwenden. Sie sind aber wohl nur selten dazu in der Lage, mit den Medien Web und freies Radio umzugehen. Schon mit der Tonaufnahmen sind sie meist überfordert, also auf Training angewiesen.

Wenn ich es richtig verstanden habe, unterscheidet sich literadio von den gängigen Web 2.0-Anwendungen wie youTube vor allem dadurch, dass die Teilnehmer Organisationen oder Gruppen sind und dass sie von literadio akzeptiert werden müssen. Bei literadio bildet Literatur den Inhalt; die Plattform ließe sich aber leicht für andere Inhalte duplizieren.

Auf der literadio-Site (Frame-Alarm!) wird nicht zu Unrecht auf die Wikipedia Community verwiesen. Alle Elemente, die man für eine Wikipedia-artige, offene Radioproduktion braucht, sind hier unauffällig, aber konsequent erstellt worden.

Das WWW ermöglicht es, in einem vor seiner Erfindung unvorstellbaren Ausmaß Informationen rekursiv weiterzuverarbeiten, also Informationen, die bereits prozessiert wurden, noch einmal auf einer neuen Stufe zu prozessieren, und zwar mit denselben Typen von Operationen. Es ist möglich, syndizierte Informationen wiederum zu syndizieren, katalogisierte Informationen wiederum zu katalogisieren, mit anderen Informationen kombinierte Informationen zu rekombinieren. Die Open Source-Bewegung verwendet dieses Verarbeitungsverfahren, um Code zu verbessern; Creative Commons oder Open Access ermöglichen es, wissenschaftlich und andere kulturelle Inhalte weiterzuverwenden.

Das Open Data Movement macht vorhandene große Datenbestände für das Weiterprozessieren im Netz zugänglich. Wichtig ist, dass sich nicht absehen lässt, was mit den Informationen geschieht. Offenheit ist hier nicht nur eine idealistische Forderung, sie ist die Voraussetzung dafür, die Potenziale der vorhandenen Informationen zu nutzen.

Ankündigung eines Vortrags von Matt Biddulph:

Following the success of open source, an open data movement is occurring online that seeks to gather, publish and enable the reuse of rich machine-readable datasets – like all programs ever broadcasted by the BBC.

By opening up these wellsprings of information, which were previously only accessible to large institutions, the open data movement has unleashed a new wave of creativity on the Web. Programmers, students, and companies are building mashups by overlaying photos, blog posts, and other objects to open datasets like the BBC Programme Catalogue, Wikipedia, Open Streetmap, and Thinglink.

[hackdiary: Talk in Helsinki this week: the Open Data Movement]