Ich sammele jetzt schon seit ein paar Jahren mehr oder weniger regelmäßig Zeitungsberichte und andere Nachrichten zum Klimanotstand. Für mich ist das ein eigenes, nicht ganz definiertes Projekt, dass ich „Klimaberichte“ nenne. Diese Zusammenfassungen habe ich eine Zeit lang auf Mastodon unter dem Tag #klimaberichte publiziert.
Ich sammele die Berichte mit hypothes.is, einer Implementierung des Standards des World Wide Web Consortium für Web Annotations. Bei hypothes.is tagge ich die Berichte, ich lege Highlights an (die nur für mich sichtbar sind) und ich habe oft kurze Zusammenfassungen erstellt.
Auf Dauer hätte ich für dieses Projekt nur genug Zeit, wenn ich auf alle anderen Vorhaben verzichte. Deshalb habe ich jetzt versucht, Machine Learning zu verwenden, um die Zusammenfassungen zu erstellen. Ich benutze den Chatbot Le Chat der europäischen Firma Mistral. Damit habe ich einige Zusammenfassungen produziert. In einem nächsten Schritt möchte ich versuchen, den Mistral-Chatbot auch zum Taggen (entsprechend von mir definierten Regeln) zu benutzen und dann komplette Annotations (in dem dafür standardisierten Format) in hypothes.is zu importieren. Mir geht es dabei um Zusammenfassungen, Kategorisierungen und Verlinkungen von Texten, die einer Journalistin/einem Journalisten und einem Beitrag in einer Publikation zuzuordnen sind, also nicht um maschinelle Wissens-Synthese.
Meine hypothes.is-Anmerkungen sind öffentlich. Man findet sie unter diesem Link: https://hypothes.is/users/HeinzWittenbrink?q=tag%3A%27climate+emergency%27. Die Meldungen öffnen sich beim Klicken auf die Überschrift.
Dies ist der Atom-Feed dieser Berichte: https://hypothes.is/stream.atom?tags=%27climate+emergency%22&user=heinzwittenbrink. Man kann ihn in einem RSS-Reader abonnieren.
Ich verwende das Tag climate emergeny erst jetzt zur Unterscheidung der Klimaberichte, weil ich hypothes.is inzwischen auch für andere Inhalte benutze.
Ich werde diese Meldungen nicht bei Mastodon posten, weil sie maschinell generiert wurden.
Ich habe damit begonnen, die Meldungen und vor allem die Tags auch in einen Logseq-Graphen namens „Klimaberichte“ zu importieren, den ich mit Github Pages publiziere. Sie sind dort hier zu finden: https://heinzwittenbrink.github.io/klimaberichte/#/page/climate%20emergency.
Mich interessiert die Kontextualisierung der Meldungen – der zusätzliche Wert, der sich daraus ergibt, dass man sie in eine Verbindung mit anderen Nachrichten bringt. Logseq ist dafür ein vielversprechendes Tool. Die Frage, die mich dabei vor allem beschäftigt, ist: Wie lassen sich aussagekräftige Verbindungen zwischen den Nachrichten einfach entdecken und sichtbar machen? Es geht mir um eine historische Perspektive auf die Klimakrise (mit dem Schwerpunkt auf Europa und hier auf den Regionen Steiermark und Adria-Raum) und die Identifizierung der Faktoren und Akteure, die ihren Verlauf beeinflussen.
Mistral und Github Pages sind Tools, die ich mit Vorsicht verwende. Auf Dauer möchte ich Github Pages durch einen Service ersetzen, der nicht einem US-Konzern gehört. Mit Le Chat von Mistral mache ich zum ersten Mal Erfahrungen mit einem LLM. Ich bin einer ersten Erkundungsphase. Kritik und Diskussionsbeiträge sind erwünscht.
Der Vollständigkeit halber: Zu meinen Werkzeugen beim assisted reading gehört auch Zotero. Meine Zotero-Bibliothek ist öffentlich: https://www.zotero.org/heinz/library. Auch Zotero-Einträge kann ich in meinen Logseq-Graphen importieren.