Gestern ist es mir endlich gelungen, meinen Facebook-Account zum Löschen vorzumerken. Es dauert noch vier Wochen, dann wird er endgültig verschwinden. Dass Meta die Daten von allen seinen Servern löscht, nehme ich nicht an.
Ich habe wochenlang probiert, den Account loszuwerden, aber am Ende der vielen Klicks, die dazu in den Facbook-Einstellungen nötig sind, immer nur die Nachricht erhalten, dass „etwas Unvorhergesehenes“ passiert sei. Ich habe es nicht geschafft im Web zu finden, worin dieses „Unvorhergesehene“ bestehen könnte. Gestern habe ich dann erst versucht, den Account zu deaktivieren statt ihn zu löschen. Am Ende poppte die Nachricht auf, dass eine Facebook-App mit meinem Entwickler-Account bei Facebook verbunden sei. (Bei dieser App handelte es sich um die Synchronisierung von Facebook-Events mit einer WordPress-Seite über ein Plugin.) Ich habe die App gelöscht, meinen Facebook-Account deaktiviert und ihn dann wieder reaktiviert um mich einzuloggen. Nachdem ich zum gefühlt hundertsten Mal den „Account löschen“-Prozess durchgemacht hatte, erschien endlich die Nachricht: „Dein Konto wird in Kürze dauerhaft gelöscht“.
Ich habe viele Gründe dafür, mich von Facebook zu verabschieden. Der Standard hat mir gestern mit einem Artikel über Metas AI den letzten Anstoß dazu gegeben, endlich entschieden genug zu versuchen, den Account loszuwerden. Facebook erklärt offiziell, seine KI jetzt so zu trainieren, dass „linkes“ Bias vermieden wird. Das heisst, dass Nutzerinnen und Nutzer bei im weitesten Sinne politischen Inhalten immer auch Positionen angeboten werden, die zur Ideologie der Trump-Administration passen. Das bedeutet: Eine rechtsradikale Ideologie wird auch dann verbreitet, wennn die KI aufgrund des Materials, mit dem sie trainiert wird, diese Inhalte gar nicht zeigen würde. Das ist das Gegenteil von dem, was mit dem Vermeiden von Bias im Design ursprünglich gemeint war: darauf zu achten, dass Dienste und Geräte nicht die Diskriminierung von Menschen verstärken, indem sie auf etwas scheinbar Normales ausgerichtet sind, das tatsächlich viele Nutzerinnen und Nutzer ausschließt.
Der Standard bezieht sich auf ein von Meta veröffentlichtes Blogpost (das wahrscheinlich selbst größtenteils von einer KI fabriziert worden ist, so redundant und phrasenhaft ist es). Auch wenn man es nur oberflächlich liest, wird deutlich, dass Meta mit seinen KI-Modellen nicht neutrale Werkzeuge anbietet, sondern Inhalte, oder eben: Meta-Inhalte. Dabei operiert Meta bei seinen KI-Modellen ähnlich wie beim Verzicht auf den Faktencheck bei Facebook, der Anfang der Woche in den USA umgesetzt wurde: „Alternative Facts“, also faschistoide und wissenschaftsfeindliche Ideologeme, werden als diskutable Alternativen zu demokratischen Positionen und Aussagen über Fakten präsentiert.
Mir hat vor ein paar Tage eine Content-Strategie-Studierende, die sich für ihre Master-Arbeit mit KI befasst, gesagt: „Du gehörst zu einer anderen Generation, du glaubst noch an die Wahrheit!“ Ich habe ihr, Recht gegeben, was die zweite Behauptung angeht, aber auch (altersbedingt) einen kurzen Vortrag darüber gehalten, dass es ähnliche Debatten über Wahrheit und die Legitimität von Manipulationen schon in der Antike gab. Wahrheit hängt von Institutionen und Methoden ab, die sie sichern, in der Wissenschaft, im Journalismus und in der Justiz. Das Ziel der radikalen Rechten ist es, diese Institutionen zu entmachten und zu zerstören. Darin gleichen sie den faschistischen Bewegungen des letzten Jahrhunderts, die allerdings weniger raffinierte Mittel zur Verfügung hatten. Widerstand von innen, also z.B. Aufklärung über Facebook auf Facebook, nutzt gegen diese Kräfte wenig, weil er die Scheinneutralität legitimiert und die Plattformen für die Rechtsradikalen vergrößert. Außerdem kostet er Energie, die nötig ist, um die Alternativen für den Widerstand von außen aufzubauen – vom Fediverse bis zur offenen Wissenschaft.
@Heinz Ich konnte mein Konto dort noch löschen als man dazu nur einen einzigen Knopf drücken musste.