Am Samstag war ich—zu kurz— beim internen BarCamp des Studiengangs Content Strategy. Auf einer der beiden Sessions, an denen ich teilgenommen habe, ging es um AI. Die Studierende, die auf der Session präsentierte, sprach darüber, wie man als Designerin oder Designer mit AI-Tools seinen eigenen Arbeitsprozess so verkürzen kann, dass man deutlich profitabler arbeitet. Ich habe das so verstanden: Man kann Kunden Dinge anbieten, für die sie nicht bereit sind viel Geld zu zahlen, z.B. eine Logo-Entwicklung oder Mock-Ups von Designs. Die Qualität—das kam in der Präsentation gut heraus – ist sicher schlechter als die eines nicht generierten Designs. Aber vielen Kunden reicht diese Qualität aus.
Eine Teilnehmerin erzählte dann von einem Content Marketer, der eine Serie komplexer Prompts entwickelt hat, um ganze Customer Journeys zu generieren. Seine Kunden müssen dann nicht für echte Recherche zahlen—was sie in der Regel ohnehin nicht tun—sondern erhalten Dienstleistungen auf der Basis einer durch AI simulierten Recherche.
Mich hat das aufgebracht, ich habe emotional reagiert und gesagt, dass man auf diese Weise nur die Masse an Bullshit vergrößert. Ich würde so etwas an der Hochschule nie tolerieren—damit meinte ich das Faken von Recherche, nicht die Erklärung dieses Verfahrens.
Dass ich so aufbrauste, hing damit zusammen, dass ich als Lehrender am Studiengang die echte Recherche als eines der wichtigsten Elemente der Arbeit in der Contentstrategie verstanden habe. Wo ich konnte, habe ich davor gewarnt, sie zu ersetzen, z.B. durch die bei Marketing-Menschen beliebten Fake-Personas, für die man „auf unsere eigenen Erfahrungen“ zurückgreift. Zur „wissenschaftlichen“ Seite der Content-Strategie gehört für mich diese Art von Recherche. Ihre Ergebnisse von Computern generieren zu lassen, hat für mich etwas davon, Nachrichten automatisch produzieren zu lassen, die die Adressat:innen gerne konsumieren. Es ist Manipulation oder Betrug—auch wenn die Opfer dieses Betrugs ihn durchschauen oder sogar dafür zahlen. Ich hatte den Eintrag, dass bei der Session am Samstag niemand außer mir diese Art von Faken für skandalös hielt. Es fielen Bemerkungen wie die, dass unsere Gesellschaft genau das verlange—und dem lässt sich schwer widersprechen.
Ich habe nur bedingt das Recht mich so aufzuregen—denn ich habe umgekehrt auch über Jahre gepredigt, dass Usergerechtigkeit das oberste Gebot beim Erstellen von Inhalten ist. Diese Orientierung an der Usergerechtigkeit führt in einem Umfeld, bei dem etwas verkauft werden soll, dazu, die Inhalte zu produzieren, die den Verkauf unterstützen—und dabei spielt die Wahrheit oder Falschheit, Vertrauenswürdigkeit oder Nicht-Vertrauenswürdigkeit der Inhalte dann schnell keine Rolle. Wenn man Menschen dazu anhält, den Kunden zu liefern, was den Kunden schmeckt, dann darf man sich nicht darüber wundern, dass sie auch den Unternehmen, von denen sie ihre Aufträge erhalten, liefern, was diesen schmeckt. Das Ergebnis sind dann die Corporate Narratives, die Markenrealität heute beherrschen. Der Geschmack und die Ideologie von Marketingabteilungen und der Geschmack und die Ideologie von Kundengruppen greifen ineinander, und statt Recherche kontrollieren die Algorithmen von Suchmaschinen und sozialen Netzwerken, ob Inhalte funktionieren. Die Künstliche Intelligenz löst in diesem Umfeld Probleme, die ohne ihre Vorstufe, das usergerechte Generieren von Inhalten auf Kommando, gar nicht entstanden wären. Sie tut das, was auch ohne sie stattfindet, nur schneller.
Das Generieren der „Customer Journeys“ mit KI ist ein Beispiel eines sich selbst verstärkenden Mechanismus—die KI lernt auf Dauer tatsächlich, wie viele Kunden funktionieren, und die Kunden werden so konditioniert, dass sie die Ergebnisse der KI wünschen. Sie erhalten Illusionen, die genau auf die abgestimmt sind. Die an diesem Prozess beteiligten Menschen—die Marketing-Leute vor allem—beherrschen diesen Prozess nicht, sondern sind, jedenfalls auf absehbare Zeit, nur noch für die Abstimmungs-Prozesse zwischen den Komponenten nötig.
Wie kommt man aus einem solchen Teufelskreis hinaus? Ich bin ratlos, und ich möchte mich nicht auf eine moralisierenden Außenposition zurückziehen. Meine Empörung während der Barcamp-Session ist auf Dauer keine gute Ratgeberin. Vielleicht besteht ein guter Weg darin, die politische Ökonomie dieser Prozesse der Ersetzung von Design und Recherche durch KI zu analysieren: Wer profitiert davon, dass die Arbeitskosten gedrückt werden, welche Arten von Arbeiten bleiben dann übrig, wohin werden sie verlagert? Das könnte eine Solidarität und den knowledge workers—und dieser mit anderen Gruppen—schaffen, die es jetzt nicht gibt. Vielleicht stellt man, wenn man sich so miteinander solidarisiert, auch fest, dass Kooperation und gemeinsame Aktion auf einer anderen Ebene stattfinden als der, die durch KI automatisierbar ist.
Reposts