Skip and go to main content

Digital Marketing November 07, 2019

«I han es Zündhölzli azündt»: mit Online Ads zum Bürgerkrieg?

Image

Online-Werbung passt oft beängstigend gut zu unseren Interessen. Was im Marketing effizient ist, spaltet bei politischem Missbrauch die Gesellschaft. Twitter hat deshalb politische Ads inzwischen verbannt, staatliche Eingriffe aber verbittet sich die Branche. Der Markt, so das Credo, werde das Problem via Innovation selber lösen. Zweifel sind angebracht.

Für Digitalmarketer sind es goldene Zeiten: Dank Algorithmen, AI und Big Data können wir Online-Anzeigen immer genauer auf aktuelle Interessen einzelner User ausrichten, die Effizienz des eingesetzten Online-Werbefrankens steigt und steigt.

Die User hingegen kriegen es dabei immer mal wieder mit der Angst zu tun und befürchten, Google oder Facebook belauschten ihre Gespräche. In Wahrheit spielt die Macht der Daten. Wir alle sind Bestandteil zahlloser «Similar Audiences». Unser digitaler Fingerabdruck gleicht jenem vieler anderer, die deshalb in Abhängigkeit unseres Verhaltens Anzeigen ausgespielt erhalten, und umgekehrt. Dazu muss uns Google nicht belauschen, sondern bloss die Klicks auswerten.

Algorithmen helfen auch den Bad Guys

«Similar Audiences» im Google-Universum, «Lookalike Audiences» bei Facebook, Personalisierung hüben und drüben – fürs Marketing ein Segen, da hocheffizient. Werden die Anzeigeninhalte aber politisch, spricht man von «Dark Ads». Für Digitalmarketer ist es schwer einzusehen, was daran finster sein soll, da wir Targeting-Optionen täglich einsetzen. Bei Kühlschrank-, Krankenkassen- oder Hörbuchanzeigen ist das unbedenklich, bei politischer Werbung nicht: Kriegen nur ausgewählte Zielgruppen politische Anzeigen zu sehen, wird eine öffentliche Beleuchtung unmöglich.

Das wurde spätestens 2016 zum Problem, und zwar im Zusammenhang mit Donald Trump sowie dem Brexit. In beiden Fällen war das Unternehmen Cambridge Analytica aktiv, das dank dubios beschafften Daten Wahl- und Stimmberechtigte personalisiert knetete, Donald Trump und Grossbritanniens «Leavers» siegen half.

Spät erst schraken Öffentlichkeit und Medien auf, alarmierende Beiträge erschienen: etwa der Text über algorithmische Bomben im «Magazin», der schick produzierte Dokumentarfilm «The Great Hack» oder Warnungen der «Republik»:

«Dark Ads stehen im Verdacht (…)» – «(…) Diffamierungen, Halbwahrheiten, Falschbehauptungen.» – «(…) Wählerwillen zu manipulieren.» – «(…) eine Gefahr für die Demokratie.»

Das alles hätten wir aber schon 2012 ahnen müssen: Barack Obama schaffte damals die Wiederwahl unter anderem dank der überlegenen Datenkompetenz seines Teams um Dan Wagner, der dafür bejubelt wurde schliesslich hatte er dem Good Guy zum Sieg verholfen. Das Erwachen fand erst statt, als auch das Trump-Team derlei Strategien einsetzte, allerdings um bizarre Lügen zu verbreiten. Dass Algorithmen auch den Bad Guys helfen, erwischte uns kalt. Kritisiert wurde Online-Werbung in dieser Form nämlich erst, als die Inhalte stossend wurden. Rückblickend erscheint das naiv.

Algorithmen manipulieren nicht, sie verhätscheln

So berechtigt die Sorge um die Demokratie auch ist: Das derzeit vorherrschende mediale Narrativ der Wählerkonditionierung ist störend. Denn es begreift den Menschen als willenlos, als Pawlow’schen Hund, den ein paar Facebook Ads zu steuern vermögen. Eine Gesellschaft, die ein solches Menschenbild zur Grundlage ihres Handelns macht, erklärt aber ihren Bankrott: Sie verabschiedet sich von den Prinzipien der Aufklärung und beschädigt damit die Demokratie gleich selber.

Von einer Konditionierung dürften denn auch weder Dan Wagner noch Cambridge Analytica ausgegangen sein – das wäre nicht effizient genug. Beide Male ging es um «Voter Turnout», darum also, jene Menschen an die Urnen zu bringen, deren Meinung bereits die gewünschte Tendenz aufwies.

Algorithmen sollen den User denn auch nicht konditionieren, sondern verhätscheln. Google, Facebook, Amazon, Spotify, Netflix – sie alle bemühen sich, mir algorithmisch «more of the same» zu liefern und bestätigen mir so meine Sicht auf die Welt. Dabei verstummen aber Gespräche: Ich tausche mich mehr und mehr mit meiner «Similar Audience» aus, womit niemand mehr meine Perspektive in Frage stellt, und unsere Dialoge verkommen zum Selbstgespräch.

Gespiegelte Wahrheit

Politische Akteure instrumentalisieren diesen Effekt der «Filter Bubble» im schlimmsten Fall so erfolgreich, dass wir uns mit anderen «Audiences» nicht mehr verständigen können. Das ist mehr als ein apokalyptisches Gedankenspiel: Das «Wall Street Journal» generierte 2016 per Bot einen republikanischen und einen demokratischen Facebook Feed, beide konnte man nebeneinander verfolgen. Was man dort sieht, macht frösteln: Das sind nicht mehr zwei Perspektiven auf die Welt, sondern zwei Welten, die nichts mehr gemein haben, und jegliches Gespräch hat geendet. «The Guardian» führte ein ähnliches Experiment durch und liess Menschen den Facebook Feed anderer konsumieren. Es war, wie einer der Probanden klagte, «als lese man das Buch eines Irren».

Irr werden andere Perspektiven aber erst, wenn man seine eigene mit Wahrheit verwechselt. Das ist zum einen das Ergebnis des erwähnten Selbstgesprächs. Zum andern aber verführen uns die zweifellos funktionstüchtigen Algorithmen zu einem Missverständnis. Weil sie bei Spielen, Übersetzungen oder bei der Diagnostik spektakulär erfolgreich sind, schreiben wir ihnen Unfehlbarkeit zu; als brauche es nur genügend Zahlen, um Fehler mathematisch zu eliminieren und einen magischen Durchschnitt namens Wahrheit zu errechnen. Somit wird auch unsere Weltsicht wahr – jede andere irr. Dass die Algorithmen uns mitsamt unseren Schwächen aber nur spiegeln, bleibt uns verborgen.

Vom Ad zum Bürgerkrieg

Hinter der wachsenden Relevanz von Online-Werbung, hinter automatisierten Übersetzungen und Fortschritten in der Diagnostik stecken Konzepte mit Sprengkraft, und es darf niemanden verwundern, wenn Donald Trump angesichts seiner möglichen Amtsenthebung via Retweet mit Bürgerkrieg droht. Denn das ist zur denkbaren Konsequenz einer algorithmischen Selbstbestätigung aller Fraktionen geworden, die unsere Gesellschaft spaltet, und die Trumps Wahl ja gerade unterstützt, wenn nicht gar ermöglicht hat.

Vom Ad zum Bürgerkrieg – es gemahnt an Mani Matters Chanson vom «Zündhölzli», worin Streichholz und Weltenbrand nichts weiter trennt als fünf kurze Verse.

«Der Spiegel» hatte angesichts von Obamas Datenkampagne schon 2013 eine Welt erblickt, «die sich mit Unterstützung von Computern immer besser vorhersagen und kontrollieren lässt, die wir aber immer weniger verstehen», und der Verfasser erkannte schon da die Dringlichkeit einer «Debatte, wie wir als Gesellschaft damit umgehen.» Branchenvertreter aber schreien zuverlässig Zeter und Mordio, sobald der Gesetzgeber handeln will: Das hemme die Innovation, heisst es stets, und der Markt werde es schon richten. Die jüngere Geschichte lässt daran allerdings zweifeln, der jüngste Auftritt Mark Zuckerbergs nicht weniger. Je schneller sich das Problem entwickelt, desto zynischer wird diese Marktgläubigkeit, und so begrüssenswert etwa Twitters Verbot politischer Werbung auch ist: Grundlegendes klärt es nicht.

Doch Klärung braucht es: Wenn Algorithmen unser Zusammenleben prägen, müssen wir uns auf ein Regelwerk einigen. Das ist nicht speziell Twitters Aufgabe, nicht jene des Markts allgemein, sondern die Aufgabe der demokratisch legitimierten Instanzen, die wir uns genau dafür zugelegt haben. Denn bei allem Respekt vor ihren Errungenschaften: Entscheide über Krieg und Frieden stehen Silicon-Valley-Firmen nicht zu.

Fragen? Wir sind hier, um zu helfen!

Hoppla!

Wenn Sie dies lesen, können Sie das Formular, das hier sein sollte, leider nicht sehen. Sie haben wahrscheinlich einen Werbeblocker installiert. Schalten Sie den Werbeblocker aus, um das Formular zu sehen. Es funktioniert trotzdem nicht? Öffnen Sie diese Seite in einem anderen Browser oder setzen Sie sich mit uns in Verbindung: [email protected]