Login

Die dunklen Seiten des digitalen Marketings

Marketing-Automatisierung: Marketing-Utopie oder Marketing-Dystopie?

Klaus Wertenbroch

Keywords

KI, Algorithmen, Marketing-Automatisierung, Entscheidungsfreiheit, Personalisierung

Artikel downloaden

Marketing-Utopie: Individueller Echtzeit-Zugang zu Konsumenten liefert bequeme und relevante Angebote
Im letzten Jahrzehnt hat eine wahre Marketing-Revolution stattgefunden. Praktisch alle Marketing-Prozesse wurden automatisierbar, von der Segmentierung und dem Targeting bis hin zu Serviceleistungen, Werbung, Vertrieb, Einzelhandel und Preisgestaltung. Durch die Möglichkeit, individuelles Verhalten online nachzuverfolgen und mehrere Datenquellen zu „großen Datensätzen“ zusammenzuführen, können Marketingmanager Konsumenten immer besser individuell ansprechen. Auf maschinellen Lernverfahren basierende Algorithmen können Produktangebote, Werbung und Preise in Echtzeit auf Einzelpersonen zuschneiden: Was lange als Marketing-Utopie erachtet wurde, ist heute Realität. Die erreichte Personalisierung steigert die Rentabilität der Unternehmen durch exaktere Preisdiskriminierung und gleichzeitig genießen die Konsumenten mehr Komfort und relevantere Angebote. Automatisierung und Personalisierung können jedoch auch weniger positive wirtschaftliche und psychologische Folgen für Konsumenten haben, zum Beispiel höhere individuelle Preise und weniger Entscheidungsautonomie.

Höhere Einzelpreise für Verbraucher
Unternehmen können ihre Gewinne maximieren, wenn jeder Kunde für ein Produkt einen Preis bezahlt, der seiner Zahlungsbereitschaft (WTP, engl. Willingness to Pay) möglichst nahekommt. In der Vergangenheit war es unmöglich, die individuelle WTP zu bestimmen, so dass die Konsumenten oft günstiger einkaufen konnten, als es dem entsprochen hätte, was sie zu zahlen bereit waren. Heute können Prognosealgorithmen individuelle Präferenzen und Zahlungsbereitschaften mit immer höherer Präzision schätzen und personalisierte Angebote darauf abstimmen. Ein Experiment des Personalvermittlungsunternehmens ziprecruiter.com zeigte, dass das Unternehmen seine Gewinne um mehr als 80 % steigern konnte, wenn es von seiner historisch einheitlichen Preisgestaltung zu einer Algorithmen-basierten individualisierten Preisgestaltung überging. Dabei nutzte man mehr als hundert Eingabevariablen, anhand derer jeder Kunde charakterisiert wurde. Die Preisgestaltung von Uber verwendet Berichten zufolge maschinelles Lernen, um routen- und tageszeitabhängige Preise unter Berücksichtigung verschiedener Nachfragebedingungen festzulegen. Uber könnte leicht die Fahrtenhistorie und andere persönliche Daten der Kunden sowie durch maschinelles Lernen extrahierte und verknüpfte Daten verschiedener Fahrer nutzen, um noch stärker personalisierte Preise abzuleiten. Während diese Möglichkeiten den Unternehmen helfen, Ziele wie Profit- und Shareholder-Value-Maximierung voranzutreiben, sollten Kunden alarmiert sein. Eine personalisierte Preisdiskriminierung kann zwar Konsumenten mit einer niedrigeren WTP zugutekommen, da diese sonst „aus dem Markt fallen“ könnten, aber in Summe werden Konsumenten mit einer höheren WTP wahrscheinlich höhere und besser an ihre WTP angepasste Preise zahlen und weniger Konsumentenrente für sich beanspruchen können.

Automatisierung und Personalisierung können auch weniger positive wirtschaftliche und psychologische Folgen für Konsumenten haben, zum Beispiel höhere individuelle Preise und weniger Entscheidungsautonomie.

Geringe Gegenleistungen für persönliche Daten
Die Informationen, die Marketingmanager benötigen, um Präferenzen und Zahlungsbereitschaften abzuleiten, stellen die Konsumenten im Regelfall gratis zur Verfügung. Könnten Zahlungen für solche Daten die Nachteile der Personalisierung ausgleichen? Unternehmen argumentieren, Konsumenten durch bessere Angebote und kostenlose Dienste wie YouTube-Videos, soziale Netzwerke usw. ohnehin bereits angemessen zu entschädigen. Kritiker argumentieren hingegen, dass die Kompensation nicht ausreichend sei. In mehreren Laborexperimenten haben wir unter Anwendung strenger Kriterien der Rational-Choice-Theorie herausgefunden, dass Konsumenten dazu neigen, ihre privaten Daten systematisch unterzubewerten, wenn sie diese – verglichen mit einem monetären Verkauf – gegen Waren oder Dienstleistungen eintauschen (siehe Box 1 und Abb. 1). Betrachten wir Google- oder Facebook-Nutzer: Sie bezahlen für die Nutzung dieser Dienste mit den privaten Daten, die die Unternehmen dabei sammeln und dann für Werbezwecke zur Gewinnerzielung nutzen. Konsumenten scheinen ihre privaten Daten in solchen nicht-monetären Tauschumgebungen nicht als vermarktbare Ressource zu betrachten, obwohl sie die Daten an gewinnorientierte Unternehmen weitergeben. Dies ermöglicht es den Unternehmen, auf Kosten der Konsumenten außerordentliche Gewinne zu erzielen und Marktmacht zu erlangen. Die beispiellosen Bewertungen der dominierenden Technologieunternehmen, die diese privaten Daten erhalten, sind wohl ein Spiegelbild dieses unausgewogenen Tauschhandels. Märkte für persönliche Daten funktionieren möglicherweise ineffizient, und zwar zu Lasten der Konsumenten.

Box 1: Konsumenten unterschätzen den Wert ihrer privaten Daten
Was ist eine angemessene Entschädigung für private Konsumdaten? Geoff Tomaino, Dan Walters und ich analysierten in mehreren Experimenten, welchen Preis Konsumenten für ihre privaten Daten verlangen. In einer Versuchsreihe mit mehreren tausend Teilnehmern von Amazons MTurk und Prolific verglichen wir, wie viel diese für die gleichen privaten Daten im Tausch gegen Geld oder aber gegen Waren bzw. Dienstleistungen verlangten. Konsumenten mit rationalen Präferenzen für ihre Daten müssten unter beiden Bedingungen gleich viel verlangen. Über alle Experimente hinweg schätzten die Konsumenten jedoch den Wert ihrer privaten Daten systematisch niedriger, wenn sie Daten gegen Waren tauschen sollten (gemessen daran, wie viel Geld sie für diese Waren wollten), als wenn sie gebeten wurden, die Daten gegen Geld zu verkaufen. Und wie wir alle wissen, tauschen E-Commerce-Anbieter im Regelfall die Daten gegen Dienstleistungen und nicht gegen Geld.

 

Verlust der Autonomie
Die Aufgabe der eigenen Privatsphäre hat für die Konsumenten noch eine weitere unangenehme Nebenwirkung: weniger Autonomie. Als Menschen und Konsumenten legen wir Wert darauf, autonom und frei von äußeren oder aufoktroyierten Einflüssen zu entscheiden und unseren eigenen freien Willen zu äußern. Autonomie erfordert jedoch Privatsphäre. Ohne Privatsphäre werden wir berechenbar, und genau das ist natürlich das Ziel von Vorhersagealgorithmen, die dazu dienen, von Kreditausfällen über Versicherungsansprüche bis hin zu Reaktionen auf Werbung und Kaufwahrscheinlichkeiten alles zu prognostizieren. In weiteren Experimenten stellten Rom Schrift, Yonat Zwebner und ich fest, dass sich Konsumenten dann in ihrer Autonomie bedroht fühlen und entsprechend handeln, wenn ihnen bewusst ist, dass Algorithmen ihre Entscheidungen vorhersagen können. Wenn wir Teilnehmern sagten, ein Algorithmus könne ihre Entscheidung vorhersagen, wählten sie sogar absichtlich weniger gewünschte Optionen, um ihr Autonomiebedürfnis zu befriedigen. Wenn wir den Teilnehmern hingegen sagten, der Algorithmus berechne nur, wie konsistent ihre Wahl mit ihren eigenen Präferenzen sei, wählten sie eher ihre bevorzugten Optionen. Die Akzeptanz von Prognosealgorithmen kann also durch entsprechendes Framing verbessert werden: Marketer sollten sie so gestalten, dass die Nutzer keine Einschränkung ihrer Entscheidungsautonomie empfinden.

Kapitulation vor der Blackbox
Ein weiteres Problem bei Entscheidungsalgorithmen ist ihr „Black-Box“-Charakter. Häufig sind die Mechanismen hinter den Algorithmen zu komplex, um „erklärbar“ zu sein, oder werden aus Wettbewerbsüberlegungen nicht transparent gemacht. Nicht zu wissen, wie und warum ein Algorithmus beispielsweise entscheidet, erwünschte Finanztransaktionen zu blockieren oder bestimmte Kreditkartenlimits zu gewähren, beunruhigt Regulierungsbehörden und verärgert Konsumenten. Die GDPR-Artikel 13 bis 15 verlangen von Unternehmen, den Kunden „aussagekräftige Informationen über die Logik“ automatisierter Entscheidungen zur Verfügung zu stellen. In einer weiteren Reihe von Experimenten stellten wir fest, dass zielbezogene Erklärungen, die Kunden darüber informieren, warum algorithmische Entscheidungen getroffen wurden, das Fehlen einer mechanischen Erklärung ausgleichen konnten. Wir zeigten in einem realen Marktumfeld, dass allein schon das Erklären der Zielsetzung eines Algorithmus für die Kunden zufriedenstellender sein kann, als ihnen ohne Zusatzinformationen ein negatives Ergebnis mitzuteilen. Das Erläutern von Zielsetzungen setzt jedoch voraus, dass die Kunden fair behandelt werden.

Die komplexe Herausforderung, Marketing-Dystopien entgegenzuwirken
Dystopische Effekte zu verhindern, ist häufig die Aufgabe von Regulierungsbehörden, aber es ist eine enorme Herausforderung, hier Lösungen zu finden. Deshalb sollten auch Unternehmen in diese Richtung aktiv werden und auf Bedenken der Konsumenten eingehen. Abbildung 2 und die weiteren Ausführungen geben einen Überblick über mögliche Maßnahmen.

 

  • Regeln zur Stärkung des Wettbewerbs
    Um Kunden zu schützen und Unternehmen daran zu hindern, ihre Marktmacht zur Durchsetzung höherer Preise oder für das Sammeln von Daten ohne entsprechende Gegenleistungen auszunutzen, können Regulierungsbehörden sowohl beim Schutz der Privatsphäre der Konsumenten ansetzen als auch bei der Förderung von Wettbewerb. Ironischerweise erfordert mehr Wettbewerb, der bessere, passgenauere Angebote zu konkurrenzfähigen, weniger diskriminierenden Preisen bringen soll, den Austausch persönlicher Konsumentendaten unter den Unternehmen. Und hier beißt sich die Katze in den Schwanz: Einerseits gilt es, die Privatsphäre der Konsumenten zu schützen, um die Möglichkeiten der Monopolbildung und Wertschöpfung aus personenbezogenen Daten für Unternehmen einzuschränken. Andererseits können Privacy-Regulierungen wie das GDPR der Europäischen Union den Wettbewerb behindern, wenn sie einen Austausch privater Daten zwischen Unternehmen unterbinden. Datenaustausch wäre aber erforderlich, was wiederum weniger Privatdatenschutz bedeuten würde. Paradoxerweise können wir womöglich nicht beides haben – Privatsphäre und Wettbewerb. Wenn wir die Privatsphäre schützen, untergraben wir den Wettbewerb. Wenn wir den Wettbewerb fördern, beeinträchtigen wir die Privatsphäre.
  • Transparenter Umgang mit Daten
    Angesichts der paradoxen Herausforderungen für Regulierungsbehörden sollten Unternehmen von sich aus Datenschutzprobleme aktiv angehen. Anstatt sich Verbraucher- und Regulierungsinitiativen zum Schutz der Privatsphäre und zur Limitierung der unbegrenzten Sammlung und Nutzung privater Daten entgegenzustellen, sollten Unternehmen selbst entsprechende Richtlinien festlegen, die den Konsumenten die Hoheit über ihre persönlichen Daten überlassen. Mehr Transparenz in Hinblick auf Praktiken der Datensammlung und -nutzung und mehr Kontrollmöglichkeiten können dazu beitragen, das Vertrauen der Menschen in automatisierte Marketingroutinen wiederherzustellen. Dies mag zwar die Möglichkeiten der Preisdiskriminierung einschränken, längerfristig schützt es jedoch die Marke und ihre Erträge.

Unternehmen sollten Erkenntnisse der Konsumentenpsychologie berücksichtigen und der Versuchung widerstehen, kurzfristige Gewinne auf Kosten der Konsumenten zu maximieren.

  • Positives Framing von Algorithmen
    Auch wenn einigen Konsumenten Algorithmen suspekt sind, können diese doch effizienter und exakter als Menschen sein und die Lebensqualität verbessern. Um das Potenzial auszuschöpfen, müssen Unternehmen auf Bedenken eingehen und Algorithmen möglichst vertrauensfördernd gestalten. Anstatt zu betonen, dass Algorithmen individuelles Verhalten vorhersagen, sollten sie als Werkzeuge präsentiert werden, die es Konsumenten erleichtern, im Einklang mit den eigenen Präferenzen zu handeln. Algorithmen transparent zu machen, kann die Skepsis weiter verringern. Wenn dies nicht möglich ist, kann man die mit KI-basierten Entscheidungen verbundenen Ängste reduzieren, indem man erklärt, welche Ziele die Algorithmen verfolgen.

Insgesamt wäre es – zumindest längerfristig gedacht – im besten Interesse aller Marktteilnehmer, dystopische Effekte der Marketingautomatisierung möglichst zu vermeiden. Um das zu erreichen, müssen Unternehmen die Konsumentenpsychologie berücksichtigen und der Versuchung widerstehen, kurzfristige Gewinne auf Kosten der Konsumenten zu maximieren.

Autor/en

Klaus Wertenbroch, Novartis Chaired Professor of Management and the Environment & Professor of Marketing, INSEAD, Singapore, klaus.wertenbroch@insead.edu
https://www.insead.edu/faculty-research/faculty/klaus-wertenbroch

Literaturhinweise

André, Q.; Carmon, Z.; Wertenbroch K.; et al. (2018): “Consumer Choice and Autonomy in the Age of Artificial Intelligence and Big Data,” Consumer Needs and Solutions, Vol. 5 (1-2), 28-37.

Dubé, J.-P.; & Misra, S. (2017): “Scalable Price Targeting,” NBER Working Paper 23775, http://www.nber.org/papers/w23775.

Carmon, Z.; Schrift, R.; Wertenbroch, K.; & Yang, H. (2019): “Designing AI Systems That Customers Won´t Hate,” MIT Sloan Management Review, https://mitsmr.com/2qY8i35.

Tomaino, G.; Abdulhalim, H.; Kireyev, P.; & Wertenbroch, K. (2020): “Denied by an (Unexplainable) Algorithm: Teleological Explanations for Algorithmic Decisions Enhance Customer Satisfaction,” INSEAD Working Paper No. 2020/39/MKT, http://dx.doi.org/10.2139/ssrn.3683754 .