Login

KI und die Ära des automatisierten Marketings

Die Maschine entscheidet: Wann Konsumenten Algorithmen vertrauen und wann eher nicht

Noah Castelo, Maarten W. Bos und Donald Lehmann

Keywords

Algorithmen, Algorithmus-Aversion, Akzeptanz von Algorithmen, Menschenähnlichkeit, Vertrauen

Artikel als pdf downloaden

Der Aufstieg der Algorithmen
Algorithmen - Abfolgen klar definierter Einzelschritte, die ein Computer zur Erfüllung bestimmter Aufgaben durchführt – erobern das Alltagsleben. Dank des rasanten Fortschritts auf dem Gebiet der künstlichen Intelligenz (KI) sind Algorithmen in der Lage, Sprache zu verstehen, selbst zu sprechen und schnell aus Erfahrungen zu lernen. Sie bewältigen immer schwierigere Aufgaben, von der Diagnose komplexer Krankheiten über das Steuern von Fahrzeugen bis hin zur Rechtsberatung. Algorithmen können sogar scheinbar subjektive Aufgaben erledigen, wie z. B. das Erkennen von Emotionen in Gesichtsausdrücken und dem Tonfall von Stimmen. Obwohl einige Algorithmen selbst Experten übertreffen, bleiben viele Konsumenten skeptisch: Ist es nicht doch besser, sich auf Menschen als auf Algorithmen verlassen?
Nach bisherigen Erkenntnissen tendieren Menschen dazu, einem menschlichen Entscheidungsträger gegenüber einer Maschine den Vorzug zu geben, auch wenn dies zu objektiv schlechteren Ergebnissen führt. Unsere Forschung gibt jedoch Aufschluss darüber, wann und warum Konsumenten Algorithmen bereitwilliger nutzen, und wie Marketingspezialisten deren Einsatz fördern können.

Die Algorithmus-Skepsis der Konsumenten
Konsumenten hegen vor allem deshalb ambivalente Gefühle gegenüber Algorithmen, weil sie diese nur mit bestimmten Fähigkeiten assoziieren. Viele neigen zur Annahme, dass Maschinen grundsätzlich keine emotionalen oder intuitiven menschlichen Fähigkeiten besitzen. Logik und Rationalität werden sowohl Menschen als auch Maschinen zugeschrieben, in Bezug auf affektive oder emotionale Aspekte werden Maschinen jedoch nicht als menschenähnlich wahrgenommen. Daher gehen Konsumenten oft davon aus, dass Algorithmen weniger effektiv bei Aufgaben sind, für die man Intuition oder Feinfühligkeit benötigt. Da man eine Technologie nur dann einsetzt, wenn man von ihrer Wirksamkeit überzeugt ist, bevorzugen Konsumenten in solchen Anwendungsfällen eher menschliche Problemlöser. Ob Konsumenten auf Algorithmen vertrauen oder nicht, hängt also von der Art der zu erfüllenden Aufgabe ab, aber auch davon, wie man den Algorithmus präsentiert. Indem man sowohl die Aufgabe als auch den Algorithmus entsprechend beschreibt, kann man gemäß unseren Forschungsergebnissen das Vertrauen in Algorithmen und deren Akzeptanz fördern.

 

Obwohl einige Algorithmen selbst Experten übertreffen, bleiben viele Konsumenten skeptisch.

Das Vertrauen in Algorithmen hängt von der Art der Aufgabe ab
Vertrautheit, Tragweite und die wahrgenommene Objektivität einer Aufgabe und Entscheidung sind wichtige Einflussfaktoren auf die Nutzungsbereitschaft von Algorithmen. Generell verlassen sich Konsumenten eher auf Algorithmen, die sie bereits kennen. So werden beispielsweise algorithmusbasierte Filmempfehlungen auf Netflix geschätzt und gern genutzt. Konsumenten verlassen sich auch ohne große Bedenken auf Algorithmen, die ihnen am Smartphone eine Route empfehlen. Nutzungsbereitschaft und Vertrauen steigen generell mit zunehmenden positiven Erfahrungen.
Ein weiteres Akzeptanzkriterium ist die mögliche Tragweite von Entscheidungen, wie zum Beispiel bei der Diagnose oder Behandlung einer Krankheit. Wenn solche Aufgaben fehlerhaft ausgeführt werden, haben sie schwerwiegendere Folgen als andere Anwendungsmöglichkeiten mit weniger weitreichenden Konsequenzen. Aufgrund der generell vorherrschenden Skepsis verlassen sich Konsumenten daher eher auf Algorithmen, wenn weniger auf dem Spiel steht.
Der Schwerpunkt unserer Forschung lag auf einem dritten Merkmal: dem Einfluss der wahrgenommenen Objektivität einer Aufgabe, denn das ist eine Eigenschaft, die aktiv gesteuert werden kann. Unsere Studienreihe zeigte, dass Konsumenten Algorithmen eher bei objektiven Aufgaben vertrauen, die sich auf quantifizierbare und messbare Fakten stützen, als bei subjektiven und interpretationsoffenen Anwendungen, die eher auf einer persönlichen Meinung oder auf Intuition basieren. Objektive Aufgaben werden im Normalfall mit mehr kognitiven Fähigkeiten assoziiert. Daher überlässt man Algorithmen lieber solche Aufgaben, als vermeintlich subjektive, die mit mehr emotionalen Fähigkeiten assoziiert werden. Konsumenten empfinden beispielsweise Datenanalyse oder Routenplanung als sehr objektiv und trauen Algorithmen bessere Ergebnisse zu als menschlichen Experten, während das Gegenteil bei Aufgaben wie der Einstellung von Mitarbeitern oder der Partnervermittlung der Fall ist.
Unsere Forschung zeigt auch, dass die wahrgenommene Objektivität der Aufgabe steuerbar ist. Durch eine entsprechende Beschreibung der Aufgabe kann man einen bestimmten Eindruck verstärken. Bei der Partnervermittlung kann man beispielsweise erläutern, weshalb die statistische Datenanalyse ein besseres Ergebnis fördert. Das lässt die Aufgabe objektiver erscheinen, was wiederum die Bereitschaft der Konsumenten erhöht, für diese Aufgabe Algorithmen zu nutzen

Vertrauen hängt auch davon ab, wie der Algorithmus wahrgenommen wird
Wie bereits erwähnt, glauben die Konsumenten an kognitive Fähigkeiten von Algorithmen, nicht aber an deren „Soft Skills“. Diese trauen sie nur Menschen zu, auch wenn dies immer weniger zutrifft. Mit dem Fortschritt in der KI können immer mehr Algorithmen auch Aufgaben ausführen, die typischerweise mit Subjektivität und Emotion assoziiert werden. Maschinen können zum Beispiel bereits hochbezahlte Gemälde erstellen, ansprechende Gedichte und Musik schreiben, vorhersagen, welche Lieder Hits werden, und sogar menschliche Emotionen anhand des Gesichtsausdrucks und des Tonfalls richtig erkennen. Auch wenn Algorithmen diese Aufgaben ganz anders bewältigen als Menschen, lassen sie solche Fähigkeiten menschenähnlicher erscheinen. Wenn es also um diese Soft Skills geht, könnte die Reduktion des wahrgenommenen Unterschieds zu Menschen ein Mittel sein, um die Abneigung gegen Algorithmen zu reduzieren und deren Verwendung zu fördern. Insbesondere bei Aufgaben, die als weniger objektiv wahrgenommen werden, erscheinen derartige Maßnahmen zielführend.

Box 1: UNTERSUCHUNGSERGEBNISSE ZUM VERTRAUEN IN ALGORITHMEN
In einer Serie von sechs Experimenten mit über 56.000 Teilnehmern haben wir untersucht, welche Faktoren für Vertrauen in Algorithmen relevant sind. Wir konnten unsere Annahmen bestätigen, dass Konsumenten dazu neigen, Algorithmen für objektive, weniger weitreichende Aufgaben zu nutzen und für Aufgaben, bei denen sie selbst schon gute Erfahrungen mit Algorithmen gemacht hatten. Darüber hinaus haben wir Möglichkeiten identifiziert, um das Vertrauen in Algorithmen zu fördern.

Subjektive Aufgaben werden eher Menschen als Maschinen übertragen
In einem Experiment haben wir festgestellt, dass Konsumenten gleich häufig auf Anzeigen für eine algorithmus- und menschenbasierte Finanzberatung klicken. Für die als subjektiv empfundene Partnervermittlung waren die Klickraten bei der algorithmusbasierten Option hingegen deutlich niedriger als bei der menschenbasierte Beratungsvariante (siehe Abbildung 1).

Menschenähnlichere Algorithmen können die Skepsis verringern
In einem weiteren Experiment haben wir getestet, inwieweit Teilnehmer einem Algorithmus zutrauten, den zukünftigen Wert eines Aktienindex vorherzusagen. Dabei haben wir sowohl die vermeintliche Objektivität der Aufgabe als auch die Menschenähnlichkeit des Algorithmus variiert. In einem Setting wurde die Aufgabe als objektiv dargestellt („Aktienkurse hängen von objektiven numerischen Indikatoren ab“), im anderen als subjektiv („Aktienkurse werden von Gefühlen und Intuition bestimmt“). Im menschenähnlichen Zustand bekamen die Teilnehmer Informationen über die Fähigkeit von Algorithmen, grundlegend menschliche, „intuitive“ Aufgaben wie das Erschaffen von Kunst und Musik und das Verstehen von Emotionen zu erfüllen. Es zeigte sich, dass die Objektivität der Aufgabe das Vertrauen in Algorithmen nur dann beeinflusste, wenn die Menschenähnlichkeit gering war, aber nicht bei hoher Menschenähnlichkeit (siehe Abbildung 2).

Wie kann man die Nutzungsbereitschaft und das Vertrauen in Algorithmen fördern?
Da der Einsatz von Algorithmen sowohl für Konsumenten als auch Unternehmen oft deutlich bessere Ergebnisse erzielt, liegt es im allgemeinen Interesse, die Nutzungsbereitschaft zu fördern. Unsere Ergebnisse zeigen, dass man durch die folgenden Maßnahmen Konsumenten und Manager dazu bewegen kann, häufiger auf Algorithmen zu setzen und damit die eigenen Entscheidungen zu verbessern. 

  • Zeigen Sie, dass die Algorithmen funktionieren
    Ein naheliegender Ansatz zur Steigerung der Akzeptanz ist es, potenziellen Nutzern empirisch zu belegen, dass der Algorithmus eine bessere Leistung bringt als ein Mensch. Bei Aufgaben, die als subjektiv wahrgenommen werden, ist dieses Argument jedoch oft nicht überzeugend genug. Die Experimente deuten darauf hin, dass Konsumenten in solchen Situationen sogar beim Vorliegen von Beweisen an der Überlegenheit des Algorithmus zweifeln. Deshalb sind bei subjektiv konnotierten Aufgaben zusätzliche Maßnahmen erforderlich.
     
  • Präsentieren Sie Aufgaben als objektiv lösbar
    Da die Konsumenten an die kognitiven Fähigkeiten von Algorithmen glauben, kann man Vertrauen fördern, indem man die Relevanz dieser Fähigkeiten betont. Dies kann besonders bei subjektiven Aufgaben gut funktionieren. Unsere Studien zeigten, dass algorithmusbasierte Filmempfehlungen und Partnervermittlungen viel zuverlässiger wirkten, wenn man betonte, wie wertvoll eine statistische Datenanalyse gegenüber reiner Intuition sein kann. Die wahrgenommene Objektivität einer bestimmten Aufgabe konnte durch diesen Hinweis tatsächlich verändert werden. Wenn die Aufgabe objektiver wirkte, beurteilten die Teilnehmer die Algorithmen deutlich effektiver und wollten sie eher nutzen. Solche konkreten Marketingintervention sind daher besonders hilfreich bei Aufgaben, die typischerweise als subjektiv angesehen werden, und sie helfen, das Vertrauen und die Nutzungsbereitschaft zu steigern.
     
  • Machen Sie Algorithmen menschenähnlicher
    Die dritte nützliche Intervention ist, Algorithmen menschlicher erscheinen zu lassen, insbesondere bezüglich affektiver oder emotionaler Eigenschaften. Abbildung 2 zeigt, dass Algorithmen menschlicher erscheinen, wenn man ihre Fähigkeit, menschliche Emotionen zu erkennen und zu verstehen beschreibt. Vor allem bei vermeintlich subjektiven Aufgaben werden die Akzeptanz und das Vertrauen in Algorithmen dadurch gefördert. Obwohl Algorithmen in diesen Fällen weniger gewünscht sind, können Beispiele von Algorithmen, die menschenähnlich agieren, diesen Nachteil reduzieren.

Der allgemeine Trend zeigt eindeutig, dass Algorithmen immer mehr Bereiche unseres Privat- und Geschäftslebens erobern. Das Tempo der Verbreitung und auch die Akzeptanz in unterschiedlichen Einsatzgebiete hängen von vielen Faktoren ab. Manager sind gefordert, algorithmusbasierte Produkte und Dienstleistungen vor allem in subjektiven Zusammenhängen leistungsfähiger zu machen. Die Bedenken von Konsumenten und Entscheidungsträgern, dass Algorithmen solche Aufgaben weniger gut lösen können als Menschen, müssen aufgegriffen werden. Unsere Ergebnisse zeigen verschiedene Möglichkeiten, Skepsis abzubauen, Vertrauen zu stärken und die Akzeptanz von Algorithmen zu fördern, damit Algorithmen unser zukünftiges Leben auch tatsächlich erleichtern können.

 

Autor/en

Noah Castelo
Assistant Professor of Marketing, University of Alberta, Edmonton, AB, Canada, ncastelo@ualberta.ca

Maarten W. Bos
Senior Research Scientist, Snap Inc., Santa Monica, CA, USA ,maarten.w.bos@gmail.com

Donald Lehmann
George E. Warren Professor of Business, Columbia University, New York, NY, USA, drl2@columbia.edu

Literaturhinweise

Castelo, Noah; Bos, Maarten W. & Lehmann, Donald (2019): “Task dependent algorithm aversion”, Journal of Marketing Research,  Vol. 56 (5), 809-825. 

Logg, Jennifer; Minson Julia & Moore, Don (2019): “Algorithm Appreciation: People Prefer Algorithmic to Human Judgment,” Organizational Behavior and Human Decision Processes,  Vol. 151, 90-103.

Longoni, Chiara;  Bonezzi, Andrea & Morewedge, Carey (2019): “Resistance to Medical Artificial Intelligence”,  Journal of Consumer Research, forthcoming.