Login

Die dunklen Seiten des digitalen Marketings

Die Illusion der Wahlfreiheit im Zeitalter der Algorithmen

Fabian Buder, Koen Pauwels und Kairun Daikoku

Keywords

Augmented Intelligence, Entscheidungsfindung, KI, Algorithmen, Wahlfreiheit

pdf downloaden

Das Zeitalter der digitalen Convenience
Die Digitalisierung hat für Menschen, Organisationen und Staaten neue Möglichkeiten der Zusammenarbeit gebracht. Technologien wie Smartphones und mobiles Internet erleichtern den Aufbau und die individuelle Nutzung globaler Netzwerke zum Vorteil aller Beteiligten. Darüber hinaus sind Aufgaben, die früher mühsam, langwierig oder unerfüllbar schienen, durch den umfassenden Einsatz ständig verbesserter Technologien möglich und sogar trivial geworden.

Menschen verlassen sich in der digital erweiterten Welt bei Entscheidungen in hohem Maße auf technologische Unterstützung. Solche „Augmented Decisions“, also durch Algorithmen unterstützte Entscheidungssituationen, machen wirklich freie Entscheidungen aber letztlich zur Illusion und zu einem seltenen Luxus, den man sich erst erkämpfen muss. Dieser Verlust der Wahlfreiheit ist scheinbar der Preis, den wir für immer mehr Convenience zahlen müssen, mit unvorhergesehenen Folgen für jeden Einzelnen und unsere Gesellschaft insgesamt.

 

 

Menschliche Entscheidungen in einer digital erweiterten Welt
Das Konzept der „Augmented Intelligence“, der „Erweiterten Intelligenz“, setzt, im Gegensatz zur manchmal negativ konnotierten autonomen „Künstlichen Intelligenz“ (KI), auf eine Kooperation zwischen Mensch und Maschine: Während intelligente Algorithmen einer KI Daten filtern, Muster erkennen und Empfehlungen generieren, treffen Menschen, die planen und denken, die endgültigen Entscheidungen. Diese Form der Augmented Decisions, assistiert durch KI-Systeme, wird oft als die Zukunft der Entscheidungsfindung für Wissensarbeiter wie Ärzte, Manager oder Piloten angesehen. Beispiele für Augmented Decisions sind jedoch auch im Alltagsleben bereits allgegenwärtig. Wer bestimmt etwa, was Sie in Ihrem Social-Media-Newsfeed sehen, welche Filme und Serien Sie sich ansehen oder welche Produkte Sie kaufen? Und überlegen Sie einmal, was Sie als Erstes tun, wenn Sie Ihre nächste Reise planen. Höchstwahrscheinlich verwenden Sie die Navigations-App auf Ihrem Smartphone und nicht eine klassische Straßenkarte oder andere Wegbeschreibungen. In der Regel ist es am bequemsten, der Route zu folgen, die die App vorschlägt.

Natürlich hat die digitale Unterstützung klare Vorteile bei Entscheidungsprozessen: KI hilft, die Informationsflut zu reduzieren, relevante Informationen zu filtern und die überwältigende Fülle an Optionen auf eine überschaubare Menge an Wahlmöglichkeiten einzuschränken. Die Empfehlungen und Vorschläge intelligenter Algorithmen helfen den Menschen, Zeit zu sparen und dennoch Entscheidungen zu treffen, die ihren Präferenzen entsprechen. Aber das ist nur die eine Seite der Medaille. Es gibt auch noch die andere, dunklere und oft unsichtbare Seite.

Die dunkle Seite der digitalen Convenience

  • Verlust der Wahlfreiheit
    Augmented Intelligence befreit uns von vielen Aufgaben, aber sie schränkt auch die Wahlfreiheit ein. Wir verlassen uns auf unsere Technologien und bemerken gar nicht, dass wir kein Gesamtbild mehr erhalten, sondern oft nur einen für einen bestimmten Zweck kuratierten Ausschnitt der Realität. Die meisten Informationen, die uns als Entscheidungsgrundlage dienen, werden von Algorithmen gefiltert und vorsortiert. Während das Leben so bequemer wird, dienen die Algorithmen jedoch primär Zielen der dahinterstehenden Organisationen. Diese sind den Nutzern zumeist aber nicht bewusst und oft auch nicht unbedingt zu ihrem Besten. Die positive Nutzererfahrung, die erlebte Convenience, ist ein Mittel zum Zweck, aber nicht das eigentliche Ziel. Unbekannt bleibt für den Nutzer, ob die hilfreichen Algorithmen wirklich den Nutzen ihrer Anwender oder eher die Rendite eines Unternehmens optimieren.
    Tech-Unternehmen nutzen ihre Technologien, um die individuelle, subjektive Realität, die den inneren Rahmen menschlicher Entscheidungsfindung darstellt, in ihrem Sinne zu konstruieren. Anhand riesiger Mengen an Nutzerdaten erstellen sie hochgradig individualisierte Empfehlungen und machen den Nutzern bestimmte Optionen schmackhaft (siehe Box 1). In solchen Fällen wird Wahlfreiheit zu einer Illusion.
     
  • Meinungspolarisierung
    Menschen verbringen in Summe beispielsweise allein auf YouTube insgesamt mehr als eine Milliarde Stunden pro Tag. 70 % dieser Zeit gehen auf das Konto von automatisiert durch YouTube vorgeschlagenen Inhalten. Intelligente Algorithmen empfehlen ihren Nutzern permanent und in Echtzeit Millionen von Videos. Gleichzeitig testen sie, wie und womit sie ihre Kunden möglichst lang bei der Stange halten können. Wenn ein Nutzer ein anschließend startendes Video weiter ansieht, war die Empfehlung erfolgreich, und der Algorithmus hat den Entscheidungsprozess des Nutzers gesteuert. Die freie Entscheidung steht im Wettbewerb mit intelligenten Algorithmen, die individuelle Präferenzen dokumentieren und nutzen, ohne ihren Zweck und ihre Funktionalität offen zu legen oder dem Nutzer Kontrollmöglichkeiten zu geben. Unter solchen Umständen kann es vorkommen, dass Menschen die Fähigkeit verlieren, bewusst zu entscheiden, ob und was sie weiterschauen wollen. Lernt ein solcher Algorithmus, dass Verschwörungsvideos die Aufmerksamkeit der Nutzer optimieren, wird er solche Videos immer wieder empfehlen. Damit kann er bewirken, dass selbst radikale Verschwörungstheorien dem Nutzer wie eine allgemein geteilte Realität erscheinen. Was Menschen konsumieren, hat Einfluss darauf, was sie denken und wie sie sich verhalten. Für Gesellschaften und Demokratien können entstehende Informationsblasen gefährlich sein, da sie die Polarisierung von Meinungen begünstigen und verstärken. Tendenziöse Ergebnisse prägen unsere Identitäten, unsere Weltsicht, unsere sozialen Beziehungen und vor allem die Entscheidungen, die wir treffen. Auch wenn die Letztentscheidung über den Konsum bei den Nutzern liegt, haben die Algorithmen von YouTube, Facebook und Twitter einen großen Einfluss darauf, welche Inhalte, und damit Ideen und Meinungen, florieren oder untergehen.

Erweiterte, mit persönlichen Nutzerdaten gespeiste Intelligenz hat eine komfortable Welt geschaffen, der die Menschen im Gegenzug große Teile ihrer Wahlfreiheit geopfert haben.

  • Abhängigkeit und Manipulation
    Mit der Gewöhnung an die schnell verfügbaren, unterhaltsamen und bequemen Dienste digitaler Plattformen tragen wir unbeabsichtigt zur Beschleunigung der beschriebenen Prozesse bei. Wir lassen zu, dass enorme Mengen persönlicher Daten gesammelt und zur Personalisierung der Nutzererfahrung digitaler Plattformen verwendet werden. Aus der individuellen Perspektive mag dies zunächst harmlos erscheinen: Von einem Algorithmus verführt zu werden, etwas mehr für eine Versicherung zu bezahlen oder gelegentlich ein eher unnötiges Produkt zu kaufen, mag als fairer Preis für den Komfort der digitalen Dienstleistungen angesehen werden. Ganzheitlich betrachtet ist der Schaden aber wohl größer, und die Konsequenzen gehen weit über manchmal schon unheimliche personalisierte Werbung hinaus. Der eigentliche Zweck der neuen Technologien besteht nämlich nicht mehr darin, im Sinne ihrer Nutzer zu agieren, sondern online Aufmerksamkeit zu gewinnen und zu behalten, um diese zu monetarisieren und damit den Unternehmensgewinn zu maximieren. Um diese Ziele bestmöglich zu erreichen, sollen Algorithmen nicht nur Komfort liefern, sondern auch abhängig machen. Das öffnet Manipulationen immer weiter Tür und Tor. Die Unterstützung, die Algorithmen uns bieten, ist damit gleichermaßen utopisch und dystopisch.

Strategien, um mehr Wahlfreiheit sicherzustellen
Erweiterte, mit persönlichen Nutzerdaten gespeiste Intelligenz hat eine komfortable Welt geschaffen, der die Menschen im Gegenzug große Teile ihrer Wahlfreiheit geopfert haben. Es gibt jedoch auch einige Maßnahmen, um diesen unerwünschten Effekten entgegenzuwirken und sicherzustellen, dass Wahlfreiheit mehr bleibt als reine Illusion.

  • Algorithmische Kompetenz entwickeln
    In einer KI-dominierten Welt muss jeder sogenannte „Algorithmic Literacy“ entwickeln. Angelehnt an den Begriff der Alphabetisierung geht es dabei um Basiskompetenzen für die digitale Welt. Dazu gehört ein grundlegendes Verständnis von KI und der Funktionsweise der im Hintergrund ablaufenden Algorithmen, z. B. eine Vorstellung davon, welchen Output diese optimieren und was das für den Nutzer bedeutet. Algorithmic Literacy erfordert auch, dass Nutzer die Rolle und den Wert der persönlichen Daten verstehen, die sie Plattformen im Austausch für algorithmische Entscheidungsunterstützung überlassen. Das erlaubt es, Ergebnissen von KI-gesteuerten Empfehlungen und durch Algorithmen vorselektierten Informationen aufmerksam und kritisch zu begegnen (Abb. 1).

 

  • Entscheidungen bewusster treffen
    Die meisten Entscheidungen sind mit einem Risiko verbunden. Die Art des Risikos hängt davon ab, ob die Entscheidung automatisiert, algorithmisch unterstützt oder rein menschlich getroffen wird. Der Einzelne sollte ein Bewusstsein für seine Risikotoleranz gegenüber den verschiedenen Optionen und bei unterschiedlichen Zielen entwickeln. Insbesondere sollten Nutzer Entscheidungen darüber, was sie teilen, sehen oder konsumieren wollen, bewusster treffen.

Solche Kompetenzen und bewusste Entscheidungen werden zukünftig noch wichtiger sein. Smarte Technologien werden eine noch größere Rolle spielen in einer Welt, in der das Internet der Dinge jeden Gegenstand zum Sensor und zum Teil des Netzwerks macht. Stellen Sie sich zum Beispiel vor, wie die immer intelligenter werdenden persönlichen Assistenten – Alexa und Siri inklusive ihrer Weiterentwicklungen – eines Tages alltägliche Einkaufs- und Nutzungsentscheidungen automatisieren könnten. Oder stellen Sie sich vor, wie Augmented und Virtual Reality verändern könnten, wie wir mit Informationen interagieren. Es wird noch weniger Möglichkeiten geben, zu überprüfen und in Frage zu stellen, was wir sehen und konsumieren. Eine wachsende Zahl von technischen Geräten wird uns noch stärker von Algorithmen abhängig machen. Wann immer wir uns für mehr digitalen Komfort entscheiden, sollten wir daher auch über die Schattenseiten nachdenken.

Autor/en

Fabian Buder, Head of Future & Trends Research, Nuremberg Institute for Market Decision, Nuremberg, Germany, fabian.buder@nim.org

Koen Pauwels, Distinguished Professor of Marketing, Northeastern University, Boston, MA, USA, k.pauwels@northeastern.edu

Kairun Daikoku, Journalist, Nuremberg Institute for Market Decisions, Nuremberg, Germany

Literaturhinweise

Carrington, V. (2018): “The Changing Landscape of Literacies: Big Data and Algorithms”, Digital Culture & Education, Vol. 10, pp. 67–76.

Harris, Tristan and Aza Raskin (2019): “Down the Rabbit Hole by Design”, Your Undivided Attention (Podcast).

Ricciardi, Victor and Douglas Rice (2014): “Risk Perception and Risk Tolerance”, John Wiley & Sons, Inc.

Thompson, Kelly (2020): “YouTube’s plot to silence conspiracy theories”, Wired, September 18, https://www.wired.com/story/youtube-algorithm-silence-conspiracy-theories/