Login

Artificial Voices in Human Choices

Wirkung sozialer Merkmale in der Mensch-Maschine-Kommunikation mit Blick auf das Marketing

Immer häufiger begegnet uns künstliche Sprache im Alltag: beim Autofahren mit Navigation, bei der Suche via Sprache im Internet oder beim Plausch mit Alexa, um nur ein paar Beispiele zu nennen. Dank neuester Fortschritte im Bereich der künstlichen Intelligenz klingen die künstlichen Stimmen auch immer natürlicher. Die Stimme ist ein mächtiger Informationsträger. Neben dem Inhalt verrät der Ton viel über persönliche und soziale Merkmale wie z.B. Geschlecht, Persönlichkeit, Identität und Emotion. Die Interpretation dieser Merkmale ist essentiell in der zwischenmenschlichen Interaktion und hat einen großen Einfluss auf Verhalten und Entscheidungen. Doch wie sieht es mit der sprachlichen Interaktion zwischen Mensch und Maschine aus? Ziel des Forschungsprojekts ist es, den Einfluss des Tonfalls künstlicher Stimmen auf Konsumentscheidungen zu untersuchen. Mithilfe neuester Deep Learning Verfahren aus dem Bereich der künstlichen Intelligenz generieren wir zunächst künstliche Stimmen mit bestimmtem Tonfall und testen anschließend den Einfluss auf Konsumentscheidungen in verschiedenen Experimenten.

Teilprojekt 1: Emotionen in der Mensch-Maschine-Kommunikation

Ein wichtiges soziales Merkmal der menschlichen Stimme ist die Emotion. Emotionen wirken in der Mensch-Mensch-Interaktion häufig ansteckend. Durch die Nachahmung von Mimik, Gestik und Stimme fühlen sich Menschen in die Stimmung des Gesprächspartners ein. Doch funktioniert das Phänomen der Gefühlsansteckung auch in der Mensch-Maschine-Kommunikation? Und welche Wirkung hat das ggf. auf menschliches Verhalten? Aus Marketingsicht stellt sich z.B. die Frage: Kann ein begeistert klingender Sprachassistent einen Konsumenten vom Produkt begeistern und zu einem Impulskauf animieren? Zu diesem Zweck haben wir ein Deep Learning Model entwickelt, das in der Lage ist, künstliche Sprache mit unterschiedlichen Emotionen zu generieren. Das macht es uns möglich, den Einfluss von synthetischen Stimmen auf das Kaufverhalten in Laborexperimenten zu testen.

Teilprojekt 2: Bekannte Stimmen in der Mensch-Maschine-Kommunikation

Neue Verfahren des Deep Learning ermöglichen es, künstliche Sprache in einem Tonfall zu erzeugen, so dass sie wie die Stimmen von bestimmten Personen klingen. Amazon bietet zum Beispiel seinen Alexa-Kunden in USA an, Samuel L. Jackson als Ausgabestimme zu wählen und weitere prominente Stimmen sind geplant. Für das Marketing eröffnet diese Technologie sowohl neue Potentiale (z.B. Präsentation personalisierter Inhalte in der Stimme eines Lieblingsstars) als auch neue Risiken (z.B. Veröffentlichung von Fake News in der Stimme eines wichtigen Entscheidungsträgers).

In unserer Forschung beschäftigen wir uns deshalb mit der Frage, wie künstliche Stimmen im Tonfall bekannter Personen auf Konsumenten wirken und inwiefern Aufklärung über die Möglichkeiten moderner Sprachsynthese die Wirkung beeinflussen und so zum Beispiel Fake Voice News entgegenwirken kann. Bestehende Forschung im Bereich Human-Computer-Interaction hat gezeigt, dass Personen künstlichen Stimmen gedanklich eine Persönlichkeit zuordnen und mehrere künstliche Stimmen als glaubhafter empfinden als eine künstliche Stimme - auch wenn man sie darauf hinweist, dass es sich um künstlich generierte Stimmen handelt. Es stellt sich daher für uns die Forschungsfrage, ob dies auch bei bekannten künstlich generierten Stimmen der Fall ist.

Studie: Emotionale Sprachassistenten beim Shopping

Studie zum Einfluss des emotionalen Tonfalls von Sprachassistenten auf das Kaufverhalten von Konsumenten. Sprachassistenten boomen: Die intelligenten Lautsprecher von Amazon, Google und anderen Anbietern ziehen immer häufiger in unsere Haushalte ein ...

Mehr erfahren

Ihr Ansprechpartner

Dr. Carolin Kaiser

René Schallner