Login

Soziale Normen in der Mensch-Computer-Interaktion

Soziale Normen in der Mensch-Computer-Interaktion und die Rolle von Anthropomorphismus

Digitale Hilfssysteme oder Sprachassistenten wie Cortana, Alexa oder Siri dringen in immer mehr Regionen des täglichen Lebens vor. Auch bei Entscheidungen unterstützen künstliche Agenten immer häufiger: Sei es bei der Kaufentscheidung von Konsumenten oder bei der Anlagestrategie im Businesskontext. Gleichzeitig arbeiten Entwickler daran, die System immer „menschlicher“ zu gestalten: Sie bekommen menschliche Eigenschaften, wie Namen oder eine Stimme, und adaptieren zunehmend menschliches Verhalten, wie z.B. eine natürlichere Sprache oder Empathie.

Bei der Interaktion mit Menschen, z.B. in Verhandlungen oder ökonomischen Transaktionen, spielen soziale Normen, wie z.B. Fairness, eine wichtige Rolle. Aber wie verhält es sich damit, wenn mit Maschinen interagiert wird? In Laborexperimenten wird deshalb untersucht, wie sich soziale Normen verändern, wenn mit Computer-Agenten anstelle von Menschen interagiert wird und welchen Einfluss dabei menschliche Charakteristika spielen.

Teilprojekt 1: Der Einfluss der Stimme auf Reziprozität und Fairness

Im sogenannten Ultimatum-Spiel hat ein Individuum die Möglichkeit, einen Geldbetrag zwischen sich und einem Empfänger aufzuteilen und diese Aufteilung dem Empfänger anzubieten. Wird dieses Angebot angenommen, erhalten beide Personen eine Auszahlung entsprechend des Angebots; wird das Angebot abgelehnt, gehen beide Spieler leer aus. In einer Reihe von Laborexperimenten wird untersucht, ob es einen Unterschied macht, ob ein unfaires Angebot von einem Menschen oder einem Computeragenten gemacht wird. Auch wird analysiert, ob es zu unterschiedlichem Verhalten kommt, wenn das Angebot mittels „Stimme“, also gesprochenem Wort übermittelt wird.

Teilprojekt 2: Der Einfluss sozialer Normen und motivationale Orientierung auf die Präferenzen am Beispiel selbstfahrender Autos – eine interkulturelle Studie

Aus der soziologischen Forschung ist bekannt, dass sich Kulturen bezüglich ihrer sozialen Normen, z.B. kollektivistische versus individualistisch, und/oder bezüglich der motivationalen Orientierung („Prevention“ versus „Promotion“) unterscheiden. In einem Laborexperiment wird daher untersucht, wie sich die Wahrnehmung eines AI-basierten High-Tech Produktes interkulturell unterscheidet, wenn es unterschiedliche soziale Normen und motivationale Orientierung repräsentiert.