Wen retten – Fahrzeuginsassen oder Fußgänger?
Eine weitere Online-Studie unter US-Bürgern setzte sich noch intensiver mit der Komplexität des Themas KI-gesteuerter Entscheidungsfindung in Gefahrensituationen auseinander. Diese Studie untersuchte den Trade-off zwischen der Rettung von Fahrer und Fahrgästen gegenüber der Rettung von Fußgängern und anderen Verkehrsteilnehmern - das in Abbildung 1 veranschaulichte Dilemma. Im Prinzip begrüßten die Teilnehmer utilitaristische AFs, bei denen die Zahl der Opfer minimiert wurde. Die moralische Zustimmung nahm mit der Anzahl der zu rettenden Leben zu. Die Zustimmung der Teilnehmer, Insassen zu opfern, war sogar dann noch leicht positiv, wenn sie sich selbst und ein Familienmitglied als Insassen des AFs vorstellen mussten. Die Konsumenten wünschen jedoch vor allem, dass die anderen Konsumenten AFs mit einem utilitaristisch ausgerichteten Algorithmus kaufen, während sie selbst ein autonomes Fahrzeug bevorzugen würden, das um jeden Preis die eigenen Insassen schützt. Darüber hinaus lehnten die Studienteilnehmer die Durchsetzung utilitaristischer Vorschriften für AFs ab und würden ein AF, bei dem nicht die Insassen an erster Stelle stehen, weniger gern kaufen. Das moralische Dilemma bedingt also ein soziales Dilemma, das es zu lösen gilt.
Mögliche Maßnahmen zur Lösung des ethischen Dilemmas von selbstfahrenden Fahrzeugen
Fahrzeuge, die über Tod oder Leben selbstständig und ohne unmittelbare menschliche Eingriffsmöglichkeiten entscheiden können, sind eine neue globale Herausforderung. Das Problem betrifft nicht nur einen Nischenmarkt, sondern täglich alle Verkehrsteilnehmer, egal ob sie mit dem Auto, dem Rad oder zu Fuß unterwegs sind. Bevor wir AFs unsere Straßen überlassen, müssen Produzenten deshalb nicht nur technische, sondern auch gesellschaftliche Herausforderungen meistern:
- Führen allgemeiner Diskussionen über die Ethik künstlicher Intelligenz
Alle Stakeholdergruppen sollten die Herausforderungen der „Maschinenethik“ als einzigartige Chance nutzen, um gemeinschaftlich zu entscheiden, was richtig und falsch ist. Danach sollten wir sicherstellen, dass Maschinen im Gegensatz zu Menschen den vereinbarten moralischen Präferenzen ausnahmslos folgen. Wir werden vermutlich keine universelle Übereinstimmung erzielen, wie die Umfrage zu moralischen Maschinen zeigt, aber dass sich weite Teile der Welt doch ziemlich einig sind, ist ermutigend.
- Erarbeitung eines neuen gesellschaftlichen Vertrags
Vor mehr als hundert Jahren haben Automobile begonnen, die Straßen der Welt zu erobern. Damals wurden die ersten gesetzlichen Vorgaben eingeführt, die das Verhalten von Autofahrern und Fußgängern sowie die Produktionsstandards der Hersteller regelten. Dieses Regelwerk wurde laufend weiterentwickelt und stellt insgesamt ein Verkehrssystem dar, dem die Gesellschaft im Großen und Ganzen vertraut. Die Integration autonomer Fahrzeuge wird sehr bald einen neuen Gesellschaftsvertrag mit klaren Richtlinien dafür erfordern, wer für verschiedene Arten von Unfällen verantwortlich ist, wie die Überwachung und Durchsetzung von Regeln erfolgen soll und wie man Vertrauen zwischen allen Beteiligten schaffen kann. Dieser Prozess wird ähnlich transformativ sein wie damals, aber wahrscheinlich in einem viel kürzeren Zeitraum stattfinden.
- Vertrauensfördernde Maßnahmen zur Vorbereitung der Öffentlichkeit setzen
Das moralische Dilemma, wer bei lebensbedrohlichen Vorfällen gerettet werden soll, führt zu einem sozialen Dilemma. Die Menschen erkennen den utilitaristischen Ansatz als den ethischeren an, und als Mitbürger wollen sie, dass Autos so viele Menschenleben retten wie möglich. Als Konsumenten hingegen möchten sie ein Auto, das sie selbst am besten schützt. Sowohl die Umsetzung der einen als auch der anderen Strategie birgt für Hersteller gewisse Risiken: Setzen sie auf Selbstschutz, riskieren sie öffentliche Empörung, setzen sie hingegen auf eine utilitaristische Strategie, könnten sie Konsumenten abschrecken. Damit sich die Menschen sicher fühlen und AFs vertrauen können, brauchen wir einen öffentlichen Diskurs darüber, dass AFs ganz generell zu einer Verringerung der Unfallquote führen und dadurch auch das Risiko für Fahrgäste reduzieren. Andernfalls könnte die intensive Medienberichterstattung über seltene Unfälle die Risikowahrnehmung potenzieller Insassen verzerren und die positiven, weitaus größeren Sicherheitseffekte irrational überschatten.
Die nächste Zeit wird spannend
Die Konzeption ethisch autonomer Maschinen ist eine der schwierigsten Herausforderungen in der aktuellen Entwicklung der künstlichen Intelligenz. Da wir im Begriff sind, Millionen von Fahrzeugen mit Entscheidungsautonomie auszustatten, ist eine ernsthafte Beschäftigung mit der Moral von Algorithmen dringlicher denn je. Unser datenbasierter Ansatz zeigt, wie der Bereich der experimentellen Ethik wichtige Erkenntnisse über die moralischen, kulturellen und rechtlichen Standards liefern kann, die Menschen von den Algorithmen selbstfahrender Fahrzeuge erwarten. Und selbst wenn wir diese Probleme angehen und schließlich lösen, bleiben weitere Herausforderungen im Zusammenhang mit AFs nach wie vor brisant, wie z.B. Hacking, Haftungsfragen und die Verdrängung menschlicher Arbeitskräfte. Es ist und bleibt interessant!