Die heikle Herausforderung, Maschinen Moral beizubringen: Ethische Dilemmas autonomer Fahrzeuge
Edmond Awad, Jean-François Bonnefon, Azim Shariff und Iyad Rahwan
Die Algorithmen zur Steuerung von AFs müssen moralischen Prinzipien folgen, die ihre Entscheidungen in Situationen unvermeidlichen Schadens leiten. Hersteller und Regulierungsbehörden sind dabei mit drei potenziell inkompatiblen Zielen konfrontiert: konsistent sein, keine öffentliche Empörung hervorrufen und die Käufer nicht abschrecken. Die Studie zu „moralischen Maschinen“ ist der Versuch herauszufinden, wie Menschen auf der ganzen Welt über die alternativen Entscheidungsmöglichkeiten denken, die selbstfahrende Fahrzeuge mittels KI treffen müssen. Die globale Studie zu ethischen Präferenzen zeigt in vielen Bereichen Übereinstimmung bei unvermeidlichen Unfällen. Um die Herausforderungen zu lösen, sollten alle Stakeholdergruppen das Thema „Maschinenethik“ als einzigartige Chance nutzen, um gemeinschaftlich zu entscheiden, was wir für richtig oder falsch halten. Die Integration autonomer Fahrzeuge erfordert einen neuen Gesellschaftsvertrag mit klaren Richtlinien dafür, wer für verschiedene Arten von Unfällen verantwortlich ist, wie die Überwachung und Durchsetzung von Regeln erfolgen soll, und wie man Vertrauen zwischen allen Beteiligten schaffen kann.
Literaturnachweise
- Awad, E., Dsouza, S., Kim, Ri., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J. F., & Rahwan, I. (2018). The Moral Machine Experiment. Nature, 563. doi 10.1038/s41586-018-0637-6
- Bonnefon, J.-F., Shariff, A., & Rahwan, I. (2016). The Social Dilemma of Autonomous Vehicles. Science, 352. doi: 10.1126/science.aaf2654
- Bonnefon J. F., Shariff A., Rahwan, I. (2019). The trolley, the bull bar, and why engineers should care about the ethics of autonomous cars. Proceedings of the IEEE, Vol. 107, 502–504.
- Shariff, A., Bonnefon, J. F., Rahwan, I. (2017). Psychological roadblocks to the adoption of self-driving vehicles. Nature Human Behaviour. https://doi.org/10.1038/s41562-017-0202-6