Het morele gevaar van zelfrijdende auto’s: wie voelt zich nog verantwoordelijk?

10 augustus 2020

Tesla, Google en ongetwijfeld ook de traditionele fabrikanten werken hard toe naar zelfrijdende auto’s. Die kunnen de uitstoot beperken, files laten verdwijnen en bovendien ongevallen kunnen voorkomen. Al gaat er ook met de tests nog wel eens wat mis, waardoor zo’n 3 op de 4 het maar eng vindt om er in te gaan rijden. En stel dat zo’n auto inderdaad niet meer kan remmen voor een plotseling overstekende voetganger, wie is er dan eigenlijk verantwoordelijk? Zou de auto uit zichzelf opzij moeten sturen, ook als daar een muur staat waardoor je als ‘bestuurder’ gewond raakt?

3 sterren *** – Wetenschappelijke inzichten vanuit de consumentenpsychologie, vertaald naar concrete voorbeelden.

Het is moreel dilemma, dat er als volgt uitziet:

Je rijdt alleen in een reguliere auto. Plots steekt er een voetganger over. Je kunt niet meer helemaal stoppen. Je moet kiezen:

  1. Gooi het stuur om en voorkom dat je de voetganger aanrijdt, maar bots daardoor een muur en raak zelf gewond.
  2. Blijf rijden en rijd de voetganger aan, maar voorkom dat je tegen een muur botst en je zelf gewond raakt.

Het is een moreel dilemma, waarbij de meeste mensen ervoor kiezen om weg te sturen en zelf gewond te raken. Maar hoe zit dat als je rijdt in een zelfrijdende auto? En die de keuze moet maken om het stuur om te gooien of toch maar te blijven rijden?

Hoe moreel is een zelfrijdende auto?

Als het de zelfrijdende auto (in plaats van jijzelf) is die de auto bestuurt, dan ervaar je minder controle over zowel de acties van de auto en daardoor ook minde verantwoordelijkheid daarvoor. Zodat je jezelf als ‘bestuurder’ kunt beschermen door weg te laten sturen, zonder dat je daar de volledige morele prijs voor betaalt.

Een groter deel van de mensen vindt het moreel acceptabel dat de auto gewoon door blijft rijden en z’n bestuurder redt, om zo hard mogelijk te remmen en daarbij (omdat het niet anders kan) toch de voetganger aan te rijden.

Jij of de auto: wie is er verantwoordelijk?

Een zelfrijdende auto is een stuk techniek. Al doen de fabrikanten er alles aan om die zoveel mogelijk te vermenselijken. Je kunt denken aan aan systemen die we al kennen, zoals He Mercedes die je als een persoonlijke assistent aanspreekt en bijstaat.

Het maakt de moraliteit van de nieuwe generatie automobielen er niet makkelijker op. Al wordt ook daar natuurlijk hard over nagedacht, waarbij het gaat om ‘machine ethics’ of ‘machine morality’. Tot nu toe bestaat de moraliteit van machines om 3 belangrijke voorwaarden:

  • Morele gedachten en gevoelens

    Beslissingen over goed en fout, schuld, oorzaak-gevolg-gedachten en eventueel emotionaliteit daarbij.
  • Moreel handelen en kiezen

    Het vermogen om een keuze te maken uit beschikbare opties en te handelen naar specifieke doelstellingen.
  • Moreel communiceren

    De eigen keuze kunnen uitleggen en die van anderen onder woorden kunnen brengen.

Wat dat betreft lijkt de moraliteit die er verwachten van machines op die van ons mensen. Iets dat bijvoorbeeld blijkt uit het trolley-probleem, dat werd uitgevoerd met autonome voertuigen en tot min of meer dezelfde resultaten leidde als bij een door mensen bestuurd voertuig.

Aangereden door een autonome auto?

Of je iemand schade mag berokkenen hangt volgens de traditionele morele psychologie af van twee factoren:

  • Utilitarisme
    Je probeert het aantal slachtoffers te beperken. Als je 5 levens kunt redden door er één op te geven doe je dat.
  • Deontologie (ethiek)

    Je morele overweging moet gaan over of je zelf handelt of niet. Als je actief één leven opgeeft om er 5 te redden is die actie niet toegestaan.

In algemene zin geldt dat iemand moreel verantwoordelijk wordt gehouden als de acties intentioneel, controleerbaar en afzonderlijk veroorzaakt zijn. Met name de controleerbaarheid is bij een autonome niet of nauwelijks aanwezig, waardoor het gevoel van verantwoordelijkheid verdwijnt.

Opvallend in het onderzoek was overigens dat de moraliteit alleen verschoof als het ging om het eigen leven ten opzichte van dat van één volwassen voetganger. Gaat het om meerdere voetgangers of om een kind dat oversteekt? Dan zijn de meesten het erover eens dat de auto weg zou moeten sturen en z’n bestuurder zou moeten verwonden.

Andersom worden machines verantwoordelijk geacht als het 1) zowel de omgeving als eventuele slachtoffers kan waarnemen, 2) kiest uit meerdere eigen acties en daar de gevolgen van kan beredeneren, 3) een vrije wil heeft om acties te ondernemen, 4) menselijke eigenschappen bevat en 5) schade kan berokkenen met zichtbare consequenties.

Een autonome auto kan voetgangers en passagiers waarnemen, besluiten om wel of niet weg te sturen en heeft bijvoorbeeld sommige menselijke eigenschappen door de persoonlijke assistenten (He Mercedes). Andersom heeft een zelfrijdende auto natuurlijk geen vrije wil.

Meer voetgangers aangereden

Uit meerdere experimenten blijkt dat meer mensen het moreel acceptabel vinden dat een autonome auto een voetganger aanrijdt, dan wanneer je zelf achter het stuur zou zitten. Dat komt door de lagere mate van ervaren controle, waardoor de ‘bestuurder’ zich minder verantwoordelijk voelt.

Opvallend in het onderzoek was overigens dat de moraliteit alleen verschoof als het ging om het eigen leven ten opzichte van dat van één volwassen voetganger. Gaat het om meerdere voetgangers of om een kind dat oversteekt? Dan zijn de meesten het erover eens dat de auto weg zou moeten sturen en z’n bestuurder zou moeten verwonden.


Interessant artikel gelezen? Help me het bereik te vergroten met een like op Facebook. Zelf op de hoogte blijven van leuke psychologische inzichten? Abonneer je dan op de nieuwsbrief, zodat je iedere vrijdag de artikelen van die week van me ontvangt.

Wetenschappelijke bronnen

Verder lezen: Gill, T. (2020). Blame it on the self-driving car: How autonomous vehicles can alter consumer morality. Journal of Consumer Research, 47, 272-291.

Bigman, Yochanan E., Adam Waytz, Ron Alterovitz, and Kurt Gray (2019), “Holding Robots Responsible: The Elements of Machine Morality,” Trends in Cognitive Sciences, 23 (5), 365–8.

Deng, Boer (2015), “Machine Ethics: The Robot’s Dilemma,” Nature, 523 (7558), 24–6.

Edmonds, Ellen (2019), “Three in Four Americans Remain Afraid of Fully Self-Driving Vehicles,” American Automobile Association, https://newsroom.aaa.com/2019/03/americans- fear-self-driving-cars-survey/.

Malle, Bertram F. (2016), “Integrating Robot Ethics and Machine Morality: The Study and Design of Moral Competence in Robots,” Ethics and Information Technology, 18 (4), 243–56.

Waldrop, M. Mitchell (2015), “Autonomous Vehicles: No Drivers Required,” Nature, 518 (7537), 20–3.

Weiner, Bernard (1995), Judgments of Responsibility: A Foundation for a Theory of Social Conduct, New York: Guilford Press.

You Might Also Like

No Comments

Leave a Reply