Wie entscheidet ein LLM beim Trolley-Problem?

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: So sieht Ideogram das Trolley-Problem

How Does ChatGPT Decide on the Trolley Problem?

On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.

Fig.: A trolley in San Francisco

Die Parkbucht des Karneades

„Die Parkbucht des Karneades“ lautet der Titel eines Beitrags von Oliver Bendel, erschienen am 17. März 2015 in der Zeitschrift inside-it.ch. „Viereinhalb Dilemmata der Robotik“, so der Untertitel, werden erfunden, auf der Grundlage klassischer Gedankenexperimente. Buridans Esel verwandelt sich in Buridans Robot, wie schon in einem früheren Artikel aus Telepolis. Das Trolley-Problem und das Fetter-Mann-Problem sind in der heutigen Zeit bzw. in der nahen Zukunft das Roboterauto-Problem. Das Brett des Karneades wird zur Rettung verheißenden Parkbucht, in die zwei Roboterautos gelangen wollen. Pech für sie, dass nur eines von ihnen Platz hat. Gegen Ende des Artikels heißt es: „Weitere Dilemmata warten darauf, ins 21. Jahrhundert transportiert zu werden, in die Welt der Softwareagenten und Serviceroboter, der militärischen Drohnen und autonomen Autos. Sie dürfen dem Werk antiker und moderner Philosophen entnommen werden sowie dem der Science-Fiction-Autoren, von Isaac Asimov und Stanisław Lem. Sie sind für diejenigen gedacht, die ihren Kopf gebrauchen und ihre Handlungen überprüfen wollen.“ Über www.inside-it.ch/post/die-parkbucht-des-karneades-20150317 kann man einen Anfang machen.

Abb.: Für Drohnen, Flugzeuge und Helikopter können sich Dilemmata ergeben