Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Şahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.
Abb.: Studenten der FHNW im Jahre 2016 im Silicon Valley mit einem Firefox-Mitarbeiter
The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Şahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion between the participants. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source large language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Şahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.
Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.
„Die Parkbucht des Karneades“ lautet der Titel eines Beitrags von Oliver Bendel, erschienen am 17. März 2015 in der Zeitschrift inside-it.ch. „Viereinhalb Dilemmata der Robotik“, so der Untertitel, werden erfunden, auf der Grundlage klassischer Gedankenexperimente. Buridans Esel verwandelt sich in Buridans Robot, wie schon in einem früheren Artikel aus Telepolis. Das Trolley-Problem und das Fetter-Mann-Problem sind in der heutigen Zeit bzw. in der nahen Zukunft das Roboterauto-Problem. Das Brett des Karneades wird zur Rettung verheißenden Parkbucht, in die zwei Roboterautos gelangen wollen. Pech für sie, dass nur eines von ihnen Platz hat. Gegen Ende des Artikels heißt es: „Weitere Dilemmata warten darauf, ins 21. Jahrhundert transportiert zu werden, in die Welt der Softwareagenten und Serviceroboter, der militärischen Drohnen und autonomen Autos. Sie dürfen dem Werk antiker und moderner Philosophen entnommen werden sowie dem der Science-Fiction-Autoren, von Isaac Asimov und Stanisław Lem. Sie sind für diejenigen gedacht, die ihren Kopf gebrauchen und ihre Handlungen überprüfen wollen.“ Über www.inside-it.ch/post/die-parkbucht-des-karneades-20150317 kann man einen Anfang machen.
Abb.: Für Drohnen, Flugzeuge und Helikopter können sich Dilemmata ergeben