Keynote „Pflegeroboter aus ethischer Perspektive“

Beim „uDay 20: Innovation in der Pflege – gewusst wie!“ am 20. September 2022 an der Fachhochschule Vorarlberg hält Oliver Bendel die Keynote „Pflegeroboter aus ethischer Perspektive“. Aus der Beschreibung: „Pflege- und Therapieroboter können als Serviceroboter und in vielen Fällen auch als soziale Roboter begriffen werden. Im Vortrag von Professor Dr. Oliver Bendel aus Zürich werden die Ziele, Aufgaben und Merkmale geklärt und, davon ausgehend, Überlegungen aus der Perspektive der Ethik angestellt. Am Ende soll deutlich werden, welche Robotertypen und Prototypen bzw. Produkte es im Gesundheitsbereich gibt, welche Zwecke sie erfüllen, welche Funktionen sie übernehmen und welche Implikationen und Konsequenzen dies für den Einzelnen und die Gesellschaft hat. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Therapieroboter können die persönliche Leistung und Zufriedenheit steigern, in Einzelfällen aber auch die Menschenwürde verletzen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Dabei können nicht zuletzt Disziplinen wie die Maschinenethik helfen.“ Die Keynote beginnt um 9.15 Uhr. Das Programm kann hier heruntergeladen werden.

Abb.: Oliver Bendel bei einem Dreh mit 3sat an der FHNW (Foto: Sara Zarubica)

Ein Moralmodul für einen Pflegeroboter

Die Abschlussarbeit von Marc Heimann mit dem Titel „CARE-MOMO“ beschreibt die Implementierung eines Moralmoduls für den Pflegeroboter Lio. Damit werden frühere Projekte fortgesetzt, vor allem die Entwicklung eines Moralmoduls für einen Chatbot (MOBO-MOME) aus dem Jahre 2020. Die Forschungsfrage lautet: „Welche moralischen Probleme treten beim Einsatz eines Pflegeroboters wie Lio auf und wie kann eines von ihnen mithilfe von Ansätzen der Maschinenethik gelöst werden?“ (Abstract Bachelorarbeit) „Durch Expertengespräche mit der Firma F&P Robotics AG und Interviews mit Mitarbeitenden, welche Lio täglich nutzen, konnten einige dieser moralischen Probleme identifiziert werden. Auch bereits bekannte moralische Problemsituationen von Robotern in der Pflege wurden durch wissenschaftliche Literaturrecherche der Sammlung hinzugefügt.“ (Abstract Bachelorarbeit) Des Weiteren wurden die Akzeptanz gegenüber und das Interesse an Robotern in der Pflege analysiert. Mit dem gesammelten Wissen entwickelte Marc Heimann anschließend einen „Prototyp eines Moralmoduls …, welches ein Moralmenü beinhaltet, das den Benutzer Lios Verhalten … individuell anhand der moralischen Probleme anpassen lässt“, und zwar auf einfache Weise mit Hilfe von Schiebereglern. Zur Verfügung stehen die Bereiche Soziale Aspekte, Transparenz und Funktionalität. „Umgesetzt wurde das Moralmodul als Webservice, damit Lio es in Zukunft auf einem Tablet zur Verfügung stellen kann.“ (Abstract Bachelorarbeit) Dabei kann es sich um das integrierte Display oder ein separates Tablet handeln. Im Herbst werden die Ergebnisse dem Unternehmen vorgestellt, das in Glattbrugg bei Zürich seinen Sitz hat. Ein Video zum Projekt findet sich in der Videosektion oder direkt auf YouTube.

Abb.: Ein Ausschnitt aus dem Bereich Transparenz im Moralmenü (Illustration: Marc Heimann)

Ein Moralmodul, das über die Moral hinausgeht

Das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“) soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen Vorstellungen und grundsätzlichen Einstellungen übertragen. Marc Heimann erarbeitete ab Frühjahr 2022 im Rahmen seiner Abschlussarbeit die Optionen, die in einem Brainstorming mit dem Betreuer Oliver Bendel ergänzt und von F&P Robotics begutachtet wurden. Implementiert wird bis Mitte August ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich etwa die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Das CARE-MOMO wird als Webservice mithilfe von Spring prototypisch umgesetzt. Verwendet werden HTML, CSS und JavaScript sowie das Bootstrap-Framework für die Webseite und Java, JSON und REST für die Services und das Back-End. Die Firma entscheidet dann in der Folge, ob das Moralmodul gesamthaft oder teilweise für das Produkt übernommen wird.

Abb.: Der P-Rob-Arm ist Teil von Lio (Foto: Daimler und Benz Stiftung)

9 Schieberegler, 18 Moralvorstellungen

Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.

Abb.: Auch hier gibt es Schieberegler

Das MOME-Projekt startet

An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das siebte Artefakt der Maschinenethik. Ideen- und Auftraggeber ist Prof. Dr. Oliver Bendel. Die Maschinenethik bringt moralische und unmoralische Maschinen hervor, derzeit als Konzepte, Simulationen oder Prototypen. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschinen sind damit zu bestimmten Aktionen in der Lage, zu anderen nicht. Ein Ansatz, der eine gewisse Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Im Projekt wird ein MOME prototypisch implementiert, das auf ein bereits bestehendes oder ein im Projekt entwickeltes System zugreift.

Abb.: Ein MOME für LADYBIRD

Überlegungen zur Stellvertretermoral

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert. Die Maschinen, um die es geht, sind LADYBIRD, der tierfreundliche Saugroboter, und Google Duplex. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag wurde am 27. Januar 2019 veröffentlicht und kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Die Marienkäfer dürfen leben

Die Moral der Roboter

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel „Brauchen Roboter Moral?“ kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Elektro hat noch keine künstliche Moral

Das Moralmenü

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Das Moralmenü