9 Schieberegler, 18 Moralvorstellungen

Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.

Abb.: Auch hier gibt es Schieberegler

Ein wertegetriebener Nao-Roboter

Üblicherweise wird zwischen Ethik als Disziplin und Moral als Gegenstand dieser Disziplin unterschieden. Die Maschinenethik ist eine Disziplin, die nach der Möglichkeit maschineller Moral fragt. Dabei ist „maschinelle Moral“ ein Terminus technicus wie „künstliche Intelligenz“ (dieser Begriff steht für den Gegenstand, der wiederum von der Künstlichen Intelligenz als Disziplin hervorgebracht und erforscht wird). Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten dieses Settings imitieren bzw. simulieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, sie haben keine Intuition und keine Empathie. Darum geht es in der „schwachen Maschinenethik“ auch nicht. Sie sollen moralische Regeln befolgen, die ihnen vorgegeben wurden, oder solche Regeln selbst anpassen bzw. entwickeln. Zu den führenden Maschinenethikern gehören Michael Anderson und Susan Leigh Anderson. Zusammen mit Vincent Berenz (Max-Planck-Institut für Intelligente Systeme) haben sie einen Nao-Roboter mit einer Reihe von Werten programmiert, die sein Verhalten bestimmen und gleichzeitig einer Person in einer simulierten Einrichtung der Altenpflege helfen. In einem Video zeigen sie, wie der wertegetriebene Nao je nach Anforderung agiert und reagiert. Dieser ist ein weiteres überzeugendes Artefakt der Maschinenethik. Das Paper zu diesem Forschungsprojekt wird 2019 in den Proceedings of the IEEE publiziert und beim Berliner Kolloquium „Roboter in der Pflege“ präsentiert.

Abb.: Ausschnitt aus dem Video (Video: Anderson/Berenz)