Soziale Robotik und KI

Insgesamt 30 Beiträge enthält der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“, wenn man das Vorwort mitzählt. Von Felix Lindner stammt die Abhandlung „Soziale Robotik und KI: Wie sich Roboter autonom nach Werten und Normen verhalten können“. Aus dem Abstract: „Während im öffentlichen Diskurs Künstliche Intelligenz und Robotik häufig ganz selbstverständlich zusammengedacht werden, haben sich historisch zwei separate Disziplinen entwickelt: die Künstliche Intelligenz beschäftigt sich mit der Formalisierung und Algorithmisierung von Schlussfolgern und Problemlösen, und die Robotik befasst sich mit der maschinellen Wahrnehmung der Umwelt sowie der autonomen Ausführung von Handlungen. In diesem Kapitel wird die Soziale Robotik als ein Bindeglied zwischen den beiden Disziplinen aufgefasst. Soziale Roboter sind Roboter, die sich nach den Werten und Normen des sozialen Miteinanders richten. Damit dies möglich wird, müssen Verfahren aus der Robotik um eine soziale Dimension erweitert werden. Eine Möglichkeit besteht darin, Techniken aus der Künstlichen Intelligenz zu verwenden, um soziale Werte und Normen explizit zu modellieren. Der Beitrag thematisiert das sogenannte Value-Alignment-Problem in der Künstlichen Intelligenz im Allgemeinen und demonstriert anhand von sozialer Roboter-Navigation im Speziellen, wie Techniken aus der Künstlichen Intelligenz für die Soziale Robotik genutzt werden können, damit Roboter ihre Handlungen nach menschlichen Werten und Normen ausrichten.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Harmony (Foto: Realbotix, bearbeitet)

How the Morality Menu Works

From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.

Fig.: The components of the MOBO-MOME

Privacy by Design

Petra Grimm und Tobias Keber von der Hochschule der Medien haben internationale Experten zu einem Experten-Round-Table zum Thema „Privacy by Design im automatisierten Autofahren“ an die Hochschule der Medien in Stuttgart eingeladen. Nach Angaben von Susanne Kuhnert entstand die Idee zu dem interdisziplinären Austausch zum Themenbereich „Datenschutz und Datensicherheit im automatisierten und autonomen Autofahren“ im Rahmen der Mitarbeit im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt KoFFI. „KoFFI“ stehe, so das Einladungsschreiben, „für eine kooperative Fahrer-Fahrzeug-Interaktion und erforscht und erarbeitet ein multimodales Interaktionstool, welches im automatisierten Fahrzeug der Zukunft zum Einsatz kommen soll“. Weitere Informationen dazu über www.digitale-ethik.de/forschung/forschungsprojekte/koffi/. Am 27. Juli 2017 diskutierten Expertinnen und Experten wie Rafael Capurro und Oliver Bendel zum Thema. Im Anschluss entstanden Videos mit zentralen Statements, produziert von Studierenden der Hochschule. Diese werden in einigen Tagen online gestellt.

Abb.: Wieviel Privatsphäre bietet das Auto der Zukunft?