Das Moralmenü

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Das Moralmenü

Künstliche Intelligenz bei der Deutschen Telekom

„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Die Telekom liebt KI

The Munchausen Machine

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born, a kind of a Munchausen machine. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: The adventures of Baron Munchausen

Neuerscheinung zur Moral in der Maschine

Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.

Abb.: Auch das Trolley-Problem kommt im Buch vor, als Roboterauto-Problem

Von der Pferdekutsche zum Roboterauto

Im Jahrbuch „Strassenverkehr Schweiz 2016“ geht es auch um Roboterautos. Die Wissenschaftsjournalistin Barbara Fischer hat im Technopark in Zürich den Maschinenethiker Oliver Bendel interviewt. Sie beginnt mit den Worten: „Autonome Fahrzeuge sind nichts Neues, bereits Kutschen haben so funktioniert. War der Kutscher betrunken oder eingeschlafen, blieben die Pferde vor einer Schlucht selbstständig stehen und warteten, bis der Kutscher die Steuerung wieder übernehmen konnte.“ Der Professor, der an der Hochschule für Wirtschaft FHNW arbeitet, meint: „Ein sehr schöner Vergleich. Im Grunde verfügen Kutschen über entsprechende Systeme. Das Pferd ist sozusagen der intelligente Antrieb und Fahrerassistent. Der Kutscher entspricht dem Autofahrer, er ist verantwortlich für das Gefährt. Meist sitzt er bewusst am Steuer, er kann die Führung aber auch delegieren. Ein spannendes Detail im Fall der Kutsche: Pferde haben ihren eigenen Kopf, wenn sie klug sind, bleiben sie rechtzeitig stehen, wenn sie Angst haben, rasen sie womöglich in den Abgrund.“ Im Folgenden plädiert Bendel für einfache moralische Maschinen und problematisiert komplexe moralische Maschinen wie autonome Autos, die über Leben und Tod von Menschen entscheiden. Das Jahrbuch mit dem Interview ist am 9. November 2015 erschienen. Es richtet sich an „die Gesamtheit aller Entscheidungsträger der Schweizer Verkehrsszene“ (www.kömedia.ch). Der Beitrag steht dank der freundlichen Genehmigung durch die Autorin und den Verlag kostenlos als PDF zur Verfügung.

Abb.: Eine Pferdekutsche in Wien

Waffenfeindliche 3D-Drucker

“Das Zähmen der Maschinen” ist der Titel eines Artikels von Danja Nüesch für SRF, Schweizer Radio und Fernsehen. Behandelt werden die Themen der Maschinenethik, auf der Grundlage eines Interviews mit Oliver Bendel. Der Professor für Wirtschaftsinformatik und Informationsethik an der Hochschule für Wirtschaft FHNW treibt auch Maschinenethik. Er spricht sich für einfache moralische Maschinen aus. Seine Paradebeispiele sind der GOODBOT, ein verbesserter Chatbot, und Ladybird, ein tierfreundlicher Saugroboter. Auch tierfreundliche Windkraftanlagen und waffenfeindliche 3D-Drucker werden angeführt. Von komplexen moralischen Maschinen rät Oliver Bendel eher ab. Die militärische Drohne sollte ebenso wie das selbstständig fahrende Auto bestimmte Entscheidungen den Menschen überlassen. Diese müssen also, als Soldaten, Insassen etc., intervenieren können. Nichts spricht dagegen, dass sich Roboterautos oder Fahrerassistenzsysteme in klar abgrenzbaren Situationen mit nur wenigen Optionen moralisch verhalten. Zum Beispiel kann – wie der Experte verschiedenenorts argumentiert – automatisch für ein Tier gebremst werden, wenn kein Hintermann zu sehen ist. Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/das-zaehmen-der-maschinen aufgerufen werden.

Abb.: Werk eines schuhfreundlichen 3D-Druckers (Quelle: commons.wikimedia.org, Autor: Strvct)