Moral Prompt Engineering

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)

Interview mit Oliver Bendel zur Maschinenethik

Oliver Bendel war ab 2012 einer der ersten Maschinenethiker in Europa und ist bis heute einer wenigen weltweit, die laufend Prototypen – sogenannte moralische Maschinen – erstellen und erforschen, vor allem Chatbots und Sprachassistenten sowie tierfreundliche Maschinen. Seine Beschäftigung mit Roboter- und Maschinenethik begann in den 1990er-Jahren, als er sich mit der Verantwortung und den Rechten und Pflichten von Systemen beschäftigte, auf der Grundlage der Arbeiten von William Bechtel und James H. Moor. Er ist bis heute der Überzeugung, dass Computer und Roboter keine Verantwortung tragen und keine Rechte und Pflichten haben können. Man kann ihnen lediglich Verpflichtungen auferlegen oder, noch schwächer ausgedrückt, Aufgaben geben, die sie als unsere Werkzeuge und Diener abzuarbeiten haben, und moralische Regeln, an die sie sich halten müssen – eben das ist die Aufgabe der Maschinenethik. Im Kundenmagazin ti&m special vom Januar 2024 ist ein Interview mit Oliver Bendel abgedruckt. Darin geht es um autonome Maschinen, von deren Einsatz er in manchen Bereichen abrät, und um die Disziplin der Maschinenethik. Der Beitrag mit dem Titel „In manchen Kontexten sollten wir keine autonomen Systeme einsetzen“ kann hier heruntergeladen oder über die Website des Unternehmens bezogen werden.

Abb.: Furhat bei der ICSR 2023 in Qatar

Wie man künstliche Moral schafft

„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober bis Anfang November 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Enthalten ist ein Beitrag von Prof. Dr. oec. HSG Oliver Bendel mit dem Titel „Brauchen Computer eine Moral?“ … Im Teaser der Redaktion ist zu lesen: „In Form von Chatbots, Rasenrobotern und autonomen Autos sind die Computer heute überall. Je mehr die Maschinen können, umso dringlicher scheint es, ihnen unter Einbezug der Ethik Regeln zu geben.“ Der Artikel des Informations- und Maschinenethikers aus Zürich ist am 1. November 2022 freigeschaltet worden und kann über www.derpragmaticus.com/r/maschinenethik/ aufgerufen werden.

Abb.: Eine Skulptur auf der Biennale in Venedig

Über die künstliche Moral

„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.

Abb.: Oliver Bendel mit NAO (Foto: Stefanie Hauske)

Digitale Spielewelten

Die aktuelle Ausgabe von Ethik & Unterricht (3/2021) trägt den Titel „Digitale Spielewelten“. Auf der Website des Verlags heißt es: „Digitale Spiele sind in der Freizeitkultur und Lebenswelt der meisten Schülerinnen und Schüler fest verankert. In jüngerer Zeit haben sich zahlreiche didaktische Vorschläge dem Einsatz von digitalen Spielen auch im Philosophie- und Ethikunterricht zugewandt. Bei einigen Lehrkräften mögen Unsicherheiten bestehen. Überwiegen die motivationalen Vorteile oder wiegen die skeptischen Bedenken zum sinnvollen Einsatz von Computerspielen im Unterricht schwerer? Die Beiträge richten sich auch an Lehrkräfte, die mit digitalen Spielen Neuland betreten. Es sollen dabei Möglichkeiten aufzeigt werden, wie man mit oder durch solche Spiele neue Konzepte im Philosophieunterricht entwickeln kann.“ (Informationstext auf der Website) Zum Begleitmaterial gehört u.a. eine Zusammenfassung eines Artikels von Oliver Bendel, der zuerst in der Zeitschrift Aus Politik und Zeitgeschichte (6-8/2018) erschienen ist und – so der Titel – „Überlegungen zur Disziplin der Maschinenethik“ anstellt. In Ethik & Unterricht lautet der Titel „Über den moralischen Status von Maschinen“. Der Informationsethiker und Maschinenethiker ist der Ansicht, dass Robotern keine Rechte zukommen. Auch Pflichten im engeren Sinne haben sie nicht – sie können wohl aber Aufgaben übernehmen und sich dabei an moralische Regeln halten, die man ihnen vorgegeben hat. In diesem Falle sind sie sogenannte moralische Maschinen („moral machines“), also Maschinen mit einer künstlichen Moral („artifical morality“).

Abb.: Digitale Spielewelten in Zürich

Wenn Philosophie und Technik aufeinandertreffen

Die Maschinenethik ist zwischen Philosophie, Informatik und Robotik angesiedelt. Die Soziale Robotik bringt Maschinen hervor, die für den Umgang mit Menschen und Tieren gedacht sind. Innerhalb eines Jahrzehnts – von 2012 bis 2021 – hat Prof. Dr. Oliver Bendel 20 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik vorgestellt. Elf davon wurden bis zum jetzigen Zeitpunkt von den jeweiligen Teams umgesetzt, zuletzt SPACE THEA, ein Sprachassistent für Marsflüge. Eine neue Grafik präsentiert die mathematischen Formeln, annotierten Entscheidungsbäume und Systeme bzw. Maschinen und erklärt sie in aller Kürze. Auch zwei geplante Projekte werden aufgeführt, nämlich ANIFACE (ein Gesichtserkennungssystem für Wölfe und Bären) und CARE-MOMO (ein Moralmodul für Pflegeroboter, die auf Cobot-Technologie beruhen). Es handelt sich durchweg um Low-Budget-Projekte. Es liegen Projektdokumentationen und Konferenzpapers respektive Buchbeiträge vor. Die meisten Artefakte werden auch in Videos gezeigt, die auf informationsethik.net und maschinenethik.net gesammelt werden. Die Medien haben hauptsächlich über den LIEBOT, über LADYBIRD und HAPPY HEDGEHOG berichtet.

Abb.: 13 Umsetzungen innerhalb eines Jahrzehnts

Kann Spuren von Ethik enthalten

Das Magazin What’s N3xt wartet in seiner Ausgabe 1/2021 mit Beiträgen zu Robotik und KI auf. In „Uns fehlen Helden!“ erklärt ein bekannter Investor, „was ihn antreibt und warum er auf technologische Innovationen steht“. „Mit 10‑xDNA beschreibt Frank Thelen die Denkweise, die erforderlich ist, um die vor uns liegenden technologischen Fortschritte und Innovationen zu erfassen und zu nutzen.“ (What’s N3xt, 1/2021) In „Nächste Ausfahrt Zukunft“ steht Ranga Yogeshwar Rede und Antwort. „Wir vertrauen Algorithmen, die wir nicht mal nachvollziehen können. Und diese Systeme lernen schneller, als wir Menschen es tun. Neuronale Netze und Machine Learning sind Teil unseres täglichen Lebens geworden.“ (What’s N3xt, 1/2021) „KI trifft Ethik“ wird mit den folgenden Worten angeteasert: „Wie kriegt man menschliche Moral in künstliche Intelligenzen?“ (What’s N3xt, 1/2021) Die Antwort kennt der Informations- und Maschinenethiker Oliver Bendel, der moralische Maschinen baut, Chatbots und Serviceroboter, die moralischen Regeln folgen. Das gesamte Magazin kann hier heruntergeladen werden.

Abb.: Der Beitrag mit Oliver Bendel

„Handbuch Maschinenethik“ wird nachgefragt

Vor über einem Jahr ist das „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel) bei Springer VS erschienen. Es versammelt Beiträge der führenden Expertinnen und Experten in den Bereichen Maschinenethik, Roboterethik, Technikethik, Technikphilosophie sowie Roboterrecht. Es ist ein umfangreiches, ein vorzeigenswertes, ein einzigartiges Buch geworden. In gewisser Weise bildet es ein Gegenstück zur amerikanischen Forschung, die die Disziplin dominiert: Die meisten Autorinnen und Autoren (unter ihnen Julian Nida-Rümelin, Catrin Misselhorn, Eric Hilgendorf, Monika Simmler, Armin Grunwald, Matthias Scheutz, Janina Loh und Luís Moniz Pereira) stammen aus Europa und Asien. Seit 2017 hatten sie mitgearbeitet und laufend eingereicht, bis es dann zur Drucklegung kam. Der Herausgeber, der sich seit 20 Jahren mit Informations-, Roboter- und Maschinenethik beschäftigt und seit neun Jahren intensiv zur Maschinenethik forscht, zeigt sich erfreut, dass bereits 53.000 Downloads zu verzeichnen sind – für ein hoch spezialisiertes Buch eine ganze Menge. Der erste Beitrag für eine zweite Auflage liegt auch vor, nämlich der Beitrag „The BESTBOT Project“ …

Abb.: Das Cover des Handbuchs

Hi, AI

Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) In „Hi, AI“ tritt übrigens Harmony auf, ein bekannter Sexroboter. Er begleitet einen Trucker bei einem Roadtrip durch die USA. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.

Abb.: Henry, der Bruder von Harmony (Foto: Realbotix)

Technische und ethische Fragen in der transhumanistischen Zukunft

Im Spätsommer 2020 erscheint das Buch „Bessere Menschen?“ (Untertitel: „Technische und ethische Fragen in der transhumanistischen Zukunft“), mit Beiträgen u.a. von Karlheinz Steinmüller, Stefan Sorgner, Tanja Kubes, Melike Şahinol und Oliver Bendel. Aus der Verlagsinformation: „Das 21. turmdersinne-Symposium beschäftigte sich mit der laut Francis Fukuyama ‚gefährlichsten Idee der Welt‘. Es wurden Chancen und Gefahren der technischen Erweiterbarkeit des Menschen diskutiert. Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren – kann es sogar zu einer Verschmelzung von Mensch und Maschine kommen?“ (Information Springer) Herausgeber sind Michael Bauer und Laura Deinzer. Der Beitrag von Oliver Bendel trägt den Titel „Das Verschmelzen von menschlicher und maschineller Moral“. Weitere Informationen über www.springer.com/gp/book/9783662615690#aboutBook.

Abb.: Oliver Bendel in Zürich

Terminologische Vorschläge zu Künstlicher Intelligenz und Maschinenethik

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: Eine Begriffsklärung für AI, ME und MC

Von HTML, SSML und AIML zu MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Von HTML, SSML und AIML zu MOML

Der igelfreundliche Mähroboter

Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH ziemlich treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Bild unterhalb des Beitrags zeigt ihn mit, das Video auf youtu.be/ijIQ8lBygME ohne Verkleidung. Der Roboter steht in der Tradition von LADYBIRD.

Abb.: HAPPY HEDGEHOG mit Verkleidung

„Handbuch Maschinenethik“ erschienen

Nach drei Jahren ist ein ambitioniertes Projekt an sein vorläufiges Ende gekommen: Das „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel) ist Mitte Oktober 2019 bei Springer erschienen. Es versammelt Beiträge der führenden Expertinnen und Experten in den Bereichen Maschinenethik, Roboterethik, Technikethik, Technikphilosophie sowie Roboterrecht. Im Moment kann es hier heruntergeladen werden: link.springer.com/book/10.1007/978-3-658-17483-5 … Es ist ein umfangreiches, ein vorzeigenswertes, ein einzigartiges Buch geworden. In gewisser Weise bildet es ein Gegenstück zur amerikanischen Forschung, die die Disziplin dominiert: Die meisten Autorinnen und Autoren stammen aus Europa und Asien. Der Herausgeber, der sich seit 20 Jahren mit Informations-, Roboter- und Maschinenethik beschäftigt und seit acht Jahren intensiv zur Maschinenethik forscht, ist voller Hoffnung, dass das Buch seinen Platz in der Standardliteratur zur Maschinenethik finden wird, wie „Moral Machines“ (2009) von Wendell Wallach und Colin Allen und „Machine Ethics“ (2011) von Michael und Susan Leigh Anderson, und wie „Programming Machine Ethics“ (2016) von Luís Moniz Pereira (mit Ari Saptawijaya) und „Grundfragen der Maschinenethik“ (2018) von Catrin Misselhorn – die beiden haben wesentlich zum „Handbuch Maschinenethik“ beigetragen. In den nächsten Tagen wird das Buch mit seinen 23 Kapiteln und 469 Seiten zum Verkauf über die Springer-Website bereitgestellt und auch als Printversion angeboten.

Abb.: Das „Handbuch Maschinenethik“

Zur Aufgabe der Ethik

Am 18. Juli 2019 war Oliver Bendel zu Gast beim KIT. Die renommierte Universität in Karlsruhe verfolgte in ihrem Colloquium Fundamentale ein Semester lang „die stille Revolution der KI-Technologien“. Den Schlusspunkt setzte der Informations- und Maschinenethiker aus Zürich. Er stellte zunächst die Frage, ob Ethik eine Wissenschaft ist, und gab die Antwort: Sie ist es, wenn sie wissenschaftliche Methoden benutzt. Wenn sie wiederum eine Wissenschaft sei, sei ihre Aufgabe nicht, das Gute in die Welt zu bringen, sondern das Gute und Böse zu untersuchen. Ihre Aufgabe sei die jeder Wissenschaft, nämlich Erkenntnisgewinn und -vermittlung. Danach präsentierte Oliver Bendel mehrere Serviceroboter, Chatbots und Sprachassistenten und diskutierte sie aus den Perspektiven von Informations- und Maschinenethik. Immer wieder ging er auf eigene Projekte an seiner Hochschule ein. Dort entsteht bis Ende des Jahres das siebte Artefakt der Maschinenethik, die siebte moralische Maschine, um diesen Terminus technicus zu benutzen. Er schloss an seine Gedanken vom Anfang des Vortrags an: Die Maschinenethik dürfe nicht nur moralische, sondern auch unmoralische Maschinen hervorbringen, um diese zu erforschen. Manche von ihnen sollte man aber besser im Labor lassen. Am Ende erörterte er die Möglichkeit einer Supermoral (Supermorality), die die Moral der Menschen hinter sich lässt, wie die Superintelligenz (Superintelligence) unsere Intelligenz. Er anerkannte die Vorteile, die eine solche mit sich brächte, auch angesichts des Leids, das wir weltweit verursacht haben, strich aber vor allem mögliche Nachteile heraus.

Abb.: Oliver Bendel bei seinem Vortrag am KIT (Foto: KIT-ZAK/Felix Grünschloß)

Er lehrt Roboter Moral

„Bei einer ersten Begegnung vor fünf Jahren wirkte Oliver Bendel ziemlich abgefahren. Damals skizzierte er eine Zukunft, in der Technologien auf der Kontaktlinse oder unter der Haut stecken und Kriminelle eben jemandem eine Hand abhacken, um sich mit dem implantierten Chip Zugang zu einem Gebäude zu verschaffen. Er erzählte von einer Welt voller virtuellen Assistenten und Roboter, von seinem Staubsauger mit Moral, den er bauen wollte. Es klang nach Science-Fiction.“ (NZZ, 14. Juni 2019) Im Frühjahr 2019 hat Melanie Keim den Informations- und Maschinenethiker nochmals getroffen, im Lichthof der Universität Zürich. Sie findet ihn immer noch abgefahren. Aber sie hält in ihrem Artikel „Er lehrt Roboter Moral“ für die NZZ fest, dass seine Themen – zu denen er seit zwanzig Jahren forscht – im Mainstream angekommen sind. Inzwischen wurde LADYBIRD, der tierfreundliche Saugroboter, als Prototyp gebaut, und der LIEBOT, der systematisch lügen konnte, ist Geschichte. Dieser erklärte im Sommer 2016, dass Donald Trump der Präsident der USA sei. Warum er dies tat, wird in mehreren Papers und auf mehreren Slides erklärt, die u.a. über www.oliverbendel.net und www.maschinenethik.net heruntergeladen werden können. Nur soviel sei verraten: Es wird sozusagen Pingpong mit Yahoo gespielt. Der Artikel vom 22. Juni 2019 steht als PDF zur Verfügung. Zusätzlich gibt es eine Onlineversion.

Abb.: Auch Mähroboter kann man moralisieren

Eine Sternstunde der Maschinenethik

Am 22. Mai 2019 fand das 23. Berliner Kolloquium der Daimler und Benz Stiftung statt. Es widmete sich Pflegerobotern, nicht nur aus den bekannten, sondern auch aus neuartigen Perspektiven. So hatte der wissenschaftliche Leiter, Prof. Dr. Oliver Bendel, zwei der bekanntesten Maschinenethiker der Welt eingeladen, Prof. Dr. Michael Anderson und Prof. Dr. Susan L. Anderson. Zusammen mit Vincent Berenz hatten sie einen Nao-Roboter mit einer Reihe von Werten programmiert, die sein Verhalten bestimmen und gleichzeitig einer Person in einer simulierten Einrichtung der Altenpflege helfen. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Zum ersten Mal trugen sie die Ergebnisse aus diesem Projekt vor einem europäischen Publikum vor, und ihre insgesamt einstündige Präsentation mit der anschließenden zwanzigminütigen Diskussion kann als eine Sternstunde der Maschinenethik gelten. Mit dabei waren weitere international bekannte Wissenschaftlerinnen und Wissenschaftler, etwa der Japanexperte Florian Coulmas. Er ging auf Artefakte aus Japan ein und relativierte die häufig gehörte Behauptung, die Japaner hielten alle Dinge für beseelt. Mehrere Medien berichteten über das Berliner Kolloquium, beispielsweise Neues Deutschland.

Abb.: Die Andersons beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)

Zwei Blogs feiern Jubiläum

Seit sieben Jahren besteht informationsethik.net, seit sechs Jahren maschinenethik.net. Beide Blogs werden von Oliver Bendel privat betrieben. Er stellt seine Arbeit zu Informations- und Maschinenethik vor, verweist auf Artikel über seine Arbeit und greift Nachrichten auf, die seine Leserinnen und Leser interessieren könnten. Trotz verschiedener Angebote sind die Blogs bis heute werbefrei geblieben, wenn man von Hinweisen auf eigene Bücher und Buchbeiträge sowie Veranstaltungen absieht. Auch Artikel- und Produktplatzierungen wurden generell abgelehnt. Bei informationsethik.net sind über 700 Beiträge erschienen, bei maschinenethik.net ca. 550. Es werden viele eigene Bilder verwendet, dazu Fotos und Grafiken von Pixabay und Unsplash. Auf den statischen Seiten gibt es mehrere Ressourcen, etwa eine Expertenliste, ein Literaturverzeichnis und ein Lexikon. Bei maschinenethik.net werden sogenannte Designstudien von moralischen Maschinen veröffentlicht. Mehrere davon wurden realisiert – man findet sie in der Rubrik zu den Prototypen.

Abb.: Ein Plakat zu einer Veranstaltung, über die maschinenethik.net berichtet hatte

Handbuch zur Maschinenethik

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden (elf sind bereits online), findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, Julian Nida-Rümelin, deutscher Philosoph und ehemaliger Kulturstaatsminister, Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, die Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, und die Technikethiker Karsten Weber und Thomas Zoglauer. Oliver Bendel selbst steuert sieben Beiträge bei. Er klärt die Frage, wozu wir Maschinenethik brauchen, geht auf Pflegeroboter und Sexroboter aus Sicht der Maschinenethik ein und stellt Projekte zu moralischen und unmoralischen Maschinen vor.

Abb.: Die Erschaffung der Maschine

Die Moral der Roboter

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel „Brauchen Roboter Moral?“ kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Elektro hat noch keine künstliche Moral

Das Moralmenü

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Das Moralmenü

Das Gute und das Böse

Über moralische und unmoralische Maschinen diskutierte Christoph Kucklick, Chefredakteur von GEO, mit Oliver Bendel, Maschinenethiker und Informationsethiker am 14. November 2017 im KörberForum in Hamburg. „Selbstfahrende Autos, Pflegeroboter, smarte Helfer: In unserem Alltag treffen wir auf immer klügere Maschinen. Über ein Bewusstsein oder eigenen Willen verfügen sie zwar nicht, dennoch nehmen sie uns immer mehr Entscheidungen ab. Das wirft auch moralische Fragen auf. Soll das Auto in einem Unfall eher die Insassen schonen oder die Fußgänger am Straßenrand? Darf ein Roboter lebenserhaltende Maschinen abschalten, wenn der Patient das wünscht?“ So die Ankündigung der Körber-Stiftung auf www.koerber-stiftung.de. Der Saal war voll besetzt, das Gespräch intensiv. Es dauerte zwei Stunden, und danach war Raum für zahlreiche Fragen aus dem Publikum. Oliver Bendel stellte klar, dass er als Ethiker kein Interesse am Moralisieren hat (nur am „Moralisieren“ von Maschinen), sondern an dem, was das Gute und das Böse ausmacht. Er entwickelt im Labor sowohl moralische als auch unmoralische Maschinen, sozusagen Artefakte der Maschinenethik, die er dann erforscht.

Abb.: Bendel und Kucklick im KörberForum (Bild: Körber-Stiftung/Claudia Höhne)