Seit einigen Jahren bauen Prof. Dr. Oliver Bendel und seine Teams tierfreundliche Roboter als Prototypen. 2014 wurde LADYBIRD konzipiert, 2017 implementiert. Der vereinfachte Prototyp eines Saugroboters erkannte (simulierte) Marienkäfer auf dem (realen) Boden und stellte zu ihrem (angenommenen) Schutz seinen Betrieb ein. 2019 wurde HAPPY HEDGEHOG (HHH) umgesetzt. Der hochentwickelte Prototyp eines Mähroboters erkannte (simulierte) Igel auf dem (simulierten) Rasen und stellte zu ihrem (angenommenen) Schutz seinen Betrieb ein. Beide Prototypen wurden bei den AAAI Spring Symposia vorgestellt, LADYBIRD 2017, HHH 2021. Ideen dieser Art werden mehr und mehr von der Wirtschaft übernommen. Berti Kolbow-Lehradt hat für Golem den Goat G1 getestet. Das chinesische Unternehmen verspricht, „dass der Robomäher anhand KI-geschulter Kameras Igel, Lieblingsblumen und auch den Weg kreuzende Menschen verschont“ (Golem, 4. Mai 2023). Bei HAPPY HEDGEHOG wurden eine Wärmebildkamera und Objekterkennung auf der Basis von Machine Learning verwendet. Beim Goat G1 beauftragt man per App-Funktion „die Kameras, speziell auf Igel, Katzen, Hunde und Schläuche zu achten, um diesen rechtzeitig auszuweichen“ (Golem, 4. Mai 2023). Bei den Testläufen des Magazins war das Ergebnis mit Igelattrappen aber unbefriedigend. „Eines von zwei Modellen überfährt der Goat G1 und lässt einen Scherbenhaufen zurück. Vor dem zweiten, etwas größeren und abweichend gefärbten Modell dreht er zumindest in den meisten Fällen rechtzeitig ab. Auf Anfrage erklärt Ecovacs, dass das KI-Training mit Igelbildern noch andauere und bisher nicht alle regionalen Varianten vollständig erfasst habe.“ (Golem, 4. Mai 2023) Wichtig ist insgesamt, dass die Industrie mit Blick auf den Einsatz von autonomen Maschinen erkannt hat, dass Tierschutz wichtig ist und man dies auch den Kunden vermitteln kann. Damit hat sich die (Vor-)Arbeit der Wissenschaft mehr als gelohnt.
Die Maschinenethik ist zwischen Philosophie, Informatik und Robotik angesiedelt. Die Soziale Robotik bringt Maschinen hervor, die für den Umgang mit Menschen und Tieren gedacht sind. Innerhalb eines Jahrzehnts – von 2012 bis 2021 – hat Prof. Dr. Oliver Bendel 20 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik vorgestellt. Elf davon wurden bis zum jetzigen Zeitpunkt von den jeweiligen Teams umgesetzt, zuletzt SPACE THEA, ein Sprachassistent für Marsflüge. Eine neue Grafik präsentiert die mathematischen Formeln, annotierten Entscheidungsbäume und Systeme bzw. Maschinen und erklärt sie in aller Kürze. Auch zwei geplante Projekte werden aufgeführt, nämlich ANIFACE (ein Gesichtserkennungssystem für Wölfe und Bären) und CARE-MOMO (ein Moralmodul für Pflegeroboter, die auf Cobot-Technologie beruhen). Es handelt sich durchweg um Low-Budget-Projekte. Es liegen Projektdokumentationen und Konferenzpapers respektive Buchbeiträge vor. Die meisten Artefakte werden auch in Videos gezeigt, die auf informationsethik.net und maschinenethik.net gesammelt werden. Die Medien haben hauptsächlich über den LIEBOT, über LADYBIRD und HAPPY HEDGEHOG berichtet.
Angsa Robotics hat einen Prototyp entwickelt, der zur Reinigung von Rasenflächen dient. Auf der Website heißt es: „Durch die Nutzung von GPS Tracking und Computer Vision erkennt der Roboter seinen definierten Bereich. Zusätzlich kommen diverse Sensoren zum Einsatz, durch die Kollisionen frühzeitig vermieden werden. Anhand dieser Daten wird die Ermittlung des effizientesten Weges und souveränes Ausweichen vor Hindernissen ermöglicht.“ (Website Angsa Robotics) Und weiter: „Das von Angsa entwickelte künstliche neuronale Netz, welches im Roboter verbaut ist, ermöglicht die zuverlässige Erkennung von kleinen und teilweise verdeckten Objekten. Trainiert wird das neuronale Netz mithilfe eines eigenenDatensatzes von realen Müll-Bildern. Dadurch ist es dem Roboter möglich, Müllobjekte von anderen Objekten wie Blättern, Schmutz oder Insekten zu unterscheiden. Die gezielte Entfernung garantiert, [dass] keine Schäden an Oberflächen oder Insekten entstehen.“ (Website Angsa Robotics) Damit tritt der Roboter in die Fußstapfen von LADYBIRD. Dieser wurde 2014 im Kontext der Maschinenethik konzipiert und 2017 als Prototyp implementiert. Sobald der Saugroboter vor sich einen Marienkäfer erkennt, unterbricht er, so die Idee, seine Arbeit und informiert den Benutzer. Das Paper „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“ wurde bei den AAAI Spring Symposia 2017 von Prof. Dr. Oliver Bendel an der Stanford University präsentiert. Es ist auch als PDF erhältlich. In deutscher Sprache wird das Projekt im „Handbuch Maschinenethik“ beschrieben. Ein Nachfolgeprojekt ist HAPPY HEDGEHOG. Der igelfreundliche Mähroboter mit dem gleichen Namen ist 2019/2020 als Prototyp entstanden. Er wird im März 2021 bei den AAAI Spring Symposia vorgestellt.
„Mähdrescher, die für Rehkitze bremsen. Rasenmäher, die Igel verschonen. Selbstgesteuerte Autos, die keine Tiere überfahren. Das klingt zuerst wie Science-Fiction. Doch bereits heute sind erstaunliche Dinge möglich! Mehr darüber berichtete der Ethiker und Technologie-Experte Prof. Dr. Oliver Bendel (FHNW) in seinem Vortrag.“ (Website AnimalRights) AnimalRights Switzerland, eine Tierrechtsorganisation mit Sitz in Zürich, hatte dazu eingeladen. Der Vortrag „Tierfreundliche Maschinen“ fand am 16. September 2020 per Videokonferenz statt. Oliver Bendel ging auf eigene Projekte wie ROBOCAR (Konzeption), LADYBIRD (Prototyp) und HAPPY HEDGEHOG (Prototyp) ein. Zudem stellte er andere Projekte wie Fliegender Wildretter (DLR), DTBird für Windkraftanlagen (Liquen Consultoría Ambiental) und Wildlife Vehicle Collision Avoidance System (RIT) vor. Das Video zum Vortrag kann seit Mitte Januar 2021 über animal-rights-switzerland.ch/tierfreundliche-maschinen/ abgerufen werden.
Since 2012, Oliver Bendel has invented 13 artifacts of machine ethics. Nine of them have actually been implemented, including LADYBIRD, the animal-friendly vacuum cleaning robot, and LIEBOT, the chatbot that can systematically lie. Both of them have achieved a certain popularity. The information and machine ethicist is convinced that ethics does not necessarily have to produce the good. It should explore the good and the evil and, like any science, serve to gain knowledge. Accordingly, he builds both moral and immoral machines. But the immoral ones he keeps in his laboratory. In 2020, if the project is accepted, HUGGIE will see the light of day. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? All moral and immoral machines that have been created between 2012 and 2020 are compiled in a new illustration, which is shown here for the first time.
Raffael Schuppisser, stellvertretender Chefredakteur und Leiter Kultur, Leben & Wissen von az Nordwestschweiz bzw. Schweiz am Wochenende, sprach Ende Oktober 2019 mit Oliver Bendel über Maschinenethik. Das Ergebnis wurde am 3. Dezember 2019 in zahlreichen Schweizer Medien publiziert, darunter Aargauer Zeitung und Basellandschaftliche Zeitung. In der Limmattaler Zeitung wurde die kritische Haltung des Informations- und Maschinenethikers zu autonomen Autos herausgestellt. Oliver Bendel sieht diese vor allem auf der Autobahn, nicht in der Stadt. Er rät dazu, sie nicht über Leben und Tod von Menschen entscheiden zu lassen. Moralisieren kann man sie aber mit Blick auf Tiere. In der Neuen Luzerner Zeitung wurde thematisiert, dass Oliver Bendel gegenwärtige moralische Maschinen als kleine Fundamentalisten ansieht – weil sie sich sklavisch an Regeln halten. Dies ist keinesfalls zu ihrem Nachteil und auch nicht zum Nachteil der Umwelt, in der sie sich bewegen – was man bei menschlichen Fundamentalisten nicht gerade behaupten kann. In Watson wird auf die Rolle der Maschinenethik bei Sexrobotern hingewiesen. Die Disziplin kann dabei mithelfen, diese im Sinne der Benutzer zu gestalten. Vorschläge dazu hat Oliver Bendel wiederholt gemacht, etwa 2016 auf der Konferenz „Love and Sex with Robots“ am Goldsmiths in London. Der Artikel in Watson kann über www.watson.ch/!197665855? abgerufen werden.
Abb.: Oliver Bendel im Gespräch mit dem GEO-Chefredakteur (Foto: Körber-Stiftung/Claudia Höhne)
„Techniktrends, die echte Probleme lösen“ – so der Titel eines Artikels in der Zeitschrift Chip 10/2019. Im Teaser heißt es: „Dieser Herbst bringt bahnbrechende Innovationen, deren Nutzen sich erst in den kommenden Jahren erweisen wird, aber auch Weiterentwicklungen, die bestehende Hürden beseitigen“. Erwähnt wird u.a. der Home Care Robot von Medisana, zudem LADYBIRD, der tierfreundliche Saugroboter, der 2013 von Oliver Bendel zum ersten Mal erwähnt, 2014 von ihm in einer Designstudie und 2017 an der Hochschule für Wirtschaft FHNW prototypisch umgesetzt wurde. Wenn der Roboter marienkäferähnliche Strukturen erkannte, stellte er seine Arbeit ein und informierte den Benutzer. Ein Nachfolgeprojekt läuft derzeit an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel. HAPPY HEDGEHOG, der Prototyp eines tierfreundlichen Mähroboters, soll Igel erkennen und verschonen. Gegenwärtig werden viele Tiere von solchen Geräten getötet, oft in der Nacht. Die Projekte sind innerhalb der Maschinenethik verortet und haben Bezüge zur Tier-Maschine-Interaktion.
Abb.: Der Home Care Robot von Medisana (Foto: Medisana)
„Bei einer ersten Begegnung vor fünf Jahren wirkte Oliver Bendel ziemlich abgefahren. Damals skizzierte er eine Zukunft, in der Technologien auf der Kontaktlinse oder unter der Haut stecken und Kriminelle eben jemandem eine Hand abhacken, um sich mit dem implantierten Chip Zugang zu einem Gebäude zu verschaffen. Er erzählte von einer Welt voller virtuellen Assistenten und Roboter, von seinem Staubsauger mit Moral, den er bauen wollte. Es klang nach Science-Fiction.“ (NZZ, 14. Juni 2019) Im Frühjahr 2019 hat Melanie Keim den Informations- und Maschinenethiker nochmals getroffen, im Lichthof der Universität Zürich. Sie findet ihn immer noch abgefahren. Aber sie hält in ihrem Artikel „Er lehrt Roboter Moral“ für die NZZ fest, dass seine Themen – zu denen er seit zwanzig Jahren forscht – im Mainstream angekommen sind. Inzwischen wurde LADYBIRD, der tierfreundliche Saugroboter, als Prototyp gebaut, und der LIEBOT, der systematisch lügen konnte, ist Geschichte. Dieser erklärte im Sommer 2016, dass Donald Trump der Präsident der USA sei. Warum er dies tat, wird in mehreren Papers und auf mehreren Slides erklärt, die u.a. über www.oliverbendel.net und www.maschinenethik.net heruntergeladen werden können. Nur soviel sei verraten: Es wird sozusagen Pingpong mit Yahoo gespielt. Der Artikel vom 22. Juni 2019 steht als PDF zur Verfügung. Zusätzlich gibt es eine Onlineversion.
Machine ethics produces moral and immoral machines. The morality is usually fixed, e.g. by programmed meta-rules and rules. The machine is thus capable of certain actions, not others. However, another approach is the morality menu (MOME for short). With this, the owner or user transfers his or her own morality onto the machine. The machine behaves in the same way as he or she would behave, in detail. Together with his teams, Prof. Dr. Oliver Bendel developed several artifacts of machine ethics at his university from 2013 to 2018. For one of them, he designed a morality menu that has not yet been implemented. Another concept exists for a virtual assistant that can make reservations and orders for its owner more or less independently. In the article „The Morality Menu“ the author introduces the idea of the morality menu in the context of two concrete machines. Then he discusses advantages and disadvantages and presents possibilities for improvement. A morality menu can be a valuable extension for certain moral machines. You can download the article here.
Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert. Die Maschinen, um die es geht, sind LADYBIRD, der tierfreundliche Saugroboter, und Google Duplex. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag wurde am 27. Januar 2019 veröffentlicht und kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.
LADYBIRD, the animal-friendly vacuum cleaning robot, was conceived in 2014 by Oliver Bendel and introduced at Stanford University (AAAI Spring Symposia) in 2017 and then implemented as a prototype at the School of Business FHNW. In the context of the project, a menu was proposed with which the user can set the morale of the vacuum cleaner robot. As the name implies, it spares ladybirds. It should also let spiders live. But if you want to have certain insects sucked in, you could define this via a menu. It is important that LADYBIRD remains animal-friendly overall. The idea was to develop a proxy morality in detail via the menu. The vacuum cleaner robot as a proxy machine does what the owner would do. In 2018 the morality menu (MOME) for LADYBIRD was born as a design study. It can be combined with other approaches and technologies. In this way, the user could learn how others have decided and how the personal morality that he has transferred to the machine is assessed. He could also be warned and enlightened if he wants to suck in not only vermin but also spiders.
Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.
„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.
Die Technical Reports des Symposiums „AI for Social Good“ sind erschienen. Dieses fand innerhalb der AAAI Spring Symposia (27. bis 29. März 2017) an der Stanford University statt. Organisiert wurde es von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die veröffentlichten Papers zeigen das enorme Spektrum der Veranstaltung auf. Oliver Bendel ist mit „LADYBIRD: The Animal-Friendly Robot Vacuum Cleaner“ sowie „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards) vertreten, Malay Bhattacharyya mit „In Search of Health Doubles“, Sujoy Chatterjee (mit Anirban Mukhopadhyay und Malay Bhattacharyya) mit „Smart City Planning with Constrained Crowd Judgment Analysis“, Arnaud Delaunay (zusammen mit Jean Guérin) mit „Wandering Detection Within an Embedded System for Alzheimer Suffering Patients“ und Virginia Dignum (zusammen mit Frank Dignum) mit „Societal Challenges Need Social Agents“. Virginia Dignum konnte während des Symposiums die frohe Botschaft überbringen, dass die andere große Wissenschaftsvereinigung auf technischem Gebiet, das Institute of Electrical and Electronics Engineers (IEEE), sich in seinen Leitlinien „Ethically Aligned Design“ zu Robotik und KI zukünftig nicht nur den Menschen, sondern auch den Tieren widmen wird. Dies hatte Oliver Bendel in einer Stellungnahme gegenüber den Verantwortlichen vorgeschlagen. Die Technical Reports des Symposiums sind über aaai.org/proceeding/01-spring-2017/ verfügbar.
The LADYBIRD project starts in March 2017. More and more autonomous and semi-autonomous machines make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral machines. In this context, Prof. Dr. Oliver Bendel developed various design studies and thus submitted proposals for their appearance and functions. He focused on animal-friendly machines which make morally sound decisions, and chatbots with specific skills. The project is about a service robot, which shall spare beneficial insects – a vacuum cleaner called LADYBIRD. An annotated decision tree modelled for this objective and a set of sensors will be used. Three students work from March to October in the practice project at the School of Business FHNW. Since 2013, the principal Oliver Bendel published several articles on LADYBIRD and other animal-friendly machines, e.g., „Ich bremse auch für Tiere (I also brake for animals)“ in the Swiss magazine inside.it. The robot will be the third prototype in the context of machine ethics at the School of Business FHNW. The first one was the GOODBOT (2013), the second one the LIEBOT (2016). All these machines can be described as simple moral machines.
„Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger.“ So heißt es im Teaser zu einem Interview, das Watson mit Oliver Bendel geführt hat. Der Informations- und Maschinenethiker äußert seine Skepsis gegenüber der Autocomplete-Funktion von Google. Zunächst gab es um Bettina Wulff nur gewisse Gerüchte. Diese brachten viele Menschen dazu, nach ihr zu googeln, zur Vergangenheit dieser Frau. Sie benutzten bestimmte Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann „Bettina Wulff“ und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben. Und die Wirklichkeit eines virtuellen Phänomens. Oliver Bendel fordert, dass die Betreiber eingreifen, dabei aber offenlegen, was sie warum gemacht haben. Er plädiert zudem für einfache moralische Maschinen, etwa für bestimmte Fahrerassistenzsysteme und Funktionen von autonomen Autos, und für LADYBIRD, einen tierfreundlichen Saugroboter. Das Interview ist am 9. Februar 2015 erschienen und über www.watson.ch aufrufbar.
Abb.: Die Autocomplete-Funktion von Google kann problematisch sein
“Das Zähmen der Maschinen” ist der Titel eines Artikels von Danja Nüesch für SRF, Schweizer Radio und Fernsehen. Behandelt werden die Themen der Maschinenethik, auf der Grundlage eines Interviews mit Oliver Bendel. Der Professor für Wirtschaftsinformatik und Informationsethik an der Hochschule für Wirtschaft FHNW treibt auch Maschinenethik. Er spricht sich für einfache moralische Maschinen aus. Seine Paradebeispiele sind der GOODBOT, ein verbesserter Chatbot, und Ladybird, ein tierfreundlicher Saugroboter. Auch tierfreundliche Windkraftanlagen und waffenfeindliche 3D-Drucker werden angeführt. Von komplexen moralischen Maschinen rät Oliver Bendel eher ab. Die militärische Drohne sollte ebenso wie das selbstständig fahrende Auto bestimmte Entscheidungen den Menschen überlassen. Diese müssen also, als Soldaten, Insassen etc., intervenieren können. Nichts spricht dagegen, dass sich Roboterautos oder Fahrerassistenzsysteme in klar abgrenzbaren Situationen mit nur wenigen Optionen moralisch verhalten. Zum Beispiel kann – wie der Experte verschiedenenorts argumentiert – automatisch für ein Tier gebremst werden, wenn kein Hintermann zu sehen ist. Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/das-zaehmen-der-maschinen aufgerufen werden.
Abb.: Werk eines schuhfreundlichen 3D-Druckers (Quelle: commons.wikimedia.org, Autor: Strvct)