High-Tech-Hunde und andere Untiere

„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war, die in diesen Fällen ferngesteuert wurden – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.

Abb.: Oliver Bendel mit seinem Unitree Go2

Was sind und können Polizeiroboter?

„Als Polizeiroboter werden unterschiedliche Robotertypen bezeichnet, die in der Polizeiarbeit verwendet werden oder verwendet werden sollen. Sie erkennen auffällige Bewegungen und Tätigkeiten, nehmen verdächtige Geräusche und Gefahrenstoffe wahr und entschärfen Bomben. Sie informieren und kontrollieren Passanten oder begleiten Polizisten bei Einsätzen. Sie sind in der Luft unterwegs, als Drohnen, oder auf dem Boden, als Roboter mit Rädern und Raupen, wenige von ihnen im Wasser. Einige von ihnen weisen eine humanoide Gestalt auf, andere eine animaloide, die Mehrzahl allerdings eine dinghafte, als Kegel respektive Quader mit Ausstülpungen und Öffnungen. Manche von ihnen sind autonom, andere teilautonom, wieder andere ferngesteuert. All diese Maschinen können – bei einem weiten Begriff – als Serviceroboter qualifiziert werden.“ Mit diesen Worten beginnt ein Beitrag, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Polizeiroboter gegeben. So sind oder waren beispielsweise Spot von Boston Dynamics, REEM von PAL Robotics und O-R3 von OTSAW Robotics im Einsatz. Der Beitrag von Prof. Dr. Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/polizeiroboter-124917 aufgerufen werden.

Abb.: Oliver Bendel bei der ICSR 2022 mit ARI, dem Nachfolger von REEM (Foto: Marc Heimann)

Über den Krieg

„Krieg ist ein nationaler oder internationaler Konflikt, bei dem die gegnerischen Parteien Streitkräfte, mehr oder weniger schwere Waffen sowie physische und psychische Gewalt einsetzen, um ihre politischen, wirtschaftlichen oder religiösen Ziele zu erreichen. Es werden Gebäude, Verkehrswege und Infrastrukturen zerstört, Soldaten und Zivilisten umgebracht, verletzt, gefoltert und vergewaltigt, um die Übermacht zu erhalten und die Moral des Gegners zu zermürben, und nebenbei Tiere getötet und die Umwelt verstrahlt, verseucht und geschädigt.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird auf Militärroboter und auch speziell auf Kampfroboter eingegangen und der Zusammenhang zwischen Wirtschaft und Krieg dargestellt. Am Ende wird die Perspektive der Ethik eingenommen, insbesondere der Militärethik, der Technik- und Informationsethik sowie der Maschinenethik, ferner der Wirtschaftsethik und der Tierethik. Der Beitrag, der am 28. Juni 2022 erschienen ist, kann über wirtschaftslexikon.gabler.de/definition/krieg-124146 aufgerufen werden.

Abb.: Demonstration gegen den Ukrainekrieg in Zürich

 

Vereint gegen Putler

Gegen Putins Krieg in der Ukraine engagiert man sich auf unterschiedliche Weise. Die einen gehen in Berlin, Zürich, Wien, Paris oder Tokio auf die Straße. Sie tragen Schilder mit dem Bild von Putler – ein Neologismus aus „Putin“ und „Hitler“ – oder schwenken Fahnen. Die anderen versuchen russische Systeme anzugreifen, wie im Falle von Anonymous. Anonymous ist ein Label für Hacker, die sich als Aktivisten verstehen. Man engagiert sich z.B. für Meinungsfreiheit, gegen das Urheberrecht oder gegen Krieg. Der Aktivismus wird zum sogenannten Hacktivismus. Während des Ukraine-Kriegs wurden bereits mehrfach russische Einrichtungen und Websites angegriffen und lahmgelegt, häufig mit Hilfe von DDoS (Distributed Denial of Service). Bekannt ist Anonymous auch für Doxing. Wieder andere sind vor Ort und stellen sich den Invasoren mit Worten oder Waffen entgegen. Autonome Kampfroboter spielen dabei bisher kaum eine Rolle. Der Krieg wird in konventioneller Weise geführt, und Moskau greift zu einem Teil auf veraltete Technik zurück. Alle, die sich engagieren, haben ein Ziel: Sie wollen den Krieg in der Ukraine so bald wie möglich beenden.

Abb.: Bei einer Demonstration in Zürich am 5. März 2022

Guildo hat euch lieb

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer bei „Wie schreibt man über Menschen mit Behinderungen?“), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: „Jetzt kommen schon die Nächsten – hallo!“ Die Nächsten waren die Referenten des Workshops „Maschinenethik“, nämlich Oliver Bendel („Moral für Maschinen“) und Barbara Lenz („Autonome Autos“). Bendel von der Hochschule für Wirtschaft FHNW eröffnete am 17. November 2015 als Wissenschaftler den Workshop in Bremen und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied „Guildo hat euch lieb“ des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München („Autonome Waffen“). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung „Wissenswerte“. In den Workshops redete man sich die Köpfe heiß über „Multimediales Storytelling“, „Science und Fiction“ und „Big Data in der Medizin“. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Abb.: In Bremen

Über autonome Autos und kämpfende Roboter

Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es erlaubt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: „Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.“ (watson.ch, 4. November 2015)  Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.

Abb.: Ein Militärflugzeug beim Start

Von Big Data bis Maschinenethik

Das Dialogforum WISSENSWERTE 2015 in Bremen bietet vom 16. bis 17. November 2015 mehrere Workshops zu aktuellen und brisanten Themen an. Getragen wird die Reihe u.a. von Helmholtz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Am 17. November widmet man sich dem Thema „Maschinenethik – wenn Roboter über Leben und Tod entscheiden“. Der Fokus ist auf autonome Autos und autonome Waffensysteme gerichtet. Der Eröffnungsvortrag wird von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) gehalten. Weitere Workshops sind „Big Data in der Medizin – eine gesellschaftliche Revolution und was sie für uns bedeutet“, „Wie viel Evidenz steckt in unserem Gesundheitssystem?“ und „Die Gene und die ‚Rassen‘ – ein heikles Terrain“. Zudem wird am 24. November 2015 ein Rechercheworkshop zu „Palliativmedizin – warum geht es so langsam voran in Deutschland?“ durchgeführt. Weitere Informationen über www.wissenswerte-bremen.de.

Abb.: Was sieht das autonome Auto?

Against Autonomous Weapons

KI-Forscher und Robotiker sowie weitere Wissenschaftler aus aller Welt haben das Verbot von autonomen Waffensystemen, etwa Kampfrobotern, gefordert. Zu den Unterzeichnern des offenen Briefs gehören der Physiker und Astrophysiker Stephen Hawking, der Apple-Co-Founder Steve Wozniak und der Sprachwissenschaftler und Linksintellektuelle Noam Chomsky. Manche Experten lehnen Kampfroboter ab, weil diese falsche Entscheidungen treffen und die Bevölkerung verunsichern können, andere weisen darauf hin, dass Maschinen anders als Menschen nicht zu Plünderungen, Brandschatzungen und Vergewaltigungen neigen und somit die Nebenschauplätze von Kriegen menschlicher gestaltet werden können. Zudem könne man das Leben derjenigen Soldaten schützen, die von den Robotern unterstützt oder ersetzt werden. Der offene Brief wurde bei der Eröffnung der IJCAI 2015 Conference am 28. Juli 2015 präsentiert. Unterschrieben hat ihn auch der Maschinenethiker Oliver Bendel, der in seinen Fachartikeln nicht zuletzt Kampfdrohnen thematisiert hat und der Robotern, die komplexe Entscheidungen mit moralischen Implikationen zu treffen haben, ausgesprochen kritisch gegenübersteht. Er spricht sich für sogenannte einfache moralische Maschinen aus.

Abb.: Auch Aufklärungsdrohnen werden immer autonomer (Quelle: Wikipedia; Autor: Padeluun)

Kriegsmaschinen

Wie verschiedene Medien melden, will das US-Militär „Roboter mit Moralempfinden entwickeln“. Das will es schon lange, aber nun wird die Öffentlichkeit informiert. Im deutschsprachigen GIZMODO heißt es: „Über die nächsten fünf Jahre stellt eine Abteilung des US-Verteidigungsministeriums, das Office of Naval Research, 7,5 Mio. US-Dollar (etwa 5,5 Mio. Euro) für Universitätsforschung zur Verfügung, um Roboter zu entwickeln, die richtig und falsch unterscheiden können. So könnten autonome Kampfsysteme effektiver und selbstständiger operieren. Manch ein Wissenschaftler glaubt sogar, dass solche Maschinen bessere Entscheidungen als Menschen treffen könnten, da sie einfach klaren Regeln folgen, um die Chancen und Risiken von Operationen zu bewerten.“ Es ist wichtig, die Maschinenethik möglichst unabhängig von militärischer Forschung zu halten und die zivile, kommerzielle Nutzung voranzutreiben. Dass dies nicht einfach sein wird, liegt auf der Hand. In Technik- und Informationsethik sind die entstehenden moralischen Probleme zu diskutieren.

Abb.: Ein klassisches Kriegsgerät