Prof. Dr. Oliver Bendel unterrichtet seit ca. 15 Jahren an der FHNW in Informationsethik, KI-Ethik, Roboterethik und Maschinenethik. Im neuen Studiengang Business AI an der Hochschule für Wirtschaft in Olten ist er verantwortlich für das Modul „Ethik und Technologiefolgenabschätzung“. Hier rückt die KI-Ethik in den Vordergrund, aber die Studenten und Studentinnen werden auch Anliegen der Roboterethik und Ansätze der Maschinenethik – darunter Annotated Decision Trees und Moral Prompt Engineering – kennenlernen. Und sie werden mit Hilfe der Informationsethik, einschließlich der Datenethik, die Herkünfte und Flüsse von Daten und Informationen analysieren und evaluieren und Bias-Diskussionen führen. Nicht zuletzt taucht man in die Technologiefolgenabschätzung ein (in Deutschland spricht man auch von Technikfolgenabschätzung). Oliver Bendel lehrt ansonsten im Modul „Ethik und Recht“ im Studiengang Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Olten (von ihm 2010 übernommen als „Informatik, Ethik und Gesellschaft“, später umbenannt in „Informationsethik“), im Modul „Recht und Ethik“ im Studiengang Geomatik an der Hochschule für Architektur, Bau und Geomatik FHNW in Muttenz sowie „Ethisches Reflektieren“ und „Ethisches Implementieren“ im Studiengang Data Science an der Hochschule für Technik FHNW in Brugg-Windisch. Sehr beliebt sind seine Wahlmodule zur Sozialen Robotik.
Abb.: In der Mensa der FHNW in Olten (Foto: Pati Grabowicz)
Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.
Abb.: Eine futuristische Darstellung eines humanoiden Roboters
Dual-Use ist ein altbekanntes Problem. Meist ist damit gemeint, dass etwas sowohl zivilen als auch militärischen Zwecken dienen kann. Letztere sind oft nicht im Sinne des Erfinders. Man kann den Begriff weiter fassen und ihn so verstehen, dass nützliche Instrumente und Technologien in den falschen Händen zu schädlichen werden. Das kennt man bereits von Messern und Fahrzeugen, und man kann auch aus vielen hilfreichen Robotern tödliche Waffen machen. Künstliche Intelligenz kann dabei helfen, Krankheiten zu erkennen und zu bekämpfen oder aber Krankheiten – etwa durch biologische Waffen, die von ihr mitentwickelt werden – hervorzurufen. Genau zu diesem Thema befragte der Tages-Anzeiger den Informations- und Maschinenethiker Oliver Bendel. Das Interview erschien am 25. März 2022 in der gedruckten Ausgabe. Es ist auch online abrufbar.
Abb.: KI kann bei der Entwicklung biologischer Waffen helfen
Die EU-Kommission schlägt einen Rechtsrahmen für den Einsatz von KI-Systemen vor. Diese werden nach ihrem vermeintlichen Risiko kategorisiert. Als inakzeptabel gilt alles, was als eindeutige Bedrohung für die EU-Bürger angesehen wird, von Social Scoring durch Regierungen bis hin zu Spielzeug mit Sprachassistenz, etwa in der Art von Hello Barbie. Zu den Bereichen mit hohem Risiko gehören kritische Infrastrukturen (z. B. des Verkehrs), die das Leben und die Gesundheit der Bürgerinnen und Bürger gefährden könnten. Damit wird das autonome Fahren – zumindest bei Ansätzen, wie sie von Tesla und Co. bevorzugt werden – einer ständigen Kontrolle unterworfen sein. Auch Operationsroboter fallen in diese Kategorie, obwohl diese heute fast ausnahmslos vom Arzt gesteuert werden. Ein begrenztes Risiko wird etwa bei Chatbots gesehen. Hier sollen lediglich minimale Transparenzpflichten gelten. So kann die Maschine deutlich machen, dass sie nur eine Maschine ist – diese Anforderung hat bereits der GOODBOT von 2013 erfüllt. Überhaupt werden Chatbots seit ca. 50 Jahren entwickelt, und die Regulierung kommt hier mit einiger Verzögerung. Ein minimales Risiko ist laut Kommission bei der Mehrheit der KI-Systeme vorhanden. Als (vielleicht nicht ganz glücklich gewählte) Beispiele werden KI-fähige Videospiele oder Spamfilter genannt. Bei den Anbietern von KI-Systemen im Hochrisikobereich sollen vier Schritte durchlaufen werden. Nach der Entwicklung finden Überprüfung und Eintrag in eine Datenbank statt. Dann wird eine Konformitätserklärung unterzeichnet und eine CE-Kennzeichnung aufgebracht. Am Ende kann das KI-System auf den Markt oder in die Anwendung gebracht werden. Die Pressemitteilung der Europäischen Kommission vom 21. April 2021 findet sich hier.
Der Artikel „Das Tier als Objekt der Moral der Maschine“ von Oliver Bendel ist am 2. Januar 2014 in Telepolis erschienen. Die Beziehung zwischen Tier und Maschine – so heißt es im Teaser – kann in verschiedenen Bereichsethiken untersucht werden, etwa in Tier-, Technik- und Informationsethik. Die Maschinenethik – hier verstanden als Pendant zur Menschenethik – sei eine junge Disziplin und konzentriere sich bisher auf das Verhältnis zwischen Maschine und Mensch. Angesichts der Tatsache, dass die Zahl der (teil-)autonomen Systeme immer mehr zunimmt und von ihren selbstständig getroffenen Entscheidungen immer mehr Tiere betroffen sind, ist nach Oliver Bendel eine Beschäftigung mit den entstehenden Chancen und Risiken und eine Zusammenarbeit zwischen Tier- und Maschinenethik unumgänglich. Der Artikel kann direkt über www.heise.de/tp/artikel/40/40684/ aufgerufen werden.
Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über www.fhnw.ch/personen/oliver-bendel.
„Ein schöner Tag im Sommer 2015. Der New Autonomous Car, kurz NAC genannt, fährt die Strasse am Fluss entlang. Mit seiner elegant geschwungenen Schnauze, die fast ein Schnabel ist, ist er ein Augenschmaus. Die Ente am gegenüberliegenden Ufer wirkt aufgeregt. Am nicht vorhandenen Steuer sitzt die junge Nobelpreisträgerin Kim. Ein bisschen schneller, sagt sie zu NAC, der das als Eingriff in seine Autonomie empfindet. Beleidigt erhöht er trotzdem das Tempo.“ So fängt eine Geschichte an, die einen Artikel von Oliver Bendel zur Maschinenethik einleitet. Die Maschinenethik hat die Moral von Maschinen zum Gegenstand, etwa von Agenten, Robotern und Drohnen und überhaupt von autonomen Systemen. Sie kann als Teilbereichsethik innerhalb von Informationsethik und Technikethik eingeordnet werden. Am Ende (bzw. am Anfang) muss jemand sterben. Wer das ist und was dazu führt, ist seit dem 24. Oktober 2012 in der Schweizer Online-Zeitschrift inside-it.ch nachzulesen.