Prof. Dr. Oliver Bendel unterrichtet seit ca. 15 Jahren an der FHNW in Informationsethik, KI-Ethik, Roboterethik und Maschinenethik. Im neuen Studiengang Business AI an der Hochschule für Wirtschaft in Olten ist er verantwortlich für das Modul „Ethik und Technologiefolgenabschätzung“. Hier rückt die KI-Ethik in den Vordergrund, aber die Studenten und Studentinnen werden auch Anliegen der Roboterethik und Ansätze der Maschinenethik – darunter Annotated Decision Trees und Moral Prompt Engineering – kennenlernen. Und sie werden mit Hilfe der Informationsethik, einschließlich der Datenethik, die Herkünfte und Flüsse von Daten und Informationen analysieren und evaluieren und Bias-Diskussionen führen. Nicht zuletzt taucht man in die Technologiefolgenabschätzung ein (in Deutschland spricht man auch von Technikfolgenabschätzung). Oliver Bendel lehrt ansonsten im Modul „Ethik und Recht“ im Studiengang Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Olten (von ihm 2010 übernommen als „Informatik, Ethik und Gesellschaft“, später umbenannt in „Informationsethik“), im Modul „Recht und Ethik“ im Studiengang Geomatik an der Hochschule für Architektur, Bau und Geomatik FHNW in Muttenz sowie „Ethisches Reflektieren“ und „Ethisches Implementieren“ im Studiengang Data Science an der Hochschule für Technik FHNW in Brugg-Windisch. Sehr beliebt sind seine Wahlmodule zur Sozialen Robotik.
Abb.: In der Mensa der FHNW in Olten (Foto: Pati Grabowicz)
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – ging es um humanoide Roboter, soziale Roboter und Serviceroboter aller Art. Dabei war sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Beide veröffentlichen seit 2012 im Rahmen dieser Disziplin. Oliver Bendel hat seitdem auch zahlreiche Artefakte der Maschinenethik auf den Weg gebracht. Sein Vortrag trug den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Dabei behandelte er am Rande moralische Maschinen ganz unterschiedlicher Art. Catrin Misselhorn ging auf „Künstliche Systeme zwischen Subjekten und Artefakten“ ein. Zudem referierten Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München („Das Zusammenwirken von Mensch und Roboter aus soziologischer Perspektive“) und – zugeschaltet aus Japan – Prof. Dr. Christian Becker-Asano von der Hochschule der Medien („Roboter und Emotionen“).
Abb.: Oliver Bendel und Catrin Misselhorn bei der Podiumsdiskussion
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.
Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)
Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.
Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik
Tobias Buess, Yvo Keller und Alexander Shanmugam haben im Herbstsemester 2023 Data entwickelt, einen Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW. Betreuer bei der sogenannten Challenge waren Fernando Benites, ein Computerlinguist, und Oliver Bendel, ein Maschinenethiker. Der Chatbot kann Fragen zum Studiengang beantworten und mit Hilfe seiner künstlichen Moral – umgesetzt mit Hilfe von Prompt Engineering – auf die Sorgen und Bedürfnisse der Benutzer eingehen. Dem Chatbot stehen folgende Informationen aus dem Studiengang zur Verfügung: Spaces-Inhalte (Spaces ist die In-formations- und Kommunikationsplattform des Studiengangs), Handbuch, Ausbildungskonzept, Modulübersicht und Studienreglement. Als Sprachmodell wurde u.a. Mistral 7B genutzt. Fernando Benites gehört – wie seine frühere Hochschule festgestellt hat – „zu den Besten seines Fachs“. Oliver Bendel erfand 2012 den GOODBOT, einen regelbasierten Chatbot, der dann 2013 von drei Studenten der Hochschule für Wirtschaft FHNW implementiert wurde. Er konnte Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren, bis hin zur Herausgabe einer Notfallnummer. Tobias Buess, Yvo Keller und Alexander Shanmugam haben diese Idee aufgegriffen. Wenn der Benutzer sich als labil erweist, wird er von Data an die Psychologische Beratungsstelle FHNW oder an Die Dargebotene Hand verwiesen. Der Chatbot ist ein Prototyp und wird im Moment von Studierenden getestet. Die Abschlusspräsentation des Teams findet am 26. Januar 2024 statt.
Abb.: Data beantwortet eine Frage (Bild: DALL-E 3)
Oliver Bendel war ab 2012 einer der ersten Maschinenethiker in Europa und ist bis heute einer wenigen weltweit, die laufend Prototypen – sogenannte moralische Maschinen – erstellen und erforschen, vor allem Chatbots und Sprachassistenten sowie tierfreundliche Maschinen. Seine Beschäftigung mit Roboter- und Maschinenethik begann in den 1990er-Jahren, als er sich mit der Verantwortung und den Rechten und Pflichten von Systemen beschäftigte, auf der Grundlage der Arbeiten von William Bechtel und James H. Moor. Er ist bis heute der Überzeugung, dass Computer und Roboter keine Verantwortung tragen und keine Rechte und Pflichten haben können. Man kann ihnen lediglich Verpflichtungen auferlegen oder, noch schwächer ausgedrückt, Aufgaben geben, die sie als unsere Werkzeuge und Diener abzuarbeiten haben, und moralische Regeln, an die sie sich halten müssen – eben das ist die Aufgabe der Maschinenethik. Im Kundenmagazin ti&m special vom Januar 2024 ist ein Interview mit Oliver Bendel abgedruckt. Darin geht es um autonome Maschinen, von deren Einsatz er in manchen Bereichen abrät, und um die Disziplin der Maschinenethik. Der Beitrag mit dem Titel „In manchen Kontexten sollten wir keine autonomen Systeme einsetzen“ kann hier heruntergeladen oder über die Website des Unternehmens bezogen werden.
Luca Beutel, Betreiber des Podcasts „Inspirierend anders“, hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Robotik geführt. Die Aufnahme fand bereits im Sommer statt, auf Sendung ging man am 16. November 2023. Unter anderem drehte sich das Gespräch um Roboter als Subjekte und Objekte der Moral. Der Technikphilosoph aus Zürich hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Der Podcast kann über open.spotify.com/episode/4okY8VaLGMz0IVSLptgfaO?si=lArWhSfsQxyVwoFDiEXNtg aufgerufen werden.
Sebastian Albert ging laut einer Meldung von idw-online beim Bundeswettbewerb Künstliche Intelligenz (BWKI) als Sieger in der Sonderkategorie „Hardware“ hervor. „Angetreten als ‚Igelretter‘, entwickelte der 20-Jährige aus March bei Freiburg einen Algorithmus, der mit Hilfe eines Aufsatzes am Mähroboter Igel erkennt und diesen ausweicht. Er schützt sie so vor dem qualvollen Tod. Ausgezeichnet wurde das Projekt mit einem Geldpreis in Höhe von 750 Euro.“ (iwd-online, 13. November 2023) Damit hat der Nachwuchsforscher ein Projekt wiederholt, das Prof. Dr. Oliver Bendel von August 2019 bis Januar 2020 mit einem Team von drei Studenten und einer Studentin im Kontext der Maschinenethik durchführte. Der Wirtschaftsinformatiker und Technikphilosoph aus Zürich verfasste nach Abschluss zusammen mit Emanuel Graf und Kevin Bollier das Paper „The HAPPY HEDGEHOG Project“ und präsentierte es zusammen mit Emanuel Graf bei den AAAI 2021 Spring Symposia. Der Prototyp eines Mähroboters benutzt eine Wärmebildkamera und Machine Learning. Im ersten Schritt untersucht er seine Umgebung auf warme Objekte in einem bestimmten Temperaturbereich. Wenn er etwas gefunden hat, was zu einem Lebewesen passt, leitet er nähere Untersuchungen ein. Zu diesem Zweck wurde er mit Igelbildern trainiert. Stellt er fest, dass es sich um ein solches Tier handelt, unterbricht er seine Arbeit. HAPPY HEDGEHOG inspiriert seit seiner Erfindung Firmen und Forscher. Mehrere Medien haben seit 2021 über den tierfreundlichen Mähroboter berichtet, etwa der Beobachter und das Magazin der Schweizer Tierschutzes. Die Stuttgarter Zeitung berichtete am 8. November 2023 über den BWKI und erwähnte dabei auch das Original aus der Schweiz.
Abb.: Ein Igel mit einem Mähroboter (Bild: DALL-E 3)
Beim „Digital Ethics Summit“ am 14. September 2023 in Düsseldorf – keine Fachtagung, sondern eine populärwissenschaftliche und mediengetriebene Veranstaltung – trat u.a. der Germanist und Philosoph Richard David Precht auf. Er wird seitdem mit dem Satz „Wir verzeihen Maschinen nicht, was wir Menschen verzeihen müssen.“ zitiert. Dieser Gedanke tritt allerdings im Zusammenhang mit dem autonomen Fahren und in anderen Zusammenhängen seit über zehn Jahren in unterschiedlichen Varianten auf. Die Süddeutsche Zeitung zitiert den Rechtswissenschaftler Eric Hilgendorf im Mai 2012 mit den Worten „Menschen verzeiht man Fehler, Robotern nicht“. In einem Interview mit dem Informations- und Maschinenethiker Oliver Bendel aus dem Jahre 2016, ausgehend von humanoiden Robotern mit hoheitlichen Aufgaben, heißt es: „Eine Möglichkeit ist, dass die Maschinen eines Tages so verlässlich und intelligent werden, dass wir ihnen vertrauen. Eine andere Möglichkeit ist, dass sie wie wir Fehler machen, wir ihnen diese Fehler aber nicht verzeihen, nicht verzeihen können, weil es eben Maschinen sind.“ Im Artikel „Cloud am Steuer“ von 2014 wird er mit Blick auf autonome Autos mit den Worten zitiert: „Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen.“ In Artikeln und Interviews wies Oliver Bendel immer wieder darauf hin, dass man Menschen eher verzeiht als Maschinen und dass dies Folgen hat für die Akzeptanz des autonomen Fahrens, bei dem zwangsläufig Unfälle passieren. Eigentlich stammt die Diskussion aber aus den 1970er- und 1980er-Jahren. In seinem zweiten Studium in den 1990ern hat Oliver Bendel in einer Arbeit zur Informationsethik u.a. William Bechtel zitiert: „If we accept this result that some computers could be held responsible for their decisions if they were adaptable systems that learned to behave in particular ways in their environment, there will be conditions under which we will forgive them and not hold them responsible. These would be much the same as the circumstances under which we would cease to hold humans responsible.“ Schon damals hat sich Oliver Bendel dagegen verwahrt, dass Computer, KI-Systeme und Roboter Verantwortung übernehmen können.
Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das zweiteilige Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Rico Wespi gewonnen werden. Er wird im Rahmen seiner Bachelor Thesis Grundlagen zu Constitutional AI erarbeiten und vergleichbare Anwendungen studieren. Im zweiten Teil, den ein Entwickler übernimmt, wird der CAIBOT prototypisch implementiert. Die ersten Ergebnisse werden im Januar 2024 präsentiert.
In der FAZ vom 29. August 2023 ist Melanie Mühl im Gespräch mit Prof. Dr. Oliver Bendel. Auf einer knappen Seite, die im Feuilleton untergebracht ist, geht es um Chatbots, Sprachassistenten und soziale Roboter. Es geht um die Beziehungen mit ihnen, die immer einseitig bleiben, um Täuschung und Betrug, aber auch um die Freude, die man mit Artefakten haben kann. Natürlich dürfen Sprachmodelle wie GPT nicht fehlen, und mit Blick auf Sexroboter stellt Oliver Bendel fest, dass jene zu prüde für Dirty Talk sind. Man muss sie mit speziellem Material trainieren, um sie für dieses Geschäftsfeld zu erschließen. Und genau das machen Unternehmen wie RealDoll bzw. Realbotix seit Jahren. Wer 10.000 Dollar und mehr für Harmony ausgibt, will eben nicht nur Sex mit ihr haben, sondern auch eine (wie auch immer geartete) Beziehung mit ihr führen, und dafür braucht es Sprache. Der Artikel „Für Dirty Talk ist GPT zu prüde“ ist in der Printausgabe erschienen. Zudem steht der Artikel in der Onlineausgabe mit abweichendem Bildmaterial zur Verfügung.
Am 31. August 2023 findet in Zürich die Innocare 2023 statt. Bei dem Event zu Pflegerobotern sprechen Prof. Dr. Oliver Bendel, Sylvia Stocker, Alexander Pröll, Prof. Dr. David Matusiewicz, Beat Sommerhalder und Sari Wettstein. Partner der Veranstaltung sind United Robotics Group, Arabesque, Achermann und HPE Aruba Networks. Prof. Dr. Oliver Bendel geht in seiner 20-minütigen Eröffnungsrede auf Pflegeroboter aus Sicht von Informations- und Maschinenethik ein. Es werden die Ziele, Aufgaben und Merkmale von Pflegerobotern geklärt und Beispiele vorgestellt. Auf dieser Grundlage werden Überlegungen aus der Perspektive der Ethik angestellt. Am Ende soll deutlich werden, welche Robotertypen und Prototypen bzw. Produkte es gibt, welche Zwecke sie erfüllen, welche Funktionen sie übernehmen und welche Implikationen und Konsequenzen dies für den Einzelnen und die Gesellschaft hat. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Die Anmeldung erfolgt über inno-care.ch.
Abb.: Oliver Bendel mit Pepper (Foto: Sara Zarubica)
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)
Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung der klassischen moralischen Maschinen ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Umsetzungen. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er gibt zur Auskunft: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.
Abb.: Anthropic sitzt in San Francisco (Foto: Stefanie Hauske)
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Der Titel lautet „Ethische Implikationen von ChatGPT“. Aus Sicht von Informations- und Maschinenethik werden verschiedene Überlegungen zu ChatGPT angestellt. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
Abb.: Auch Pepper hat man schon mit ChatGPT verbunden (Foto: Sara Zarubica)
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.
Am 2. März 2023 startete der 3sat-Abend Wissen hoch 2 zu KI und Robotik um 18.30 Uhr mit NANO. Oliver Bendel wurde mit folgenden Worten vorgestellt: „Im beschaulichen schweizerischen Brugg-Windisch forscht einer der wichtigsten Robotikexperten und Maschinenethiker, Prof. Oliver Bendel, Autor diverser Standardwerke, Sachverständiger für den deutschen Bundestag, Roboterfan.“ Ebenfalls im Interview mit der Sendung war Jonas Andrulis von Aleph Alpha, einem deutschen KI-Unternehmen. Nach der Tagesschau – ab 20.15 Uhr – wurde die Dokumentation „Mein Avatar und ich“ gezeigt. Ingolf Baur war u.a. zu Oliver Bendel nach Brugg-Windisch, zu Daniele Pucci nach Genua und zu Matt McMullen nach Kalifornien bzw. Nevada gereist. Ein ehemaliger Google-Ingenieur, der in LaMDA fälschlicherweise Bewusstsein vermutete, war online zugeschaltet. Den Abschluss bildete ab 21.00 Uhr eine Talkrunde bei Gerd Scobel mit Oliver Bendel, Doris Weßels (Fachhochschule Kiel) und Kristian Kersting (TU Darmstadt). Die Sprache kam auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker äußerte die Meinung, dass KI imstande ist, Schönheit zu produzieren. Nach dreieinhalb Stunden war der Abend, der viele herausragende Bilder und Geschichten lieferte, vorbei.
Abb.: Oliver Bendel bringt NAO zum Dreh (Foto: Sara Zarubica)
„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.
Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.
Abb.: Oliver Bendel erklärt auf ARTE das Uncanny Valley
Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.
Abb.: Eine futuristische Darstellung eines humanoiden Roboters