Prof. Dr. Oliver Bendel unterrichtet seit ca. 15 Jahren an der FHNW in Informationsethik, KI-Ethik, Roboterethik und Maschinenethik. Im neuen Studiengang Business AI an der Hochschule für Wirtschaft in Olten ist er verantwortlich für das Modul „Ethik und Technologiefolgenabschätzung“. Hier rückt die KI-Ethik in den Vordergrund, aber die Studenten und Studentinnen werden auch Anliegen der Roboterethik und Ansätze der Maschinenethik – darunter Annotated Decision Trees und Moral Prompt Engineering – kennenlernen. Und sie werden mit Hilfe der Informationsethik, einschließlich der Datenethik, die Herkünfte und Flüsse von Daten und Informationen analysieren und evaluieren und Bias-Diskussionen führen. Nicht zuletzt taucht man in die Technologiefolgenabschätzung ein (in Deutschland spricht man auch von Technikfolgenabschätzung). Oliver Bendel lehrt ansonsten im Modul „Ethik und Recht“ im Studiengang Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Olten (von ihm 2010 übernommen als „Informatik, Ethik und Gesellschaft“, später umbenannt in „Informationsethik“), im Modul „Recht und Ethik“ im Studiengang Geomatik an der Hochschule für Architektur, Bau und Geomatik FHNW in Muttenz sowie „Ethisches Reflektieren“ und „Ethisches Implementieren“ im Studiengang Data Science an der Hochschule für Technik FHNW in Brugg-Windisch. Sehr beliebt sind seine Wahlmodule zur Sozialen Robotik.
Abb.: In der Mensa der FHNW in Olten (Foto: Pati Grabowicz)
„Tierrechte sind individuelle Rechte, die Tieren aufgrund ihres Seins, genauer gesagt ihrer Empfindungsfähigkeit, ihrer Leidens- und Glücksfähigkeit oder ihres Bewusstseins zukommen, was einen Zusammenhang mit dem Menschsein herstellt. Ihnen gegenüber stehen die Pflichten von Menschen. Tierrechte können philosophisch bzw. ethisch hergeleitet und begründet sowie rechtlich festgeschrieben werden, etwa in einem Tierschutzgesetz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele für mögliche und tatsächliche Tierrechte, klärt die Rolle der Tierethik, geht auf Begründungen von Tierrechten ein und stellt die Frage nach dem Subjekt und Objekt der Moral. Am Ende – in „Kritik und Ausblick“ – werden einige Probleme genannt und mehrere Perspektiven eingenommen, auch die von technisch ausgerichteten Bereichsethiken: „Technikethik und Informationsethik untersuchen Phänomene wie Animal Enhancement und arbeiten mit Disziplinen wie Tier-Computer-Interaktion und Tier-Maschine-Interaktion zusammen.“ Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/tierrechte-126472 aufgerufen werden.
Abb.: Vielen Tieren könnten Grundrechte zugestanden werden
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.
„Bildgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen digitalen Bilder hervorbringen bzw. verändern, etwa fotorealistische Darstellungen, Zeichnungen, Gemälde oder Logos. Dabei kann man oft Stile und Formate vorgeben und im Dialog – in dem der Bildgenerator zum Chatbot wird – die Ergebnisse verbessern.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Im Abschnitt zu Zurückweisung und Zensur ist zu lesen: „Einige Bildgeneratoren lehnen Prompts ab, wenn sie gegen die eigenen Richtlinien oder gegen anerkannte Leitlinien und bestehende Gesetze verstoßen. Bei DALL-E 3 nimmt ChatGPT die Prompts des Benutzers entgegen und formuliert daraus eigene Prompts, die dann weitergereicht werden. Widersprechen diese den Richtlinien, werden sie nicht ausgeführt. Ideogram geht in diesem Kontext anders vor. Zunächst beginnt es mit dem Generieren, wobei es den ‚generation progress‘ in Prozent anzeigt. Sobald es erkennt, dass unerwünschte Elemente auf dem Bild vorkommen, wird dieses vor der Fertigstellung – also bevor 100 Prozent erreicht sind – durch eine Kachel mit einer Katze ersetzt, die ein Schild mit der Aufschrift „MAYBE NOT SAFE“ trägt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/bildgenerator-125856 aufgerufen werden.
Abb.: Vier junge Frauen als Beatles auf der Abbey Road (Bild: DALL-E 3)
„Textgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen Texte hervorbringen, zusammenfassen, bewerten, übersetzen, editieren und paraphrasieren. Sie können ebenso Artikel und Gedichte schreiben wie Geschichten erzählen. Dabei kann man ihnen Stile, Formate und Längen vorgeben. Zudem sind sie als Dialogsysteme nutzbar, im Sinne von Chatbots bzw. Sprachassistenten, die man u.a. in Roboter – Kollaborationsroboter oder Serviceroboter – integrieren kann.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Textgeneratoren eröffnen Laien wie Experten neue Perspektiven. Sie tragen zu einer Professionalisierung von Anwendungsbereichen bei und erhöhen Effizienz und Effektivität. Zugleich etablieren einige Textgeneratoren einen bestimmten Stil und Ausdruck und frönen in ihrer Vorsichtigkeit und Unverbindlichkeit der Wokeness. Die Multimodalität bringt neue Möglichkeiten mit sich und verbindet virtuellen und physischen Raum, nicht nur bei Textgeneratoren, die Bild- und Audiodaten verarbeiten können, sondern auch bei Industrie- und Servicerobotern, deren Bilddaten in die Sprachmodelle integriert werden.“ Es schließen sich ethische Überlegungen an. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/textgenerator-125857 aufgerufen werden.
Abb.: So stellt sich DALL-E 3 das „ChatGPT-Interface“ vor
Bei den Akademietagen in Bietigheim-Bissingen trägt Prof. Dr. Oliver Bendel am 9. November 2023 zum Thema „Mensch-Maschine-Interaktion aus ethischer Sicht: Überlegungen zur Simulation von Empathie und Emotionen“ vor. Der Beitrag widmet sich zunächst der Definition und den Merkmalen sozialer Roboter und stellt Beispiele aus verschiedenen Bereichen vor. Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Beispiele sind Spielzeugroboter wie Cozmo und Vector, Therapieroboter wie Paro und QTrobot, Pflegeroboter wie Lio und P-Care sowie Sexroboter wie Harmony. Soziale Roboter gewinnen Menschen und Tiere mit wohlvertrauten Verhaltensweisen für sich. Aus technischer und funktionaler Sicht sind simulierte Emotionen und simulierte Empathie zur Erreichung des Nutzens für Menschen wichtig, ebenso aus psychologischer, wenn Beziehungen initiiert und etabliert werden sollen. Aus philosophischer und speziell ethischer Sicht stellen sich freilich auch Fragen zu Täuschung und Betrug sowie zur informationellen Autonomie. Genau diesen geht der Beitrag, ausgehend von den Merkmalen und Beispielen sozialer Roboter, dann nach. Er arbeitet heraus, wie soziale Roboter einerseits verlässliche Partner sind, andererseits das Gegenteil, da ihnen echte Emotionen und echte Empathie fehlen, sie nur ein simuliertes Gegenüber darstellen und sie dazu prädestiniert sind, uns unsere Geheimnisse zu entreißen. Die Broschüre zur Veranstaltung kann hier heruntergeladen werden.
„Knapp eine Woche, nachdem OpenAI die neue Version von Dall-E 3 vorgestellt hat, steht sie nun über den Bing Image Creator zur kostenlosen Verfügung. Ursprünglich hatten die Entwickler angekündigt, das Tool nur für ChatGPT-Plus- und Enterprise-Kunden ab Anfang Oktober zu veröffentlichen.“ (Golem, 2. Oktober 2023) Dies meldete Golem am Spätnachmittag des 2. Oktober 2023. „Mit der Text-zu-Bild-KI verspricht OpenAI, Kenntnisse im Prompt Engineering überflüssig zu machen. Bei Dall-E 3 übernimmt ChatGPT diese Aufgabe und übersetzt die Bildbeschreibungen der Nutzer in Prompts, die für Dall-E 3 verständlich sind.“ (Golem, 2. Oktober 2023) Am Abend war das System zeitweise stark überlastet. Das Generieren eines Bildes dauerte 15 bis 30 Minuten. Erste Tests von Prof. Dr. Oliver Bendel verliefen erfolgversprechend. Die Qualität nähert sich Midjourney an, aber Füße und Hände sind immer noch eine Herausforderung … Auch eine moralische und rechtliche Dimension scheint es wieder zu geben: OpenAI legt „bei Dall-E 3 weiterhin Wert auf Sicherheit“ und „integriert Mechanismen, mit denen Missbrauch, Propaganda und Desinformationen“ (Golem, 2. Oktober 2023) vorgebeugt werden soll. Bei DALL-E 2 sorgte dies bereits für ärgerliche Einschränkungen, ebenso bei Ideogram. Man ist letztlich der Moral amerikanischer Machart ausgeliefert – dem neoviktorianischen Unternehmenskonservatismus, wie es ein KI-Experte im Austausch mit Oliver Bendel ausdrückte. DALL-E 3 zensiert ebenfalls, direkt bei den Prompts, und droht mit Konsequenzen bis hin zur Schließung des Accounts.
Abb.: Ein Mädchen springt vom Turm in den Pool (Bild: DALL-E 3)
Beim „Digital Ethics Summit“ am 14. September 2023 in Düsseldorf – keine Fachtagung, sondern eine populärwissenschaftliche und mediengetriebene Veranstaltung – trat u.a. der Germanist und Philosoph Richard David Precht auf. Er wird seitdem mit dem Satz „Wir verzeihen Maschinen nicht, was wir Menschen verzeihen müssen.“ zitiert. Dieser Gedanke tritt allerdings im Zusammenhang mit dem autonomen Fahren und in anderen Zusammenhängen seit über zehn Jahren in unterschiedlichen Varianten auf. Die Süddeutsche Zeitung zitiert den Rechtswissenschaftler Eric Hilgendorf im Mai 2012 mit den Worten „Menschen verzeiht man Fehler, Robotern nicht“. In einem Interview mit dem Informations- und Maschinenethiker Oliver Bendel aus dem Jahre 2016, ausgehend von humanoiden Robotern mit hoheitlichen Aufgaben, heißt es: „Eine Möglichkeit ist, dass die Maschinen eines Tages so verlässlich und intelligent werden, dass wir ihnen vertrauen. Eine andere Möglichkeit ist, dass sie wie wir Fehler machen, wir ihnen diese Fehler aber nicht verzeihen, nicht verzeihen können, weil es eben Maschinen sind.“ Im Artikel „Cloud am Steuer“ von 2014 wird er mit Blick auf autonome Autos mit den Worten zitiert: „Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen.“ In Artikeln und Interviews wies Oliver Bendel immer wieder darauf hin, dass man Menschen eher verzeiht als Maschinen und dass dies Folgen hat für die Akzeptanz des autonomen Fahrens, bei dem zwangsläufig Unfälle passieren. Eigentlich stammt die Diskussion aber aus den 1970er- und 1980er-Jahren. In seinem zweiten Studium in den 1990ern hat Oliver Bendel in einer Arbeit zur Informationsethik u.a. William Bechtel zitiert: „If we accept this result that some computers could be held responsible for their decisions if they were adaptable systems that learned to behave in particular ways in their environment, there will be conditions under which we will forgive them and not hold them responsible. These would be much the same as the circumstances under which we would cease to hold humans responsible.“ Schon damals hat sich Oliver Bendel dagegen verwahrt, dass Computer, KI-Systeme und Roboter Verantwortung übernehmen können.
Ideogram ist ein Bildgenerator, der Gesichter und Körper meist schlechter als Midjourney darstellt, Texte aber oft besser. Er kann über ideogram.ai aufgerufen werden. Jedes Bild ist öffentlich auf der Website sichtbar. Die Community nutzt diese Voraussetzungen und Bedingungen, um miteinander und vor allem mit dem Anbieter zu kommunizieren. So sind seit Tagen Protestierende mit Schildern zu sehen, auf denen „You need more servers“ und ähnliche Sätze stehen. Damit wird darauf angespielt, dass der Dienst inzwischen so beliebt ist, dass er nur noch selten zur Verfügung steht. Andere Generatoren hat in der Vergangenheit ein ähnliches Schicksal ereilt, bis nachgebessert wurde. Immer mehr werden auch konkrete Funktionen gefordert, etwa eine Suchfunktion oder eine Uploadfunktion für Bilder. Da solche Tafeln von vielen Benutzern gelikt werden, sind sie in der standardmäßig eingestellten Rubrik „Trending“ sichtbar. Dort war dann auch eine Gegenstimme, eine Demonstrantin, die ein Schild mit der leicht fehlerhaft generierten Aufschrift „IT’S FREE UNGRATEFUL PEEOPLE“ trug. Ob undankbar oder nicht – wichtig wäre noch eine höhere Auflösung, denn im Moment ist man auf Upscaler angewiesen, wenn man das Bild in einer bestimmten Größe auf der Website oder im Print verwenden will. Ein Grund für die Beliebtheit von Ideogram ist, dass man ohne Anmeldung und andere Hürden einfach loslegen kann. Und eben, dass man Texte einfügen kann, was u.a. die Covergestaltung ermöglicht.
Abb.: Ein Kommunikationsbild von „engel“, zugeschnitten für diesen Post (Bild: Ideogram)
Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.
Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor
Am 31. August 2023 findet in Zürich die Innocare 2023 statt. Bei dem Event zu Pflegerobotern sprechen Prof. Dr. Oliver Bendel, Sylvia Stocker, Alexander Pröll, Prof. Dr. David Matusiewicz, Beat Sommerhalder und Sari Wettstein. Partner der Veranstaltung sind United Robotics Group, Arabesque, Achermann und HPE Aruba Networks. Prof. Dr. Oliver Bendel geht in seiner 20-minütigen Eröffnungsrede auf Pflegeroboter aus Sicht von Informations- und Maschinenethik ein. Es werden die Ziele, Aufgaben und Merkmale von Pflegerobotern geklärt und Beispiele vorgestellt. Auf dieser Grundlage werden Überlegungen aus der Perspektive der Ethik angestellt. Am Ende soll deutlich werden, welche Robotertypen und Prototypen bzw. Produkte es gibt, welche Zwecke sie erfüllen, welche Funktionen sie übernehmen und welche Implikationen und Konsequenzen dies für den Einzelnen und die Gesellschaft hat. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Die Anmeldung erfolgt über inno-care.ch.
Abb.: Oliver Bendel mit Pepper (Foto: Sara Zarubica)
„Die Aussage, dass KI Texte generieren kann, sagt etwas über das Verständnis von Texten aus. Worin aber unterscheiden sich menschengemachte und computergenerierte Texte und welche Geltungsansprüche können jeweils erhoben, bestritten oder eingelöst werden? Was erwarten, befürchten und erhoffen sich die einzelnen Wissenschaften, wenn in ihren Diskursen Texte rezipiert werden, die mit generativer Text-KI erzeugt wurden? Wie verändert sich der Umgang mit Quellen? Wie kann digitale Hermeneutik mit KI umgehen? Und welche Konsequenzen ergeben sich für die Kriterien von Wissenschaftlichkeit, Relevanz und Urheberschaft?“ (Programm ZEVEDI) Diesen und anderen Fragen geht die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ nach, die am 25. und 26. August 2023 an der TU Darmstadt stattfindet. Es tragen u.a. Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz), Dr. Steffen Albrecht (Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag) und Prof. Dr. Christian Stöcker (Hochschule für Angewandte Wissenschaften Hamburg) vor. Das Programm kann hier abgerufen werden.
Abb.: Oliver Bendel in seinem Büro (Foto: Dominic Büttner)
„Das Büro (fr. ‚bureau‘: urspr. ‚Tuch‘, später ‚Amtsstube‘) ist der Arbeitsplatz bzw. der Arbeitsraum in einem Unternehmen oder einer Verwaltung. In ihm finden Denk-, Lese-, Schreib-, Zeichen- und Rechentätigkeiten statt, es wird mit Geräten interagiert und mit Menschen und Organisationen kommuniziert.“ Mit diesen Worten beginnt ein Beitrag im Gabler Wirtschaftslexikon, der am 4. Juli 2023 erschienen ist. Im zweiten Abschnitt heißt es: „Bürotätigkeiten im 21. Jahrhundert hängen fast vollständig von der Digitalisierung ab. Datenbrillen und 3D-Welten (darunter das Metaverse) gewinnen im Büro der Zukunft ebenso an Bedeutung wie generative KI. Experimentiert wird mit Hologrammen bzw. Pseudohologrammen als Avataren. In Großraumbüros erlauben Cube-Systeme, sozusagen Büros in Büros, die Durchführung von Audio- und Videokonferenzen sowie Minimeetings, ohne die Allgemeinheit zu stören. Ferner werden Zonen für weitere Bedürfnisse eingerichtet.“ Im dritten Abschnitt werden ethische Überlegungen angestellt: „Informationsethik und Wirtschaftsethik untersuchen die moralischen Implikationen der Bürotätigkeit und von Arbeit überhaupt, in Bezug auf Überwachung, Entfremdung, Ausbeutung und Ersetzung (u.a. durch Systeme der KI). Die Unternehmensethik beschäftigt sich außerdem mit Compliance-Fragen und mit Fragen von Diversity und Inclusion, etwa mit Blick auf die Barrierefreiheit.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/buero-125514 abgerufen werden.
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)
Das Handelsblatt hat mit Prof. Dr. Oliver Bendel über Bio- und Bodyhacking und Human Enhancement gesprochen. Es ging vor allem um die Anwendung im Berufsleben, etwa im Büro oder in der Fabrik. Mehrere Aussagen des Technikphilosophen wurden in dem Artikel „Wie Mikrochips und smarte Brillen die Leistung im Job erhöhen können“ zitiert. Anwendungen dieser Art kann man vor allem dem Human Enhancement zurechnen. Über Bio- und Bodyhacking, Human Enhancement und Animal Enhancement sowie Cyborgs schreibt Oliver Bendel seit Jahren. Zudem hält er Vorträge zum Thema, wie bei der Architekturbiennale in Venedig im Jahre 2021 („Human and Animal Enhancement in the Context of Architecture“). Mit Studenten und Studentinnen probierte er 2017 im Silicon Valley die HoloLens von Microsoft aus. Für das Arbeitsleben sind seiner Meinung nach Datenbrillen relevant, smarte Kontaktlinsen sowie passive und aktive Exoskelette. Wichtig ist es, den Bedürfnissen der Arbeitnehmer Rechnung zu tragen und die Privat- und Intimsphäre aller Beteiligten und Betroffenen zu schützen. Der Artikel ist am 16. Juni 2023 erschienen und kann über www.handelsblatt.com/karriere/biohacking-wie-mikrochips-und-smarte-brillen-die-leistung-im-job-erhoehen-koennen/29202186.html aufgerufen werden.
Abb.: Studentinnen mit der HoloLens im Jahre 2017 bei Microsoft im Silicon Valley
Die Shift, eine Tagung zu Fragen von Informations-, Roboter- und KI-Ethik, fand am 20. April 2023 zum fünften Mal statt. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Das Video dazu ist am 19. Mai 2023 erschienen. Oliver Bendel ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Das Video kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Ein Forscherteam von der University of Texas hat ein neues Verfahren für Brain-Computer-Interfaces vorgestellt, mit dem die Vision des Gedankenlesens ein wenig näher rückt. Verwendet wird in der Studie – das ist ein entscheidender Punkt – ein Sprachmodell wie GPT, in Kombination mit Magnetresonanztomografie. Generell können solche Systeme im Moment allenfalls wahrscheinliche Phrasen vorschlagen. Sie machen noch viele Fehler. Diese dürften sich in Zukunft aber zum Teil beheben lassen. Von Bedeutung wären solche Verfahren für Schwerbehinderte, etwa Querschnittsgelähmte. Diese können über Brain-Computer-Interfaces bereits Geräte mit Gedanken steuern – in ein paar Jahren wären sie in der Lage, über Gedanken mit anderen zu kommunizieren. Interessiert werden auch Polizei, Geheimdienst und Verfassungsschutz sein. Selbst bei gegebenem Kooperationswillen kann es sich um einen Übergriff handeln. Ohne einen gegebenen Kooperationswillen, der im Moment noch Grundlage der Methode ist, kann es sich um psychische Gewalt handeln. Es wäre auf jeden Fall ein Eingriff in die Intim- und Privatsphäre. Der Mensch steht mit seinen Gedanken nackt vor den anderen da. Dies gilt insbesondere, aber nicht nur, bei sexuellen Vorstellungen. Ferner kann man evtl. auch an politische und moralische Überzeugungen oder an Passwörter herankommen. Die Studie zeigt, dass Sprachmodelle für alle möglichen Zwecke eingesetzt werden können und auch eingesetzt werden, bei den entsprechenden Chancen und Risiken. Die Nachrichtensendung 10 vor 10 im SRF hat dem Thema am 3. Mai 2023 einen Beitrag gewidmet. Darin kommen Prof. Dr. Lutz Jäncke (Universität Zürich), Dr. Ricardo Chavarriaga (ZHAW) und Prof. Dr. Oliver Bendel (FHNW) zu Wort. Der Artikel mitsamt dem Video kann über www.srf.ch/news/experiment-in-den-usa-gedanken-entschluesseln-dank-hirn-scans-und-ki abgerufen werden.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Der Titel lautet „Ethische Implikationen von ChatGPT“. Aus Sicht von Informations- und Maschinenethik werden verschiedene Überlegungen zu ChatGPT angestellt. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
Abb.: Auch Pepper hat man schon mit ChatGPT verbunden (Foto: Sara Zarubica)
Am 9. April 2023 versammelten sich die Passagiere am Flughafen von San Francisco an einem der Gates, um auf das Boarding eines SWISS-Flugs zu warten. Für viele Schweizer und Deutsche ging es – mit dem Zielflughafen Zürich – zurück in die Heimat. Beim Boarding mussten alle vor ein Gesichtserkennungssystem treten und ihre biometrischen Merkmale erfassen lassen. Dies ersetzte das Vorzeigen der Bordkarte. Es gab keinen Hinweis der Airline oder einer Behörde auf eine Alternative. Eine Anfrage eines Betroffenen an SWISS, auf welcher rechtlichen Grundlage dies erfolgte, wurde wie folgt beantwortet: „Ich habe mir Ihren Fall durchgelesen und möchte Ihnen mitteilen, dass das Gesichtserkennungssystem nicht obligatorisch ist. Es wird immer ein Mitarbeiter im Dienst sein, der die Sicherheitskontrolle auch manuell durchführen kann. Wenn Sie das nächste Mal in eine solche Situation kommen und nicht durch das Gesichtserkennungssystem gehen möchten, können Sie jederzeit einen Mitarbeiter bitten, Sie manuell durch die Kontrolle zu begleiten.“ Der Hinweis, dass die Nutzung des Systems nicht obligatorisch ist, müsste allerdings vor Ort gegeben werden. Man ist beim Boarding eines Rückflugs unter einem gewissen Druck, befindet sich auf fremdem Boden – und sieht sich mit einer unerwarteten Situation konfrontiert. All dies nutzt das Unternehmen oder sein Partner – die US-amerikanische Behörde – offenbar aus. Auch zur Datenerfassung und -verwendung gab es keinerlei Informationen, weder vor noch nach dem Vorgang. Ohne Zweifel wird die informationelle Autonomie verletzt. Insgesamt findet der Einsatz eines problematischen Systems ohne ausdrückliche Zustimmung der Passagiere statt. Laut einem Artikel von 2021 hat man das Verfahren bereits seit längerer Zeit getestet. „Die Swiss bestätigt den Einsatz der Technologie. Zusammen mit dem Mutterkonzern, der Lufthansa-Gruppe, engagiere man sich für den Einsatz der biometrischen Gesichtsfelderkennung. … Beim Projekt in San Francisco handle es sich in erster Linie um einen ‚übergeordneten Grenzkontrollprozess‘ der US-Behörden … Die Swiss und die Lufthansa seien aber bei der Umsetzung begleitend involviert gewesen, um eine Schnittstelle im Abfertigungsprogramm herzustellen.“ (Luzerner Zeitung, 8. September 2021)
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
„Ein Prompt ist bei generativer KI (Generative AI) ein Input des Benutzers, zu dem das System einen Output erzeugt. Ein textbasierter Prompt kann Wörter, Buchstaben, Sonderzeichen, Zahlen und Links enthalten. Um das gewünschte Ergebnis zu bekommen, muss der Prompt möglichst eindeutig und umfassend sein. Ein einfaches Beispiel im Falle von Bildgeneratoren ist ‚3 junge Frauen vor einem See, fotorealistisch‘, wobei der erste Teil den Inhalt angibt, der zweite den Stil. Wenn Dialoge vorgesehen sind, wie bei Textgeneratoren wie ChatGPT und Bildgeneratoren wie Visual ChatGPT, kann mehrmals eine Eingabe erfolgen, um das Ergebnis anzupassen. Auch das Verweisen auf Bilder ist möglich. Zuweilen sind negative Prompts erlaubt, die etwas ausschließen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, erschienen am 14. März 2023. In den folgenden Absätzen wird auf Prompt Engineering und Prompt-Plattformen eingegangen. Am Ende wird die Perspektive der Ethik eingenommen: „Dass generative KI bestimmte Anfragen ablehnt, aus moralischen, rechtlichen oder ideologischen Gründen, ist Thema von Informationsethik und Medienethik. Rechtsethik, Rechtswissenschaft und Rechtsprechung untersuchen, inwieweit Prompts schützenswertes geistiges Eigentum darstellen.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/prompt-125087 abgerufen werden.
Abb.: Midjourney generiert ein Bild mit drei jungen Frauen vor einem See
Einige Banken erlauben beim Kontozugang die Authentifizierung durch die Stimme des Kunden. Dazu gehört z.B. PostFinance in der Schweiz. Auf der Website heißt es: „Im Kontaktcenter von PostFinance können wir Sie anhand Ihrer Stimme authentifizieren. Nachdem wir einmalig von Ihnen einen Stimmabdruck angelegt haben, erkennen wir Sie bei allen folgenden Anrufen anhand Ihrer Stimme. Das unterstützt die Sicherheit und spart Zeit.“ (Website PostFinance) Seit einigen Jahren kann man mit wenigen Minuten der Aufnahme einer individuellen Stimme eine synthetische Stimme generieren und sie beliebige Inhalte sagen lassen. Auch die Sprechweise wird imitiert. Dafür stehen kostenpflichtige und kostenlose KI-Tools zur Verfügung. Auch bei Sprachassistenten verbreitet sich die Funktion – man denke etwa an Bixby von Samsung. Oliver Bendel veröffentlichte im Juli 2017 in AI & Society seinen Artikel „The Synthetization of Human Voices“ und beschrieb genau solche Verfahren. Joseph Cox berichtete in seinem Artikel „How I Broke Into a Bank Account With an AI-Generated Voice“ (Vice, 23. Februar 2023), dass er erfolgreich das System ausgetrickst hat: „I couldn’t believe it – it had worked. I had used an AI-powered replica of a voice to break into a bank account. After that, I had access to the account information, including balances and a list of recent transactions and transfers.“ (Vice, 23. Februar 2023) Fingerabdruck und Iriserkennung zur Authentifizierung sind seit längerer Zeit problembehaftet. Inzwischen sollte man sich auch den Einsatz seiner Stimme gut überlegen.
Abb.: Die eigene Stimme kann schnell synthetisiert werden