Ende September 2024 wurde an der Hochschule für Wirtschaft FHNW ein Projekt abgeschlossen, das die Entwicklung eines Digital-Trust-Radars zum Ziel hatte. Gefördert wurde es von der Stiftung FHNW und vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW. Einen letzten Feinschliff erhält die Website nach den Benutzertests. Zum Hintergrund kann man sagen, dass immer mehr Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz (KI) entstehen. Manche sind sehr allgemein, andere sehr konkret, bezogen auf einen Anwendungsbereich oder eine Nutzergruppe. Ein wesentlicher Aspekt bei der Durchführung von KI-Projekten und der Einführung von KI-Systemen ist Digital Trust. Die Entwickler müssen den Einrichtungen, die Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz verantworten und vorlegen, vertrauen können, und sie müssen den Regeln selbst vertrauen können. Die Anbieter und Benutzer müssen beim Betrieb der KI-Systeme darauf vertrauen können, dass alle Leitfäden, Richtlinien und Verordnungen beachtet wurden und das KI-System den Anforderungen entspricht. Die Endbenutzer müssen darauf vertrauen können, dass das KI-System den Anforderungen entspricht und es sich um vertrauenswürdige KI handelt. Der interaktive, webbasierte Digital-Trust-Radar schafft für Wirtschaft, Verwaltung und Gesellschaft spezifische Zugänge zu Leitfäden, Richtlinien und Verordnungen, reichert sie mit Metainformationen an und fasst sie in aller Kürze zusammen. Das Projekt dauerte vom 1. Oktober 2023 bis zum 30. September 2024. Projektleiter war Prof. Dr. Oliver Bendel vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Brugg-Windisch. Co-Projektleiterin war Prof. Dr. Petra Asprion vom Competence Center Digital Trust an der Hochschule für Wirtschaft FHNW in Basel. Der Digital-Trust-Radar ist in der Beta-Version über radar.digitaltrust-competence.ch verfügbar.
Abb.: Studenten in Brugg-Windisch (Foto: Pati Grabowicz)
Prof. Dr. Oliver Bendel unterrichtet seit ca. 15 Jahren an der FHNW in Informationsethik, KI-Ethik, Roboterethik und Maschinenethik. Im neuen Studiengang Business AI an der Hochschule für Wirtschaft in Olten ist er verantwortlich für das Modul „Ethik und Technologiefolgenabschätzung“. Hier rückt die KI-Ethik in den Vordergrund, aber die Studenten und Studentinnen werden auch Anliegen der Roboterethik und Ansätze der Maschinenethik – darunter Annotated Decision Trees und Moral Prompt Engineering – kennenlernen. Und sie werden mit Hilfe der Informationsethik, einschließlich der Datenethik, die Herkünfte und Flüsse von Daten und Informationen analysieren und evaluieren und Bias-Diskussionen führen. Nicht zuletzt taucht man in die Technologiefolgenabschätzung ein (in Deutschland spricht man auch von Technikfolgenabschätzung). Oliver Bendel lehrt ansonsten im Modul „Ethik und Recht“ im Studiengang Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Olten (von ihm 2010 übernommen als „Informatik, Ethik und Gesellschaft“, später umbenannt in „Informationsethik“), im Modul „Recht und Ethik“ im Studiengang Geomatik an der Hochschule für Architektur, Bau und Geomatik FHNW in Muttenz sowie „Ethisches Reflektieren“ und „Ethisches Implementieren“ im Studiengang Data Science an der Hochschule für Technik FHNW in Brugg-Windisch. Sehr beliebt sind seine Wahlmodule zur Sozialen Robotik.
Abb.: In der Mensa der FHNW in Olten (Foto: Pati Grabowicz)
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor einiger Zeit in die Forschung. Für die letzten beiden Folgen hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die eine Folge, ausgestrahlt seit dem 25. Dezember 2023, heißt „#212 IAF – Bist du bereit für die intelligente Vagina? So verändern Sexroboter dein Liebesleben“. Oliver Bendel stellt darin die Chancen und Risiken von Liebespuppen und Sexrobotern vor. Die Folge kann über Spotify gestreamt werden. Am 28. Dezember 2023 erschien die andere Folge mit dem Titel „#213 IAF – Was ein Robotikexperte darüber denkt, wie Avatare und Hologramme unsere Zukunft beherrschen werden“. Darin geht es u.a. um technische, ethische und ästhetische Fragen, die sich zu Avataren und Hologrammen stellen. Auch diese Folge kann u.a. über Spotify aufgerufen werden.
Abb.: Ein Hologramm in der Vorstellung von DALL-E 3
In der messtec drives Automation (Ausgabe 9/2023) – einer Wiley-Zeitschrift für diskrete Fertigung und Prozessautomation – ist der zweiseitige Artikel „Der künstliche Barkeeper – Teil II“ von Prof. Dr. Oliver Bendel und Lea Peier enthalten. Es handelt sich um die Fortsetzung innerhalb einer dreiteiligen Serie, die auf das Paper „How Can Bar Robots Enhance the Well-being of Guests?“ zurückgeht und die sich auf die Ausgaben 8/2023, 9/2023 und 1/2024 verteilt. Im Fokus stehen Barroboter wie Barney Bar und Robobarista, die an der Hochschule für Wirtschaft FHNW erforscht werden. Im ersten Teil wurden Industrieroboter, Serviceroboter und soziale Roboter erklärt. Dabei spielte Bendels Modell mit den fünf Dimensionen eine Rolle. Zudem wurde auf Roboter in der Gastronomie eingegangen und eine Übersicht über Barroboter gegeben. Im zweiten Teil werden Barney Bar von F&P Robotics und Robobarista von Smyze unter die Lupe genommen, wieder unter Verwendung des Modells mit den fünf Dimensionen. Das ganze Heft kann hier heruntergeladen werden.
Abb.: So stellt sich DALL-E 3 einen Barroboter vor
„Textgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen Texte hervorbringen, zusammenfassen, bewerten, übersetzen, editieren und paraphrasieren. Sie können ebenso Artikel und Gedichte schreiben wie Geschichten erzählen. Dabei kann man ihnen Stile, Formate und Längen vorgeben. Zudem sind sie als Dialogsysteme nutzbar, im Sinne von Chatbots bzw. Sprachassistenten, die man u.a. in Roboter – Kollaborationsroboter oder Serviceroboter – integrieren kann.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Textgeneratoren eröffnen Laien wie Experten neue Perspektiven. Sie tragen zu einer Professionalisierung von Anwendungsbereichen bei und erhöhen Effizienz und Effektivität. Zugleich etablieren einige Textgeneratoren einen bestimmten Stil und Ausdruck und frönen in ihrer Vorsichtigkeit und Unverbindlichkeit der Wokeness. Die Multimodalität bringt neue Möglichkeiten mit sich und verbindet virtuellen und physischen Raum, nicht nur bei Textgeneratoren, die Bild- und Audiodaten verarbeiten können, sondern auch bei Industrie- und Servicerobotern, deren Bilddaten in die Sprachmodelle integriert werden.“ Es schließen sich ethische Überlegungen an. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/textgenerator-125857 aufgerufen werden.
Abb.: So stellt sich DALL-E 3 das „ChatGPT-Interface“ vor
„Unter Barrierefreiheit versteht man, dass Menschen ohne fremde Hilfe in der Lage sind, sich in ihrer Umwelt zurechtzufinden und zu bewegen und Systeme und Dienste aller Art zu nutzen. Zu diesem Zweck werden Hindernisse abgebaut oder erst gar nicht errichtet, und es werden Hilfsfunktionen und -geräte verwendet. Zugute kommt dies behinderten, aber auch betagten, unerfahrenen oder sich in bestimmten (evtl. zeitlich beschränkten) Situationen befindenden Personen. Letztlich geht es um Inklusion mit Hilfe eines universellen Designs und um Abwehr von Diskriminierung.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Mehrere Abschnitte widmen sich unterschiedlichen Aspekten der Barrierefreiheit. In „Barrierefreiheit und Roboter“ heißt es: „Die Durchsetzung der Barrierefreiheit auf Straßen, auf Plätzen und in Gebäuden hilft Servicerobotern und sozialen Robotern – die oftmals keine Beine, sondern Rollen haben – bei der Vorwärts- und Rückwärtsbewegung. Zu denken ist dabei an flache Rampen und gesicherte, einfach zu befahrende Übergänge. Aufzüge erlauben den Wechsel von Stockwerk zu Stockwerk.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/barrierefreiheit-125515 aufgerufen werden.
Abb.: Überlegungen zur Barrierefreiheit (Bild: DALL-E 3)
„Das Anthropozän ist das Zeitalter, das vom Menschen geprägt und in dem Natur in Kultur überführt ist. Die Erde erscheint mit Blick auf das auf ihr herrschende Leben, ihre Oberfläche und ihre Atmosphäre stark verändert. Auch der Weltraum trägt bereits Spuren. Die Bezeichnung stammt von dem Nobelpreisträger für Chemie Paul Crutzen, der in einem Artikel in Nature von 2002 betonte, dass sich die Auswirkungen des Menschen auf die globale Umwelt in den letzten drei Jahrhunderten verschärft haben …“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 10. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Im Anschluss an ein Zitat von Paul Crutzen heißt es: „Ein weiterer, nicht nur scherzhafter Begriff ist der des Robozäns – er steht für die womöglich nachfolgende Epoche, in der Roboter und Systeme mit künstlicher Intelligenz (KI) mit uns in allen wesentlichen Bereichen koexistieren, kooperieren und kollaborieren und für das Überleben von Lebewesen unverzichtbar geworden sind.“ In einem zweiten Abschnitt wird auf den Hintergrund eingegangen und das eine oder andere Beispiel gegeben. In einem dritten Abschnitt werden ethische Fragen gestellt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/anthropozaen-125567 aufgerufen werden.
Abb.: Selbst auf dem Mond hinterlässt der Mensch Spuren (Bild: DALL-E 3)
Bei den Akademietagen in Bietigheim-Bissingen trägt Prof. Dr. Oliver Bendel am 9. November 2023 zum Thema „Mensch-Maschine-Interaktion aus ethischer Sicht: Überlegungen zur Simulation von Empathie und Emotionen“ vor. Der Beitrag widmet sich zunächst der Definition und den Merkmalen sozialer Roboter und stellt Beispiele aus verschiedenen Bereichen vor. Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Beispiele sind Spielzeugroboter wie Cozmo und Vector, Therapieroboter wie Paro und QTrobot, Pflegeroboter wie Lio und P-Care sowie Sexroboter wie Harmony. Soziale Roboter gewinnen Menschen und Tiere mit wohlvertrauten Verhaltensweisen für sich. Aus technischer und funktionaler Sicht sind simulierte Emotionen und simulierte Empathie zur Erreichung des Nutzens für Menschen wichtig, ebenso aus psychologischer, wenn Beziehungen initiiert und etabliert werden sollen. Aus philosophischer und speziell ethischer Sicht stellen sich freilich auch Fragen zu Täuschung und Betrug sowie zur informationellen Autonomie. Genau diesen geht der Beitrag, ausgehend von den Merkmalen und Beispielen sozialer Roboter, dann nach. Er arbeitet heraus, wie soziale Roboter einerseits verlässliche Partner sind, andererseits das Gegenteil, da ihnen echte Emotionen und echte Empathie fehlen, sie nur ein simuliertes Gegenüber darstellen und sie dazu prädestiniert sind, uns unsere Geheimnisse zu entreißen. Die Broschüre zur Veranstaltung kann hier heruntergeladen werden.
Es entstehen immer mehr Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz (KI). Manche sind sehr allgemein, andere sehr konkret, bezogen auf einen Anwendungsbereich oder eine Nutzergruppe. Ein wesentlicher Aspekt bei der Durchführung von KI-Projekten und der Einführung von KI-Systemen ist Digital Trust. Die Entwickler müssen den Einrichtungen, die Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz verantworten und vorlegen, vertrauen können, und sie müssen den Regeln selbst vertrauen können. Die Anbieter und Benutzer müssen beim Betrieb der KI-Systeme darauf vertrauen können, dass alle Leitfäden, Richtlinien und Verordnungen beachtet wurden und das KI-System den Anforderungen entspricht. Die Endbenutzer müssen darauf vertrauen können, dass das KI-System den Anforderungen entspricht und es sich um vertrauenswürdige KI handelt. Der interaktive, webbasierte Digital-Trust-Radar schafft für Wirtschaft, Verwaltung und Gesellschaft spezifische Zugänge zu Leitfäden, Richtlinien und Verordnungen, fasst diese zusammen und bewertet sie. Dabei werden Bereiche wie Ethik und Recht, Cybersicherheit sowie Technik und Methodik unterschieden. Der Einstieg erfolgt über Themen, Branchen oder Rollen. Das Projekt dauert vom 1. Oktober 2023 bis zum 30. September 2024 und wird von der Stiftung FHNW sowie vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW gefördert. Projektleiter ist Prof. Dr. Oliver Bendel. Weitere Informationen sind über digitaltrust-competence.ch/projects erhältlich.
Abb.: So stellt sich Ideogram ein Magazin zu Digital Trust vor
Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.
Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor
Die Gendersprache hat sich durch die erfolgreiche Arbeit von Aktivisten und ihren lautstarken, haltungslosen oder ahnungslosen Mitläufern in Unternehmen, an Hochschulen, in den Medien, in den Verlagen und in den Behörden verbreitet. Von der Sprachgemeinschaft wird sie immer stärker abgelehnt, von Jungen wie Alten, Frauen wie Männern, Linken wie Rechten. Die seriöse, nichtaktivistische und nichtideologische Sprachwissenschaft war lange Zeit wie erstarrt, als wären Fundamentalisten über unser Kulturgut hergefallen und hätten es zerstört. Zerstört haben sie es bis heute nicht, aber beschädigt – dabei ist die Sprache nicht nur Kulturgut, sondern auch Kulturwerkzeug und stets in Gebrauch. Der Linguist Peter Eisenberg war einer der ersten, die öffentlich Widerspruch anmeldeten, wie auch der Betreiber von Belles Lettres, Daniel Scholten. 2021 erschien bei Springer das leicht verständliche Buch „Von Menschen und Mensch*innen“ von Fabian Payr, das inzwischen in der 2. Auflage vorliegt. Im Sommer 2023 folgten die „Studien zum genderneutralen Maskulinum“ von Eckhard Meineke im Universitätsverlag Winter. Der Professor i.R. für Geschichte der deutschen Sprache aus Jena liefert die bisher vollständigste und tiefgründigste Analyse generischer Formen und ideologischer Verformungen. Er lässt die genannten Experten und viele weitere Linguisten zu Wort kommen und seziert zugleich die unwissenschaftlichen Arbeiten der Genderfraktion. Auch zum Duden finden sich deutliche Worte: „In diesem Zusammenhang kann der ‚Duden‘ nicht länger als eine wissenschaftlich basierte, quasi-offizielle und vertrauenswürdige Instanz objektiver Sprachbeschreibung angesehen werden. Er ist ein Instrument feministischer Sprachpolitik. Hier wird mit suggestiven, falschen und sich selbst widersprechenden Angaben manipuliert.“ (Meineke 2023) Wenn man etwa „Bewohner“ nachschlägt, erhält man die Erklärung „männliche Person, die etwas bewohnt“. Am gleichen Ort werden unter den Beispielen „die Bewohner des Hauses“ angeführt. Damit wird die gerade gegebene Erklärung ad absurdum geführt, sofern auch weibliche Personen in einem Haus wohnen können. Meineke liefert solch anschauliches Material in Hülle und Fülle, nicht nur für Sprachwissenschaftler und Vertreter anderer Disziplinen, sondern auch für eine Sprachgemeinschaft, die viel klüger ist, als Aktivisten dies annehmen, und deren Sprachgebrauch sich trotz aller ideologischer Fehleinordnungen und moralischer Erhebungen durchsetzen wird. Ohne Zweifel wurde mit den „Studien zum genderneutralen Maskulinum“ das Standardwerk zum Thema geschaffen.
Abb.: Eintrag zu „Bewohner“ (Foto: Duden, invertierter Screenshot)
„Das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) beim Karlsruher Institut für Technologie (KIT) bleibt Betreiber des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Der zuständige Ausschuss für Bildung, Forschung und Technikfolgenabschätzung hat in seiner heutigen Sitzung einstimmig beschlossen, die Zusammenarbeit auch in der nächsten Vertragslaufzeit von September 2023 bis August 2028 fortzusetzen.“ (Pressemitteilung Deutscher Bundestag, 21. Juni 2023) Dies meldete die Pressestelle des Deutschen Bundestags am 21. Juni 2023 in einer Pressemitteilung. Leiter des ITAS ist Prof. Dr. Armin Grunwald, einer der renommiertesten Technikphilosophen in Europa. Zuletzt legte das TAB laut Pressemitteilung eine Studie zu den Anwendungspotenzialen und möglichen gesellschaftlichen Auswirkungen von KI-Systemen wie ChatGPT vor. „Weitere wesentliche Studien der letzten Monate beschäftigten sich mit den gesellschaftspolitischen und rechtlichen Herausforderungen von Data-Mining, dem Einfluss von Algorithmen in digitalen Medien auf die Meinungsbildung, den Herausforderungen von Beobachtungstechnologien im Bereich der zivilen Sicherheit oder den Innovationen des urbanen Holzbaus.“ (Pressemitteilung Deutscher Bundestag, 21. Juni 2023)
Abb.: Armin Grunwald und Oliver Bendel beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)
Der Beitrag „Mode“ ist am 20. Juni 2023 im Gabler Wirtschaftslexikon erschienen. Nach einer Einführung und der Darstellung von Geschichte und Hintergrund wird den Themenkomplexen „Mode und Wirtschaft“ und „Mode und Technik“ jeweils ein Abschnitt gewidmet. Im letzteren heißt es: „Wearables wie Smartphones, Smartwatches und Smartrings sowie Smartcams ergänzen Kopf, Körper und Kleidung. Datenbrillen bestimmen noch nicht den modernen und modischen Auftritt in der Öffentlichkeit, werden aber im Büro, in der Fabrik und im Haushalt immer selbstverständlicher. Kleidung selbst wird technifiziert und kann – Stichwort Smart Clothes – Strom leiten, der Eingabe und Erfassung dienen oder aber der Ausgabe, als Display für verschiedene Inhalte. Sie richtet sich zudem mit Mustern, 2D- oder 3D-Codes und Computerchips an Kameras, Sensoren und Systemen aus, um einerseits mit der Umgebung interagieren zu können, andererseits digitale Selbstverteidigung zu ermöglichen. Der Cyborg, der technische Strukturen in seine biologischen einpasst, sei es in invasiver (NFC-Chips) oder nichtinvasiver Form (smarte Kontaktlinsen, Datenbrillen), wird zum Anführer einer Mode des Transhumanismus und einer avantgardistischen Bewegung des Human Enhancement. Avatare und Hologramme als digitale Models verbannen die Mode in den Hintergrund und unterstreichen in virtuellen Umgebungen ihre Andersartigkeit in der Ähnlichkeit. Die Mode für soziale Roboter fällt in den Bereich des Robot Enhancement.“ Danach folgen Betrachtungen aus ethischer Perspektive. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/mode-125144 aufgerufen werden.
DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.
Abb.: Ein scherzhaft verwendeter Genderstern in Zürich
Stefan Sommer von der Süddeutschen Zeitung hat Prof. Dr. Oliver Bendel Fragen zu Hologrammen gestellt, die Tote auf Bühnen und in Filmen „lebendig“ machen sollen, und zu Apps, mit denen man sich und andere verewigen kann. Einführend bemerkte der Technikphilosoph zu den Hologrammen: „Meist handelt es sich um Projektionen, wobei man durchsichtige Vorhänge, Glas, Metall bzw. mit Metall beschichtete Oberflächen verwendet. Ich nenne sie auch Pseudohologramme oder Quasihologramme. Grundsätzlich hat man den Eindruck, dass sich ein Körper im Raum befindet. Sehr bekannt sind die Pseudohologramme von Tupac und Hatsune Miku. Der Unterschied ist, dass der Rapper verstorben war und durch die Technologie ‚wiederbelebt‘ wurde, Hatsune Miku aber nie gelebt hat – man hat zuerst ihre Stimme erfunden und später ergänzt durch das Pseudohologramm. Bei ABBA liegt der Fall wiederum anders. Die Mitglieder leben noch, haben sich aber unsterblich gemacht, wiederum mit Pseudohologrammen, die in einer speziell dafür konstruierten Bühne in London erscheinen. Ich habe eines der Konzerte besucht. Die Wirkung ist immens. Es sind alte Fans vor Ort, die spätestens bei ‚Dancing Queen‘ ihre Rollatoren wegwerfen und zu tanzen beginnen.“ Es folgten weitere Ausführungen zu den Apps und zum digitalen Nachlass. Mehrere Statements wurden für den Artikel „Jung, erfolgreich, tot.“ verwendet, der am 1. Juni 2023 im Onlinemagazin Jetzt der Süddeutschen Zeitung erschienen ist.
Der 28. März 2023 war der zweite Tag des Symposiums „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposia. Veranstaltungsort ist normalerweise die Stanford University. Aus personellen Gründen wurde die Konferenz in diesem Jahr ins Hyatt Regency in San Francisco verlegt. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW stellte am Morgen das Paper „Increasing Well-being through Robotic Hugs“ vor, das von ihm, Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola verfasst wurde. Das Team hatte einen Umarmungsroboter namens HUGGIE gebaut und an über 130 Probanden getestet. Wärme und Weichheit – dies betonen auch Kuchenbecker und Block – sind wesentlich für die Akzeptanz. Stimme, Geruch und Herzschlag werden sehr unterschiedlich bewertet. Eine weibliche Stimme könnte die Akzeptanz bei einer Umarmung durch den Roboter verbessern. Danach hielten Lea Peier und er ihren Vortrag „How Can Bar Robots Enhance the Well-being of Guests?“. Sie gingen auf zwei Barroboter ein, die in der Schweiz im Betrieb sind bzw. waren. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Abb.: Oliver Bendel bei seinem Vortrag zu Umarmungsrobotern (Foto: Lea Peier)
Am 27. März 2023 begann das Symposium „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposium Series. Die traditionsreiche Konferenz wurde ausnahmsweise von der Stanford University ins Hyatt Regency SFO Airport verlegt. In seinem Eröffnungsvortrag erklärte Takashi Kido, einer der beiden Organisatoren, was Responsible AI ist, und erwähnte die Begriffe „Accountability“, „Responsibility“ und „Transparency“. Der Fokus des Symposiums ist Well-being und Fairness. Takashi Kido erwähnte den Vortrag „Should Social Robots in Retail Manipulate Customers?“ von Prof. Dr. Oliver Bendel beim Symposium „How Fair is Fair? Achieving Wellbeing AI“ von 2022, der auf dem gleichnamigen Paper von Oliver Bendel und Liliana Alves beruhte. Er leitete dann über zum Begriff “Socially Responsible AI“, wobei er folgende Diskussion benutzte: „Socially Responsible AI is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human flourishing and well-being in a sustainable world, considering for humans and AI ideal relationships“. Am Ende durften auch Überlegungen zu ChatGPT nicht fehlen. Es schloss sich eine intensive Diskussion über den Chatbot an, der zugleich ein Contentgenerator ist. Das Faszinierende ist, dass dieses Thema Laien und Experten gleichermaßen aufwühlt. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.
„Schönheit (engl. ‚beauty‘) im allgemeinen Sinne ist eine visuelle, akustische, haptische oder ideelle Kategorie, die etwa das Schönsein des Himmels am Tag und in der Nacht, der Natur, eines Körpers, eines Gesichts, eines Gegenstands, eines Kunstwerks oder einer Formel umfasst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Mehrere Abschnitte widmen sich der Schönheit aus Sicht der Philosophie und anderer Disziplinen und dem Zusammenhang zwischen Kunst und Schönheit. Auch auf Wirtschaft und Schönheit wird eingegangen. So heißt es etwa mit Blick auf die Technik: „Cyborgs gefallen sich mit äußerlich sichtbaren technischen Strukturen. Humanoide und soziale Roboter überzeugen auf den ersten Blick mit ihrer künstlichen Schönheit, wobei bei Androiden das Uncanny Valley im Wege ist, das unheimliche Tal. So wirken Sophia, Harmony und Erica trotz oder gerade wegen ihrer perfekten Gesichter unheimlich, wenn sie lächeln. Avatare und (Pseudo-)Hologramme können fotorealistisch und hochattraktiv sein.“ Im letzten Abschnitt wird wiederholt die Perspektive der Ethik eingenommen. Der Beitrag ist am 22. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/schoenheit-124971 aufgerufen werden.
Abb.: Ein Bildgenerator versucht sich an Schönheit
Das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT – Karlsruher Institut für Technologie sucht einen promovierten Mitarbeiter oder eine promovierte Mitarbeiterin für eine Tätigkeit an der Schnittstelle von Sozialwissenschaften und Informatik. Die Tätigkeitsbeschreibung lautet wie folgt: „Selbstlernende, KI-gestützte Robotertechnologien und -systeme werden gegenwärtig für zahlreiche Anwendungsfelder, etwa für die Pflege und Assistenz, die Arbeitswelt oder den Mobilitätsbereich, entwickelt. In allen Feldern müssen sie in Zukunft vielseitige Aufgaben in der realen Welt in enger Interaktion mit Menschen erfüllen. Dieses erfordert nicht nur große Entwicklungsanstrengungen für die Techniken und Systeme selbst, sondern auch ein vertieftes Verständnis für die Veränderungen in den Interaktionen und Beziehungen zwischen Menschen und Robotern. Diesbezügliche Erkenntnisse sind eine wichtige Voraussetzung dafür, robotische Lösungen so gestalten zu können, dass Menschen mit ihnen kooperieren wollen, sie nutzen und aktiv in entsprechende Anwendungskontexte integrieren.“ (ITAS) Im Rahmen dieses Forschungsfelds soll der Postdoc neue Forschungsansätze zur sozialen bzw. psychologischen Dimension der Mensch-Roboter-Interaktion und -Kooperation entwickeln. Hierbei wirkt man zum einen in bereits begonnenen Forschungsprojekten zur Technikfolgenabschätzung von KI-basierten robotischen Systemen mit. „Zum anderen ist damit die Möglichkeit der Entwicklung eines eigenen Forschungsprofils an der Schnittstelle von TA und Robotik verbunden. Dies beinhaltet u.a. die konzeptionelle Ausrichtung wie auch die Auswahl und Untersuchung empirisch relevanter Fragestellungen in diesem Feld, aber auch das eigenständige Entwickeln und Umsetzen weiterer Forschungsideen.“ (ITAS) Die Bewerbungsfrist wurde bis zum 24. Februar 2023 verlängert. Weitere Informationen sind hier erhältlich.
„Beim Bluewashing handelt es sich um Marketingmaßnahmen, bei denen Unternehmen, Verbände und Verbünde mit Hilfe von moralisch und sozial verbrämten Kampagnen, Botschaften und Bekenntnissen ihr Image verbessern wollen. Der Begriff ist eine Anspielung auf das Corporate Design der UNO und ihren umstrittenen United Nations Global Compact, mit dem sich einige Firmen ‚reingewaschen‘ haben. Verwandt ist das Bluewashing mit dem Greenwashing.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird näher auf den Zusammenhang zwischen Bluewashing und Greenwashing eingegangen. Im dritten Abschnitt heißt es: „Beim Bluewashing kann ein Missbrauch von ethischen Kodizes (die zu allgemein gehalten oder nicht überprüft werden) und sozialen Standards (die zu wenig streng formuliert sind) stattfinden. Dies schadet deren Ruf und konterkariert deren Zweck. Die Wirtschaftsethik hinterfragt Bluewashing und Greenwashing und unterbreitet in der Unternehmensethik Vorschläge für eine ernst gemeinte und widerspruchsfreie Corporate Social Responsibility (CSR).“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/bluewashing-124778 aufgerufen werden.
„In ihrem Lebensraum sind Lebewesen dauerhaft oder vorübergehend, um aufzuwachsen und sich fortzupflanzen, sich zu verständigen, Wasser und Nahrung zu beschaffen und Schutz zu finden. In der Biologie werden u.a. Biotop (Lebensgemeinschaft von Lebewesen verschiedener Arten als natürliches oder künstliches Ökosystem), Habitat (Lebensraum von Lebewesen bestimmter Arten dieses Biotops) und Biosphäre (Lebensraum aller Lebewesen der Erde) unterschieden.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird auf die Entwicklung eingegangen, in einem weiteren die Perspektive der Ökologie und der Ethik eingenommen. Am Ende heißt es: „Immer bewusster wird den Menschen auch, dass sie den Lebensraum von Tieren und Pflanzen bedrohen und diese besser geschützt werden müssen, um die Artenvielfalt zu erhalten. Umweltethik, Bioethik und Medizinethik sind bei den Herausforderungen ebenso gefragt wie Wirtschaftsethik und Politikethik.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/lebensraum-124738 aufgerufen werden.
Abb.: Der Lebensraum von Tieren und Pflanzen ist bedroht