Grundlegende Erläuterungen zu Tierrechten

„Tierrechte sind individuelle Rechte, die Tieren aufgrund ihres Seins, genauer gesagt ihrer Empfindungsfähigkeit, ihrer Leidens- und Glücksfähigkeit oder ihres Bewusstseins zukommen, was einen Zusammenhang mit dem Menschsein herstellt. Ihnen gegenüber stehen die Pflichten von Menschen. Tierrechte können philosophisch bzw. ethisch hergeleitet und begründet sowie rechtlich festgeschrieben werden, etwa in einem Tierschutzgesetz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele für mögliche und tatsächliche Tierrechte, klärt die Rolle der Tierethik, geht auf Begründungen von Tierrechten ein und stellt die Frage nach dem Subjekt und Objekt der Moral. Am Ende – in „Kritik und Ausblick“ – werden einige Probleme genannt und mehrere Perspektiven eingenommen, auch die von technisch ausgerichteten Bereichsethiken: „Technikethik und Informationsethik untersuchen Phänomene wie Animal Enhancement und arbeiten mit Disziplinen wie Tier-Computer-Interaktion und Tier-Maschine-Interaktion zusammen.“ Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/tierrechte-126472 aufgerufen werden.

Abb.: Vielen Tieren könnten Grundrechte zugestanden werden

Menschenrechte der Zukunft

„Menschenrechte sind individuelle Rechte, die jedem Menschen aufgrund seines Menschseins zukommen. Dieses beinhaltet seine Sterblichkeit, seine Empfindungsfähigkeit, seine Leidens- und Glücksfähigkeit und sein Bewusstsein, was es mit dem Sein von Lebewesen überhaupt verbindet.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker geht auch auf „Menschenrechte der Zukunft ein“: „Angesichts der Entwicklungen in Robotik, Künstlicher Intelligenz (KI) und Neurowissenschaften müssen Menschen- und Grundrechte neu gedacht und gedeutet werden. Hightechprothesen und Exoskelette können genauso zum Menschen der Zukunft gezählt werden wie Brain-Computer-Interfaces (BCIs). Sie können daher in das Recht auf körperliche Unversehrtheit einbezogen werden. Zugleich können sie dieses Recht verletzen (oder in bestimmten Fällen dem Verbot von Folter zuwiderlaufen). Wenn BCIs im Zusammenspiel mit generativer KI in der Lage sein sollten, Gedanken zu lesen, ist die Freiheit von willkürlichen Eingriffen in die Privatsphäre in Frage gestellt. Neben Cyborgs sind umgekehrte oder umgedrehte Cyborgs von Relevanz, also Maschinen und Roboter, die mit biologischen Komponenten wie gezüchteten Nervenzellen oder lebender Haut ergänzt werden.“ Der ganze Beitrag – erschienen am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/menschenrechte-126471 aufgerufen werden.

Abb.: Das Wahlrecht ist ein Menschenrecht

Künstliche Intelligenz für das Dating

Anika Zuschke befragte Prof. Dr. Oliver Bendel zur Nutzung von KI in den Bereichen Dating und Liebe. Er stellte zunächst den Hintergrund dar: „KI-Systeme und -Anwendungen können von den Betreibern und von den Benutzern von Dating-Plattformen verwendet werden. Als Betreiber kann man versuchen, mit Hilfe von KI das Matching und die Analyse zu verbessern. Man kann dem Benutzer auch verschiedene Hilfsmittel zur Verfügung stellen. Als Benutzer kann man mit Hilfe von Bildbearbeitungsprogrammen und Bildgeneratoren Bilder von sich anpassen und anfertigen lassen, von Bots das Swipen übernehmen lassen oder von Chatbots die Fragen der Plattform beantworten oder die Dialoge mit den Benutzern schreiben bzw. führen lassen. Man kann auf Mittler und Dienste wie Bumple und CupidBot zugreifen. Darüber hinaus kann man KI-Anwendungen jenseits von Dating-Plattformen nutzen, etwa Deep Fakes erstellen, als Video oder Audio. Man kann Fotos und Videos von Sprachmodellen analysieren lassen. Und als Blinder kann man sich nicht nur Räume und Landschaften beschreiben lassen, sondern auch Menschen, ihr Aussehen und ihre Haltung. Zumindest theoretisch, denn Sprachmodelle wie GPT-4 machen z.B. Schwierigkeiten, wenn man sie nach der Attraktivität fragt. Und sie weigern sich, Nacktheit zu beschreiben. Für Blinde, die Be My Eyes mit der Funktion Be My AI benutzen, definitiv ein Problem.“ Dann ging er auf ihre Fragen ein, die etwa Chancen und Risiken von KI-Systemen betrafen, und deren Möglichkeit, das menschliche Gegenüber zu ersetzen. Seine Antworten wurden in dem Artikel „‚Nicht mehr mit 600 Leuten reden‘: Wie künstliche Intelligenz unser Datingleben verändern wird“ verarbeitet, der am 8. Juni 2024 in mehreren Zeitungen erschienen ist, etwa in der Frankfurter Rundschau.

Abb.: Auch bei Tinder und Co. kann man KI-Systeme verwenden

Impulsvorträge zu sozialen Robotern und GPTs

Am 6. Juni 2024 leitete Prof. Dr. Oliver Bendel auf der LEARNTEC die Sessions mit den sozialen Robotern Alpha Mini und Navel jeweils mit einem Impulsvortrag ein. Der Technikphilosoph und Wirtschaftsinformatiker erklärte, dass soziale Roboter sensomotorische Maschinen sind, die für den Umgang mit Menschen und Tieren geschaffen werden. Er stellte sein Fünf-Dimensionen-Modell vor, das die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Abbildung (von Merkmalen) von Lebewesen, die Nähe zu Lebewesen und den Nutzen für Lebewesen umfasst. In diesem Zusammenhang ging er auf das Projekt „Alpha Mini für die Schule“ ein. Danach präsentierte er @llegra, einen Chatbot, der Vallader (ein Idiom des Rätoromanischen) beherrscht, und Social Robotics Girl, ein GPT, das er in seinem Unterricht einsetzt. Mit den Besuchern der Impulsvorträge war Oliver Bendel im Anschluss noch im angeregten Gespräch.

Abb.: Oliver Bendel bei einem seiner Impulsvorträge (Foto: Rainer E. Becker)

Betrug mit Hilfe von AI Voice Cloning

Immer wieder verwenden Betrüger synthetische Stimmen, um Geld von ihren Opfern zu bekommen. Man spricht von Audio-Deepfakes oder KI-basiertem Klonen von Stimmen (AI Voice Cloning). Dieses kann für unterschiedliche legale oder eben auch illegale Zwecke verwendet werden, etwa im Rahmen eines Schockanrufs, bei dem die Identität eines Verwandten angenommen wird. Man kann aber auch die Stimme einer bekannten Person synthetisieren, etwa eines Moderators oder eines Politikers, und damit Missbrauch betreiben. Hier bietet sich Automatisierung an, wobei generative KI dabei hilft, die Gespräche abzuwickeln und zum Erfolg für den Täter zu führen. Für solche komplexen Arrangements ist noch technischer Fachverstand notwendig, während das Klonen von Stimmen an sich kinderleicht ist und über dutzende Dienste abgewickelt werden kann. Dabei kann man allerdings auch Opfer der Dienste werden, die selten kostenlos sind, auch wenn sie es behaupten. In etwa 20 Schweizer Zeitungen ist am 3. Juni 2024 ein Interview mit Prof. Dr. Oliver Bendel zu diesem Thema erschienen, u.a. in der Berner Zeitung und im Tages-Anzeiger. Der Technikphilosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit synthetischen Stimmen. Sein Artikel „The Synthetization of Human Voices“ ist am 26. Juli 2017 in der AI & SOCIETY erschienen.

Abb.: Die Stimme ist ein wertvolles Gut

Moral Prompt Engineering

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)

Ein Desaster in Pink

Amt für Arbeit (Kanton Zürich), Amt für Wirtschaft (Kanton Zürich), digitalswitzerland, ICT-Berufsbildung Schweiz, taskforce4women und ZUTT & PARTNER haben eine „Emotions-Toolbox“ zur Verfügung gestellt. Ist damit eine Emotionstoolbox gemeint oder eine Toolbox of Emotions? Man weiß es nicht. Auf jeden Fall will man mit der in Pink gehaltenen Broschüre „Frauen emotional für die ICT & MINT-Welt“ gewinnen. Gemeint ist vermutlich – man achte auf den weiteren Bindestrich – die ICT- & MINT-Welt, was ein erheblicher Unterschied ist. Aber neben den vielen formalen Fehlern sind es vor allem die semantischen Ungeheuerlichkeiten, die einem entgegenspringen und für Entgeisterung in den Medien – etwa in der NZZ oder in 20 Minuten – und in Blogs sorgen. So soll man bei der Ansprache einen „Mix“ aus „warmen, freundlichen Farben“, „beruhigenden, bodenständigen Farben“ und „frischen, lebendigen Farben“ bevorzugen (Emotions-Toolbox, Version 1.0). Ein Pfeil in der „FARBWELT DOS“ macht unmissverständlich klar, was damit gemeint ist, nämlich Pink in allen Nuancen. Da hilft auch der Hinweis nicht, es gehe „weder um eine einzelne Farbe noch um genaue Farbcodes, sondern um die emotionale Richtung in Abgrenzung zu den DON’TS Farben“ (Emotions-Toolbox, Version 1.0). Auch hier fehlt – wie in vielen anderen Komposita – der Bindestrich. Eine Korrektorat scheint man hier für überflüssig zu halten. „Beschreibender Stil mit vielen Adjektiven“ soll verwendet werden. „Einfache Sprache“. „Kurze Sätze, wenig Text“. Geboten ist natürlich „geschlechtergerechte Sprache“ (Emotions-Toolbox, Version 1.0). Wenn damit Gendersprache gemeint ist – diese wird von Frauen wie von Männern mehrheitlich abgelehnt. Stereotyper und sexistischer kann eine Broschüre kaum sein.

Abb.: Ein Desaster in Pink (Bild: Ideogram)

Studentische Beteiligung an der Forschung der FHNW

„Seit vielen Jahren wird Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW auf seinen Konferenzreisen immer wieder von seinen Studenten und Studentinnen begleitet. Diese sind Zweitautoren, manchmal auch Erstautoren der Artikel. Es handelt sich um Projekte, die der studierte Philosoph und promovierte Wirtschaftsinformatiker zum Teil über lange Zeiträume vorbereitet. In den meisten Fällen entstehen Artefakte aus der Maschinenethik, der Tier-Maschine-Interaktion und der Sozialen Robotik heraus, die aus ethischer, sozialwissenschaftlicher und wirtschaftswissenschaftlicher Perspektive reflektiert werden.“ Mit diesen Worten beginnt ein Beitrag der Hochschule für Wirtschaft FHNW, der am 27. Mai 2024 veröffentlicht wurde. Er geht auf mehrere Papers ein, die zusammen mit Studenten entstanden und in Proceedings veröffentlicht worden sind. Auch auf ein laufendes Projekt zu Robotern in Gefängnissen kommt die Sprache: „Manche Projekte seien mit Bachelorarbeiten verbunden, andere mit Masterarbeiten. In Ausnahmefällen sei eine Zusammenarbeit schon vor dem Abschluss möglich. Zurzeit besucht er zusammen mit Tamara Siegmann, die im Februar sein Wahlmodul zu sozialen Robotern belegt hatte, Schweizer Gefängnisse und führt Interviews mit Direktoren und Insassen zum Einsatz von Servicerobotern und sozialen Robotern.“ Der Artikel kann hier aufgerufen werden.

Abb.: Tamara Siegmann mit Pepper

How Can Generative AI Enhance the Well-being of the Blind?

The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. The Zurich-based scientist presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31232.

Fig.: GenAI for blind people (Image: DALL-E 3)

How Can GenAI Foster Well-being in Self-regulated Learning?

The paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske and Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. Oliver Bendel presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper explores how generative AI (GenAI) can improve the well-being of learners within self-regulated learning (SRL) frameworks in the corporate context. In the ‚GenAI to Support SRL‘ section, it presents three custom versions of ChatGPT aimed at assisting learners. These so-called GPTs demonstrate the GenAI’s potential to actively support learners in SRL and positively influence their well-being. The ‚Discussion‘ and ‚Summary and Outlook‘ sections provide a balanced overview of the opportunities and risks associated with GenAI in the field of learning and highlight directions for future research. The results indicate that GenAI could improve the well-being of learners in SRL through providing personalized guidance, reducing feelings of stress, and increasing motivation and self-efficacy. At the same time, there are several challenges for companies and employees that need to be overcome.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31234.

Fig.: GPTs in the form of VLCs can help students (Image: DALL-E 3)

Jork Weismann zu Besuch bei Oliver Bendel

Jork Weismann ist ein international bekannter und preisgekrönter Modefotograf. Seine Porträts und Studien von Annie Leibovitz, Patti Smith, Georg Baselitz, Lang Lang, Kirsty Hume, Caroline de Maigret, Tatjana Patitz, Gisele Bündchen, Stella Lucia, Eva Longoria, Orlando Bloom, Justin Theroux, Luís Figo, Rupert Everett und Usher sind in Magazinen und Fotobänden erschienen. Einige Beispiele finden sich hier und hier. Von Jork Weismann stammt auch das offizielle Porträt des österreichischen Bundespräsidenten Alexander Van der Bellen. Es kann über dessen Website heruntergeladen werden. Für ein aktuelles Projekt hat der Modefotograf den Technikphilosophen und Wirtschaftsinformatiker Oliver Bendel in Windisch besucht. In dem drei Stunden dauernden Shooting mit zwei ganz unterschiedlichen Kameras entstanden eindrückliche Bilder. Mehrere davon sollen zusammen mit einem wissenschaftlichen Text von Oliver Bendel zur Schönheit künstlicher Frauen veröffentlicht werden.

Abb.: Oliver Bendel vor einem Hochhaus in Windisch (Foto: Jork Weismann)

Jahresbericht der Daimler und Benz Stiftung

Die Daimler und Benz Stiftung hat im Mai 2024 den Jahresbericht für das Jahr 2023 vorgelegt. Sie operiert inhaltlich unabhängig vom Konzern und gewährt Forschern völlige Freiheit. Sie ist – im Vergleich etwa zur Bertelsmann-Stiftung – klein, aber enorm umtriebig und eine Säule der Wissenschafts- und Innovationsförderung im deutschsprachigen Raum. Im Stiftungsrat sitzen vier Wissenschaftler, die die Arbeit der Stiftung begleiten. Dies sind Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Hartmut Hillmer (Universität Kassel), Prof. Dr. Ralf Poscher (Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht) und Prof. Dr. Tereza Tykvová (Universität St. Gallen). Den Vorstand bilden Prof. Dr. Julia Arlinghaus (Fraunhofer IFF) und Prof. Dr. Lutz H. Gade (Universität Heidelberg). Geschäftsführer ist Dr. Jörg Klein. Der Jahresbericht kann über www.daimler-benz-stiftung.de/cms/images/presse/publikationen/DB-Jahresbericht-2023.pdf heruntergeladen werden.

Abb.: Das Carl-Benz-Haus in Ladenburg

Ethical Considerations on Animals and Technology

The manuscript of the book „Non-Human Animals, Ethics and Engineering“ (alternative title „Animals, Ethics and Engineering“) was sent to the publisher Jenny Stanford in May 2024. It contains 16 chapters on this topic, including by Clara Mancini („Animal-Centered Technology and Sustainable Development“), Fiona French („Designing and Crafting Systems for Non-Human Animals“), and Leonie Bossert together with Thilo Hagendorff („Animals and AI: The Role of Animals in AI Research and Application“). In “An Investigation into the Encounter Between Social Robots and Animals” (Chapter 12), Oliver Bendel “delves into the evolving landscape of social robots designed to interact with animals, dissecting the intricate dynamics of these interactions and their ethical ramifications” (Information from the editors). The philosopher of technology also presents his own projects, such as concepts and prototypes of animal-friendly machines, developed in the context of machine ethics, animal-machine interaction, and social robotics. The editors are Rosalyn W. Berne and Madeline A. Kibler from the University of Virginia. The book is scheduled for publication in late summer or fall 2024.

Fig.: A cat in front of a laptop

Parlamentarische Technikfolgenabschätzung

„Die parlamentarische Technikfolgenabschätzung oder Technologiefolgenabschätzung zielt auf Analyse und Bewertung der Wirkungen und Folgen einer Technik bzw. Technologie ab, insbesondere in prospektiver Absicht, und ist trotz (oder auch wegen) der kaum noch zu übersehenden Problemgebiete und der kaum noch zu bewältigenden Komplexität nach wie vor ein wichtiges Instrument bei der Beratung der Politik. Sie wird durch TA-Einrichtungen des Parlaments oder außerhalb des Parlaments betrieben, in manchen Ländern wie in Finnland und Griechenland sogar von Mitgliedern des Parlaments selbst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel zur parlamentarischen Technikfolgenabschätzung. Es werden TA-Einrichtungen in den deutschsprachigen Ländern aufgezählt und – nach der Betonung der interdisziplinären Herangehensweise – Themen und Schwerpunkte genannt. Der Wissenschaftsfreiheit gehören die letzten Zeilen. Der ganze Beitrag – erschienen ist er am 6. Mai 2024 – kann hier aufgerufen werden.

Abb.: Auch der Einsatz von Robotern kann bewertet werden

A Social Robot Encourages Children in India to Wash Their Hands

According to the WHO, hand hygiene saves millions of lives every year when done at the right time during healthcare. The World Day of Hand Hygiene was established by the organization and is celebrated on May 5th of each year. Dr. Amol Deshmukh is researching how children can be encouraged to wash their hands with the help of social robots. He presented his findings at the ICSR in Qatar in December 2023. The paper by him and his co-authors is entitled „Enhancing Hand Hygiene Practices Through a Social Robot-Assisted Intervention in a Rural School in India“. From the abstract: „This paper discusses pilot deployment of a social robot ‚WallBo‘ that investigated the effectiveness in promoting and encouraging handwashing practices among children in a rural school in India. The results suggest an overall 85.06% handwashing compliance, 51.60% improvement from the baseline handwashing compliance and an overall ~ 50% knowledge improvement about handwashing. We also present students’ perception about ‚WallBo‘ and feedback from the pupils and teachers.“ (Abstract) The chapter in the proceedings is available via link.springer.com/chapter/10.1007/978-981-99-8715-3_21.

Fig.: Dr. Amol Deshmukh during his presentation at Qatar University

Hi, GenAI

Im Spätsommer 2024 erscheint „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Lexikon ist am 29. April in Produktion gegangen. Erfahrungsgemäß dauert es drei bis vier Monate bis zur Veröffentlichung.

Abb.: Das Cover des Lexikons (Bild: Springer Gabler)

The Universal Robot at Robophilosophy 2024

The upcoming international Robophilosophy Conference 2024 in Aarhus is set to tackle the socio-cultural and ethical questions arising from the use of generative multimodal AIs in social robotics. The event will bring together global scholars from humanities, social sciences, social robotics, and computer science, aiming to produce actionable insights and responsibly address the socio-cultural transformations brought about by social robotics. It is part of the Robophilosophy Conference Series, known for its large scale events for humanities research in social robotics. RP2024 highlights the urgency of closer collaboration between tech experts and societal experts to establish research-based regulations. The program committee includes Sherry Turkle (Massachusetts Institute of Technology), Wendell Wallach (The Hastings Center), and Melanie Mitchell (Santa Fe Institute). Among the speakers is Oliver Bendel, who will present his accepted paper „The Universal Robot of the 21st Century“. He has been attending the conference without interruption since 2018.

Fig. A contradictory presentation of an all-purpose robot

Die „Ethikrichtlinien“ der SI

Ethische Leitlinien oder Richtlinien sind seit jeher umstritten. Für die einen sind sie zahnlose Tiger. Schon Albert Einstein hat sich gegenüber Max Born in dieser Richtung geäußert: „Mit einem ethical code haben die Mediziner erstaunlich wenig ausgerichtet, und bei den eigentlichen Wissenschaftlern mit ihrem mechanisierten und spezialisierten Denken dürfte noch weniger eine ethische Wirkung zu erwarten sein.“ (Einstein u. Born, Briefwechsel, 203) Für die anderen sind sie wichtige Instrumente der Regulierung und der Reflexion. Wenn man ethische Leitlinien entwickelt, etwa für einen Berufsstand oder -verband, sollte man dies mit Kompetenz und Sensibilität tun. Man sollte den Hintergrund deutlich machen, die Zielsetzung aufzeigen und Begründungen anführen. Und man sollte eine korrekte, präzise und prägnante Sprache verwenden, letztlich die Sprache der Sprachgemeinschaft, um möglichst verständlich zu sein und möglichst viele anzusprechen. Die „Ethikrichtlinien“ der Schweizer Informatik Gesellschaft – die Schreibweise der Organisation ist nicht zu beanstanden, da es sich um einen Eigennamen handelt – wurden durch die Generalversammlung vom 25. November 2005 verabschiedet. Bis 2017 hat man eine neue Version erarbeitet. Nach intensiven Diskussionen wurde 2019 die endgültige Version unter der Bezeichnung „Ethikrichtlinien“ veröffentlicht. Bei „1. Allgemeine ethische Grundsätze“ heißt es: „Eine Informatikerin soll …“. Unter „1.1.“ folgt „sich der gesellschaftlichen Verantwortung bewusst sein“. Diese movierte Form kann einzig und allein auf weibliche Personen zielen. Damit werden männliche Personen ausgeschlossen, also vermutlich die Mehrzahl der SI-Mitglieder. Bei „2. Berufliche Verantwortung“ heißt es: „Ein Informatiker soll …“. Nachdem oben von einer Informatikerin gesprochen wurde, fragt man sich unweigerlich, ob hier nur männliche Personen gemeint sind. Solche „Ethikrichtlinien“ missachten den allgemeinen Sprachgebrauch, beschädigen die Sprache der Sprachgemeinschaft, grenzen Adressaten und Betroffene aus und lenken von der Sache ab. Sie wurden von Personen verfasst, die die Sprachgemeinschaft verlassen haben und die offenbar mehr an Moralismus als an Moral interessiert sind – und damit ernsthafte Bemühungen um ethische Leitlinien konterkarieren.

Abb.: Nicht Sprache verändern, sondern Wirklichkeit

High-Tech-Hunde und andere Untiere

„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war, die in diesen Fällen ferngesteuert wurden – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.

Abb.: Oliver Bendel mit seinem Unitree Go2

ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft

Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen​ im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.​“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.

Abb.: Das Buch wird hoffentlich überall auf Interesse stoßen (Bild: DALL-E 3)

Dah-No-Lah

Im privat finanzierten Social Robots Lab von Oliver Bendel finden sich Modelle wie Unitree Go2, Alpha Mini, Cozmo, Vector, Furby und Hugvie, zudem Roboterfische, Spielzeugroboter und Prototypen wie HAPPY HEDGEHOG. Und natürlich das Tamagotchi. Am 18. März 2024 bekam Furby Besuch von seiner französischsprachigen Freundin, die Regenbogenfarben bevorzugt. Im Blog von Hasbro wird erklärt: „Sobald zwei Furbys zusammen sind, können sie miteinander interagieren.“ (Blog Hasbro, 22. Juni 2023) Das Produkt wird seit 1998 von dem amerikanischen Unternehmen vertrieben. War es am Anfang ein Kultspielzeug, ist es heute bei Kindern wie bei Erwachsenen (den Kindern von damals) beliebt. Hasbro schreibt in seinem Blog: „Furby ist interaktiv und verfügt über mehr als 600 Reaktionen in Form von Sätzen, Liedern, Lichtsignalen und mehr.“ Er „reagiert zudem auf Umarmungen, Streicheleinheiten wie den Pelz kämmen und den Bauch kitzeln sowie auf das Füttern mit den enthaltenen Pizza-Anhängern“ (Blog Hasbro, 22. Juni 2023). Er beherrscht eine eigene Sprache, nämlich Furbisch. Für ihn herrscht immer „Dah-No-Lah“ („Partyzeit“). Entsprechend feierten die beiden Furbys im Büro von Oliver Bendel bis zum Umfallen.

Abb.: Furby und seine Freundin im Büro von Oliver Bendel

 

Die Pflegeroboter werden es richten

Oliver Bendel wurde im Februar 2024 von der Sonntagszeitung zu Pflegerobotern befragt. Zunächst ging er auf die bekannten Beispiele von Pflegerobotern und Robotern in der Pflege ein und erwähnte Lio und Navel. An einer Stelle blickte der Technikphilosoph in die Zukunft der Pflege: „Irgendwann werden sich universelle Roboter durchsetzen, auch Allzweckroboter genannt. Es gibt heute schon Vierbeiner für 1800 Dollar. Damit meine ich den Unitree Go2, den ich selbst in meinem privaten Social Robots Lab habe. Wenn man die fortgeschrittenen Varianten von ihm haben will, zahlt man allerdings bis zum Zehnfachen des Preises. Die Zweibeiner, die beliebige Arbeiten verrichten können, kosten nochmals wesentlich mehr, der Unitree H1 um die 90.000. Dafür kann man aber solche Roboter in ganz verschiedenen Bereichen einsetzen.“ Dazu gehört dann eines Tages auch die Pflege. Oliver Bendel veröffentlichte 2018 als Herausgeber das Buch „Pflegeroboter“. Es entwickelte sich schnell zum Standardwerk und kann heute auf SpringerLink fast eine halbe Million Downloads vorweisen. Der Artikel ist am 17. März 2024 unter dem Titel „Die Pflegeroboter werden es richten, aber nicht so bald“ erschienen.

Abb.: Lio mit einer Pflegebedürftigen (Foto: F&P Robotics)