In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag davor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.
Mit kAIxo kann man seit einiger Zeit auf Baskisch plaudern. Das Projekt zu dem sympathischen Chatbot fand am 9. Januar 2025 sein Ende. Nicolas Lluis Araya, der Entwickler, stellte kurz darauf ein Video bereit, über das man einen Einblick bekommt. Die Hochschule für Wirtschaft FHNW entwickelt unter der Leitung von Prof. Dr. Oliver Bendel seit mehreren Jahren Chatbots für tote, gefährdete und ausgestorbene Sprachen. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Am 12. Mai 2024 wurde eine erste Version von Adelina, einem Chatbot für Baskisch, erstellt. Dieser wurde später in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „Hallo“) wurde der gleichnamige Chatbot gebaut, der Baskisch spricht. Er basiert auf GPT-4o und Gemini 1.5 Flash, und der Benutzer kann sein bevorzugtes großes Sprachmodell (LLM) auswählen. Retrieval-augmented Generation (RAG) spielt eine zentrale Rolle. Es wird der ChatSubs-Datensatz verwendet, der Untertitel von Filmdialogen auf Baskisch enthält. Dank einer Text-to-Speech-Engine kann der Chatbot auch sprechen. Der Prototyp ist über www.kaixo.ch zugänglich.
Mit Philipp Wyss, damals stellvertretender Vorsitzender der Geschäftsleitung von Coop, heute Vorsitzender, hatte Oliver Bendel im Jahre 2019 ein Gespräch geführt. Der Wirtschaftsinformatiker und Technikphilosoph bemängelte, dass der Käse bei Coop in der Regel nicht deklariert ist, weder als verpacktes Produkt im Regal noch als offene Ware an der Käsetheke. Man erfährt nicht, ob er vegetarisch oder nichtvegetarisch ist, also ob er mit mikrobiellem Lab (bzw. entsprechenden Mitteln) oder mit tierischem Lab hergestellt wurde. Der Coop-Chef, ein gelernter Metzger, versprach Abhilfe – getan hat sich nichts. Die PDFs mit Listen mikrobieller Käsesorten, die bei manchen Detailhändlern angeboten werden, sind meistens veraltet, unvollständig und insgesamt unbrauchbar. Bei den Herstellern herrscht bis auf wenige Ausnahmen eisernes Schweigen. Im Ausland gibt man oft die Inhaltsstoffe direkt beim Produkt an oder verwendet sogar das Vegilabel. Oliver Bendel beanstandete ferner, dass die Mitarbeiter an der Käsetheke, ja sogar die Chefs der Molkereiabteilungen nicht die Unterschiede beim Käse kennen, also letztlich gar nicht wissen, wie dieser hergestellt wird. Wenn man nach vegetarischem Käse fragt, wird man meist auf den veganen verwiesen (der keine Milch enthält), oder man erntet ratlose Blicke. Philipp Wyss sprach damals selbst davon, dass die Mitarbeiter überfordert seien. Aber das kann man ändern, indem man sie weiterbildet. Bei Coop und übrigens auch bei Migros (mit Ausnahme von Alnatura) ist man kaum daran interessiert, Transparenz bezüglich der Milchprodukte herzustellen. Aus Sicht von Wirtschaftsethik und Verbraucherschutz ist das eine unbefriedigende Situation.
Die renommierte Reihe „Dialog im Museum“ der Daimler und Benz Stiftung startet 2025 mit einem Vortrag von Prof. Dr. Oliver Bendel über „Generative KI und das Wahre, Gute und Schöne“. Aus der Vorankündigung: „Künstliche Intelligenz (KI) ist seit dem Siegeszug der generativen KI allgegenwärtig. Hunderttausende von Entwicklern und Beratern bringen das Thema voran und besetzen es, wobei sie ganz unterschiedliche Interessen haben. Millionen von Benutzern probieren Text-, Bild- und Videogeneratoren aus oder komponieren Lieder. Die Firmen beschäftigen Chatbots und Industrie- und Serviceroboter, die mit großen Sprachmodellen verbunden sind. Trotz aller Fortschritte und Erfolge mehren sich die warnenden Stimmen. Sie stammen von KI-Experten ebenso wie von Philosophen, Psychologen und Historikern. Oliver Bendel kennt als Wirtschaftsinformatiker und Technikphilosoph die Risiken generativer KI. In seinem Vortrag wird er aber vor allem die Chancen betonen. Dabei folgt er der Trias des Wahren, Guten und Schönen. Er stellt Konzepte, Prototypen und Produkte vor, die den Alltag und die Arbeit bereichern und verbessern. Am Ende wird er dennoch Zweifel haben. Diese beziehen sich etwa auf Urheberrecht und -schutz, auf Überwachungsmöglichkeiten aller Art sowie auf die Macht der Konzerne. Und auf den Strom- und Ressourcenverbrauch. Wie hoch ist der Preis, den wir für das Wahre, Gute und Schöne bezahlen?“ Der Vortrag findet am 11. Februar 2025 ab 19 Uhr im Stuttgarter Mercedes-Benz Museum statt. Weitere Informationen sind über die Website der Stiftung verfügbar.
Experimentelle Literatur schreibt Oliver Bendel seit über 40 Jahren. Ab 2007 erschienen drei Romane von ihm, die eher klassisch daherkommen, aber spezielle Themen haben. „Nachrückende Generationen“ (2007) erzählt von zwei Mädchen, deren Leben aus der Bahn gerät, wobei mehrere Perspektiven eingenommen werden. Zur Eskalation kommt es, als sie Cybersex mit einem Erwachsenen haben. In „Künstliche Kreaturen“ (2008) wird anhand der Vorlesung einer Professorin die Ideen- und Entwicklungsgeschichte der künstlichen Kreatur von der Antike bis zur Gegenwart entfaltet. Die ersten Roboter wurden, wie deutlich wird, schon vor tausenden Jahren erdacht. „Verlorene Schwestern“ (2009) handelt von einem Jungen, der mit einer winzigen Fotodrohne – „la mouche“ – in die Häuser von Prominenten fliegt, um sie erpressen zu können. Nicht auf dem Plan hat er die ehemalige Stasiagentin, die „la bouche“ genannt wird. Obwohl die drei Romane nicht als Trilogie konzipiert waren, hängen sie schon durch ihren Fokus auf Technik und Technikfolgen miteinander zusammen. Sie sind aber keineswegs verbrämte wissenschaftliche Abhandlungen oder gar moralische Einlassungen, sondern staunende Blicke auf die moderne Welt.
Since 2012, Oliver Bendel has developed 13 concepts and artifacts in the field of animal-computer interaction (ACI) or animal-machine interaction (AMI) together with his students. They can be divided into three categories. The first are animal- and nature-friendly concepts. The second are animal-friendly machines and systems (i.e., forms of moral machines). The third are animal-inspired machines and systems that replace the animals or bring them closer to you. Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few prototypes made it into the media, such as LADYBIRD and HAPPY HEDGEHOG. Oliver Bendel repeatedly refers to Clara Mancini, the pioneer in the field of animal-computer interaction. Recently, ethicists such as Peter Singer have also turned their attention to the topic.
Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.
The final presentation of the „kAIxo“ project took place on January 9, 2025. Nicolas Lluis Araya was the project team member. The FHNW School of Business has been developing chatbots for dead, endangered, and extinct languages for several years. A well-known example is @llegra, a chatbot for Vallader. In the spring of 2024, Oliver Bendel tested the reach of GPTs for endangered languages such as Irish (Irish Gaelic), Maori, and Basque. According to ChatGPT, there is a relatively large amount of training material for them. On May 12, 2024 – after Irish Girl and Maori Girl – a first version of Adelina, a chatbot for Basque, was created. It was later improved in a second version. As part of the „kAIxo“ project (the Basque “kaixo” corresponds to the English „hello“), the chatbot kAIxo was built, which speaks Basque. Its purpose is to keep users practicing written or spoken language or to develop the desire to learn the endangered language. The chatbot is based on GPT-4o and Gemini 1.5 Flash, and the user can select his or her preferred large language model (LLM). Retrieval-augmented Generation (RAG) plays a central role. The ChatSubs dataset is used, which contains subtitles of movie dialogs in Basque. Thanks to a text-to-speech engine, the chatbot can also speak. At the final presentation, Nicolas Lluis Araya presented a working prototype that can be accessed via www.kaixo.ch.
Dr. Kathrin Kunkel-Razum, die seit 2016 Leiterin der Duden-Redaktion war, ist Ende 2024 in den Ruhestand getreten. Ihre Nachfolgerin wurde Dr. Laura Neuhaus, ihre bisherige Stellvertreterin. Kunkel-Razum habe, wie das Übersetzerportal UEPO.de schreibt, den Duden-Verlag nach der Übernahme durch Cornelsen, der Zerschlagung der Mannheimer Redaktion und dem Neuaufbau in Berlin „zu einer Art Zentralverlag“ der „Religion of Wokeness“ umgebaut, worunter auch „Struktur und Inhalt des Wörterbuchs“ gelitten hätten (UEPO.de, 25. Dezember 2024). In der Tat ist der Online-Duden heute kaum noch brauchbar. So wird das generische Maskulinum entgegen linguistischen Erkenntnissen als Form aufgefasst, die ausschließlich männliche Personen bezeichnet. Die Bedeutung von „Bewohner“ gibt der Duden an mit „männliche Person, die etwas bewohnt“. In den anschließenden Beispielen wird diese Erklärung als falsch entlarvt, denn „die Bewohner des Hauses, der Insel“ sind eindeutig generisch zu verstehen. Ob die Nachfolgerin zu einer wissenschaftlichen Sicht auf die Sprache zurückkehrt und das Normative zugunsten des Deskriptiven zurücknimmt, wird die Zukunft zeigen.
„Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Dies schrieb die ZEIT am 13. März 2009. Bereits 2007 hatte er den Trend aus Japan nach Europa geholt. Es entstand eine Serie um die Privatdetektivin Lucy Luder und eine um die Superheldin Handygirl, einen Avatar auf dem Handy, der sich bei Gefahr für seine Besitzerin materialisiert und ihr aus der Patsche hilft. Mit „lonelyboy18“ war auch ein Einzelroman auf dem Markt. Der Schriftsteller und Wissenschaftler ließ eine junge Luzernerin den weltweit ersten Mundarthandyroman schreiben und brachte mehrere Gedichtbände für das Handy heraus, etwa „handyhaiku“ (2010), wo die Gedichte direkt in den QR-Codes gespeichert waren. Den Anfang machte ein selbst vertriebenes PDF, dann sprangen Verlage wie cosmoblonde aus Berlin und Blackbetty aus Wien mit Java-Umsetzungen auf, die über Premium-SMS-Server vertrieben wurden. ZDF und SRF drehten Dokumentationen zu der speziellen Literatur, das Standardwerk „Die Struktur der modernen Literatur“ von Mario Andreotti widmet sich ihr in mehreren Auflagen. Das Ende kam mit dem Erfolg des iPhone, das Java verschmähte. Jahre danach – der letzte Handyroman war 2011 erschienen – luden zwei Goethe-Institute den Schriftsteller zu einer Tournee durch die Niederlande ein. Vom 14. bis 16. September 2015 erzählte er an Universitäten und Fachhochschulen in Utrecht, Leiden, Groningen, Leeuwarden und Zwolle von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor. Experimentelle Literatur schreibt Oliver Bendel seit 1984. Zuletzt hat er KI-Literatur und -Kunst geschaffen.
Cleop@tr@ wurde von Prof. Dr. Oliver Bendel im Mai 2024 erfunden. Es handelt sich um ein GPT, das auf das Ägyptische spezialisiert ist. Zudem kennt es sich mit Kultur und Geschichte des alten Ägypten aus. Seit 2012 baut der Technikphilosoph und Wirtschaftsinformatiker – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein, Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, Nicolas Lluis Araya den mit Sprachausgabe erweiterten Chatbot kAIxo für Baskisch. Seit geraumer Zeit testet er die Reichweite von GPTs für gefährdete Sprachen wie Irisch, Maori und Baskisch. Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch (Cleop@tr@) und Akkadisch (H@mmur@pi). Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann oder was sie bedeuten. Im Dezember 2024 testete Oliver Bendel seine Cleop@tr@ im Karnak-Tempel in Luxor. Sie konnte bei mehreren Inschriften von Säulen und Mauern stimmig erscheinende Erklärungen und Übersetzungen liefern. Letztlich müssen Ägyptologen bewerten, wie verlässlich sie ist.
Abb.: Oliver Bendel im Karnak-Tempel (Foto: Stefanie Hauske)
Um die Jahrtausendwende gab es zahlreiche Projekte mit pädagogischen Agenten, also Chatbots, Sprachassistenten und frühen sozialen Robotern in Lernumgebungen. Manche hatten ihre Ursprünge in den 1980er- und 1990er-Jahren. Mit Agenten und Chatbots waren oft Avatare verbunden. In seiner Doktorarbeit – begonnen 2000, beendet 2002 – analysierte Oliver Bendel pädagogische Agenten aller Art sowie verwandte Ansätze. In einem Projekt der SYSIS Interactive Simulations AG sollte eine Umgebung entwickelt werden, in der agentenbasierte Avatare, die auf dem jeweiligen Benutzerprofil basieren, andere Avatare treffen, um Fragen zu stellen bzw. Nachrichten zu überbringen und ähnliche oder anderweitig interessante Benutzer zu kontaktieren. Dies führte Barbara Neumayr im Jahre 2002 in einem Vortrag aus, dessen Aussagen wiederum in der Doktorarbeit wiedergegeben wurden. Der Avatar, so die Mitarbeiterin des Unternehmens, tue dies eigenständig oder im Auftrag. An dem Projekt waren neben der SYSIS Interactive Simulations AG auch IBM sowie die Universitäten Zürich und Wien beteiligt.
Abb.: Ein Projekt der SYSIS Interactive Simulations AG
Around the turn of the millennium, there were already numerous pedagogical agents, i.e., chatbots, voice assistants, and early social robots in learning environments. Names such as Virtual Learning Companions (VLCs) were also commonly used for the purely virtual versions. One of the companies that was ahead of its time was Extempo Systems, Inc. based in Redwood City, California. The company had evolved out of the Stanford Engineering School and designed and developed commercial agents for entertainment, business, and education: „Extempo makes e-learning products that help corporate employees perfect their people skills. The company’s approach allows every learner to achieve mastery of the people skills they need for effective management, teamwork, sales, customer service, and other critical business functions. Extempo’s products give learners authentic practice in a variety of job-specific conversational role-plays, along with expert individualized coaching throughout the learning process.“ (Extempo Systems) One example was the virtual Nina, with whom you could communicate and who you were supposed to motivate to behave in a certain way. It wasn’t just the functionality that was impressive at the time, but also the design of the characters.
Um die Jahrtausendwende gab es zahlreiche Beispiele für Chatbots, die beratend auf Websites tätig waren, beispielsweise Steffi (Human Vision), Alberta (Devis), Pia (Der Club), Mia (1822direkt), Leo (Schweppes), Bausparfuchs aka Chatfuchs (Schwäbisch Hall), Katie (Dove), GZS Berater (GSZ), LISA (BZ Buchs) und Cor@ (Deutsche Bank). Oliver Bendel listete sie in seiner Doktorarbeit über pädagogische Agenten auf, die im Jahre 2000 an der Universität St. Gallen begonnen und Ende 2002 fertiggestellt wurde. Daneben waren Agenten und Avatare in weiteren Bereichen tätig. Ananova, eine virtuelle Nachrichtensprecherin, hat damals eine gewisse Popularität erlangt. Sie wechselte, wie Oliver Bendel schreibt, im Jahre 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbieter Orange. Die Gestaltung der Avatare war ganz unterschiedlich. Manche waren comichaft, andere fotorealistisch. Die meisten Chatbots und Nachrichtensprecher hatten einen bestimmten Namen und eine bestimmte Persönlichkeit. Zudem zeigten sie sich nicht nur in Hinsicht auf ihr Fachgebiet kundig, sondern auch mit Blick auf sich selbst und auf ihre Entwickler und Betreiber sowie auf gesellschaftliche Themen. Sie gehörten zur symbolischen KI und waren Systeme, die Wissen abbildeten, über eine Wissensbasis oder Wissensdatenbank. Heute ist die Aufmerksamkeit auf die nichtsymbolische, neuronale KI gerichtet, auf Large Language Models (LLMs), bei denen mehr das Lernen als das Wissen im Vordergrund steht. Allerdings kann man beide Bereiche miteinander kombinieren, etwa über Prompt Engineering und Retrieval-Augmented Generation. Dies ist der Fall bei Digital Ethics Girl, Social Robotics Girl und GenAI Nerd, die Oliver Bendel in seiner Lehre einsetzt.
Die Aargauer Zeitung schrieb am 19. Dezember 2024: „Er ist der vermutlich innovativste Gefängnisdirektor der Schweiz. Nun feiert Marcel Ruf sein 20-jähriges Jubiläum. Im TalkTäglich erzählt er, was er im Amt alles erlebt …“ (Aargauer Zeitung, 19. Dezember 2024) Weiter heißt es in dem Artikel von Nadja Zeindler über den Direktor der JVA Lenzburg: „Nachdem er sich mit Tiertherapien oder Gefängnistheater bereits ein Image als vielleicht innovativster Gefängnisdirektor der Schweiz aufgebaut hat, wird nun zunehmend auch KI ein Thema: ‚Wir sind mit der FHNW dran, um zu prüfen, was da möglich ist.'“ (Aargauer Zeitung, 19. Dezember 2024) In der Tat stand er – neben zwei seiner Insassen – für das Projekt „Robots in Prison“ von Tamara Siegmann und Oliver Bendel zur Verfügung, wie auch weitere Gefängnisdirektoren, Experten und Betroffene. Ein Resultat war, dass Serviceroboter weniger gewünscht sind, wohl aber soziale Roboter für die Insassen, womit künstliche Intelligenz wieder im Spiel wäre. Das Paper „Social and Collaborative Robots in Prison“ wurde im Oktober bei der ICSR 2024 in Odense (Dänemark) präsentiert. Es erscheint in einem Proceedingsband von Springer Anfang 2025. Nun würden die Studentin und der Professor von der Hochschule FHNW gerne einen Schritt weiter gehen. Dabei könnten soziale Roboter, Chatbots oder Sprachassistenten für die Insassen eine Rolle spielen.
Das Buch „Soziale Roboter: Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen“ (Hrsg. Oliver Bendel) hat am 20. Dezember 2024 333.000 Accesses erreicht, nach nur etwas über drei Jahren. Es besteht aus fünf Teilen: „Grundlagen, -begriffe und -fragen“, „Soziale Robotik und andere Disziplinen“, „Gestaltung, Interaktion und Kommunikation“, „Anwendungsbereiche sozialer Roboter“ und „Die Zukunft sozialer Roboter“. Es sind, das Vorwort mitgezählt, 30 Beiträge, mit ca. 35 Abbildungen, bei ca. 570 Seiten. Der Untertitel lautet: „Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen“. Mit dabei sind führende Experten der Sozialen Robotik, der Robotik, der Künstlichen Intelligenz, der Soziologie, der Psychologie und der Philosophie. Sie lehren und forschen an Hochschulen in der Schweiz, in Deutschland, in Österreich, in Dänemark und in Schweden. Auch ein Hersteller ist vertreten, der über den Einsatz seines Produkts berichtet. Das Fachbuch ist Ende 2021 bei Springer Gabler erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 heruntergeladen oder bestellt werden. Zudem ist es in jeder Buchhandlung verfügbar. Es handelt sich um das erfolgreichste Buch von Oliver Bendel – nach seinem Open-Access-Buch „Pflegeroboter“ mit weit über einer halben Million Accesses.
Abb.: Der Herausgeber Oliver Bendel am Campus Brugg-Windisch (Foto: Dominic Büttner)
„Der Begriff der Mensch-Roboter-Kollaboration (MRK), engl. ‚human-robot collaboration‘, steht sowohl für die Disziplin als auch den Gegenstand, ähnlich wie die ‚Mensch-Computer-Interaktion‘, die ‚Mensch-Maschine-Kommunikation‘ oder die ‚Mensch-Roboter-Interaktion‘. Die Disziplin entwickelt und erforscht Mensch-Roboter-Konstellationen der besonderen Art. Diese sind vor allem durch die Nähe und die Form der Zusammenarbeit zwischen Mensch und Roboter gekennzeichnet. Die Soziale Robotik kann Beiträge zur MRK leisten.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es wird erklärt, was Kooperation und Kollaboration sind. Dann werden Vertreter der MRK genannt, also Beispiele für Roboter, und deren Merkmale aufgeführt. Am Ende nimmt der Autor die Perspektive der Ethik ein: „Die MRK wandert von Produktion und Logistik in den Alltag, in Beratung, Begleitung, Betreuung, Pflege und Therapie. Es handelt sich teilweise um ein Übergangsstadium, das in die Kollaboration von Maschinen mündet, teilweise um die Startpunkte einer engen Beziehung zwischen Mensch und Maschine. Diese kann uns guttun, sie kann uns aber auch abhängig machen. Es gilt in der weiteren Beschäftigung mit dem Thema, die einzelnen Einsatzgebiete kritisch zu überprüfen, nicht zuletzt aus der Perspektive von Informationsethik und Roboterethik, und es müssen – z.B. im Kontext der Wirtschaftsethik – die Betroffenen gefragt werden, ob Arbeit, Pflege und Betreuung dieser Art in ihrem Sinne sind.“ Der ganze Beitrag – erschienen ist er am 14. Dezember 2024 – kann über wirtschaftslexikon.gabler.de/definition/mensch-roboter-kollaboration-171058 aufgerufen werden.
Abb.: Ein Beispiel für Mensch-Roboter-Kollaboration
„Die Idee der Wiederbelebung von Arten zielt auf ausgestorbene sowie auf bedrohte Tierarten. Zudem gibt es die Wiederbelebung von Pflanzenarten. Im Englischen spricht man von ‚de-extinction‘, womit man sich vor allem auf ausgestorbene Tiere bezieht. Im Lazarus-Projekt der University of New South Wales wuchsen 2013 Embryonen des in freier Natur nicht mehr auffindbaren Südlichen Magenbrüterfroschs in Eizellen einer verwandten Froschart heran, bis sie nach wenigen Tagen abstarben. Seit den 2020er-Jahren gibt es vermehrt Versuche zur Wiederbelebung von Säugetier- und Vogelarten. Fortschritte kann man vor allem in der Gentechnik verbuchen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph geht auf das Artensterben ein, nennt Ansätze und Beispiele für die Wiederbelebung von Tierarten und erörtert die wirtschaftliche Bedeutung. Am Ende nimmt der Autor die Perspektive der Ethik ein: „Die Umweltethik untersucht, obwir Pflichten gegenüber der Artenvielfalt bzw. gegenüber Arten oder nur in Ansehung und eigentlich gegenüber dem Menschen (und möglicherweise auch bestimmten Tieren gegenüber) haben und wegen uns ausgestorbene Tier- oder Pflanzenarten auf die Erde zurückbringen sollten. Die Wirtschaftsethik kann die wirtschaftliche Nutzung von wiederbelebten Tierarten unter moralischen Gesichtspunkten diskutieren.“ Der ganze Beitrag – erschienen ist er am 14. Dezember 2024 – kann über wirtschaftslexikon.gabler.de/definition/wiederbelebung-von-tierarten-126848 aufgerufen werden.
„Robotische Zweibeiner sind Roboter, die sich auf zwei Beinen bewegen. Wenn sie Menschen ähneln, werden sie humanoide Roboter genannt. Sie können ebenso mit Affen, Bären, Vögeln oder Fantasyfiguren in Zusammenhang gebracht werden. Zu unterscheiden sind eher funktionale Modelle, mehrheitlich mit Kopf und voll beweglichen Gliedmaßen, und soziale Roboter, die Karikaturen von Menschen, Affen etc. gleichsehen oder teilweise bzw. gesamthaft naturgetreu nachgebildet sind.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es werden Beispiele für robotische Zweibeiner genannt, beginnend mit Elektro von 1939, und Formen der Anwendung genannt. Dann werden Vor- und Nachteile diskutiert. Am Ende nimmt der Autor die Perspektive der Ethik ein: „Die Informationsethik fragt nach der Verletzung der informationellen Autonomie durch robotische Zweibeiner, die Roboterethik nach der Verantwortung bei Zusammenstößen. Die Maschinenethik versucht die Robotermenschen zu erziehen, durch das Einprogrammieren moralischer Regeln oder das Finetuning bzw. Prompt Engineering von multimodalen KI-Modellen, die in die Systeme integriert wurden. Die Wirtschaftsethik interessiert sich dafür, ob uns robotische Zweibeiner im Arbeitsleben unterstützen oder verdrängen können und sollen.“ Der ganze Beitrag – erschienen ist er am 14. Dezember 2024 – kann über wirtschaftslexikon.gabler.de/definition/robotische-zweibeiner-171056 aufgerufen werden.
Abb.: Der 4NE-1 von NEURA Robotics (Foto: NEURA Robotics)
„Robotische Vierbeiner sind Roboter, die sich auf vier Beinen bewegen. Sie ähneln oft Hunden und werden deshalb auch Roboterhunde genannt. Sie können ebenso mit Katzen, Ziegen und anderen tierischen Vierbeinern in Zusammenhang gebracht werden. Zu unterscheiden sind eher funktionale Modelle, mehrheitlich ohne ausgeprägten Kopf und Schwanz, und soziale Roboter, die (Karikaturen von) Hunden oder Katzen gleichsehen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es werden Beispiele für robotische Vierbeiner genannt, beginnend mit Sparko von 1940, und Formen der Anwendung genannt. Dann werden Vor- und Nachteile diskutiert. Am Ende nimmt der Autor die Perspektive der Ethik ein: „Die Informationsethik fragt nach der Verletzung der informationellen Autonomie durch robotische Vierbeiner, die Roboterethik nach der Verantwortung bei Zusammenstößen. Die Maschinenethik versucht die Roboterhunde und -katzen abzurichten, durch das Einprogrammieren moralischer Regeln oder das Finetuning bzw. Prompt Engineering von multimodalen KI-Modellen, die in die Maschinen integriert wurden.“ Der ganze Beitrag – erschienen ist er am 14. Dezember 2024 – kann über wirtschaftslexikon.gabler.de/definition/robotische-vierbeiner-171015 aufgerufen werden.
Abb.: Oliver Bendel mit Unitree Go2 (Foto: Frank Graef)
ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.
In der Tagesschau vom 12. Dezember 2024 war mehrmals von Forschenden die Rede. Dies ist eine unpassende und abwertende Bezeichnung. Denn alle Menschen sind Forschende, aber nur wenige sind Forscher. Substantivierte Partizipien können etabliert und korrekt sein, wie bei den „Vorsitzenden“, den „Reisenden“ oder den „Protestierenden“. Aber man kann mit ihnen nicht einfach etablierte Substantive ersetzen. Man mag durchaus von Pflegenden sprechen. Doch man wird damit gleichermaßen auf Menschen zielen, die ihre Eltern pflegen, wie auf Hilfskräfte, die beim Pflegen aushelfen, oder auf Pflegekräfte. Letztere verdienen es, als solche bezeichnet zu werden. Auf der Website der Stadt Zürich ist die Rede von „Pendelnden“. Allerdings sind Pendler auch Pendler, wenn sie gerade nicht pendeln. Nun könnte man argumentieren, dass die wiederkehrende Handlung diesen Gebrauch rechtfertigt. Die Gesellschaft für deutsche Sprache e. V. argumentiert so bei den „Studierenden“. Man sehe einmal davon ab, dass dieser Verein von Aktivisten dominiert wird, und konzentriere sich auf die Sache. „Studierende“ ist ohne Zweifel eine etablierte Form. Doch ist sie korrekt? Vielleicht nicht so sehr, wie der Verein sich das wünscht. Zumindest stellt sich bei „toten Studierenden“ eine Irritation ein. Und bei „Pendelnden“ denkt man eher an Aufgeknüpfte als an Reisende. Es stellt sich auch hier eine Irritation ein, die im Sprachgebrauch begründet ist. Im Tages-Anzeiger beantwortete ein Psychoanalytiker 20 Jahre lang die Fragen seiner Leser. Irgendwann wurden „Lesende“ daraus. Aber dieses Wort hat eine andere Bedeutung. „Die Lesende“ ist der Titel vieler Gemälde, die eine junge Frau zeigen, die in ihr Buch versunken ist. Sie ist auch eine Leserin, aber es geht hier darum, dass sie in diesen Minuten oder Stunden neben dem Lesen nichts tut, vom Atmen oder Trinken einmal abgesehen. Substantivierte Partizipien sollte man mit Bedacht und als Ausnahme verwenden.
Abb.: Ein weiblicher Forscher, auch Forscherin genannt