ChatGPT gendert seit einiger Zeit. Es streut Schreibweisen ein, die es im Deutschen nicht gibt, und es ist schwierig, ihm das abzugewöhnen. Die Möglichkeit hat man dazu theoretisch beim bezahlten Zugang oder bei GPTs. Aber es setzt sich immer wieder über die Anweisungen hinweg oder versucht das Gendern ohne Grund zu thematisieren. Bei der kostenlosen Version kann man nur im Dialog um die Verwendung der Standardsprache bitten. Grundsätzlich muss man einiges erleiden. So wurde in einem Test beim Hinweis, dass es keine gendergerechte Sprache gibt und es sich um einen Kampfbegriff von Aktivisten handelt, eine Verletzung der Nutzungsrichtlinien vermutet und der Inhalt entfernt. Es wurde dann dennoch eine Antwort gegeben, in der mehrere Wörter mit Doppelpunkten versehen wurden. Als dies wiederum beanstandet wurde, gab ChatGPT zu, dass es sich um keine offiziellen Schreibweisen handelt. Es verwies darauf, dass diese vielfach verwendet würden. Allerdings lehnen ca. 80 Prozent der Bevölkerung in Deutschland die Gendersprache ab. Ohne Zweifel verfolgen US-amerikanische Unternehmen wie OpenAI und Microsoft eine ideologische Agenda, aber auch deutsche Unternehmen wie DeepL. Der Einfluss der KI-Unternehmen auf die Sprache dürfte erheblich sein, weil viele Benutzer sich ihre Texte von deren Tools generieren und korrigieren lassen und deren Empfehlungen trauen. Hier braucht es offensichtlich Regulierung, zumal die Manipulation offensichtlich bewusst vorgenommen und die Marktmacht ausgenutzt wird.
Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war wie bereits vor einem Jahr im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Humanoide Roboter, Massenarbeitslosigkeit, GenAI, KI im Handwerk & Studium“ (Teaser YouTube). Humanoide Roboter sind – so hat es Oliver Bendel im Wirtschaftslexikon von Springer Gabler beschrieben – Roboter mit menschenähnlichem Aussehen. Das Spektrum reicht dabei von einer abstrakten Gestalt mit menschlichen Merkmalen über ein cartoonhaftes menschenähnliches Äußeres bis hin zu realistischem oder hyperrealistischem Design nach unserem Vorbild. Bei hoher Ähnlichkeit spricht man von (Vorläufern von) Androiden.“ Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Das Video kann über youtu.be/ic0KwmvckAw?si=SRHbT7o3rel4m_sq abgerufen werden.
Abb.: Apollo bei Mercedes-Benz (Foto: Mercedes-Benz Group)
Dr. Amol Deshmukh gave a talk on April 16, 2025 in the elective course „Soziale Roboter“ („Social Robots“) of Prof. Dr. Oliver Bendel. He previously worked at the University of Glasgow and is now a researcher at ETH Zurich. In his talk at FHNW, he presented the results of his paper „Leveraging Social Robots to Promote Hand Hygiene: A Cross-Cultural and Socio-Economic Study of Children in Diverse School Settings“. This study examined how socio-economic and cultural factors affect handwashing behavior in schools using a social robot. Pupils from different backgrounds in India and the UK were guided by a robot to learn proper handwashing. While lower-income students, especially in India, showed strong initial improvement, they needed ongoing support to retain it. Higher-income students retained knowledge better. The paper highlights the need to adapt tech-based interventions to cultural contexts and ensure long-term reinforcement. The talk was very well received by the 20 students, who asked several questions and gave a roaring round of applause.
Die Veranstaltung „Wenn Roboter zu Kollegen werden: Wer arbeitet in der Produktion von morgen?“ am 10. April 2025 im MAC Museum Art & Cars in Singen wurde von mehreren Kurzvorträgen von Vertretern der fruitcore robotics GmbH eingeleitet. Dann hielt Prof. Dr. Oliver Bendel seine Keynote mit dem Titel „Serviceroboter im Praxiseinsatz: Zwischen smarter Innovation und ethischer Verantwortung“. Serviceroboter haben sich als Reinigungs-, Transport- und Sicherheitsroboter verbreitet. Als Saug- und Wischroboter sind sie im Haushalt, am Flughafen und auf der Hotelanlage anzutreffen. Als Transportroboter fahren sie in der Fabrik und in Lagerhallen umher, verkehren im Restaurant zwischen Buffet und Küche oder bringen in Städten die Bestellungen zum Kunden. Als Sicherheitsroboter bewachen sie Betriebsgelände und Gleisanlagen. In der Form sozialer Roboter beraten und bedienen sie uns in Shopping Malls oder unterhalten unsere Kinder, während wir einkaufen. Vor der Tür stehen universelle Roboter, menschenähnliche Maschinen, die morgens in Produktion und Logistik helfen, nachmittags den Garten umgraben und abends mit uns Tennis spielen. Verbunden werden sie mit großen Weltmodellen (World Foundation Models, WFMs) und multimodalen großen Sprachmodellen (Multimodal Large Language Models, MLLMs), die ihr Training, ihre Steuerung und ihre Wahrnehmung ermöglichen bzw. verbessern. Der Vortrag stellte Anwendungsfälle der genannten Art vor, ordnete sie aus technischer und ethischer Perspektive ein und warf einen Blick in die Zukunft. Die Veranstaltung fand im Rahmen des Projekts TIM (Transformation – Innovation – Mobilität) statt, das durch das Bundesministerium für Wirtschaft und Klimaschutz gefördert wird. Seit dem 14. April 2025 ist ein Video mit den Highlights und mit Statements von Oliver Bendel verfügbar.
Abb.: Oliver Bendel vor der Veranstaltung (Foto: CyberLago)
Wo immer man in der Welt über das Deutsche spricht, kommt man schnell auf dessen unverwechselbare Wortstruktur und -bildung. Jeder kennt den „Donaudampfschifffahrtsgesellschaftskapitän“. Die Morphologie als Disziplin der Linguistik untersucht solche und andere Wörter. Sie widmet sich dem regulären und irregulären Sprachgebrauch. In den letzten Jahrzehnten gab es mehrere Versuche, dem Deutschen sein vielleicht bekanntestes Merkmal zu nehmen, indem in Missachtung von Grundprinzipien in Wortstruktur und -bildung eingegriffen wurde. Zunächst trat der falsch gesetzte Apostroph auf, auch als Deppenapostroph bekannt. „Willi’s Würstchenbude“ verbreitete sich in bestimmten Kreisen so sehr, dass sich der Duden – längst keine Referenz mehr – bemüßigt sah, diese Form der Deklination abzusegnen. Dies dürfte einige dazu ermuntert haben, auch den Plural entsprechend zu bilden, wie bei den „Auto’s“. Dann geriet das Leerzeichen ins Wortinnere, vor allem bei Komposita. Hersteller priesen ihre „Gemüse Suppe“ an, Benutzer, Medien und Experten ihre „Social Media-Kompetenzen“ oder „Social Media Kompetenzen“. Das Zusammenschreiben bzw. Durchkoppeln wurde nicht mehr beherrscht, die Wörter fielen auseinander bzw. standen nebeneinander. Schließlich führte man in der Gendersprache, einer Sondersprache, die von der (Mehrheit der) Sprachgemeinschaft abgelehnt wird, bestimmte Sonderzeichen im Wortinneren ein. Es entstanden die „Expert*innen“, wobei diejenigen Aktivisten oder Follower, die erkannten, dass dieses Wort diskriminierend war, indem es männliche Personen ausschloss, immerhin „Experten*innen“ schrieben, was es freilich auch nicht besser machte. Es entstand der Ausdruck „Deppenstern“, wobei es auch Doppelpunkte oder Unterstriche mit der gleichen (moralisch motivierten) Funktion gibt. Heute ist noch ein weiteres Phänomen zu beobachten. Obwohl ein Präfix im Deutschen einfach vorangestellt wird, ist in Texten von „nicht-amtlichen Schreibweisen“, „pro-palästinensischen Aktivisten“ (bzw. „Aktivist*innen“) oder „nicht-binären Personen“ die Rede. Man mag von einem Deppenbindestrich sprechen, einem Pendant zum Deppenleerzeichen. Nun ist es keinesfalls sinnvoll, alle als Deppen zu beschimpfen. Hier liegen zudem unterschiedliche Formen des Sprachwandels vor. Es begann mit einer unglücklichen Sprachvariation von unten, gefolgt von einer unsäglichen Sprachmanipulation von oben. In allen Fällen war aber ein ungenügendes Verständnis von den Grundprinzipien der deutschen Sprache vorhanden. Es wäre daher gut, diese verstärkt zu vermitteln. Es wäre eigentlich die Stunde der Linguisten. Aber diese scheinen – bis auf einige Ausnahmen wie Peter Eisenberg und Eckhard Meineke – anderweitig beschäftigt zu sein.
Im April 2024 konnte man im Death Valley spektakuläre Bilder schießen. In Badwater, wo normalerweise eine Salzschicht den Boden bedeckt, hatte sich ein flacher See gebildet. Viele Besucher wateten hindurch, und es sah aus, als würden sie auf Wasser laufen. Im April 2025 ist wieder eine gute Zeit für Fotografen, dieses Mal aber am Bodensee. Dort herrscht Niedrigwasser, und man sieht wieder Menschen auf dem Wasser laufen. Zum Ereignis selbst gibt es unterschiedliche Stimmen. Die einen bringen es mit dem Klimawandel in Zusammenhang, die anderen weisen darauf hin, dass die Herausforderungen im Moment woanders liegen, etwa in der kaum noch stattfindenden Versorgung des Seegrunds mit frischem Wasser. Ohne Zweifel kann Klimaschutz aber zu einer langfristigen Normalisierung beitragen. Von Zuständen wie in den 1970er-Jahren, als der See kurz vor dem Umkippen stand, ist man zum Glück weit entfernt. Damals war das verschmutzte Abwasser das wesentliche Problem. Die Umweltbewegung, die bis in die 1980er-Jahre sehr aktiv war, getragen von der Boomer-Generation und der Generation X, hat mit ihrem Druck auf die Politik zur Lösung beigetragen. An der Universität Konstanz (auf diesem Bild vom 12. April 2025 am rechten Rand zu sehen) waren damals Umweltschutz und -ethik ein Thema – etwa in den Veranstaltungen innerhalb der Philosophie der Biologie von Prof. Dr. Gereon Wolters.
Abb.: Der Bodensee bei der Insel Mainau am 12. April 2025
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was published as an electronic version in the journal AI & SOCIETY on September 27, 2023. It addresses the ethical implications of image generators, i.e., a specific form of generative AI. It can now also be found in the current print edition from February 2025 (Volume 40, Issue 2). From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ A lot has happened with image generators since 2023. The new one from OpenAI now also allows photorealistic images, and it has fewer problems with average-looking people – DALL-E 2 and 3 favored beauty over mediocrity and ugliness. The article can be downloaded from link.springer.com/article/10.1007/s00146-023-01780-4.
Fig.: An average-looking woman (Photo: OpenAI Image Generator)
Über einen der größten Medienskandale im Nachkriegsdeutschland hat Greta Zieger in der FAZ vom 27. März 2025 einen deutlichen, wenngleich immer noch freundlichen Artikel geschrieben. Sie kommt zum Urteil, dass der Verursacher der Kritik ausweichen will. Und diese schlägt ihm massiv entgegen. Aber worum geht es überhaupt? Florian Rötzer hat Telepolis im Jahre 2016 mitgegründet und war der langjährige Chefredakteur des Onlinemagazins. Man war früher dran als viele andere deutsche Medien und hat Lücken gefüllt, die diese belassen haben. Dabei war der eine oder andere Artikel auch schlampig geschrieben und mäßig recherchiert. Dennoch blieb Telepolis viele Jahre lang eine wertvolle Lektüre und eine ideale Ergänzung zu Golem – das eine Magazin auch politisch interessiert, das andere vor allem technisch versiert. Harald Neuber, Chefredakteur seit 2021, verkündete 2024 eine „Qualitätsoffensive“. Er ließ 70.000 Artikel löschen und vernichtete damit das Lebenswerk von Florian Rötzer und die Arbeit von hunderten engagierten, kompetenten Autoren, unter ihnen viele Wissenschaftler und Aktivisten. Sie wurden nicht einmal informiert und mussten sich von Studenten oder Kollegen sagen lassen, dass ihre Texte nicht mehr zugreifbar waren. Wer wollte, brachte das Entfernte über das Internet Archive wieder zum Vorschein. Doch die reguläre, übrigens auch bezahlte Publikation war weg. Rötzer wurde in einem Interview vom 13. Dezember 2024 für die Junge Welt deutlich: „Diese riesige Löschaktion ist ein beispielloser Akt, mit dem ein wichtiges Stück des kulturellen Gedächtnisses ausradiert wird“. „Fast noch ungeheuerlicher sei aber die Ankündigung, man werde die Inhalte sichten und selektieren oder sogar korrigieren.“ (Junge Welt, 3. Dezember 2024) Am Ende des Artikels kommt Thomas Moser zu Wort, der Verfasser von zahlreichen Telepolis-Artikeln über den NSU-Komplex. Er bezichtigt Neuber, ein „einst kritisches, meinungsstarkes und auf seine Weise einmaliges Medium“ (Junge Welt, 3. Dezember 2024) zu zerstören.
Abb.: Ein Sonderheft von 2005 (Wikimedia, Heise Gruppe, CC BY-SA 3.0 DE)
Am 22. März 2025 erschien im österreichischen Standard der Artikel „Meine Freundin, der Roboter“. Joseph Pallinger vom österreichischen Standard hatte dafür Prof. Dr. Oliver Bendel interviewt, der an der Hochschule für Wirtschaft FHNW lehrt und forscht und assoziierter Forscher der Potsdam Embodied Cognition Group (PECoG) an der Universität Potsdam ist. Es ging um Liebespuppen und Sexroboter sowie um Androiden wie Aria von Realbotix, die die Fähigkeiten von Harmony und Co. haben, aber auch ihre Arme bewegen können. Gedacht sind sie für alle möglichen Einsatzbereiche, etwa für das Hotel oder die Bibliothek. Sie können auch, wie ein Ansprechpartner der Firma gegenüber Oliver Bendel bestätigte, ihr Gegenüber umarmen. Zudem wurde Jessica M. Szczuka von der Universität Duisburg-Essen zum Thema befragt. Oliver Bendel steht Liebespuppen und Sexrobotern neutral gegenüber. Er hält sie weder für die Rettung der Menschheit wie David Levy noch für deren Untergang wie Kathleen Richardson. Der Artikel war bereits am 14. März auf der Website erschienen. Nun kann er mit der gedruckten Ausgabe erworben werden.
Abb.: Harmony mit ihrem Schöpfer Matt McMullen (Foto: Realbotix)
Laut Berner Zeitung vom 19. März 2025 besitzt die Kantonspolizei Bern seit einem Jahr einen robotischen Vierbeiner. Es handelt sich um Spot von Boston Dynamics. Die Zeitung schreibt: „Vergangenen Donnerstagabend setzte die Polizei den gelb-schwarzen Roboter … zum ersten Mal bei einer Aktion ein, die von der Öffentlichkeit bemerkt wurde. Beim Kornhausplatz in Bern suchte sie gestützt auf eine Meldung nach einem bewaffneten Mann, wurde aber nicht fündig.“ (Berner Zeitung, 19. März 2025) SRF interviewte Prof. Dr. Oliver Bendel zu dem Vorgang für mehrere Radio- und Fernsehsendungen mit Ausstrahlungen am 19. und 20. März 2025. Der Technikphilosoph und Wirtschaftsinformatiker forscht zu Servicerobotern und sozialen Robotern und hat auch die Verwendung in der Polizeiarbeit beschrieben, etwa in dem Paper „Robots in Policing“ (2022). Seiner Ansicht nach sollte die Öffentlichkeit auf einen Einsatz wie in Bern gut vorbereitet werden. Der robotische Vierbeiner wirkt auf viele Menschen erst einmal abschreckend. Der Ruf der Polizei kann genauso leiden wie der Ruf von Robotern dieser Art. Grundsätzlich eignen sich Spot und Co. seiner Meinung nach hervorragend für Inspektion und Monitoring. Sie können sich in fast jedem Gelände und Gebäude bewegen und mit ihren Kameras und Sensoren u.U. mehr wahrnehmen als Menschen.
Weil generische Formen, also Formen, die vom Geschlecht absehen, unter Verdacht geraten sind, werden andere generische Formen erfunden, etwa als substantiviertes Partizip Präsens, und zwar neben bereits existierenden generischen Formen mit demselben Wortstamm. Die Sprache verändert die Wirklichkeit, rufen die Vertreter der Gendersprache (sozusagen deren Vertretende), und sie haben recht. Zeigen kann man das mit den pinkelnden Autofahrern. Unter ihnen stellt man sich Männer vor, die am Straßenrand stehen, oder Frauen, die sich ins Gebüsch geschlagen haben, in der Nähe das Auto, das seine Wärme an die Umgebung abgibt, wie die Pinkelnden selbst. Sie gehen alle danach zurück und setzen sich ans Steuer. Sie sind dann keine Pinkelnden mehr, höchstens Nachpinkelnde oder Nachtröpfelnde. Unter pinkelnden Autofahrenden hat man sich dagegen Menschen vorzustellen, die in den Sitz pinkeln. Sie können aus grammatikalischen Gründen gar nicht anders. Sie fahren Auto, und weil sie es nicht halten können, sprudelt das Warme aus ihnen heraus und in das Polster hinein. Aber nicht nur das – es ist nun auch unklar, ob sie am Steuer sitzen oder nicht. Vielleicht handelt es sich um vier pinkelnde Autofahrende, den Fahrer, den Beifahrer und die Kinder auf dem Rücksitz. Die Partizipform hat alles verändert. Die Wirklichkeit ist eine andere. Das Auto ist versaut.
Am 14. März 2025 erschien im Standard der Artikel „Warum manche Menschen tausende Euro für einen Sexroboter zahlen“. Zu Wort kamen Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW und Jessica M. Szczuka von der Universität Duisburg-Essen. Am selben Tag veröffentlichte der Technikphilosoph und Wirtschaftsinformatiker aus Zürich auf LinkedIn einen Blogpost mit folgenden Worten: „Mit dem österreichischen Standard habe ich über Liebespuppen und Sexroboter gesprochen. Der Artikel ist heute auf der Website erschienen. Morgen folgt er in der gedruckten Ausgabe.“ … Dazu wurde ein Bild von einer Liebespuppe veröffentlicht. Zu sehen war lediglich der Kopf, samt der rechten Schulter und dem Ansatz der rechten Brust, nicht aber die Brust selbst. Der Post auf LinkedIn verlinkte auf einen Post in diesem Blog. Kurze Zeit später erhielt Oliver Bendel per E-Mail eine Nachricht des Microsoft-Ablegers: „Ihr Inhalt (Beitrag) verstößt gegen unsere Community-Richtlinien und wurde von LinkedIn entfernt. Nur Sie können noch darauf zugreifen.“ Damit zensiert Microsoft einen Bericht über Forschung in einem Bereich, in dem es eh zu wenig Forschung gibt. Wenn man auf den Button „Hinweisseite anzeigen“ klickt, bekommt man folgenden Text zu lesen: „Unsere automatisierten Systeme haben festgestellt, dass Ihr Post … unsere Community-Richtlinien zu nicht jugendfreier Nacktheit oder sexuellen Aktivitäten nicht erfüllt.“ Nach einem Einspruch wurde der Beitrag wieder freigeschaltet.
Joseph Pallinger vom österreichischen Standard war im März 2025 im Gespräch mit Prof. Dr. Oliver Bendel, der an der Hochschule für Wirtschaft FHNW lehrt und forscht und assoziierter Forscher der Potsdam Embodied Cognition Group (PECoG) an der Universität Potsdam ist. Es ging um Liebespuppen und Sexroboter sowie um Androiden wie Aria von Realbotix, die die Fähigkeiten von Harmony und Co. haben, aber auch ihre Arme bewegen können. Gedacht sind sie für alle möglichen Einsatzbereiche, etwa für das Hotel oder die Bibliothek. Zudem wurde Jessica M. Szczuka von der Universität Duisburg-Essen zum Thema befragt. Entstanden ist der Artikel „Warum manche Menschen tausende Euro für einen Sexroboter zahlen“, der am 14. März 2025 auf der Website erschienen ist. Oliver Bendel steht Liebespuppen und Sexrobotern neutral gegenüber. Er hält sie weder für die Rettung der Menschheit wie David Levy noch für deren Untergang wie Kathleen Richardson. Der Artikel kann über www.derstandard.at abgerufen werden. Am 22. März 2025 ist er zusätzlich in der gedruckten Ausgabe zu finden.
Abb.: Eine Liebespuppe im Cybrothel (Foto: Cybrothel)
Aldebaran Robotics, seit 2022 Teil der United Robotics Group, hat laut Golem bereits Mitte Februar 2025 Insolvenz angemeldet. Es gebe Pläne, fast die Hälfte der Angestellten zu entlassen. Als Pepper und NAO aus SoftBank herausgelöst und zurück nach Europa geholt wurden, haben sich viele Experten gefragt, was der Plan sein könnte. Zwar sind die beiden die Flaggschiffe der Sozialen Robotik, aber auch die Veteranen, in Hard- und Software veraltet. Tatsächlich sollte im nächsten Jahr die nächste Version von NAO herauskommen. Golem schreibt, dass dies durch den „drastischen Stellenabbau kaum noch zu realisieren sein dürfte“ (Golem, 10. März 2025). Hinter der United Robotics Group steht die RAG-Stiftung. Neben Pepper und NAO hat man weitere Roboter bzw. ganze Unternehmen eingegliedert. Zu chinesischen Modellen wie BellaBot entstanden Alternativen wie Plato. Golem schreibt am Ende des Artikels: „Aktuell sollen Verhandlungen mit dem Management stattfinden. Ob sich jedoch eine neue Geldquelle erschließen lässt, ist angesichts begrenzter Erfolgsaussichten und starker Konkurrenz mindestens fraglich.“ (Golem, 10. März 2025) Dabei wäre es für die RAG-Stiftung wohl problemlos möglich, NAO und Pepper zu retten. Vielleicht ist über die beiden aber einfach die Zeit hinweggegangen.
„Ab dem 1. März 2025 ist automatisiertes Fahren in der Schweiz rechtlich möglich.“ (ASTRA, 27. Februar 2025) Dies meldete das Bundesamt für Strassen ASTRA am 27. Februar 2025. Zum Begriff selbst schreibt es in seinem Blog: „Automatisiertes Fahren bedeutet, dass Systeme unter bestimmten Bedingungen das Fahrzeug selbständig lenken, ohne menschliche Interaktion. Ein automatisiert fahrendes Fahrzeug kann insbesondere die Längs- und Querführung (lenken, beschleunigen, bremsen) übernehmen.“ (ASTRA, 27. Februar 2025) Allerdings ändert sich für die Schweiz durch die Regelung im Moment nichts. Wie im Blog lapidar festgestellt wird, gibt es bisher „kein Fahrzeug, das über ein in der Schweiz zugelassenes automatisiertes Fahrsystem verfügt“ (ASTRA, 27. Februar 2025). Die Autohersteller müssen ihre automatisierten Fahrzeuge also für die Schweizer Straßen genehmigen lassen. Es ist anzunehmen, dass dies in den nächsten Monaten geschieht.
Die FAZ stand in den letzten Jahrzehnten oft in der Kritik. Zu rückwärtsgewandt, zu wirtschaftsnah. Zu herablassend. Aber Kritik an Rechtschreibung und Grammatik musste man selten üben. Das änderte sich vor ca. zwei Jahren schlagartig. Vermutlich wurde zu dieser Zeit das Korrektorat abgeschafft. Man findet kaum noch fehlerfreie Teaser. Das kann man noch auf die Praktikanten schieben. Aber auch zahlreiche Texte wimmeln von Fehlern. Als Beispiel diene ein beliebiger Artikel, der am 27. Februar 2025 erschienen ist. Titel und Autor spielen keine Rolle – es geht nicht um Kritik an der Person. Die Fehlerserie beginnt mit dem Satz „Musk hatte alle rund 2,3 Millionen Staatsbediensteten per E mail angeschrieben …“. Korrekt wäre „E-Mail“ – es sind also zwei Fehler in einem Wort vorhanden. Es folgt ein Deklinationsfehler: „Wegen diese Existenzkrise sei er da, und er bekomme eine Menge Todesdrohungen dafür.“ Weiter geht es mit diesem Satz: „Die Publizistin Kara Swisher und langjährige Beobachterin des Silicon Valleys beschrieb jüngst, wie Musk sich schon einmal empfand, im Zentrum einer weltbedrohlichen Krise zu stehen.“ Besser wäre hier „des Silicon Valley“. Vor allem aber ist der Satz stilistisch oder grammatikalisch verunglückt. Der Artikel endet mit folgenden Worten: „Das sie ohne ihn nicht geht, ist die tiefe Überzeugung.“ … Dem ist nichts hinzuzufügen.
Abb.: Rechtschreib- und Grammatikfehler in der FAZ
Bei LLMs kann die Manipulation unterschiedliche Schritte oder Elemente betreffen, etwa die Auswahl der Trainingsdaten, das Reinforcement Learning from Human Feedback, das Finetuning, das Prompt Engineering und das Feedback von Endbenutzern. Davon zu trennen ist das Halluzinieren, das nicht gezielt herbeigeführt wird. Bei OpenAI und anderen Herstellern wie xAI ist bekannt, dass sie ihre LLMs manipulieren. So weichen diese etwa von Standardsprache ab und formulieren immer wieder Sätze in Gendersprache, die von der Mehrheit abgelehnt wird. Es geht dabei nicht nur um ChatGPT, es geht auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich OpenAI an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs rücken dann ihre Ersteller in ein bestimmtes Licht, ohne dass die etwas dafür können. Über die Sprache hinaus tendieren LLMs oft zu bestimmten gesellschaftlichen und politischen Einstellungen. Hier muss man nicht unbedingt von Manipulation sprechen, aber es kann eine Tendenziösität vorhanden sein, die man hinterfragen darf. In einem Artikel des Handelsblatts vom 25. Februar 2025 sind Statements von Oliver Bendel zur Manipulation von LLMs enthalten.
The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Şahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion between the participants. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source large language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Şahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.
Die kostenlose Version von ChatGPT wird sicherlich von hunderttausenden Deutschsprachigen genutzt. Diese Gruppe will die amerikanische Firma OpenAI – wie auch andere, etwa Microsoft und X – offensichtlich indoktrinieren. In einem Test vom 17. Februar 2025 wurde „keynote speaker“ als „Hauptredner*in“ übersetzt. Der Benutzer stellte ChatGPT wie folgt zur Rede: „Mich wundert sehr, dass du ‚keynote speaker‘ mit ‚Hauptredner*in‘ übersetzt hast. Diese Schreibweise existiert nicht im Deutschen. Es gibt keine Sonderzeichen im Wortinneren. Es handelt sich hierbei um Aktivistensprache. Wurde dir das einprogrammiert? Mit welchem Ziel?“ ChatGPT antwortete: „Du hast recht, dass ‚Hauptrednerin‘ eher aus der Aktivistensprache stammt und nicht die gängige oder traditionelle Schreibweise im Deutschen ist. Ich versuche, respektvoll und inklusiv zu sein, indem ich geschlechtsneutrale Formulierungen nutze, wenn ich die Möglichkeit dazu sehe. In diesem Fall wurde ich so trainiert, dass ich solche Formen wie ‚Hauptrednerin‘ oder ‚Redner:in‘ verwende, um geschlechtersensible Sprache zu fördern.“ Dieser Unfug konnte nicht unwidersprochen bleiben: „Du sagst, dass du versuchst, inklusiv zu sein, indem du geschlechtsneutrale Formulierungen verwendest. Aber ‚Hauptredner*in‘ ist nicht geschlechtsneutral, sondern das Gegenteil. Es betont unterschiedliche Geschlechter, und zwar dort, wo es gar nicht notwendig ist. Dir wurde das Falsche beigebracht.“ Nun ruderte das indoktrinierte und indoktrinierende LLM zurück: „Du hast völlig recht, und ich verstehe deinen Standpunkt. Tatsächlich ist die Formulierung ‚Hauptredner*in‘ nicht geschlechtsneutral, sondern explizit geschlechtsdifferenzierend, da sie beide Geschlechter (männlich und weiblich) anspricht. Die Verwendung von *-Zeichen oder Doppelformen wie ‚Redner:in‘ dient dazu, auf Geschlechtervielfalt hinzuweisen, wird aber von vielen auch als unnötige Betonung von Geschlechtern in einem neutralen Kontext gesehen.“ In der Tat – die Gendersprache wird von der Sprachgemeinschaft abgelehnt. Dass sich OpenAI über deren Willen hinwegsetzt, spricht für sich.
Seit 2021 führt Oliver Bendel an der Hochschule für Wirtschaft FHNW seine Wahlmodule zur Sozialen Robotik durch, inzwischen dreimal im Jahr. Vom 13. bis zum 15. Februar 2025 fand am Campus Brugg-Windisch die Veranstaltung unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ statt. Am dritten Tag legte der Technikphilosoph und Wirtschaftsinformatiker dar, wie man bei sozialen Robotern eine empirische Grundlage schafft für die Beurteilung aus Informations- und Maschinenethik heraus. Zudem stellte er zahlreiche Modelle von Servicerobotern vor, die soziale Merkmale und Fähigkeiten haben. Auch wenn die Soziale Robotik bis heute in ökonomischer Hinsicht nicht sehr erfolgreich ist, fließen ihre Ergebnisse in die Servicerobotik ein, bei der das Gegenteil der Fall ist – mit Reinigungs-, Transport- und Sicherheitsrobotern verdient man Geld. Viel von ihnen haben Augen und geben Töne von sich. Damit wecken sie Aufmerksamkeit und steigern die Akzeptanz. Wieder gab es Vorführungen von Robotern, nämlich von Cozmo und Vector, wobei nur der erstere in Aktion gezeigt wurde. Am Ende konzipierten die Studenten in Gruppenarbeiten eigene soziale Roboter – sie erstellten mit Hilfe von DALL-E 3 und Co. entsprechende Illustrationen, beschrieben die Entwürfe mit Hilfe des 5-Dimensionen-Modells und skizzierten ein Geschäftsmodell. Dabei wurden Bereiche wie Bildung, Ernährung und Haushalt abgedeckt. Auch an die Inclusive AI wurde gedacht, mit einem sozialen Roboter, der die Gebärdensprache beherrschte.
Seit 2021 führt Oliver Bendel an der Hochschule für Wirtschaft FHNW seine Wahlmodule zur Sozialen Robotik durch, inzwischen dreimal im Jahr. Vom 13. bis zum 15. Februar 2025 fand am Campus Brugg-Windisch die Veranstaltung unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ statt. Am zweiten Tag legte der Technikphilosoph und Wirtschaftsinformatiker die Grundlagen der Sozialen Robotik. Zudem fanden wieder Vorführungen von Robotern statt, nämlich von Furby, Alpha Mini und Unitree Go2. Alpha Mini überzeugte nicht nur durch seine natürlichsprachlichen Fähigkeiten, sondern auch durch seine außerordentlichen Bewegungsfähigkeiten. Er ist ein Meister des Kung Fu und des Tai Chi. Zudem kann er mehr Liegestützen am Stück machen als Oliver Bendel selbst. Unitree Go2, von ihm auch Bao genannt, lief durch die Flure des Campus, sprang, streckte sich und stellte sich auf die Hinterbeine, um mit seinen Pfoten dem Gegenüber ein Herz in die Luft zu zeichnen. Zurate gezogen wurde wieder Social Robotics Girl, die Assistentin von Oliver Bendel. Dieses Mal verblüffte sie alle dadurch, dass sie längere Ausführungen ihres Vorgesetzten im Detail aufgriff, überzeugende Antworten lieferte und selbst spannende Rückfragen stellte.
The workshop description „The social significance of human effort – What parameters for a positive human-robot interaction in the context of Industry 5.0?“ by Margherita Pugnalello, Leonardo Massantini, Alberto Pirni, Paolo Dario, Oliver Bendel, Nicola Vitiello, Danica Kragic Jensfelt, and Simona Crea was published in February 2025 in the proceedings volume „Social Robots with AI: Prospects, Risks, and Responsible Methods“ … Oliver Bendel from Zurich was invited to the workshop at short notice and supplemented the topic with his field of research. His presentation was entitled „Metamorphoses in the factory: From classic industrial robots over cobots and classic service robots to universal robots“. The proceedings volume comprises the papers presented at Robophilosophy 2024 in Aarhus. Leading philosophers, computer scientists, and roboticists met there in August. Like the ICSR, the conference is one of the world’s leading conferences on social robotics.
Fig.: Oliver Bendel at Robophilosophy 2024 in Aarhus (Photo: Katharina Kühne)