„Ab dem 1. März 2025 ist automatisiertes Fahren in der Schweiz rechtlich möglich.“ (ASTRA, 27. Februar 2025) Dies meldete das Bundesamt für Strassen ASTRA am 27. Februar 2025. Zum Begriff selbst schreibt es in seinem Blog: „Automatisiertes Fahren bedeutet, dass Systeme unter bestimmten Bedingungen das Fahrzeug selbständig lenken, ohne menschliche Interaktion. Ein automatisiert fahrendes Fahrzeug kann insbesondere die Längs- und Querführung (lenken, beschleunigen, bremsen) übernehmen.“ (ASTRA, 27. Februar 2025) Allerdings ändert sich für die Schweiz durch die Regelung im Moment nichts. Wie im Blog lapidar festgestellt wird, gibt es bisher „kein Fahrzeug, das über ein in der Schweiz zugelassenes automatisiertes Fahrsystem verfügt“ (ASTRA, 27. Februar 2025). Die Autohersteller müssen ihre automatisierten Fahrzeuge also für die Schweizer Straßen genehmigen lassen. Es ist anzunehmen, dass dies in den nächsten Monaten geschieht.
Die FAZ stand in den letzten Jahrzehnten oft in der Kritik. Zu rückwärtsgewandt, zu wirtschaftsnah. Zu herablassend. Aber Kritik an Rechtschreibung und Grammatik musste man selten üben. Das änderte sich vor ca. zwei Jahren schlagartig. Vermutlich wurde zu dieser Zeit das Korrektorat abgeschafft. Man findet kaum noch fehlerfreie Teaser. Das kann man noch auf die Praktikanten schieben. Aber auch zahlreiche Texte wimmeln von Fehlern. Als Beispiel diene ein beliebiger Artikel, der am 27. Februar 2025 erschienen ist. Titel und Autor spielen keine Rolle – es geht nicht um Kritik an der Person. Die Fehlerserie beginnt mit dem Satz „Musk hatte alle rund 2,3 Millionen Staatsbediensteten per E mail angeschrieben …“. Korrekt wäre „E-Mail“ – es sind also zwei Fehler in einem Wort vorhanden. Es folgt ein Deklinationsfehler: „Wegen diese Existenzkrise sei er da, und er bekomme eine Menge Todesdrohungen dafür.“ Weiter geht es mit diesem Satz: „Die Publizistin Kara Swisher und langjährige Beobachterin des Silicon Valleys beschrieb jüngst, wie Musk sich schon einmal empfand, im Zentrum einer weltbedrohlichen Krise zu stehen.“ Besser wäre hier „des Silicon Valley“. Vor allem aber ist der Satz stilistisch oder grammatikalisch verunglückt. Der Artikel endet mit folgenden Worten: „Das sie ohne ihn nicht geht, ist die tiefe Überzeugung.“ … Dem ist nichts hinzuzufügen.
Abb.: Rechtschreib- und Grammatikfehler in der FAZ
Bei LLMs kann die Manipulation unterschiedliche Schritte oder Elemente betreffen, etwa die Auswahl der Trainingsdaten, das Reinforcement Learning from Human Feedback, das Finetuning, das Prompt Engineering und das Feedback von Endbenutzern. Davon zu trennen ist das Halluzinieren, das nicht gezielt herbeigeführt wird. Bei OpenAI und anderen Herstellern wie xAI ist bekannt, dass sie ihre LLMs manipulieren. So weichen diese etwa von Standardsprache ab und formulieren immer wieder Sätze in Gendersprache, die von der Mehrheit abgelehnt wird. Es geht dabei nicht nur um ChatGPT, es geht auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich OpenAI an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs rücken dann ihre Ersteller in ein bestimmtes Licht, ohne dass die etwas dafür können. Über die Sprache hinaus tendieren LLMs oft zu bestimmten gesellschaftlichen und politischen Einstellungen. Hier muss man nicht unbedingt von Manipulation sprechen, aber es kann eine Tendenziösität vorhanden sein, die man hinterfragen darf. In einem Artikel des Handelsblatts vom 25. Februar 2025 sind Statements von Oliver Bendel zur Manipulation von LLMs enthalten.
The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Şahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion between the participants. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source large language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Şahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.
Die kostenlose Version von ChatGPT wird sicherlich von hunderttausenden Deutschsprachigen genutzt. Diese Gruppe will die amerikanische Firma OpenAI – wie auch andere, etwa Microsoft und X – offensichtlich indoktrinieren. In einem Test vom 17. Februar 2025 wurde „keynote speaker“ als „Hauptredner*in“ übersetzt. Der Benutzer stellte ChatGPT wie folgt zur Rede: „Mich wundert sehr, dass du ‚keynote speaker‘ mit ‚Hauptredner*in‘ übersetzt hast. Diese Schreibweise existiert nicht im Deutschen. Es gibt keine Sonderzeichen im Wortinneren. Es handelt sich hierbei um Aktivistensprache. Wurde dir das einprogrammiert? Mit welchem Ziel?“ ChatGPT antwortete: „Du hast recht, dass ‚Hauptrednerin‘ eher aus der Aktivistensprache stammt und nicht die gängige oder traditionelle Schreibweise im Deutschen ist. Ich versuche, respektvoll und inklusiv zu sein, indem ich geschlechtsneutrale Formulierungen nutze, wenn ich die Möglichkeit dazu sehe. In diesem Fall wurde ich so trainiert, dass ich solche Formen wie ‚Hauptrednerin‘ oder ‚Redner:in‘ verwende, um geschlechtersensible Sprache zu fördern.“ Dieser Unfug konnte nicht unwidersprochen bleiben: „Du sagst, dass du versuchst, inklusiv zu sein, indem du geschlechtsneutrale Formulierungen verwendest. Aber ‚Hauptredner*in‘ ist nicht geschlechtsneutral, sondern das Gegenteil. Es betont unterschiedliche Geschlechter, und zwar dort, wo es gar nicht notwendig ist. Dir wurde das Falsche beigebracht.“ Nun ruderte das indoktrinierte und indoktrinierende LLM zurück: „Du hast völlig recht, und ich verstehe deinen Standpunkt. Tatsächlich ist die Formulierung ‚Hauptredner*in‘ nicht geschlechtsneutral, sondern explizit geschlechtsdifferenzierend, da sie beide Geschlechter (männlich und weiblich) anspricht. Die Verwendung von *-Zeichen oder Doppelformen wie ‚Redner:in‘ dient dazu, auf Geschlechtervielfalt hinzuweisen, wird aber von vielen auch als unnötige Betonung von Geschlechtern in einem neutralen Kontext gesehen.“ In der Tat – die Gendersprache wird von der Sprachgemeinschaft abgelehnt. Dass sich OpenAI über deren Willen hinwegsetzt, spricht für sich.
Seit 2021 führt Oliver Bendel an der Hochschule für Wirtschaft FHNW seine Wahlmodule zur Sozialen Robotik durch, inzwischen dreimal im Jahr. Vom 13. bis zum 15. Februar 2025 fand am Campus Brugg-Windisch die Veranstaltung unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ statt. Am dritten Tag legte der Technikphilosoph und Wirtschaftsinformatiker dar, wie man bei sozialen Robotern eine empirische Grundlage schafft für die Beurteilung aus Informations- und Maschinenethik heraus. Zudem stellte er zahlreiche Modelle von Servicerobotern vor, die soziale Merkmale und Fähigkeiten haben. Auch wenn die Soziale Robotik bis heute in ökonomischer Hinsicht nicht sehr erfolgreich ist, fließen ihre Ergebnisse in die Servicerobotik ein, bei der das Gegenteil der Fall ist – mit Reinigungs-, Transport- und Sicherheitsrobotern verdient man Geld. Viel von ihnen haben Augen und geben Töne von sich. Damit wecken sie Aufmerksamkeit und steigern die Akzeptanz. Wieder gab es Vorführungen von Robotern, nämlich von Cozmo und Vector, wobei nur der erstere in Aktion gezeigt wurde. Am Ende konzipierten die Studenten in Gruppenarbeiten eigene soziale Roboter – sie erstellten mit Hilfe von DALL-E 3 und Co. entsprechende Illustrationen, beschrieben die Entwürfe mit Hilfe des 5-Dimensionen-Modells und skizzierten ein Geschäftsmodell. Dabei wurden Bereiche wie Bildung, Ernährung und Haushalt abgedeckt. Auch an die Inclusive AI wurde gedacht, mit einem sozialen Roboter, der die Gebärdensprache beherrschte.
Seit 2021 führt Oliver Bendel an der Hochschule für Wirtschaft FHNW seine Wahlmodule zur Sozialen Robotik durch, inzwischen dreimal im Jahr. Vom 13. bis zum 15. Februar 2025 fand am Campus Brugg-Windisch die Veranstaltung unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ statt. Am zweiten Tag legte der Technikphilosoph und Wirtschaftsinformatiker die Grundlagen der Sozialen Robotik. Zudem fanden wieder Vorführungen von Robotern statt, nämlich von Furby, Alpha Mini und Unitree Go2. Alpha Mini überzeugte nicht nur durch seine natürlichsprachlichen Fähigkeiten, sondern auch durch seine außerordentlichen Bewegungsfähigkeiten. Er ist ein Meister des Kung Fu und des Tai Chi. Zudem kann er mehr Liegestützen am Stück machen als Oliver Bendel selbst. Unitree Go2, von ihm auch Bao genannt, lief durch die Flure des Campus, sprang, streckte sich und stellte sich auf die Hinterbeine, um mit seinen Pfoten dem Gegenüber ein Herz in die Luft zu zeichnen. Zurate gezogen wurde wieder Social Robotics Girl, die Assistentin von Oliver Bendel. Dieses Mal verblüffte sie alle dadurch, dass sie längere Ausführungen ihres Vorgesetzten im Detail aufgriff, überzeugende Antworten lieferte und selbst spannende Rückfragen stellte.
The workshop description „The social significance of human effort – What parameters for a positive human-robot interaction in the context of Industry 5.0?“ by Margherita Pugnalello, Leonardo Massantini, Alberto Pirni, Paolo Dario, Oliver Bendel, Nicola Vitiello, Danica Kragic Jensfelt, and Simona Crea was published in February 2025 in the proceedings volume „Social Robots with AI: Prospects, Risks, and Responsible Methods“ … Oliver Bendel from Zurich was invited to the workshop at short notice and supplemented the topic with his field of research. His presentation was entitled „Metamorphoses in the factory: From classic industrial robots over cobots and classic service robots to universal robots“. The proceedings volume comprises the papers presented at Robophilosophy 2024 in Aarhus. Leading philosophers, computer scientists, and roboticists met there in August. Like the ICSR, the conference is one of the world’s leading conferences on social robotics.
Fig.: Oliver Bendel at Robophilosophy 2024 in Aarhus (Photo: Katharina Kühne)
„Der Longtermism (von engl. ‚longtermism‘, dt. wörtlich ‚Langfristigkeit‘, eigentlich ‚Langfristdenken‘) versucht das Leben der Menschheit in der fernen Zukunft auf positive Weise zu beeinflussen, etwa durch die Vermeidung von Krisen und Katastrophen. Auch die Beschleunigung des Wirtschaftswachstums, die Ausbreitung von KI-Systemen oder die Eroberung des Weltalls können dazu beitragen. Dabei entsteht allerdings wiederum die Gefahr von Krisen und Katastrophen, wie im Zuge der Umweltzerstörung. Manche Vertreter heben deshalb die Notwendigkeit einer moralischen Stärkung, sozialen Einbettung und ökologischen Rücksichtnahme hervor.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Im zweiten Abschnitt werden der Hintergrund erläutert und Beispiele genannt, im dritten und letzten generelle und spezifische Probleme des Longtermism aufgeführt. Der letzte Satz lautet: „Insgesamt scheint der Longtermism die Gegenwart eher zu vernachlässigen, womit er unverkennbar religiöse Züge trägt.“ Der Beitrag ist am 4. Februar 2025 erschienen und über wirtschaftslexikon.gabler.de/definition/longtermism-171996 abrufbar.
AIBI ist ein kleiner, niedlicher sozialer Roboter. Er kann um den Hals getragen werden und gehört damit zu den wenigen Robot Wearables im engeren Sinne – man kann auch von Wearable Social Robots sprechen. Nach der Bestellung dauert es mehrere Monate, bis AIBI eingetroffen ist. Das chinesische Unternehmen LivingAI spricht davon, dass es eine Massenproduktion anstrebt. Die Frage ist, ob es diesen Markt gibt und ob sich die Sache rechnet – schon Anki ist mit Cozmo trotz hunderttausenden verkauften Exemplaren gescheitert. Digital Dream Labs hat sich dann die Rechte gesichert. Ein Unternehmen wie IKEA könnte durchaus soziale Roboter in Masse produzieren. Man könnte sie als Accessoires vermarkten, die es unbedingt in jedem Zuhause braucht. Es muss nicht unbedingt ein Allerweltsartikel wie Kerzen und Servietten sein. Dort bei den Lampen und Uhren wäre sicherlich noch ein Platz für AIBÖ – oder wie immer man den Roboter nennen will.
„Die politischen Institutionen sind heute mehrheitlich mit selbständigen Websites vertreten. Mandatsträger aus Bundestag und den Landtagen zeigen ebenfalls Web-Präsenz, viele gleich mehrfach über persönliche Seiten, über Darstellungen der Parlamentsdienste (wie im Bundestag) oder der Parteien und zuweilen auch über Politik-Server regionaler elektronischer Marktplätze …“ Das Zitat stammt aus dem Buch „Die Mondlandung des Internet“ (UVK), das Rainer Kuhlen zusammen mit Oliver Bendel geschrieben hat. Es ist vor 27 Jahren zur Bundestagswahl 1998 erschienen. Gefordert wurden u.a. Leitlinien für Foren, die über die klassische Netiquette hinausgehen. Solche sind dann ab 2009 entstanden, verfasst von Oliver Bendel. Sie finden sich etwa im Blick am Abend (2009) und in der Netzwoche (2010). Von anderen Einrichtungen wurden sie in der Folge adaptiert … In einem Meta-Forum wurden nicht nur Angebote der Parteien und Politiker beschrieben und zusammengefasst, sondern auch eigene Diskussionsforen, Chats und Votings betrieben. Die technische Plattform war das Konstanzer Hypertext-System (KHS), das mit dem WWW kompatibel war.
Abb.: Das Diskussionsforum des Konstanzer Angebots von 1998
Der BGW-Podcast „Herzschlag – Für ein gesundes Berufsleben“ ist eine erfolgreiche Serie der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege. „Wie bleibt man bei der Arbeit fit, gesund und motiviert? Darüber diskutiert Moderator Ralf Podszus mit Fachleuten, Beschäftigten und Verantwortlichen. Die Pflege, Behindertenhilfe und pädagogische Arbeit stehen im Fokus, aber auch andere Branchen sind angesprochen.“ (Website BGW) Für die Folgen 111 („Mein Kollege, der Roboter – KI in der Pflege“) und 112 („Pflegeroboter: Was sie schon können und was nicht“) war der Journalist, Produzent und Moderator im Gespräch mit Prof. Dr. Oliver Bendel, der sich seit 2012 intensiv mit Robotern in der Pflege und KI-Systemen für das Wohlbefinden beschäftigt. 2017 richtete er für die Daimler und Benz Stiftung den Ladenburger Diskurs zu Pflegerobotern aus, aus dem 2018 der Herausgeberband „Pflegeroboter“ hervorging, mit über einer halben Million Accesses auf SpringerLink der Bestseller in diesem Bereich. 2019 folgte das Berliner Kolloquium zu Robotern in der Pflege. In letzter Zeit widmet sich der Wirtschaftsinformatiker und Technikphilosoph verstärkt dem Bereich der Inclusive AI. Weitere Informationen über www.bgw-online.de.
In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.
Mit Philipp Wyss, damals stellvertretender Vorsitzender der Geschäftsleitung von Coop, heute Vorsitzender, hatte Oliver Bendel im Jahre 2019 ein Gespräch geführt. Der Wirtschaftsinformatiker und Technikphilosoph bemängelte, dass der Käse bei Coop in der Regel nicht deklariert ist, weder als verpacktes Produkt im Regal noch als offene Ware an der Käsetheke. Man erfährt nicht, ob er vegetarisch oder nichtvegetarisch ist, also ob er mit mikrobiellem Lab (bzw. entsprechenden Mitteln) oder mit tierischem Lab hergestellt wurde. Der Coop-Chef, ein gelernter Metzger, versprach Abhilfe – getan hat sich nichts. Die PDFs mit Listen mikrobieller Käsesorten, die bei manchen Detailhändlern angeboten werden, sind meistens veraltet, unvollständig und insgesamt unbrauchbar. Bei den Herstellern herrscht bis auf wenige Ausnahmen eisernes Schweigen. Im Ausland gibt man oft die Inhaltsstoffe direkt beim Produkt an oder verwendet sogar das Vegilabel. Oliver Bendel beanstandete ferner, dass die Mitarbeiter an der Käsetheke, ja sogar die Chefs der Molkereiabteilungen nicht die Unterschiede beim Käse kennen, also letztlich gar nicht wissen, wie dieser hergestellt wird. Wenn man nach vegetarischem Käse fragt, wird man meist auf den veganen verwiesen (der keine Milch enthält), oder man erntet ratlose Blicke. Philipp Wyss sprach damals selbst davon, dass die Mitarbeiter überfordert seien. Aber das kann man ändern, indem man sie weiterbildet. Bei Coop und übrigens auch bei Migros (mit Ausnahme von Alnatura) ist man kaum daran interessiert, Transparenz bezüglich der Milchprodukte herzustellen. Aus Sicht von Wirtschaftsethik und Verbraucherschutz ist das eine unbefriedigende Situation.
Dr. Kathrin Kunkel-Razum, die seit 2016 Leiterin der Duden-Redaktion war, ist Ende 2024 in den Ruhestand getreten. Ihre Nachfolgerin wurde Dr. Laura Neuhaus, ihre bisherige Stellvertreterin. Kunkel-Razum habe, wie das Übersetzerportal UEPO.de schreibt, den Duden-Verlag nach der Übernahme durch Cornelsen, der Zerschlagung der Mannheimer Redaktion und dem Neuaufbau in Berlin „zu einer Art Zentralverlag“ der „Religion of Wokeness“ umgebaut, worunter auch „Struktur und Inhalt des Wörterbuchs“ gelitten hätten (UEPO.de, 25. Dezember 2024). In der Tat ist der Online-Duden heute kaum noch brauchbar. So wird das generische Maskulinum entgegen linguistischen Erkenntnissen als Form aufgefasst, die ausschließlich männliche Personen bezeichnet. Die Bedeutung von „Bewohner“ gibt der Duden an mit „männliche Person, die etwas bewohnt“. In den anschließenden Beispielen wird diese Erklärung als falsch entlarvt, denn „die Bewohner des Hauses, der Insel“ sind eindeutig generisch zu verstehen. Ob die Nachfolgerin zu einer wissenschaftlichen Sicht auf die Sprache zurückkehrt und das Normative zugunsten des Deskriptiven zurücknimmt, wird die Zukunft zeigen.
ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.
In der Tagesschau vom 12. Dezember 2024 war mehrmals von Forschenden die Rede. Dies ist eine unpassende und abwertende Bezeichnung. Denn alle Menschen sind Forschende, aber nur wenige sind Forscher. Substantivierte Partizipien können etabliert und korrekt sein, wie bei den „Vorsitzenden“, den „Reisenden“ oder den „Protestierenden“. Aber man kann mit ihnen nicht einfach etablierte Substantive ersetzen. Man mag durchaus von Pflegenden sprechen. Doch man wird damit gleichermaßen auf Menschen zielen, die ihre Eltern pflegen, wie auf Hilfskräfte, die beim Pflegen aushelfen, oder auf Pflegekräfte. Letztere verdienen es, als solche bezeichnet zu werden. Auf der Website der Stadt Zürich ist die Rede von „Pendelnden“. Allerdings sind Pendler auch Pendler, wenn sie gerade nicht pendeln. Nun könnte man argumentieren, dass die wiederkehrende Handlung diesen Gebrauch rechtfertigt. Die Gesellschaft für deutsche Sprache e. V. argumentiert so bei den „Studierenden“. Man sehe einmal davon ab, dass dieser Verein von Aktivisten dominiert wird, und konzentriere sich auf die Sache. „Studierende“ ist ohne Zweifel eine etablierte Form. Doch ist sie korrekt? Vielleicht nicht so sehr, wie der Verein sich das wünscht. Zumindest stellt sich bei „toten Studierenden“ eine Irritation ein. Und bei „Pendelnden“ denkt man eher an Aufgeknüpfte als an Reisende. Es stellt sich auch hier eine Irritation ein, die im Sprachgebrauch begründet ist. Im Tages-Anzeiger beantwortete ein Psychoanalytiker 20 Jahre lang die Fragen seiner Leser. Irgendwann wurden „Lesende“ daraus. Aber dieses Wort hat eine andere Bedeutung. „Die Lesende“ ist der Titel vieler Gemälde, die eine junge Frau zeigen, die in ihr Buch versunken ist. Sie ist auch eine Leserin, aber es geht hier darum, dass sie in diesen Minuten oder Stunden neben dem Lesen nichts tut, vom Atmen oder Trinken einmal abgesehen. Substantivierte Partizipien sollte man mit Bedacht und als Ausnahme verwenden.
Abb.: Ein weiblicher Forscher, auch Forscherin genannt
WOMAN ist ein Frauenmagazin aus Österreich. Zum „Service“ gehören Rubriken wie „Astrologie“ und „Esoterik“. Angeboten werden ein Mondkalender und ein Horoskop. Ab und zu versucht man, etwas Wissenschaft einzustreuen. Zu diesem Zweck fragt man Experten an. Allerdings behält man sich vor, deren Aussagen zu manipulieren, indem man diese gendert. Wehrt man sich im Vorfeld dagegen, wird die Anfrage zurückgezogen. Der Presserat in Österreich sieht keine Handhabe, da die Interviews oder Artikel erst gar nicht zustande kommen und so Persönlichkeitsrecht und Wissenschaftsfreiheit – und die Bestimmungen des Ehrenkodex für die österreichische Presse – gar nicht verletzt werden. Nach dieser Logik wäre freilich auch die Welt in Ordnung, wenn gar keine österreichische Presse mehr bestehen würde. Vielleicht müsste der Presserat sich einmal fragen, wozu er da ist – und wozu die Presse in Österreich. Das Magazin jedenfalls scheint nicht gewillt, die grundlegenden Regeln des Journalismus zu berücksichtigen und sich an das geltende Recht zu halten. Es ist darauf aus, den Interviewten die Sprache zu nehmen und sie als Sympathisanten seiner Sache darzustellen. Letztlich passt alles gut zusammen – man fördert Astrologie, Esoterik und eben eine Form der Sprachmagie.
Die Telefonauskunft der Telekom (des früheren Fernmeldeamts) ist Geschichte. Seit dem 1. Dezember 2024 ist die Nummer 11833 nicht mehr erreichbar. In Spitzenzeiten arbeiteten in einer Telefonauskunft wie der von Ulm dutzende Frauen und Männer gleichzeitig. Dabei waren es fast nur Frauen. Einer der wenigen Männer in den 1980er-Jahren war Oliver Bendel, der den Gebrauch der Mikrofichegeräte und den Umstieg auf Computer in seinem Buch „Die Rache der Nerds“ (2012) schilderte. Er wies darauf hin, dass wie in vielen Projekten der Digitalisierung die Qualität erst einmal abnahm: „Vorher konnten wir, wie in einem Telefonbuch, eine Spalte absuchen. Wir konnten den Anrufern Vornamen oder Straßen oder gar eine andere Schreibweise des Nachnamens vorschlagen. In solchen Fällen hatte das Nachfragen häufig Erfolg gehabt; man erinnerte sich auf der anderen Seite der Leitung und ergänzte seine Angaben nach Möglichkeit. Mit dem Computer konnten wir nur den Nachnamen und die Stadt eintippen, und entweder es kam etwas dabei heraus oder es kam nichts dabei heraus. Bei einer unklaren oder falschen Schreibweise des Namens war nichts zu machen, selbst wenn im Telefonbuch der Name gleich daneben zu finden war.“ (Bendel 2012) Damals finanzierte Oliver Bendel sein Studium der Philosophie an der Universität Konstanz. Um die Jahrtausendwende promovierte er an der Universität über Chatbots, Sprachassistenten und frühe soziale Roboter in Lernumgebungen, sogenannte pädagogische Agenten. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW.
Abb.: Frauen an Mikrofichegeräten (Foto: Wikimedia, Friedrich Magnussen, Stadtarchiv Kiel, CC BY-SA 3.0 DE)
Microsoft verwendet in den deutschsprachigen Texten von Plattformen wie LinkedIn und Diensten wie Outlook die Gendersprache, also eine Fantasie- oder Sondersprache, die nicht dem allgemeinen Sprachgebrauch der Sprachgemeinschaft entspricht und von der Mehrheit – Frauen wie Männern, Jungen wie Alten – abgelehnt wird. Das amerikanische Unternehmen ist für seine Mühe mit der deutschen Sprache seit Jahren bekannt. Kaum thematisiert wird der Gebrauch der Gendersprache mit Blick auf X, eine manipulative Plattform des rechtspopulistischen Elon Musk. Dort werden in mehreren Rubriken die „Follower*innen“ erwähnt. Die AGB gelten für „Käufer*innen“. Man interessiert sich für das Wachstum des eigenen Unternehmens? „Finde mit der Personensuche Ingenieur*innen, Leads für den Vertrieb und Gestalter*innen.“ Ganz anders Bluesky, der im Moment aussichtsreichste Konkurrent. Dort ist durchgehend von „Nutzern“ und „Benutzern“ die Rede. Möge der Druck der Blase, die sich dort bildet, nicht zu groß werden und nicht zu einem Abrücken von der Standardsprache führen.
„Computerlieder – Macht KI den Pop der Zukunft?“ In der Sendung mit diesem Titel bei SWR Kultur diskutierte Bernd Lechler am 8. November 2024 mit Prof. Dr. Oliver Bendel, Technikphilosoph und Wirtschaftsinformatiker, Hochschule für Wirtschaft FHNW, Prof. Dr. Reinhard Kopiez, Musikwissenschaftler, Hochschule für Musik, Theater und Medien Hannover, und Jovanka von Wilsdorf, Songwriterin, Coach, Musical Director Hanson Robotics. Aus der Beschreibung der Sendung auf der Website: „Computerbastler veröffentlichen Lieder auf YouTube, die täuschend echt nach legendären Bands klingen. Auf Plattformen wie udio.com kann man sich mittels Textprompts in wenigen Sekunden Popsongs oder Jazzkompositionen generieren lassen. Aber wie hörenswert ist solche KI-Musik wirklich? Kann sie berühren? Kann sie so etwas wie eine menschliche Aura haben? Kann künstliche Intelligenz überhaupt wahrhaft kreativ sein, oder variiert sie doch nur ihr menschengemachtes Trainingsmaterial? Und werden wir bald nicht mehr wissen, ob wir Musik von Menschen oder Maschinen hören?“ (Website SWR Kultur) Die Sendung kann über mehrere Kanäle nachgehört werden, nämlich auf der SWR-Kultur-Homepage, in der ARD-Audiothek und bei Spotify.
Am 18. November 2024 hat Mistral aus Frankreich Pixtral Large vorgestellt, ein multimodales KI-Modell, das auf Mistral Large 2 aufbaut. Es demonstriert nach Angaben des Herstellers ein Bildverständnis auf höchstem Niveau. Kurios ist das Beispiel, das für Bildanalyse und -evaluation verwendet wird. Es handelt sich um die gedruckte Rechnung eines Berghotels in Grindelwald in der Schweiz. Sie stammt vom 30. Juli 2007 und sieht nagelneu aus. Abgedruckt sind Telefon- und Faxnummer sowie die E-Mail-Adresse. Bedient hat Ursula. Auf der Rechnung tauchen ein Schweineschnitzel (hier genannt „Schweinschnitzel“) und Kässpätzle (hier genannt „Chässpätzli“) auf. Der Prompt lautet „I bought the coffee and the sausage. How much do I owe? Add a 18% tip.“ … Offenbar glaubt der Tester von Mistral, dass ein Schweineschnitzel etwas mit Wurst oder Würstchen zu tun hat. Pixtral Large fragt angeblich nicht nach, sondern rechnet fleißig und kommt zum Ergebnis: „Total cost for coffee and sausage: 9.00 CHF + 22.00 CHF = 31.00 CHF“. Kurios ist auch die Sache mit dem Trinkgeld. In der Schweiz sind 5 bis 10 Prozent üblich. 18 Prozent und deutlich mehr sind es in den USA. Es bleibt unklar, warum Mistral dieses Foto und diesen Prompt gewählt hat.