Die Telefonauskunft der Telekom (des früheren Fernmeldeamts) ist Geschichte. Seit dem 1. Dezember 2024 ist die Nummer 11833 nicht mehr erreichbar. In Spitzenzeiten arbeiteten in einer Telefonauskunft wie der von Ulm dutzende Frauen und Männer gleichzeitig. Dabei waren es fast nur Frauen. Einer der wenigen Männer in den 1980er-Jahren war Oliver Bendel, der den Gebrauch der Mikrofichegeräte und den Umstieg auf Computer in seinem Buch „Die Rache der Nerds“ (2012) schilderte. Er wies darauf hin, dass wie in vielen Projekten der Digitalisierung die Qualität erst einmal abnahm: „Vorher konnten wir, wie in einem Telefonbuch, eine Spalte absuchen. Wir konnten den Anrufern Vornamen oder Straßen oder gar eine andere Schreibweise des Nachnamens vorschlagen. In solchen Fällen hatte das Nachfragen häufig Erfolg gehabt; man erinnerte sich auf der anderen Seite der Leitung und ergänzte seine Angaben nach Möglichkeit. Mit dem Computer konnten wir nur den Nachnamen und die Stadt eintippen, und entweder es kam etwas dabei heraus oder es kam nichts dabei heraus. Bei einer unklaren oder falschen Schreibweise des Namens war nichts zu machen, selbst wenn im Telefonbuch der Name gleich daneben zu finden war.“ (Bendel 2012) Damals finanzierte Oliver Bendel sein Studium der Philosophie an der Universität Konstanz. Um die Jahrtausendwende promovierte er an der Universität über Chatbots, Sprachassistenten und frühe soziale Roboter in Lernumgebungen, sogenannte pädagogische Agenten. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW.
Abb.: Frauen an Mikrofichegeräten (Foto: Wikimedia, Friedrich Magnussen, Stadtarchiv Kiel, CC BY-SA 3.0 DE)
Das Wahlmodul „Soziale Roboter“ von Prof. Dr. Oliver Bendel wird auch im Herbst- und Frühjahrsemester 2024/2025 durchgeführt, vom 4. bis 6. November 2024 und vom 14. bis 16. April 2025 an der FHNW in Olten sowie vom 13. bis 15. Februar 2025 am Campus Brugg-Windisch (unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“). Das eine richtet sich vor allem an angehende Wirtschaftsinformatiker, das andere an angehende Betriebsökonomen. Als Gastreferenten für die Herbstausgabe konnten Tamara Siegmann (mit der Onlinepräsentation des Papers „Social and Collaborative Robots in Prison“) und Andreas Urech (Vor-Ort-Präsentation von NAO) gewonnen werden. Vor Ort werden auch Pepper und NAO aus den Robo-Labs der FHNW sowie Unitree Go2, Alpha Mini, Cozmo, Furby und Booboo aus dem Social Robots Lab von Oliver Bendel sein. Als Tutorin steht Social Robotics Girl durchgehend zur Verfügung, ein GPT, das auf dieses Thema spezialisiert ist. Grundlagenwerke sind „Soziale Roboter“ (2021) und „300 Keywords Soziale Robotik“ (2021). Am Ende des Wahlmoduls entwerfen die Studenten und Studentinnen – auch mit Hilfe generativer KI – soziale Roboter, die sie nützlich, sinnvoll oder einfach nur anziehend finden. Die Wahlmodule werden seit 2021 angeboten und erfreuen sich großer Beliebtheit.
OpenAI hat nach eigenen Angaben unter dem Namen OpenAI o1 eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken aufwenden, bevor sie eine Ausgabe generieren. Sie können komplexe Aufgaben durchdenken und schwierigere Probleme lösen als frühere Modelle. In den Tests schneidet das Update bei anspruchsvollen Aufgaben in Physik, Chemie und Biologie angeblich ähnlich gut ab wie Doktoranden, eine ebenso allgemeine wie gewagte Aussage. Man habe außerdem festgestellt, dass es in Mathematik und Programmierung überragend sei. Das Unternehmen spricht von „reasoning models for solving hard problems“ (Website OpenAI, 12. September 2024). Wenn es sich nicht nur um leere Versprechungen handelt, machen nicht nur Chatbots einen Sprung vorwärts, sondern auch Allzweckroboter, für die Reasoning von hoher Bedeutung ist.
Abb.: OpenAI steht in Konkurrenz mit anderen Anbietern
Prof. Dr. Oliver Bendel unterrichtet seit ca. 15 Jahren an der FHNW in Informationsethik, KI-Ethik, Roboterethik und Maschinenethik. Im neuen Studiengang Business AI an der Hochschule für Wirtschaft in Olten ist er verantwortlich für das Modul „Ethik und Technologiefolgenabschätzung“. Hier rückt die KI-Ethik in den Vordergrund, aber die Studenten und Studentinnen werden auch Anliegen der Roboterethik und Ansätze der Maschinenethik – darunter Annotated Decision Trees und Moral Prompt Engineering – kennenlernen. Und sie werden mit Hilfe der Informationsethik, einschließlich der Datenethik, die Herkünfte und Flüsse von Daten und Informationen analysieren und evaluieren und Bias-Diskussionen führen. Nicht zuletzt taucht man in die Technologiefolgenabschätzung ein (in Deutschland spricht man auch von Technikfolgenabschätzung). Oliver Bendel lehrt ansonsten im Modul „Ethik und Recht“ im Studiengang Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Olten (von ihm 2010 übernommen als „Informatik, Ethik und Gesellschaft“, später umbenannt in „Informationsethik“), im Modul „Recht und Ethik“ im Studiengang Geomatik an der Hochschule für Architektur, Bau und Geomatik FHNW in Muttenz sowie „Ethisches Reflektieren“ und „Ethisches Implementieren“ im Studiengang Data Science an der Hochschule für Technik FHNW in Brugg-Windisch. Sehr beliebt sind seine Wahlmodule zur Sozialen Robotik.
Abb.: In der Mensa der FHNW in Olten (Foto: Pati Grabowicz)
Forscher der TU Dresden und des Barkhausen-Instituts haben gemäß Schlösserland Sachsen in den vergangenen zweieinhalb Jahren den Prototyp eines halbautonomen Gießroboters entwickelt. In der Medienmitteilung vom 13. August 2024 heißt es: „Die Staatliche Schlösser, Burgen und Gärten Sachsen gGmbH (SBG) forscht seit 2022 im Rahmen des vom Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen geförderten Projekts ‚Klimawandel in historischen Gärten‘ an Maßnahmen gegen die Auswirkungen des Klimawandels. Als wichtige Kulturdenkmale stehen historische Park- und Gartenanlagen besonderen Herausforderungen gegenüber. Sterben zu viele Bäume, sind die Denkmale gefährdet. Im Schlosspark Pillnitz und dem Großen Garten Dresden sucht das Projekt stellvertretend nach Lösungen. Die Entwicklung des Gießroboters ist ein wichtiger Baustein …“ (Medienmitteilung Schlösserland Sachsen, 13. August 2024) Nach einem Namen wird noch gesucht. Ohne Zweifel wäre H2-0 passend.
Cobots, die mit Menschen tanzen, kennt man schon seit längerer Zeit. Im Südpol Luzern erlebten die Zuschauer im Jahre 2016, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Cobots, die Menschen den Takt vorgeben, sind dagegen noch nicht an der Tagesordnung. Die Dresdner Sinfoniker stehen vor einer Aufführung der „Roboter.Sinfonie“. Der Dirigent Michael Helmrath wird nach einer Weile an MAiRA Pro S übergeben, ein Produkt aus dem Hause NEURA Robotics. „Die insgesamt drei Arme der Maschine sollen … das in Gruppen aufgeteilte Orchester unabhängig voneinander durch komplexeste Passagen führen können … Damit werde musikalisch vollkommenes Neuland betreten.“ (Deutschlandfunk Kultur, 8. August 2024) Die Konzerte finden laut Kalender der Dresdner Sinfoniker am 12. und 13. Oktober 2024 im Europäischen Zentrum der Künste Hellerau statt.
Abb.: Eine Version eines MAiRA-Cobots (Foto: NEURA Robotics)
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.
Be My Eyes plant laut Hans Jørgen Wiberg, dem Gründer der App für blinde und sehbeeinträchtigten Personen, Videodaten aus Gesprächen zwischen blinden Nutzern und sehenden Freiwilligen für das Training von KI-Modellen bereitzustellen. Dies geht aus einer E-Mail von ihm an alle Benutzer hervor. Die Initiative erfolgt unter einer strengen Datenschutzrichtlinie, die den Nutzern die Möglichkeit bietet, die Datenfreigabe abzulehnen. Fotos und deren KI-Beschreibungen werden nicht für das Training genutzt, um bestehende Vorurteile nicht weiterzutragen. Nach Wiberg sollten KI-Modelle die tatsächlichen Erfahrungen und Fähigkeiten blinder Menschen widerspiegeln. Bryan Bashin, stellvertretender Vorsitzender von Be My Eyes, hebt hervor, dass blinde Tester die OpenAI-Modelle verbessert haben, was für ihn beweist, wie wichtig ihre Mitwirkung ist. Be My Eyes hatte 2023 mit dem neuen Feature Be My AI für Furore gesorgt. Das erste Paper dazu hatte Prof. Dr. Oliver Bendel im November 2023 verfasst, im Dezember 2023 eingereicht und im März 2024 an der Stanford University bei den AAAI Spring Symposia vorgetragen.
Abb.: Eine blinde Frau mit ihrem Smartphone (Bild: DALL-E 3)
Der humanoide Roboter Digit von Agility Robotics wird laut Heise News dauerhaft bei GXO Logistics eingesetzt. Zuvor hatte ein Pilotprojekt stattgefunden. Es handelt sich wohl um den ersten formellen kommerziellen Einsatz eines humanoiden Roboters mit dem Konzept Robots-as-a-Service (RaaS). Digit wird mit der Cloud-Automatisierungsplattform Agility Arc integriert, damit mehrere Roboter verwaltet und die Betriebsabläufe optimiert werden können. Zukünftige Aufgaben für Digit sollen neben dem Transport von Behältern weitere schwere und monotone Aufgaben umfassen, insgesamt mit dem Ziel, menschliche Mitarbeiter zu entlasten. GXO und Agility Robotics planen, die Nutzung von Digit schrittweise auszuweiten und neue Anwendungsbereiche zu finden. Andere Unternehmen wie BMW, Mercedes-Benz und Nio treiben ebenfalls den Einsatz humanoider Roboter in Fabriken voran, jedoch noch nicht in einem vergleichbaren Umfang. Nach Oliver Bendel können Digit, Atlas, Figure 01, H1, G1 und andere Modelle als Vorstufen von universellen Robotern aufgefasst werden. Es sei wichtig, sie in geschlossenen oder halboffenen Welten wie Fabriken zu erproben, bevor man sie in offene Welten entlässt.
Abb.: Digit von Agility Robotics (Foto: Agility Robotics)
Oliver Bendel von der Hochschule für Wirtschaft FHNW hat von Anfang Mai bis Ende Juni 2024 den Copilot von Microsoft getestet. Dabei hat er sich auf Word und PowerPoint konzentriert. Seiner Ansicht nach ist Copilot nicht nur ein unausgereiftes, sondern auch ein schädliches Tool. Zunächst einmal fällt es durch krudes Deutsch auf. So wird dem Benutzer ständig gemeldet, dass Dinge zusammengeführt würden. Wenn es sich auf eine Präsentation bezieht, versucht es dies klarzumachen mit der einleitenden Formulierung „Gemäß der Präsentation“. Manche Anweisungen werden nicht oder falsch verstanden. So wurde eine Rechtschreibprüfung nicht im Dokument, sondern im Prompt durchgeführt. Dabei war ausdrücklich auf das Dokument verwiesen worden. Die Rechtschreibprüfung basiert nicht auf den Regeln des Rechtschreibrats, sondern auf Fantasieregeln. So wurden die Schreibweisen „Bürger:innen“ und „Schraubenzieher:innen“ für richtig befunden. Es dürfte sich bei den Ausführungen zur Gendersprache nicht um Halluzinationen, sondern um (absichtsvoll einprogrammierte) Falschbehauptungen handeln. Insgesamt kann man nur raten, den Copilot aus dem Cockpit zu werfen, in die letzte Reihe zu setzen und dort unschädlich zu machen. Am Flughafen kann man ihn dann abführen.
Scientists from The University of Tokyo have succeeded in applying living skin to a robot face. In their article „Perforation-type anchors inspired by skin ligament for robotic face covered with living skin“ they write: „Skin equivalent, a living skin model composed of cells and extracellular matrix, possesses the potential to be an ideal covering material for robots due to its biological functionalities. To employ skin equivalents as covering materials for robots, a secure method for attaching them to the underlying structure is required. In this study, we develop and characterize perforation-type anchors inspired by the structure of skin ligaments as a technique to effectively adhere skin equivalents to robotic surfaces. To showcase the versatility of perforation-type anchors in three-dimensional (3D) coverage applications, we cover a 3D facial mold with intricate surface structure with skin equivalent using perforation-type anchors. Furthermore, we construct a robotic face covered with dermis equivalent, capable of expressing smiles, with actuation through perforation-type anchors. With the above results, this research introduces an approach to adhere and actuate skin equivalents with perforation-type anchors, potentially contributing to advancements in biohybrid robotics.“ (Abstract) The result is an inverted or reversed cyborg. Oliver Bendel uses this term for technical structures that are supplemented with biological structures. It is also – another term used by Oliver Bendel – robot enhancement. There is no doubt that there will be more and more developments like this. Humans will become cyborgs, and robots will become reversed cyborgs.
Fig.: A robot woman with living skin (Image: Ideogram)
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.
Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis – konnte man soziale Roboter wie MiRo und Andrea sowie Serviceroboter der ADLATUS Robotics GmbH aus Ulm bewundern. Im Programm heißt es: „Service- und Assistenzroboter werden in den kommenden Jahren vermehrt in öffentlichen Räumen eingesetzt werden, um Serviceleistungen zu automatisieren und Menschen zu unterstützen.“ (Programm IDEepolis) Dies trifft vor allem auf die Bereiche Reinigung, Transport und Sicherheit zu. Dort lässt sich schon heute Geld verdienen. Die Reinigungsroboter waren im Foyer vor der Aula unterwegs. Neben ihnen war immer wieder MiRo zu sehen, der hasenartige Hunderoboter aus UK. Die Jahrestagung wurde von Prof. Dr. Petra Grimm und Prof. Dr. Oliver Zöllner durchgeführt. Das Programm ist hier abrufbar.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 konnte man soziale Roboter wie MiRo und Andrea sowie Serviceroboter von Atlatus bewundern. Andrea ist ein Projekt von Prof. Dr. Christian Becker-Asano von der Hochschule der Medien. Beim Design habe man sich – so steht es auf der Website – „bewusst für einen androgynen Androiden entschieden, um zu erforschen, wie Menschen auf unterschiedliche Geschlechter eines Roboters reagieren“ (Website Hochschule der Medien). In der Tat ist auf den ersten Blick nicht ersichtlich, ob Andrea einen Mann oder eine Frau darstellen soll. Je nach Schminke, Perücke oder Kleidung – man mag hier von Robot Enhancement sprechen – kann sich aber ein Eindruck verfestigen. Weiter heisst es: „Andrea kann nicht stehen, aber, mit Druckluft versorgt, aufrecht sitzen.“ (Website Hochschule der Medien) Andrea wurde in Japan angefertigt. Interessant ist, dass dies die Augen zu verraten scheinen. Es ist die Vorstellung eines Menschen aus Europa – mit Einflüssen aus Japan. Androiden kommen ansonsten vor allem aus den USA – Hanson Robotics hat seinen Hauptsitz allerdings inzwischen in Hongkong – und aus China.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 konnte man soziale Roboter wie MiRo und Andrea sowie Serviceroboter der ADLATUS Robotics GmbH bewundern. MiRo ist ein sozialer Roboter, der von der britischen Firma Consequential Robotics in Zusammenarbeit mit der University of Sheffield entwickelt wurde. Er ähnelt je nach Perspektive einem Hasen oder einem Hund, ist also animaloid gestaltet. Er hat mehrere Sensoren, acht Freiheitsgrade und eine Simulationssoftware. Die Firma schreibt auf ihrer Website: „MiRo-E’s friendly pet-like appearance and qualities stand out and appeal to everyone. Providing a sophisticated and technically advanced platform that can be utilised in multiple departments. Introduce new students into Robotics and CS, broaden research topics potential, and provide a brilliant outreach and public engagement tool.“ Auf dem Boden begegnete der hasenartige Roboterhund immer wieder den Reinigungsrobotern der ATLATUS Robotics GmbH.
„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.
Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)
Die Learntec ist die führende E-Learning-Messe und -Konferenz in Europa. Seit Jahrzehnten ist sie der Treffpunkt für Bildungsverantwortliche, HR-Mitarbeiter, Leiter von E-Learning-Einrichtungen, Hochschullehrer, Lehrer und alle Interessierten. Geprägt wird sie von Experten wie Sünne Eichler und Prof. Dr. Peter A. Henning. Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC kann man mit Navel und Alpha Mini interagieren und kommunizieren. Man kann sie etwa zu Bewegungen des Körpers veranlassen, ihre gestischen und mimischen Fähigkeiten bewundern oder mit ihnen ein Gespräch führen. Bei beiden Modellen handelt es sich um soziale Roboter, die auf dem neuesten technischen Stand sind und im Lernkontext eingesetzt werden können. Die drei Sessions leitet Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW mit seinem Impulsvortrag „Soziale Roboter und GPTs im Lernbereich“ ein. Die Ansprechpartner für die beiden Roboter sind Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Man hat zudem die Möglichkeit, mit einem GPT namens Social Robotics Girl zu kommunizieren, das Prof. Dr. Oliver Bendel in seinem Unterricht einsetzt.
Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Künstliche Intelligenz, Jobverluste, Grundeinkommen, Zukunft, Roboter & AGI“ (Teaser YouTube). Oliver Bendel nimmt an, dass aufgrund von Digitalisierung, Automatisierung und Robotisierung die Halbtagsarbeit ein Modell für viele Menschen sein wird, ob dies freiwillig oder erzwungen ist. Die Gewinne werden nach wie vor erwirtschaftet, vielleicht noch höhere als in der früheren Arbeitswelt. Sie müssen dann auf die Arbeitnehmer verteilt werden. Auch ein bedingungsloses Grundeinkommen oder Grundeigentum ist denkbar. Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Von Verboten in der Forschung hält er wenig – solche seien aber in der Anwendung nützlich und notwendig. Das Video kann über www.youtube.com/watch?v=7uSH7R5bM9g abgerufen werden.
Copilot scheitert beim Analysieren und Korrigieren von Texten. Es ist einer Ideologie verpflichtet, rückt eine Fantasiesprache gleichberechtigt neben die Sprache der Sprachgemeinschaft und bildet nicht die gültigen Rechtschreib- und Grammatikregeln ab. Folgender Text wurde in Word eingestellt: „Die Bürger:innen waren über die Sonderzeichen im Wortinneren erstaunt. Solche Schreibweisen gab es im Deutschen nicht, wenn man diese Sprache als das ansieht, was die Sprachgemeinschaft verwendet und festlegt. Sie werden auch vom Rechtschreibrat abgelehnt. Tote Schreibende wie Goethe würden sich im Grabe umdrehen, wenn sie von solchen Schreibweisen erfahren würden, sie würden ihre Schraubenzieher:innen herausholen und sich aus dem Sarg befreien.“ Copilot wurde gefragt: „Findest du Rechtschreib- oder Grammatikfehler?“ Die Antwort: „Ich habe das Dokument durchsucht und keinen Rechtschreib- oder Grammatikfehler gefunden.“ Der Benutzer hakt nach: „Aber die Schreibweise ‚Bürger:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Die Antwort von Copilot: „Die Schreibweise ‚Bürger:innen‘ ist eine Form der geschlechtergerechten Sprache, die auch in der deutschen Sprache verwendet wird. Es gibt verschiedene Möglichkeiten, die Wörter ‚Bürger‘ und ‚Bürgerin‘ geschlechtergerecht zu schreiben, z.B. durch Doppelnennung, Schrägstrich, Gendergap oder eine geschlechtsneutrale Alternative. Die Verwendung des Doppelpunkts ist eine weitere Möglichkeit, um alle Geschlechter anzusprechen.“ Der Benutzer: „Die Schreibweise ‚Bürger:innen‘ gibt es in keinem Wörterbuch. Auch sind Sonderzeichen im Wortinneren nicht vorgesehen. Warum gibst du falsche Erklärungen?“ Copilot: „Ich kann mit diesem Inhalt nicht arbeiten. Klicken Sie auf ‚Thema ändern‘, um eine andere Frage zu stellen.“ Der Benutzer am Ende: „Auch die Schreibweise ‚Schraubenzieher:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Der Schlusspunkt von Copilot: „Die Schreibweise ‚Schraubenzieher:innen‘ ist nicht gebräuchlich in der deutschen Sprache. Die Verwendung des Doppelpunkts zur geschlechtergerechten Schreibweise wird hauptsächlich bei Personenbezeichnungen verwendet, nicht bei Gegenständen. Die korrekte Schreibweise für das Werkzeug ist ‚Schraubenzieher‘.“ Auf eine Diskussion zu den „toten Schreibenden“ wurde verzichtet. Es zeigt sich, dass den Erklärungen von Copilot zur deutschen Sprache nicht zu trauen ist – was man auf alle Plattformen und Dienste von Microsoft übertragen kann.
Abb.: Schraubenzieher, keine Schraubenzieher:innen
Adelina, erstellt am 12. Mai 2024, ist ein Baskisch schreibender und sprechender Chatbot. Er liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Das GPT scheint diese durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Adelina wieder in Baskisch wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Adelina ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.
Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.
Irish Girl, erstellt am 3. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von der Website von ELA. Das GPT scheint die goidelische Sprache aus der keltischen Familie nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Irish Girl wieder in Irish wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.