ChatGPT 4o mini hat Probleme mit seinem eigenen Namen

ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.

Abb.: Einer der Tests

Visit by Nehal Hasnine to a Swiss University

On November 7, Nehal Hasnine from Hosei University in Tokyo visited Oliver Bendel at the FHNW Brugg-Windisch campus. Oliver Bendel wrote his doctoral thesis on pedagogical agents – chatbots, voice assistants, and early social robots in learning environments – at the University of St. Gallen at the turn of the millennium. In recent years, he and his students have developed chatbots and language assistants that support the learning and practicing of endangered languages. Nehal Hasnine is investigating the possibility of recommending appropriate images for vocabulary learning, geolocation-based word recommendation, clickstream analysis, ubiquitous log analysis, personalized learning path optimization, text mining for word concurrence information discovery, and topic modeling from life logs. According to his website, his expertise lies at the intersection of computer-aided language learning, foreign vocabulary learning, machine learning, image recommendation, data visualization, image analytics, and learning analytics. At the FHNW Brugg-Windisch campus, the two scientists presented their projects and discussed opportunities for collaboration.

Fig.: Oliver Bendel and Nehal Hasnine at the Swiss campus

Der Chatbot kAIxo kommt auf die Welt

Am 11. November 2024 fand die Zwischenpräsentation zum Projekt „kAIxo“ statt. Projektmitarbeiter ist Nicolas Lluis Araya. An der Hochschule für Wirtschaft FHNW werden Chatbots für tote, gefährdete und ausgestorbene Sprachen entwickelt. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Oliver Bendel hat zuletzt die Reichweite von GPTs für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch getestet. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt, eines Chatbots für Baskisch. Später wurde sie in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „hallo“) wird der Chatbot oder Sprachassistent kAIxo gebaut, der Baskisch beherrscht. Sinn und Zweck soll es sein, dass man als Benutzer in geschriebener oder gesprochener Sprache in Übung bleibt oder die Lust entwickelt, die gefährdete Sprache zu erlernen. Der Chatbot basiert auf GPT-4o. Retrieval-Augmented Generation (RAG) spielt eine zentrale Rolle. Genutzt wird ein ChatSubs-Datensatz, der Dialoge auf Spanisch und in drei weiteren Amtssprachen Spaniens (Katalanisch, Baskisch und Galizisch) enthält. Bei der Zwischenpräsentation stellte Nicolas Lluis Araya einen funktionierenden Prototyp vor. Dieser soll nun Schritt für Schritt erweitert werden.

Abb.: Ein Mädchen von Bilbao

Soll man nett sein zu Chatbots?

Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte im Interview u.a. aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei wohl effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Man könne es als durchaus sinnvoll betrachten, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei offenbar effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu zahlreichen weiteren Aspekten der Nettigkeit und Höflichkeit sowie zur Grobheit gegenüber Chatbots, Sprachassistenten und sozialen Robotern aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.

Abb.: Soll man nett sein zu Chatbots?

OpenAI o1 mit Reasoning

OpenAI hat nach eigenen Angaben unter dem Namen OpenAI o1 eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken aufwenden, bevor sie eine Ausgabe generieren. Sie können komplexe Aufgaben durchdenken und schwierigere Probleme lösen als frühere Modelle. In den Tests schneidet das Update bei anspruchsvollen Aufgaben in Physik, Chemie und Biologie angeblich ähnlich gut ab wie Doktoranden, eine ebenso allgemeine wie gewagte Aussage. Man habe außerdem festgestellt, dass es in Mathematik und Programmierung überragend sei. Das Unternehmen spricht von „reasoning models for solving hard problems“ (Website OpenAI, 12. September 2024). Wenn es sich nicht nur um leere Versprechungen handelt, machen nicht nur Chatbots einen Sprung vorwärts, sondern auch Allzweckroboter, für die Reasoning von hoher Bedeutung ist.

Abb.: OpenAI steht in Konkurrenz mit anderen Anbietern

Ein Chatbot für Baskisch

An der Hochschule für Wirtschaft FHNW werden Chatbots für tote, gefährdete und ausgestorbene Sprachen entwickelt. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Oliver Bendel hat zuletzt die Reichweite von GPTs für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch getestet. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt, eines Chatbots für Baskisch. Später wurde sie in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „hallo“) soll der Chatbot oder Sprachassistent kAIxo entwickelt werden, der Baskisch beherrscht. Sinn und Zweck soll es sein, dass man als Benutzer in geschriebener oder gesprochener Sprache in Übung bleibt oder die Lust entwickelt, die gefährdete Sprache zu erlernen. Der Chatbot soll auf einem Large Language Model (LLM) basieren. Denkbar sind zur Anpassung sowohl Prompt Engineering als auch Finetuning. Retrieval-Augmented Generation (RAG) kann eine zentrale Rolle spielen. Ergebnis ist ein funktionierender Prototyp. Für die Umsetzung konnte Nicolas Lluis Araya gewonnen werden, ein Student der Wirtschaftsinformatik. Das Kick-off-Meeting findet am 3. September 2024 statt.

Abb.: Seilziehen ist eine beliebte Sportart im Baskenland

Ein Chatbot als Assistent des Coiffeurs

„Im Herzen der Stadt Basel ist Yuki Studio zu Hause. Bist du auf der Suche nach traditionellen Barberingtechniken oder nach einem Stylisten, mit dem Fingerspitzengefühl für neumodische Looks? Dann nichts wie hereinspaziert in die gute Stube. Denn bei Yuki treffen Tradition und Trend aufeinander.“ Mit diesen Worten wirbt ein Basler Coiffeur für sich auf seiner Website. Zu den Trends kann man auch den Chatbot zählen, der seit August 2024 zur Verfügung steht. Entwickelt hat ihn Luka Lazarevic, ein Student der Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW, im Rahmen seiner Bachelorarbeit. Als Betreuer fungierte Prof. Dr. Oliver Bendel. In der Management Summary heißt es: „Die Ergebnisse zeigen, dass der Chatbot erfolgreich in das bestehende System von Yuki Studio integriert wurde und das Buchungssystem effektiv ergänzt. Er erfüllt die Erwartungen der Stakeholder, harmoniert mit dem technischen Know-how des Auftraggebers und präsentiert sich im gewünschten Layout. Der Chatbot zeigt sich robust in Tests, reagiert schnell und präzise auf Anfragen und kann typische telefonische Anfragen übernehmen, was zu einer Reduktion der Anrufe um 22,22 % führt. Zusammenfassend hat der entwickelte Chatbot die Kundenkommunikation verbessert und die administrative Arbeit bei Yuki Studio reduziert.“ Bei ersten Benutzertests agierte der Chatbot ebenso empathisch wie professionell. Immer wieder streute er Emojis ein. Die Website mit dem Chatbot kann über www.yukibasel.ch aufgerufen werden.

Abb.: Beim Coiffeur

Was ist ein KI-Assistent?

„Ein KI-Assistent ist ein auf künstlicher Intelligenz (KI) beruhendes kommerzielles oder nichtkommerzielles System, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Notebook, dem Tablet oder dem Smartphone ebenso zu finden wie in Unterhaltungs- und Unterstützungsgeräten oder in Fahrzeugen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele und stellt Anwendungsgebiete dar. Dabei geht er u.a. auf GPTs ein, auf „custom versions of ChatGPT“, wie OpenAI dazu sagt. Am Ende – in „Kritik und Ausblick“ – macht er deutlich, dass ein KI-Assistent als Mensch wahrgenommen werden kann, und dass es Methoden gibt, um dies zu verhindern. Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/ki-assistent-126518 aufgerufen werden.

Abb.: Was ist ein KI-Assistent?

DuckDuckGo AI Chat Allows Anonymous Access to Chatbots

„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.

Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)

Maori Girl macht Fortschritte

Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Maori Girl macht Fortschritte (Bild: Ideogram)

Irish Girl macht Fortschritte

Irish Girl, erstellt am 3. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von der Website von ELA. Das GPT scheint die goidelische Sprache aus der keltischen Familie nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Irish Girl wieder in Irish wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Irish Girl macht Fortschritte (Bild: Ideogram)

Moral Prompt Engineering

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)

Cleop@tr@ kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.

Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)

Maori Girl schreibt und spricht Maori

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)

Vale, @ve!

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Seit Ende November 2023 liegt dazu ein Working Paper vor. Der Chatbot basierte auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man konnte sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel war @ve ein Tool, das mit Gewinn in den Lateinunterricht hätte integriert werden können. Dort hätten die Schüler berichten können, was sie mit ihr zu Hause erlebt haben, und sie hätten mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten können. Der Chatbot wurde aus privaten Mitteln des Wissenschaftlers und seines ehemaligen Studenten finanziert. Es fand sich kein Träger für ihn. Daher wurde er Anfang 2024 eingestellt. Vale, @ve!

Abb.: Vale, @ve!

A Chatbot for Vallader

On February 19, 2024, the article „@llegra: a chatbot for Vallader“ by Oliver Bendel and Dalil Jabou was published in the International Journal of Information Technology. From the abstract: „Extinct and endangered languages have been preserved primarily through audio conservation and the collection and digitization of scripts and have been promoted through targeted language acquisition efforts. Another possibility would be to build conversational agents like chatbots or voice assistants that can master these languages. This would provide an artificial, active conversational partner which has knowledge of the vocabulary and grammar and allows one to learn with it in a different way. The chatbot, @llegra, with which one can communicate in the Rhaeto-Romanic idiom Vallader was developed in 2023 based on GPT-4. It can process and output text and has voice output. It was additionally equipped with a manually created knowledge base. After laying the conceptual groundwork, this paper presents the preparation and implementation of the project. In addition, it summarizes the tests that native speakers conducted with the chatbot. A critical discussion elaborates advantages and disadvantages. @llegra could be a new tool for teaching and learning Vallader in a memorable and entertaining way through dialog. It not only masters the idiom, but also has extensive knowledge about the Lower Engadine, that is, the area where Vallader is spoken. In conclusion, it is argued that conversational agents are an innovative approach to promoting and preserving languages.“ Oliver Bendel has been increasingly focusing on dead, extinct and endangered languages for some time. He believes that conversational agents can help to strengthen and save them.

Fig.: A chatbot for Vallader

Podcasts zu KI-Girlfriends

Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.

Abb.: Replika im Gespräch mit Oliver Bendel

Paper zu @llegra angenommen

Der Technikphilosoph und Wirtschaftsinformatiker Prof. Dr. Oliver Bendel widmet sich seit einiger Zeit verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Er ist der Meinung, dass Conversational Agents zu ihrer Stärkung und Rettung beitragen können. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wurde bis August 2023 der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Chatbot beruht auf dem Sprachmodell GPT-4. Er hat Texteingabe und -ausgabe sowie Sprachausgabe. Der Avatar ist ein Steinbockmädchen. Man kann in Deutsch oder Rätoromanisch mit @llegra kommunizieren – sie versucht sich immer auf Vallader. Manchmal rutscht sie in Sursilvan oder Rumantsch Grischun. Das Paper „@llegra: A Chatbot for Vallader“ von Oliver Bendel und Dalil Jabou wurde nun vom International Journal of Information Technology angenommen. Es wird in einigen Wochen erscheinen. Das nächste Idiom des Rätoromanischen soll noch in diesem Jahr in Angriff genommen werden.

Abb.: Ein Junge im Unterengadin plaudert mit @llegra

Sprachmodelle als Münchhausen-Maschinen

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien, sodass er eine unwahre oder unrichtige Antwort an den Benutzer weitergeben konnte. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Jüngste Ergebnisse von Forschern des Start-ups Anthropic zeigen nun laut Andreas Donath von Golem, „dass KI-Systeme darauf trainiert werden können, Menschen anzuschwindeln und in die Irre zu führen“ (Golem, 14. Januar 2024). Hier kann man von Münchhausen-Maschinen sprechen, da – wie beim LIEBOT – eine Absicht besteht, anders als etwa beim Halluzinieren, das gelegentlich und versehentlich geschieht. Der Golem-Artikel mit dem Titel „Anthropic zeigt Gefahren absichtlich schwindelnder KI“ (später umbenannt in „Mit dem richtigen Training kann KI täuschen und schwindeln“) kann hier abgerufen werden.

Abb.: Der Baron nicht nur auf einer Kugel, sondern auf einer ganzen Kanone (Bild: DALL-E 3)

A Self-talk with a Superhero

Researchers at the University of Washington have developed a web app to help children develop skills such as self-awareness and emotional management. They have published their findings in their paper „Self-Talk with Superhero Zip: Supporting Children’s Socioemotional Learning with Conversational Agents“. From the abstract: „Here, we examine whether children can learn to use a socioemotional strategy known as ’self-talk‘ from a conversational agent (CA). To investigate this question, we designed and built ‚Self-Talk with Superhero Zip,‘ an interactive CA experience, and deployed it for one week in ten family homes to pairs of siblings between the ages of five and ten … We found that children could recall and accurately describe the lessons taught by the intervention, and we saw indications of children applying self-talk in daily life.“ (Fu et al. 2023) The paper can be downloaded at dl.acm.org/doi/abs/10.1145/3585088.3589376.

Fig.: A superheroine (Image: Ideogram)

Working Paper zu @ve, einem Chatbot für Latein

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Seit Ende November 2023 liegt ein Working Paper mit dem Titel „@ve: A Chatbot for Latin“ vor. Es wurde bereits im Sommer verfasst. Der Chatbot läuft voraussichtlich noch bis Ende des Jahres.

Abb.: So sieht DALL-E 3 den Chatbot

„@llegra – Chatbot für Vallader“ wird ausgezeichnet

Dalil Jabou wurde für seine Bachelorarbeit „@llegra – Chatbot für Vallader“ an der Hochschule für Wirtschaft FHNW ausgezeichnet. In dem Dokument, das von Prof. Dr. Regula Altmann-Jöhl (Direktorin) und Prof. Dr. Charlotte Hofstetter (Mitglied der Hochschulleitung) am 28. September 2023 unterschrieben wurde, heißt es: „Wir gratulieren Ihnen zum erfolgreichen Abschluss in Wirtschaftsinformatik (Bachelor of Science FHNW). Es freut uns Ihnen mitzuteilen, dass Sie unter allen Kandidatinnen und Kandidaten Ihres Studienjahrgangs die beste Bachelor-Arbeit erzielt haben.“ Das Projekt, dessen zentraler Bestandteil diese Arbeit war, fand von Februar bis August 2023 statt. Initiator und Betreuer war Prof. Dr. Oliver Bendel. Ziel war es, einen Chatbot für ein Idiom des Rätoromanischen zu entwickeln. Die Wahl fiel auf Vallader, das im Unterengadin gesprochen wird. Der Chatbot hat Texteingabe und -ausgabe, zudem Sprachausgabe. Diese wurde mit einer Text-to-Speech-Engine der Zürcher Firma SlowSoft ermöglicht. Der Avatar ist ein Steinbock. In einem Video wird gezeigt, wie der Chatbot funktioniert. Ebenfalls für die beste Bachelorarbeit wurde Andrin Allemann geehrt. Er hatte – unter der Betreuung von Oliver Bendel – den sozialen Roboter Alpha Mini in eine Lernanwendung mit einem MS Surface integriert.

Abb.: Ein Steinbock beim Chatten (Bild: DALL-E 3)