Am 18. Oktober 2024 war Prof. Dr. Oliver Bendel zu Gast beim NDR in Hamburg. Vom Hotel im Gebäude der Elbphilharmonie war er am Morgen zum Studio in der Rothenbaumchaussee gefahren. Er sprach mit dem Moderator Philipp Cavert über Beziehungen zu Chatbots, Sprachassistenten und sozialen Robotern. Der Technikphilosoph und Wirtschaftsinformatiker legte dar, dass diese Empathie und Emotionen zeigen, aber nicht im eigentlichen Sinne haben können. Die Benutzer reagieren wiederum mit Emotionen. Beziehungen dieser Art sind immer einseitig. Auf der anderen Seite ist nichts, was wirklich Interesse hat, was einen liebt oder hasst. Dennoch können Chatbots, Sprachassistenten und soziale Roboter in bestimmten Situationen helfen. So entwickelte Martin Spathelf unter der Betreuung von Oliver Bendel einen Sprachassistenten, der Astronauten auf einem Marsflug helfen könnte. Space Thea bewährte sich in sieben verschiedenen Szenarien und zeigte Empathie und Emotionen. Zusammen mit Tamara Siegmann untersuchte Oliver Bendel, ob man Roboter in Gefängnissen einsetzen kann und soll. Ein Befund war, dass sich Insassen soziale Roboter und Chatbots als Gesprächspartner wünschen. Mehr zum Gespräch – auf der Website betitelt mit „KI als Freund: Sinnvoll oder gefährlich?“ – findet sich über www.ndr.de/kultur/KI-als-virtueller-Freund-Sinnvoll-oder-gefaehrlich,ki312.html. Am Abend war Oliver Bendel dann im KörberHaus in Hamburg Bergedorf, wo er mit der ZDF-Moderatorin Jasmina Neudecker über dasselbe Thema diskutierte.
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.
Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)
Der Artikel „Systemcrush: Künstliche Intelligenzen sollen uns pflegen, beliefern und umherfahren. Sollten wir sie lieben?“ von Anja Martin erschien am 20. Dezember 2023 in fluter, dem Jugendmagazin der Bundeszentrale für politische Bildung. Am Anfang heißt es: „Allein zwei Millionen Menschen nutzen regelmäßig die App Replika, um sich einen virtuellen Partner zu erstellen, ob aus romantischen Gründen oder nur zum Reden. Luka, das Unternehmen dahinter, bewirbt seinen Chatbot als ‚The AI companion who cares‘. Und: ‚Always on your side‘. Er vergisst nichts, hat immer Zeit, ist nie müde, dafür immer empathisch. Wird hier ein Traum wahr?“ Im Folgenden wird dieser Frage nachgegangen. Antworten gibt es u.a. von Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert Chatbots und überhaupt Conversational Agents erforscht. Um die Jahrtausendwende waren es vor allem Pedagogical Agents, die sein Interesse weckten. Heute würde man Virtual Learning Companions dazu sagen. Aber auch Chatbots und Avataren, die für (stets einseitige) Beziehungen zur Verfügung standen, wandte er sich als Wissenschaftler zu, etwa der virtuellen Freundin von Artificial Life. Der Artikel kann über www.fluter.de/chatbots-KI-liebe aufgerufen werden.
Abb.: Replika in ihrem Appartement (Bild: Screenshot)
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
„Conversational Agents (CAs) sind computerbasierte Dialogsysteme mit natürlichsprachlichen Fähigkeiten. Verwenden beide Seiten die Textform, liegen üblicherweise Chatbots oder Social Bots vor. Manche von diesen besitzen Sprachausgabe, wie Cor@ von der Deutschen Bank um die Jahrtausendwende. Nutzen beide Seiten gesprochene Sprache, handelt es sich üblicherweise um Sprachassistenten (auch Voice Assistants oder Voicebots genannt), die auf Smartphones, in Smartspeakers oder in Anwendungen des Smart Home vorkommen. Bekannte Beispiele sind Google Assistant, Siri und Alexa. Chatbots und Sprachassistenten kann man wiederum mit Avataren ergänzen oder in soziale Roboter wie Pepper oder NAO bzw. in Serviceroboter oder Industrieroboter integrieren …“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf Entwicklung und Merkmale eingegangen, in einem dritten die ethische Perspektive eingenommen. Der Beitrag ist am 18. April 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/conversational-agent-125248 aufgerufen werden.
Abb.: Cor@ stand um die Jahrtausendwende auf der Website der Deutschen Bank zur Verfügung
Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.
Chatbots stehen auf Websites von Unternehmen bereit, um über Produkte und Dienstleistungen zu informieren. Einige dienen auch einfach der Unterhaltung und Entspannung. Kuki (früher Mitsuku) und Replika lernen dazu und erinnern sich an Aussagen der Benutzer. Manche Benutzer wenden den Chatbots und Sprachassistenten gegenüber verbale Gewalt an. Dies kann innerhalb von Rollenspielen passieren und als Ventil funktionieren. Man verbleibt innerhalb der Virtualität. Fragwürdig ist es, wenn die Realität in der Weise einbezogen wird, dass sich die Benutzer vor Freunden mit ihren Taten brüsten und sich ihr Verhalten in ihren Beziehungen verändert. Was die Beziehungen zu den Chatbots und Sprachassistenten anbetrifft, muss beachtet werden, dass sie einseitig sind. Die Softwareroboter zeigen Emotionen und Empathie, aber sie haben sie nicht. Sie scheinen sich für ihr Gegenüber zu interessieren, aber in Wirklichkeit ist da nichts, was sich interessieren könnte. Natürlich ist es wichtig, die Phantasie in der Realität wachzuhalten, und dies kann über Fiktionalität und Virtualität geschehen. Problematisch wird es jedoch, wenn dauerhaft die Grenzen verschwimmen und man den Chatbot oder Sprachassistenten für einen ernstzunehmenden Partner hält. Der österreichische Standard hat Oliver Bendel zu dieser Thematik interviewt. Der Beitrag mit dem Titel „Meine Freundin, der Roboter“ von Jakob Pallinger ist am 15. April 2022 erschienen (mit einer Onlineversion am Wochenende).
Abb.: Artificial Life entwickelte um die Jahrtausendwende verschiedene Chatbots
The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI) From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.
CONVERSATIONS 2019 is a full-day workshop on chatbot research. It will take place on November 19, 2019 at the University of Amsterdam. From the description: „Chatbots are conversational agents which allow the user access to information and services though natural language dialogue, through text or voice. … Research is crucial in helping realize the potential of chatbots as a means of help and support, information and entertainment, social interaction and relationships. The CONVERSATIONS workshop contributes to this endeavour by providing a cross-disciplinary arena for knowledge exchange by researchers with an interest in chatbots.“ The topics of interest that may be explored in the papers and at the workshop include humanlike chatbots, networks of users and chatbots, trustworthy chatbot design and privacy and ethical issues in chatbot design and implementation. The submission deadline for CONVERSATIONS 2019 was extended to September 10. More information via conversations2019.wordpress.com/.
„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.
CONVERSATIONS 2018 was a cross-disciplinary workshop to advance chatbot research. It took place on 26 October in St. Petersburg, at the School of Journalism and Mass Communications. „Chatbots enable users to interact with digital services in natural language, through text or voice dialogue. Customer service and digital assistants are applications areas where chatbots already have substantial impact. Also in other application areas, such as health and fitness, education, and information services, a similar impact is foreseen.“ (Website Workshop) The event was open to all scientists and practitioners with an interest in chatbot research and design. Among the organizers were experts such as Asbjørn Følstad, SINTEF (Norway), and Symeon Papadopoulos, Centre for Research and Technology Hellas (Greece). Members of the program committee were among others Adam Tsakalidis, University of Warwick (UK), Despoina Chatzakou, Aristotle University of Thessaloniki (Greece), Eleni Metheniti, Saarland University (Germany), Frank Dignum, Utrecht University (Netherlands), and Oliver Bendel, School of Business FHNW (Switzerland). Further information on conversations2018.wordpress.com/.
Ende August 2018 erscheint das Buch „Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs“, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim „Medientag 2017“ der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Aus dem Klappentext: „Immer öfter kommuniziert Software mit und für uns. Bots übernehmen oft unbemerkt komplexe Aufgaben und virtuelle Assistenzen verarbeiten die gesprochene Sprache. Die Technologieentwicklung gestattet uns mittlerweile, die Dienste von digitalen, oftmals sprachbasierten Assistenzsystemen in unseren Alltag zu integrieren. Besonders im Bereich der politischen Propaganda und Public Relations sind Social Bots seit einiger Zeit zu zweifelhafter Berühmtheit gelangt. … Der interdisziplinär ausgerichtete Band befasst sich mit dieser Thematik und sucht nach Antworten auf Fragen wie die folgenden: Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation?“ (Klappentext iup) Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.
Abb.: Gesprächsrunde (Foto: Universität Innsbruck)
Beim Medientag 2017 der Universität Innsbruck („Talk with the Bots. Die Maschine versteht dich“) am 21. November 2017 referierten Wissenschaftlerinnen und Wissenschaftler und ein Mitarbeiter einer IT-Firma über virtuelle Assistenten, Social Bots und Chatbots. Danach diskutierten Timo Kaerlein, David Pichsenmeister, MOHO-CEO Hermann Petz, Netaya Lotze, Oliver Bendel und APA-CEO Clemens Pig „über die Zukunft der Bots“ (Tiroler Tageszeitung, 22. November 2017). Moderator war Georg Laich vom ORF. Neben der Tiroler Tageszeitung berichteten auch derStandard.de und studium.at über den Anlass. Im Vordergrund stand dabei die Rede de APA-Geschäftsführers. Er sprach sich für eine Kennzeichnung von „technologiebasierten Quellen“ (studium.at, 22. November 2017) aus. „Der deutsche Wirtschaftsinformatiker und Buchautor Oliver Bendel pflichtete Pig bei: Quellenangaben auch für Bots seien eine ‚gute Möglichkeit, Vertrauen zu schaffen‘.“ (studium.at, 22. November 2017) Konkret sprach er Google Assistant an, ein System für Android-Handys, das viele Antworten mit „Wikipedia sagt …“ einleitet und damit selbst die Herkunft benennt. Zwar sei Wikipedia nicht unbedingt eine vertrauenswürdige Quelle, aber diese sei in diesem Fall immerhin angegeben und könne vom kritischen Benutzer beurteilt werden.
Abb.: Wikipedia ist nicht unbedingt eine vertrauenswürdige Quelle