Am 17. Dezember 2024 findet von 8 bis 9 Uhr wieder das Geriatrie-Seminar der Barmelweid-Akademie statt. Die Barmelweid ist nach eigenen Angaben die führende Spezial- und Rehabilitationsklinik der Nordwestschweiz. Prof. Dr. Oliver Bendel trägt über „Conversational Agents zur Erkennung von Problemen und zur Unterstützung von Personen“ vor. Dabei geht er sowohl auf Chatbots und Sprachassistenten als auch auf „embodied conversational agents“ wie bestimmte Pflegeroboter mit natürlichsprachlichen Fähigkeiten ein. Das übergeordnete Ziel der Seminarreihe ist laut Website, die neusten Ergebnisse aus Lehre und Forschung in die tägliche klinische Arbeit der Barmelweid einfließen zu lassen. Gleichzeitig wollen die Verantwortlichen die ethischen und managementbezogenen Aspekte nicht außer Acht lassen. Im Fokus stehen 2024 die Digitalisierung im Gesundheitswesen, das Delirium-Management und die geriatrische Onkologie. Weitere Informationen sind über die Website der Klinik erhältlich.
Abb.: Die Spezial- und Rehabilitationsklinik (Foto: Wikimedia, Voyager, CC BY-SA 3.0)
On 6 November 2023, OpenAI made so-called GPTs available for ChatGPT Plus users. „GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home – and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers.“ (Blogpost OpenAI, 6 November 2023) According to OpenAI, anyone can easily build their own GPT, without any programming skills. „You can make them for yourself, just for your company’s internal use, or for everyone. Creating one is as easy as starting a conversation, giving it instructions and extra knowledge, and picking what it can do, like searching the web, making images or analyzing data.“ (Blogpost OpenAI, 6 November 2023) Early tests have shown the power of the new feature. ChatGPT suggests a name for the Chatbot, creates the profile picture, and accepts documents with text and literature lists to expand its knowledge of the topic. Since 12 November 2023, a new GPT named Social Robotics Girl is available that provides information about social robotics. It was created by Oliver Bendel and fed by a collection of his articles on the topic. Learn more about GPTs at openai.com/blog/introducing-gpts.
Fig.: A user with her own GPT chatbot (Image: DALL-E 3)
„Conversational Agents (CAs) sind computerbasierte Dialogsysteme mit natürlichsprachlichen Fähigkeiten. Verwenden beide Seiten die Textform, liegen üblicherweise Chatbots oder Social Bots vor. Manche von diesen besitzen Sprachausgabe, wie Cor@ von der Deutschen Bank um die Jahrtausendwende. Nutzen beide Seiten gesprochene Sprache, handelt es sich üblicherweise um Sprachassistenten (auch Voice Assistants oder Voicebots genannt), die auf Smartphones, in Smartspeakers oder in Anwendungen des Smart Home vorkommen. Bekannte Beispiele sind Google Assistant, Siri und Alexa. Chatbots und Sprachassistenten kann man wiederum mit Avataren ergänzen oder in soziale Roboter wie Pepper oder NAO bzw. in Serviceroboter oder Industrieroboter integrieren …“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf Entwicklung und Merkmale eingegangen, in einem dritten die ethische Perspektive eingenommen. Der Beitrag ist am 18. April 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/conversational-agent-125248 aufgerufen werden.
Abb.: Cor@ stand um die Jahrtausendwende auf der Website der Deutschen Bank zur Verfügung
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.
On February 18, 2022, the Dagstuhl Report „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ was published. Editors are Effie Lai-Chong Law, Asbjørn Følstad, Jonathan Grudin, and Björn Schuller. From the abstract: „This report documents the program and the outcomes of Dagstuhl Seminar 21381 ‚Conversational Agent as Trustworthy Autonomous System (Trust-CA)‘. First, we present the abstracts of the talks delivered by the Seminar’s attendees. Then we report on the origin and process of our six breakout (working) groups. For each group, we describe its contributors, goals and key questions, key insights, and future research. The themes of the groups were derived from a pre-Seminar survey, which also led to a list of suggested readings for the topic of trust in conversational agents. The list is included in this report for references.“ (Abstract Dagstuhl Report) The seminar, attended by scientists and experts from around the world, was held at Schloss Dagstuhl from September 19-24, 2022. The report can be downloaded via drops.dagstuhl.de/opus/volltexte/2022/15770/.
Fig.: The on-site group (Photo: Schloss Dagstuhl – LZ GmbH)
The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI) From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.
A group of about 50 scientists from all over the world worked for one week (September 19 – 24, 2021) at Schloss Dagstuhl – Leibniz-Zentrum für Informatik on the topic „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“. Half were on site, the other half were connected via Zoom. Organizers of this event were Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester), and Björn Schuller (University of Augsburg). On-site participants from Germany and Switzerland included Elisabeth André (University of Augsburg), Stefan Schaffer (DFKI), Sebastian Hobert (University of Göttingen), Matthias Kraus (University of Ulm), and Oliver Bendel (School of Business FHNW). The complete list of participants can be found on the Schloss Dagstuhl website, as well as some pictures. Oliver Bendel presented projects from ten years of research in machine ethics, namely GOODBOT, LIEBOT, BESTBOT, MOME, and SPACE-THEA. Further information is available here.
Fig.: On-site participants in front of Schloss Dagstuhl (photo: Schloss Dagstuhl)
Simple, soft shapes are everywhere. In our home environment you can find pillows, blankets, balls, bottles, clothes, etc. Robots are often expensive and complex. But couldn’t they be thought of in a completely different way? How could social robots emerge from simple, soft shapes? As part of their final thesis at the School of Business FHNW, Nhi Tran Hoang Yen and Thang Hoang Vu from Ho Chi Minh City have answered this question posed by their supervisor Prof. Dr. Oliver Bendel. They have submitted eleven proposals for novel robots. All are shown on informationsethik.net. The seventh proposal is Sylvie (go here to the previous). The normal Hugvie is a communication and hugging device, whereby the communication is not with it, but with friends, partners and family members. Sylvie is a variant of it. You talk directly to her, and when you hug her, you mean her, not a human being. And there’s another difference: while in the classic Hugvie the smartphone is invisibly housed in a pocket on the head, in Sylvie it forms part of the face. Two books by Oliver Bendel on social robots – „300 Keywords Soziale Robotik“ and „Soziale Roboter“ – will be published in October 2021.
Fig.: Sylvie (image: Trần Hoàng Yến Nhi & Hoàng Vũ Thắng, with an addition by Oliver Bendel)
The Dagstuhl seminar „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ will take place from September 19 – 24, 2021. According to the website, Schloss Dagstuhl – Leibniz-Zentrum für Informatik „pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers“. Organizers of this event are Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester) and Björn Schuller (University of Augsburg). They outline the background as follows: „CA, like many other AI/ML-infused autonomous systems, need to gain the trust of their users in order to be deployed effectively. Nevertheless, in the first place, we need to ensure that such systems are trustworthy. Persuading users to trust a non-trustworthy CA is grossly unethical. Conversely, failing to convince users to trust a trustworthy CA that is beneficial to their wellbeing can be detrimental, given that a lack of trust leads to low adoption or total rejection of a system. A deep understanding of how trust is initially built and evolved in human-human interaction (HHI) can shed light on the trust journey in human-automation interaction (HAI). This calls forth a multidisciplinary analytical framework, which is lacking but much needed for informing the design of trustworthy autonomous systems like CA.“ (Website Dagstuhl) Regarding the goal of the workshop, the organizers write: „The overall goal of this Dagstuhl Seminar is to bring together researchers and practitioners, who are currently engaged in diverse communities related to Conversational Agent (CA) to explore the three main challenges on maximising the trustworthiness of and trust in CA as AI/ML-driven autonomous systems – an issue deemed increasingly significant given the widespread uses of CA in every sector of life – and to chart a roadmap for the future research on CA.” (Website Dagstuhl) Oliver Bendel (School of Business FHNW) will talk about his chatbot and voice assistant projects. These emerge since 2013 from machine ethics and social robotics. Further information is available here (photo: Schloss Dagstuhl).
Fig.: Bird’s eye view of Schloss Dagstuhl (Photo: Schloss Dagstuhl)
In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots like GOODBOT, LIEBOT and BESTBOT in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)