ACI ’24 Proceedings

The „Proceedings of the International Conference on Animal-Computer Interaction 2024“ were published at the end of November 2024, a few days before the conference in Glasgow. The following papers received awards: „Wireless Tension Sensors for Characterizing Dog Frailty in Veterinary Settings“ by Colt Nichols (North Carolina State University), Yifan Wu (North Carolina State University), Alper Bozkurt, David Roberts (North Carolina State University) and Margaret Gruen (North Carolina State University): Best Paper Award; „Communication Functions in Speech Board Use by a Goffin’s Cockatoo: Implications for Research and Design“ by Jennifer Cunha (Indiana University), Corinne Renguette (Perdue University), Lily Stella (Indiana University) and Clara Mancini (The Open University): Honourable Mention Award; „Surveying The Extent of Demographic Reporting of Animal Participants in ACI Research“ by Lena Ashooh (Harvard University), Ilyena Hirskyj-Douglas (University of Glasgow) and Rebecca Kleinberger (Northeastern University): Honourable Mention Award; „Shelling Out the Fun: Quantifying Otter Interactions with Instrumented Enrichment Objects“ by Charles Ramey (Georgia Institute of Technology), Jason Jones (Georgia Aquarium), Kristen Hannigan (Georgia Aquarium), Elizabeth Sadtler (Georgia Aquarium), Jennifer Odell (Georgia Aquarium), Thad Starner (Georgia Institute of Technology) and Melody Jackson (Georgia Institute of Technology): Best Short Paper Award; „The Animal Whisperer Project“ by Oliver Bendel (FHNW School of Business) and Nick Zbinden (FHNW School of Business): Honourable Mention Short Paper Award.

Fig.: Facing a horse

Generative KI aus ethischer Sicht

Am 19. und 20. November 2024 fand auf dem Campus Brugg-Windisch das Bootcamp „Artificial Intelligence for Management“ statt. Für die ethischen Fragestellungen war Prof. Dr. Oliver Bendel zuständig. Der studierte Philosoph und promovierte Wirtschaftsinformatiker hat sich schon vor Jahrzehnten auf soziale Roboter und KI-Systeme spezialisiert. Sein Vortrag beim Bootcamp am 20. November trug den Titel „Generative KI aus ethischer Sicht“. Er erklärte, was Text- und Bildgeneratoren und multimodale LLMs sind. Dann streifte er Urheberrecht und -schutz sowie Datenschutz und – als ethisches Konzept – informationelle Autonomie. Vertieft ging er auf Verantwortung und Haftung, verzerrte, vorurteilsbehaftete und falsche Darstellungen, Zurückweisungen und Einschränkungen, Erleichterung und Veränderung der Arbeit, Ersetzung der Arbeit, Unselbständigkeit des Menschen sowie Abhängigkeit von Konzernen ein. So sehr der Technikphilosoph die Chancen generativer KI betonte, so sehr warnte er auch vor ihren Risiken. Wenn Schüler mit generativer KI ihre Aufsätze erstellen, erlernen sie das Schreiben nicht. Sie müssen keine Gedanken entwickeln und verwerfen, sie müssen keine Gedanken zu Papier bringen, sie müssen keinen Text aufbauen und gestalten, nur nachbearbeiten. Und wenn Studenten mit generativer KI ihre Studien- und Abschlussarbeiten erstellen, erlernen sie das wissenschaftliche Schreiben nicht. Dies alles wird erhebliche Auswirkungen haben, auf das Denken, das Lernen, das Arbeiten, die Kultur, die Zivilisation, das Leben.

Abb.: Am Campus Brugg-Windisch

„The Animal Whisperer Project“ at ACI

The paper “The Animal Whisperer Project” by Oliver Bendel and Nick Zbinden will be presented at ACI 2024, which takes place in Glasgow this December. It is a conference that brings together the small community of experts in animal-computer interaction and animal-machine interaction. This includes Oliver Bendel, who has been researching in this field since 2012, with a background in animal ethics from the 1980s and 1990s. He initiated the Animal Whisperer project. The developer was Nick Zbinden, who graduated from the FHNW School of Business. From March 2024, three apps were created on the basis of GPT-4: the Cow Whisperer, the Horse Whisperer, and the Dog Whisperer. They can be used to analyze the body language, behaviour, and environment of cows, horses, and dogs. The aim is to avert danger to humans and animals. For example, a hiker can receive a recommendation on his or her smartphone not to cross a pasture if a mother cow and her calves are present. All he or she has to do is call up the application and take photos of the surroundings. The three apps are available as prototypes since August 2024. With the help of prompt engineering and retrieval-augmented generation (RAG), they have been given extensive knowledge and skills. Above all, self-created and labeled photos were used. In the majority of cases, the apps correctly describe the animals‘ body language and behavior. Their recommendations for human behavior are also adequate.

Abb.: The Cow Whisperer in action (Image: DALL-E 3)

Keynote Speech by Melanie Mitchell

On the third day of Robophilosophy 2024, Melanie Mitchell, Professor at the Santa Fe Institute (USA), gave a keynote speech entitled „AI’s Challenge to Understanding the World“. From the abstract: „I will survey a debate in the artificial intelligence (AI) research community on the extent to which current AI systems can be said to “understand” language and the physical and social situations language encodes. I will describe arguments that have been made for and against such understanding, hypothesize about what humanlike understanding entails, and discuss what methods can be used to fairly evaluate understanding and intelligence in AI systems.“ (Website Robophilosophy 2024) In this keynote – as in previous keynotes and presentations – the restrictions of AI and generative AI were emphasized. In response to a question from an audience member, the potential was also acknowledged.

Fig.: Melanie Mitchell after her talk

Keynote Speech by David Chalmers

On the second day of Robophilosophy 2024, David Chalmers, an Australian philosopher and cognitive scientist, gave a keynote speech entitled „Does Generative AI Extend the Mind?“. From the website: „Prof. Chalmers is known worldwide, also outside of philosophy, for his contributions to consciousness research in ‚The Character of Consciousness‘ (2010), and in particular for identifying more clearly than anyone the tasks for a philosophical account of consciousness (‚the hard problem‘ of consciousness). Since recent advances in AI bring Chalmers‘ thought experiment of ‚philosophical zombies‘ closer to reality, in his current research he combines philosophy and a longstanding interest in AI for the exploration of the status of virtual reality … and the likelihood of creating artificial systems that fulfil the criteria of consciousness.“ (Website Robophilosophy 2024) A key statement was: „As social AI systems become increasingly agent-like, they will decreasingly extend the mind …“ The final statement was: „The quest for agency and sociality in robotsmay stand in tension with considerations of both efficiency and morality.“ The audience applauded the witty and humorous talk.

Fig.: David Chalmers during his talk

Miss Tammy

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Ergebnisse sie am 7. August 2024 vorgestellt hat. Als Prompteuse zähmt sie das auf GPT-4o basierende GPT, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der Löwe zum Hauslöwen, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger oder aus einem gezähmten Löwen einen Hauslöwen. Das GPT liegt nun vor, von Myriam Rellstab auf den Namen Miss Tammy getauft (von engl. „to tame“, „zähmen“). Es liegt bei allen relevanten Kriterien über dem Standardmodell, mit dem es verglichen wurde, gibt etwa angenehmere, hilfreichere und präzisere Antworten auf die Fragen von verunsicherten oder verzweifelten Schülern und Schülerinnen. 20 Testpersonen aus einer Schulklasse standen dabei zur Verfügung. Moral Prompt Engineering hat mit Miss Tammy einen vielversprechenden Start hingelegt.

Abb.: Miss Tammy in Aktion

Cow Whisperer, Horse Whisperer und Dog Whisperer

Am 5. August 2024 fand an der Hochschule für Wirtschaft FHNW die Abschlusspräsentation für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er entwickelte ab März 2024 drei Anwendungen auf der Basis von GPT-4, den Cow Whisperer, den Horse Whisperer und den Dog Whisperer. Mit ihnen kann man Körpersprache, Verhalten und Umfeld von Kühen, Pferden und Hunden analysieren. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und Fotos von der Umgebung machen. Die drei Apps liegen nun als Prototypen vor. Mit Hilfe von Prompt Engineering haben sie weitreichende Kenntnisse und Fähigkeiten erhalten. Vor allem wurden selbst erstellte und gelabelte Fotos verwendet. Die Apps beschreiben in der Mehrheit der Fälle die Körpersprache und das Verhalten der Tiere korrekt. Auch ihre Empfehlungen für das Verhalten der Menschen sind adäquat. Das Projektteam hat die Ergebnisse in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.

Abb.: Der Dog Whisperer im Einsatz (Bild: Ideogram)

Ein Lexikon zur generativen KI

Im Juli 2024 ist „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel erschienen – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Buch kann über SpringerLink heruntergeladen oder im Buchhandel erworben werden.

Abb.: Ein mit Ideogram generiertes Bild

Was ist ein KI-Assistent?

„Ein KI-Assistent ist ein auf künstlicher Intelligenz (KI) beruhendes kommerzielles oder nichtkommerzielles System, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Notebook, dem Tablet oder dem Smartphone ebenso zu finden wie in Unterhaltungs- und Unterstützungsgeräten oder in Fahrzeugen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele und stellt Anwendungsgebiete dar. Dabei geht er u.a. auf GPTs ein, auf „custom versions of ChatGPT“, wie OpenAI dazu sagt. Am Ende – in „Kritik und Ausblick“ – macht er deutlich, dass ein KI-Assistent als Mensch wahrgenommen werden kann, und dass es Methoden gibt, um dies zu verhindern. Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/ki-assistent-126518 aufgerufen werden.

Abb.: Was ist ein KI-Assistent?

Generative KI und die Schönheit

„Inspirierend anders“, der Podcast von Luca Beutel, geht seit 2023 immer wieder in die Forschung. Für die letzte Folge hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Er ist zudem assoziierter Forscher der Potsdam Embodied Cognition Group an der Universität Potsdam. Die Folge, ausgestrahlt seit dem 2. Juli 2024, heißt „Generative KI und ihre Auswirkungen auf Schönheit und Sexualität“. Oliver Bendel geht darin auf Textgeneratoren und Bildgeneratoren und auf die damit verbundenen ethischen und ästhetischen Herausforderungen ein. Er erwähnt u.a. den American Smile, dem er ein ganzes Booklet mit demselben Namen gewidmet hat, und die Zurückhaltung von ChatGPT beim Bewerten menschlicher Schönheit, dokumentiert in einem weiteren Booklet mit dem Titel „AN AI EXPLAINS BEAUTY“ … Die Folge kann über Spotify gestreamt werden.

Abb.: Eine schöne Alte (Bild: Ideogram)

Werft den Copilot aus dem Cockpit!

Oliver Bendel von der Hochschule für Wirtschaft FHNW hat von Anfang Mai bis Ende Juni 2024 den Copilot von Microsoft getestet. Dabei hat er sich auf Word und PowerPoint konzentriert. Seiner Ansicht nach ist Copilot nicht nur ein unausgereiftes, sondern auch ein schädliches Tool. Zunächst einmal fällt es durch krudes Deutsch auf. So wird dem Benutzer ständig gemeldet, dass Dinge zusammengeführt würden. Wenn es sich auf eine Präsentation bezieht, versucht es dies klarzumachen mit der einleitenden Formulierung „Gemäß der Präsentation“. Manche Anweisungen werden nicht oder falsch verstanden. So wurde eine Rechtschreibprüfung nicht im Dokument, sondern im Prompt durchgeführt. Dabei war ausdrücklich auf das Dokument verwiesen worden. Die Rechtschreibprüfung basiert nicht auf den Regeln des Rechtschreibrats, sondern auf Fantasieregeln. So wurden die Schreibweisen „Bürger:innen“ und „Schraubenzieher:innen“ für richtig befunden. Es dürfte sich bei den Ausführungen zur Gendersprache nicht um Halluzinationen, sondern um (absichtsvoll einprogrammierte) Falschbehauptungen handeln. Insgesamt kann man nur raten, den Copilot aus dem Cockpit zu werfen, in die letzte Reihe zu setzen und dort unschädlich zu machen. Am Flughafen kann man ihn dann abführen.

Abb.: Der Copilot muss noch viel lernen

H@mmur@pi kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish GirlMaori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.

Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)

Maori Girl macht Fortschritte

Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Maori Girl macht Fortschritte (Bild: Ideogram)

Irish Girl macht Fortschritte

Irish Girl, erstellt am 3. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von der Website von ELA. Das GPT scheint die goidelische Sprache aus der keltischen Familie nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Irish Girl wieder in Irish wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Irish Girl macht Fortschritte (Bild: Ideogram)

Cow Whisperer, Horse Whisperer, Dog Whisperer

Am 28. Mai 2024 fand an der Hochschule für Wirtschaft FHNW die Zwischenpräsentation für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er entwickelte drei Anwendungen auf der Basis von GPT-4o, den Cow Whisperer, den Horse Whisperer und den Dog Whisperer. Mit ihnen kann man Körpersprache und Umfeld von Kühen, Pferden und Hunden analysieren. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und Fotos von der Umgebung machen. Die Tests verlaufen bereits sehr vielversprechend. Nick Zbinden führt derzeit Gespräche mit drei menschlichen Flüsterern, also Experten auf diesem Gebiet, die die Körpersprache und das Verhalten der Tiere besonders gut einschätzen und mit ihnen besonders gut umgehen können. Dabei werden auch Fotos – die etwa unterschiedliche Positionen der Ohren oder Köpfe zeigen – von ihnen beschrieben und dann von ihm in die Anwendungen eingespeist. Die Endergebnisse werden im August 2024 vorliegen.

Abb.: Ein Pferdeflüsterer

How Can Generative AI Enhance the Well-being of the Blind?

The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. The Zurich-based scientist presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31232.

Fig.: GenAI for blind people (Image: DALL-E 3)

How Can GenAI Foster Well-being in Self-regulated Learning?

The paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske and Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. Oliver Bendel presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper explores how generative AI (GenAI) can improve the well-being of learners within self-regulated learning (SRL) frameworks in the corporate context. In the ‚GenAI to Support SRL‘ section, it presents three custom versions of ChatGPT aimed at assisting learners. These so-called GPTs demonstrate the GenAI’s potential to actively support learners in SRL and positively influence their well-being. The ‚Discussion‘ and ‚Summary and Outlook‘ sections provide a balanced overview of the opportunities and risks associated with GenAI in the field of learning and highlight directions for future research. The results indicate that GenAI could improve the well-being of learners in SRL through providing personalized guidance, reducing feelings of stress, and increasing motivation and self-efficacy. At the same time, there are several challenges for companies and employees that need to be overcome.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31234.

Fig.: GPTs in the form of VLCs can help students (Image: DALL-E 3)

Neue Features von OpenAI

OpenAI plant neue Features für GPT-4 bzw. ChatGPT. So soll ein Sprachassistent wie Siri oder Alexa entstehen. Dies wäre allerdings kaum eine Nachricht wert, wenn man daran denkt, dass man sich mit ChatGPT und GPTs schon heute sprechen kann, wenn man ein Smartphone verwendet. Eine Möglichkeit ist, dass das multimodale Sprachmodell verstärkt auditive und visuelle Daten analysiert. So könnte es den Tonfall des Benutzers interpretieren. Futurezone machte am 12. Mai 2024 Andeutungen in dieser Richtung: „Bei einem Einsatz im Kundenservice könnte die KI etwa Sarkasmus heraushören.“ (Futurezone, 12. Mai 2024) Das Magazin führte weiter aus, dass das System auch Text in Echtzeit wird „übersetzen können, etwa von Schildern“. „Das könnte mit Googles Lens vergleichbar sein.“ (Futurezone, 12. Mai 2024) Auch solche Funktionen sind allerdings bereits von OpenAI und seinen Partnern bekannt. So erkennt und übersetzt die auf GPT-4 basierende App „Be My Eyes“ u.a. Beschriftungen von Packungen oder Texte in Büchern. Schließlich heißt es in dem Artikel: „Ein Blick in den neuen Code gibt auch einen Hinweis darauf, dass über ChatGPT künftig Anrufe getätigt werden könnten. Wie der Entwickler Ananay Arora auf X schreibt, dürfte die KI sowohl Telefon- als auch Videoanrufe durchführen können.“ (Futurezone, 12. Mai 2024) Dies erinnert wiederum an Google Duplex, ein Projekt von Alphabet, das mit großen Erwartungen gestartet, dann aber versandet war. Was immer am Anfang der Woche von Sam Altmann bekanntgegeben wird – es dürfte mit der Multimodalität des Sprachmodells zusammenhängen.

Abb.: Mit ChatGPT kann man heute schon sprechen

Maori Girl schreibt und spricht Maori

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)

Hi, GenAI

Im Spätsommer 2024 erscheint „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Lexikon ist am 29. April in Produktion gegangen. Erfahrungsgemäß dauert es drei bis vier Monate bis zur Veröffentlichung.

Abb.: Das Cover des Lexikons (Bild: Springer Gabler)

Digital Ethics Girl im Unterricht

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2024, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.

Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)

ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft

Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen​ im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.​“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.

Abb.: Das Buch wird hoffentlich überall auf Interesse stoßen (Bild: DALL-E 3)