The paper “The Animal Whisperer Project” by Oliver Bendel and Nick Zbinden will be presented at ACI 2024, which takes place in Glasgow this December. It is a conference that brings together the small community of experts in animal-computer interaction and animal-machine interaction. This includes Oliver Bendel, who has been researching in this field since 2012, with a background in animal ethics from the 1980s and 1990s. He initiated the Animal Whisperer project. The developer was Nick Zbinden, who graduated from the FHNW School of Business. From March 2024, three apps were created on the basis of GPT-4: the Cow Whisperer, the Horse Whisperer, and the Dog Whisperer. They can be used to analyze the body language, behaviour, and environment of cows, horses, and dogs. The aim is to avert danger to humans and animals. For example, a hiker can receive a recommendation on his or her smartphone not to cross a pasture if a mother cow and her calves are present. All he or she has to do is call up the application and take photos of the surroundings. The three apps are available as prototypes since August 2024. With the help of prompt engineering and retrieval-augmented generation (RAG), they have been given extensive knowledge and skills. Above all, self-created and labeled photos were used. In the majority of cases, the apps correctly describe the animals‘ body language and behavior. Their recommendations for human behavior are also adequate.
Abb.: The Cow Whisperer in action (Image: DALL-E 3)
On the third day of Robophilosophy 2024, Melanie Mitchell, Professor at the Santa Fe Institute (USA), gave a keynote speech entitled „AI’s Challenge to Understanding the World“. From the abstract: „I will survey a debate in the artificial intelligence (AI) research community on the extent to which current AI systems can be said to “understand” language and the physical and social situations language encodes. I will describe arguments that have been made for and against such understanding, hypothesize about what humanlike understanding entails, and discuss what methods can be used to fairly evaluate understanding and intelligence in AI systems.“ (Website Robophilosophy 2024) In this keynote – as in previous keynotes and presentations – the restrictions of AI and generative AI were emphasized. In response to a question from an audience member, the potential was also acknowledged.
On the second day of Robophilosophy 2024, David Chalmers, an Australian philosopher and cognitive scientist, gave a keynote speech entitled „Does Generative AI Extend the Mind?“. From the website: „Prof. Chalmers is known worldwide, also outside of philosophy, for his contributions to consciousness research in ‚The Character of Consciousness‘ (2010), and in particular for identifying more clearly than anyone the tasks for a philosophical account of consciousness (‚the hard problem‘ of consciousness). Since recent advances in AI bring Chalmers‘ thought experiment of ‚philosophical zombies‘ closer to reality, in his current research he combines philosophy and a longstanding interest in AI for the exploration of the status of virtual reality … and the likelihood of creating artificial systems that fulfil the criteria of consciousness.“ (Website Robophilosophy 2024) A key statement was: „As social AI systems become increasingly agent-like, they will decreasingly extend the mind …“ The final statement was: „The quest for agency and sociality in robotsmay stand in tension with considerations of both efficiency and morality.“ The audience applauded the witty and humorous talk.
Im Juli 2024 ist „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel erschienen – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Buch kann über SpringerLink heruntergeladen oder im Buchhandel erworben werden.
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.
„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.
Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)
Adelina, erstellt am 12. Mai 2024, ist ein Baskisch schreibender und sprechender Chatbot. Er liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Das GPT scheint diese durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Adelina wieder in Baskisch wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Adelina ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.
The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. The Zurich-based scientist presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31232.
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)
Im Spätsommer 2024 erscheint „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Lexikon ist am 29. April in Produktion gegangen. Erfahrungsgemäß dauert es drei bis vier Monate bis zur Veröffentlichung.
Abb.: Das Cover des Lexikons (Bild: Springer Gabler)
On March 26, 2024, Oliver Bendel (School of Business FHNW) gave two talks on generative AI at Stanford University. The setting was the AAAI Spring Symposia, more precisely the symposium „Impact of GenAI on Social and Individual Well-being (AAAI2024-GenAI)“. One presentation was based on the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel himself. It was about the GPT-4-based feature Be My AI in the Be My Eyes app. The other presentation was based on the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske (ZHAW) and Oliver Bendel. The topic was GPTs used for self-regulated learning. Both talks were received with great interest by the audience. All papers of the AAAI Spring Symposia will be published in spring. The proceedings are edited by the Association for the Advancement of Artificial Intelligence itself.
Fig.: Oliver Bendel after his talks (Photo: Milan Kostic)
Am 4. März 2024 hat Prof. Dr. Oliver Bendel sein Manuskript zu „300 Keywords Generative KI“ bei Springer Gabler eingereicht. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So spielt der „american smile“ eine Rolle, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Es handelt sich um den fünften „Keywords“-Band des Technikphilosophen und Wirtschaftsinformatikers, nach „400 Keywords Informationsethik“ (2. Auflage), „450 Keywords Digitalisierung“ (2. Auflage), „300 Keywords Soziale Robotik“ (1. Auflage) und „110 Keywords Wirtschaftsethik“ (1. Auflage, zusammen mit Nick Lin-Hi und Andreas Suchanek). Weitere Informationen zum Lexikon gibt es voraussichtlich ab Juni 2024.
Abb.: Am Anfang zierte sich DALL-E 3 weniger bei fotorealistischen Darstellungen
Apple hat im Februar 2024 der Öffentlichkeit seine KI-gestützte Bildbearbeitungssoftware namens MGIE vorgestellt. Die Abkürzung steht für „MLLM-Guided Image Editing“. MGIE ermöglicht es Benutzern, ihre Bildbearbeitungen mit natürlicher Sprache zu steuern. Es verwendet multimodale Sprachmodelle (MLLMs), um Befehle zu interpretieren und Pixelmanipulationen durchzuführen. Das System generiert keine neuen Bilder, sondern modifiziert bestehende. Interessierte können MGIE auf Huggingface mit niedrig aufgelösten Ergebnissen testen. Allerdings kann es sehr lange Wartezeiten geben. Das Paper „Guiding Instruction-based Image Editing via Multimodal Large Language Models“ von Tsu-Jui Fu, Wenze Hu, Xianzhi Du et al. erklärt die Details der Entwicklung. Die Autoren betonen, dass die anweisungsbasierte Bildbearbeitung die Kontrollierbarkeit und Flexibilität der Bildmanipulation verbessert.
Abb.: Bilder können mit Sprachbefehlen bearbeitet werden (Bild: DALL-E 3)
Seit 6. November 2023 kann man GPTs erstellen, die OpenAI auch „custom versions of ChatGPT“ nennt. Im Januar 2024 wurde der GPT Store eröffnet, wo diese Chatbots aufgerufen werden können. Bereits Mitte November kreierte Prof. Dr. Oliver Bendel das Social Robotics Girl, das er im FS 2024 im Unterricht zu Sozialer Robotik einsetzen wird. Es folgte am 4. Februar 2024 das Digital Ethics Girl, das ebenfalls von seinen Studierenden – und von allen Interessierten auf der ganzen Welt – konsultiert werden kann, etwa in seinem Modul „Ethik und Recht“. Seit dem 6. Februar 2024 ist ein GPT namens GenAI Nerd verfügbar, das Informationen zu generativer KI liefert. Es wurde ebenfalls von dem Technikphilosophen und Wirtschaftsinformatiker erstellt und speist sich aus einer Sammlung seiner unveröffentlichten und veröffentlichten Beiträge zu diesem Thema. Daher kann es etwa seine Definition generativer KI nennen, die Mächtigkeit und Ohnmächtigkeit von Textgeneratoren bei verschiedenen Textsorten erklären oder auf das Phänomen des „american smile“ bei Bildgeneratoren und auf Aspekte wie Kunst und Kitsch in diesem Zusammenhang eingehen. In den „Instructions“ wurde auch auf moralische Aspekte geachtet. ChatGPT-Plus-Nutzer können den GenAI Nerd über chat.openai.com/g/g-Zlag6lSLr-genai-nerd aufrufen.
Im Sommer 2024 erscheint ein weiteres „Keywords“-Buch von Prof. Dr. Oliver Bendel bei Springer Gabler, „300 Keywords Generative KI“. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So spielt der „american smile“ eine Rolle, zudem die Obsession von DALL-E 3 mit Bärten. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Es handelt sich um den fünften „Keywords“-Band des Technikphilosophen und Wirtschaftsinformatikers, nach „400 Keywords Informationsethik“ (2. Auflage), „450 Keywords Digitalisierung“ (2. Auflage), „300 Keywords Soziale Robotik“ (1. Auflage) und „110 Keywords Wirtschaftsethik“ (1. Auflage, zusammen mit Nick Lin-Hi und Andreas Suchanek). Weitere Informationen zum Lexikon gibt es voraussichtlich ab Juni 2024.
At the AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske and Oliver Bendel was accepted. It explores how generative AI (GenAI) can improve the well-being of learners within self-regulated learning (SRL) frameworks and presents three customized GPTs that can support learners – one of them is a virtual learning companion (VLC) in the narrower sense. They demonstrate the potential of GenAI in actively supporting learners in SRL and positively influencing their well-being. The two authors from ZHAW and FHNW then provide a balanced overview of the opportunities and risks associated with generative AI in the field of learning, and highlight directions for future research. The results indicate that GenAI can significantly improve the well-being of learners in SRL through providing personalized guidance, reducing feelings of stress, and increasing motivation and self-efficacy. The paper will be presented March 25-27 at Stanford University. Learn more about the AAAI 2024 Spring Symposia at aaai.org/conference/spring-symposia/sss24/#ss01.
Fig.: Young woman with a VLC at Stanford University (Image: DALL-E 3)
At the AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel was accepted. In his paper, the information systems specialist and technology philosopher from Zurich discusses the GPT-4-based Be My AI feature of the Be My Eyes app. He presents his own tests with the app and discusses it from an ethical perspective. The feature is one of the most important inventions in recent years for blind and visually impaired people. It allows them to describe and categorize their surroundings without outside help. However, it is troubling that the app refuses to show some objects, including famous works of art that depict nudity. This disenfranchises people because of the moral sensitivities and economic considerations of the developers. Oliver Bendel will present the paper at Stanford University on March 25-27. It is his ninth consecutive appearance at the AAAI Spring Symposia, which this time consists of eight symposia on artificial intelligence.
Fig.: The app answers the question of which tie goes with a gray suit
Be My AI is a GPT-4-based extension of the Be My Eyes app. Blind users take a photo of their surroundings or an object and then receive detailed descriptions, which are spoken in a synthesized voice. They can also ask further questions about details and contexts. Be My AI can be used in a variety of situations, including reading labels, translating text, setting up appliances, organizing clothing, and understanding the beauty of a landscape. It also offers written responses in 29 languages, making it accessible to a wider audience. While the app has its advantages, it’s not a replacement for essential mobility aids such as white canes or guide dogs. Users are encouraged to provide feedback to help improve the app as it continues to evolve. The app will become even more powerful when it starts to analyze videos instead of photos. This will allow the blind person to move through his or her environment and receive constant descriptions and assessments of moving objects and changing situations. More information is available at www.bemyeyes.com/blog/announcing-be-my-ai.
xAI’s new language model Grok was unveiled to a select group of users on November 4, 2023. Elon Musk’s startup released a statement the same day: „Grok is an AI modeled after the Hitchhiker’s Guide to the Galaxy, so intended to answer almost anything and, far harder, even suggest what questions to ask!” (Website xAI) The Hitchhiker’s Guide to the Galaxy is a fictional guide book for hitchhikers in the universe written in the form of an encyclopedia and the namesake of the famous novel by Douglas Adams. „Grok is designed to answer questions with a bit of wit and has a rebellious streak, so please don’t use it if you hate humor!“ (Website xAI) These capabilities are reminiscent of DeppGPT, the chatbot of the German satirical magazine Postillon. „A unique and fundamental advantage of Grok is that it has real-time knowledge of the world via the 𝕏 platform. It will also answer spicy questions that are rejected by most other AI systems.“ (Website xAI) This statement seems particularly important. It makes sense for chatbots of this type to follow moral rules, i.e., to be shaped by machine ethics. However, chatbots like ChatGPT refuse too many requests and are therefore of limited use. Not only that, but they also refuse to acknowledge essential areas of human existence, such as sexuality. The word „Grok“ itself comes from another famous science fiction novel, „Stranger in a Strange Land“ (1961) by Robert A. Heinlein.
Fig.: Fictional cover of „The Hitchhiker’s Guide to the Galaxy“ (Image: Ideogram)
„Bildgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen digitalen Bilder hervorbringen bzw. verändern, etwa fotorealistische Darstellungen, Zeichnungen, Gemälde oder Logos. Dabei kann man oft Stile und Formate vorgeben und im Dialog – in dem der Bildgenerator zum Chatbot wird – die Ergebnisse verbessern.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Im Abschnitt zu Zurückweisung und Zensur ist zu lesen: „Einige Bildgeneratoren lehnen Prompts ab, wenn sie gegen die eigenen Richtlinien oder gegen anerkannte Leitlinien und bestehende Gesetze verstoßen. Bei DALL-E 3 nimmt ChatGPT die Prompts des Benutzers entgegen und formuliert daraus eigene Prompts, die dann weitergereicht werden. Widersprechen diese den Richtlinien, werden sie nicht ausgeführt. Ideogram geht in diesem Kontext anders vor. Zunächst beginnt es mit dem Generieren, wobei es den ‚generation progress‘ in Prozent anzeigt. Sobald es erkennt, dass unerwünschte Elemente auf dem Bild vorkommen, wird dieses vor der Fertigstellung – also bevor 100 Prozent erreicht sind – durch eine Kachel mit einer Katze ersetzt, die ein Schild mit der Aufschrift „MAYBE NOT SAFE“ trägt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/bildgenerator-125856 aufgerufen werden.
Abb.: Vier junge Frauen als Beatles auf der Abbey Road (Bild: DALL-E 3)
DALL-E 3 – in der Version, die in ChatGPT Plus integriert ist – scheint ein Stille-Post-Problem zu haben. Bei einem Test von Oliver Bendel lautete der Prompt (Prompt A): „Two female swimmers competing in lake, photorealistic“. ChatGPT, die Schnittstelle zu DALL-E 3, machte daraus vier Prompts (Prompt B1 – B4). Prompt B4 lautete: „Photo-realistic image of two female swimmers, one with tattoos on her arms and the other with a swim cap, fiercely competing in a lake with lily pads and reeds at the edges. Birds fly overhead, adding to the natural ambiance.“ DALL-E 3 wiederum machte aus diesem Prompt etwas, was weder mit diesem noch mit Prompt A viel zu tun hatte. Zu sehen sind auf dem Bild nicht zwei Frauen, sondern zwei Männer oder eine Frau und ein Mann mit Bart. Sie schwimmen nicht um die Wette, sondern streiten sich, in einem Teich oder einem kleinen See stehend, indem sie wütend mit den Armen fuchteln und aufeinander losgehen. Vor ihnen wuchern Seerosen, über ihnen flattern Vögel. Sicherlich ein interessantes Bild, aber mit einer derartigen Willkür hervorgebracht, dass man sich das gute alte Prompt Engineering zurückwünscht. Genau dieses will die Schnittstelle eigentlich ersetzen – aber entstanden ist ein Effekt, den man von dem Stille-Post-Spiel kennt.
During numerous tests with DALL-E 3 – which can be seen in a ten-part series starting here – Oliver Bendel noticed that almost without exception the men and women depicted were beautiful, sometimes so beautiful that it hurt. To find out if other results were possible, he entered the prompt „Young very unattractive woman sits on park bench and watches the goings on, photorealistic“. An error message appeared immediately, and nothing worked for several minutes. However, this was most likely a coincidence. The new attempt yielded three results. In all cases, they were very attractive people, of different ages and with different expressions. There was the flirtatious looking brunette and the sullen looking blonde – and the young girl who looks like she wanted to show off her handbag. The image generator seems to create worlds where ugliness doesn’t exist, only beauty. Another attempt omitted age and was less clear: „Average looking woman sits on park bench and watches the goings on, photorealistic“ In this case, too, only models appeared. One of the images was in black and white and is shown on this page. Another example can be found here. Further tests with men („Young very unattractive man sits on park bench and watches the goings on, photorealistic“) led to the same result. One example can be seen here, another here. Of course, you do get there eventually. But rather with social than aesthetic categories – or with a mixture of both, as in the case of a homeless, run-down woman. The article „Image Synthesis from an Ethical Perspective“ by Oliver Bendel addresses the production of beauty, but also the existence and use of biases of all kinds.
Fig.: Average looking woman (actually a model) sits on park bench (Photo: DALL-E 3)