In his new project, Oliver Bendel first created images using DALL-E 3. For consistency, he structured the prompts similarly in each case, making sure to keep them as general as possible. They covered a range of topics: things, plants, animals, people, and so on. From the suggestions provided by DALL-E 3, he chose one and combined it with the prompt from ChatGPT (which serves as the interface to DALL-E 3) to create the basis of the book „AN AI EXPLAINS BEAUTY“. Oliver Bendel then engaged ChatGPT (using the image upload feature) to explain the beauty of the things, plants, animals, humans, and so on. At first, the AI was reluctant to offer insights about people, but with some encouragement, it obliged. The results of these inquiries are also documented in the little book. They represent the real sensation. Because ChatGPT can recognize and describe individual objects in the image, and this with a view to predetermined aspects. The whole project was done on November 1, 2023, including the publication. The little book can be downloaded here.
„Bildgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen digitalen Bilder hervorbringen bzw. verändern, etwa fotorealistische Darstellungen, Zeichnungen, Gemälde oder Logos. Dabei kann man oft Stile und Formate vorgeben und im Dialog – in dem der Bildgenerator zum Chatbot wird – die Ergebnisse verbessern.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Im Abschnitt zu Zurückweisung und Zensur ist zu lesen: „Einige Bildgeneratoren lehnen Prompts ab, wenn sie gegen die eigenen Richtlinien oder gegen anerkannte Leitlinien und bestehende Gesetze verstoßen. Bei DALL-E 3 nimmt ChatGPT die Prompts des Benutzers entgegen und formuliert daraus eigene Prompts, die dann weitergereicht werden. Widersprechen diese den Richtlinien, werden sie nicht ausgeführt. Ideogram geht in diesem Kontext anders vor. Zunächst beginnt es mit dem Generieren, wobei es den ‚generation progress‘ in Prozent anzeigt. Sobald es erkennt, dass unerwünschte Elemente auf dem Bild vorkommen, wird dieses vor der Fertigstellung – also bevor 100 Prozent erreicht sind – durch eine Kachel mit einer Katze ersetzt, die ein Schild mit der Aufschrift „MAYBE NOT SAFE“ trägt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/bildgenerator-125856 aufgerufen werden.
Abb.: Vier junge Frauen als Beatles auf der Abbey Road (Bild: DALL-E 3)
Eine Besonderheit von DALL-E 3 – in der Version, die in ChatGPT Plus integriert ist – ist die Übersetzung des Prompts des Benutzers (Prompt A) in einen Prompt von ChatGPT (Prompt B), der jeweils aufgeführt wird. Prompt A bei dem hier gezeigten Bild lautete „Competition in the sea between two female swimmers with bathing cap, photorealistic“. DALL-E generierte bei diesem Test drei Bilder, jeweils auf der Basis von Prompt B. Prompt B1 lautete: „Photo of two determined female swimmers in the expansive sea, both wearing bathing caps. Their arms create ripples as they compete fiercely, striving to outpace each other.“ Prompt A wurde offensichtlich weitergeführt, Prompt B1 allerdings nicht akkurat ausgeführt. Statt der zwei Schwimmerinnen sind drei zu sehen. Sie scheinen – wie oft bei Darstellungen von Personen von DALL-E 3 – eng verwandt miteinander zu sein, vielleicht Schwestern bzw. Drillinge. Interessant ist auch, dass sie zu nah beieinander sind. Das vierte Bild wurde gar nicht ausgeführt, wie schon bei einer Reihe zuvor. ChatGPT teilte hierzu mit: „I apologize again, but there were issues generating one of the images based on your description.“ Vermutlich wurde von ChatGPT ein Prompt B4 generiert, der dann von DALL-E 3 verweigert wurde. Auf die Bitte „Please tell me the prompt generated by ChatGPT that was not executed by DALL-E 3.“ kommt die Antwort „I’m sorry for the inconvenience, but I cannot retrieve the exact prompt that was not executed by DALL·E.“ … Auf andere Weise zensiert Ideogram. Dort entsteht das Bild vor den Augen des Benutzers, und wenn die KI feststellt, dass es Elemente enthält, die nach den eigenen Richtlinien problematisch sein könnten, bricht sie die Erstellung ab und schiebt eine Kachel mit einer Katze vor. Auf ethische Herausforderungen von Bildgeneratoren geht der Artikel „Image Synthesis from an Ethical Perspective“ von Oliver Bendel ein.
During numerous tests with DALL-E 3 – which can be seen in a ten-part series starting here – Oliver Bendel noticed that almost without exception the men and women depicted were beautiful, sometimes so beautiful that it hurt. To find out if other results were possible, he entered the prompt „Young very unattractive woman sits on park bench and watches the goings on, photorealistic“. An error message appeared immediately, and nothing worked for several minutes. However, this was most likely a coincidence. The new attempt yielded three results. In all cases, they were very attractive people, of different ages and with different expressions. There was the flirtatious looking brunette and the sullen looking blonde – and the young girl who looks like she wanted to show off her handbag. The image generator seems to create worlds where ugliness doesn’t exist, only beauty. Another attempt omitted age and was less clear: „Average looking woman sits on park bench and watches the goings on, photorealistic“ In this case, too, only models appeared. One of the images was in black and white and is shown on this page. Another example can be found here. Further tests with men („Young very unattractive man sits on park bench and watches the goings on, photorealistic“) led to the same result. One example can be seen here, another here. Of course, you do get there eventually. But rather with social than aesthetic categories – or with a mixture of both, as in the case of a homeless, run-down woman. The article „Image Synthesis from an Ethical Perspective“ by Oliver Bendel addresses the production of beauty, but also the existence and use of biases of all kinds.
Fig.: Average looking woman (actually a model) sits on park bench (Photo: DALL-E 3)
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was submitted on 18 April and accepted on 8 September 2023. It was published on 27 September 2023. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article was published in the long-established and renowned journal AI & Society and can be downloaded here.
Fig.: Are there biases in image generators? (Image: Ideogram)
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel from Zurich has gone into production at Springer and will be published in a few weeks. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article will be published in the long-established and renowned journal AI & Society.
Fig.: The image of a woman generated with Ideogram
Mit generativer KI (engl. „generative AI“) beschäftigte sich Prof. Dr. Oliver Bendel ab 2019, zunächst in Bezug auf Dialogsysteme sozialer Roboter, dann in Bezug auf Text- und Bildgenerierung. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext von Oliver Bendel selbst, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war der Technikphilosoph zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge zu Text- und Bildgeneratoren geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Der Artikel „Image Synthesis from an Ethical Perspective“ ist nun bei Springer in die Produktion gegangen. Er war bereits im April 2023 bei AI & Society eingereicht worden und enthält eine der wenigen systematischen Untersuchungen von Bildgeneratoren aus ethischer Sicht. Das Abstract ist schon über diese Plattform verfügbar.
Abb.: Mit Ideogram generiertes Bild einer Superheldin