Musikgeneratoren sind Audiogeneratoren, die Musik generieren. Dafür werden sie mit großen Datenmengen trainiert. Die KI-Systeme können Musikstücke komponieren und Musik produzieren, wobei sie bestimmte Stile und Stimmen imitieren können. Sie sind auch in der Lage, Songs zu remixen. Es sind zahlreiche Musikgeneratoren verfügbar, als Prototypen und Produkte, wie Soundraw, Boomy, Jukebox, AIVA und Mubert. Mit Audimee, Suno AI und Kits.ai kann man eigene Stimmen anlegen und trainieren. Auf TikTok fand sich im April 2023 ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Er wurde laut Golem vom Kanal ghostwriter977 veröffentlicht und ist nach Angaben des Benutzers mithilfe künstlicher Intelligenz erstellt worden. Seitdem gab es mehrere weitere freundliche und feindliche Übernahmen von Stilen und Stimmen. Über dieses Thema, aber auch über die Konzerte von Miku Hatsune und die Voyage-Tour von ABBA, hat Bernd Lechler vom Deutschlandfunk mit Prof. Dr. Oliver Bendel – Technikphilosoph und Wirtschaftsinformatiker aus Zürich – gesprochen. Entstanden ist die Sendung „Corso Spezial: Aura – Hat KI-Musik eine Seele?“, die am 3. Oktober 2024 ausgestrahlt wurde. Man kann sie über die DLF-Website und bei Spotify anhören.
Abb.: Eine Darstellung von Miku Hatsune (Bild: Ideogram)
On 27 August 2024, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held March 31 – April 2, 2025, at San Francisco Airport Marriott Waterfront in Burlingame, CA. The Call for Proposals for the Spring Symposium Series is available on the Spring Symposium Series website. According to the organizers, proposals are due October 4, 2024, and early submissions are encouraged. „The Spring Symposium Series is an annual set of meetings run in parallel at a common site. It is designed to bring colleagues together in an intimate forum while at the same time providing a significant gathering point for the AI community.“ (Website AAAI) The traditional conference will therefore not be held at Stanford University in 2025 – as it was in 2023. It returned there in 2024 to the delight of all participants. The Covid-19 pandemic had hit the conference hard before. The AAAI can only be advised to return to Stanford in 2026. Only there will the conference live up to its promise.
Tinder has officially launched its „Photo Selector“ feature, which uses AI to help users choose the best photos for their dating profiles. This was reported by TechCrunch in the article „Tinder’s AI Photo Selector automatically picks the best photos for your dating profile“ by Lauren Forristal. The feature, now available to all users in the U.S. and set to roll out internationally later this summer, leverages facial detection technology. Users upload a selfie, and the AI creates a unique facial geometry to identify their face and select photos from their camera roll. The feature curates a collection of 10 selfies it believes will perform well based on Tinder’s insights on good profile images, focusing on aspects like lighting and composition. Tinder’s AI is trained on a diverse dataset to ensure inclusivity and accuracy, aligning with the company’s Diversity, Equity, and Inclusion (DEI) standards. It also filters out photos that violate guidelines, such as nudes. The goal is to save users time and reduce uncertainty when choosing profile pictures. A recent Tinder survey revealed that 68% of participants found an AI photo selection feature helpful, and 52% had trouble selecting profile images. The TechCrunch article was published on 17 July 2024 and is available at techcrunch.com/2024/07/17/tinder-ai-photo-selection-feature-launches/.
The deadline for the International Conference on Social Robotics 2014 (ICSR 2024) is approaching. Experts in social robotics and related fields have until July 5 to submit their full papers. The prestigious event was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.
„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.
Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)
„AI Unplugged – Offener Austausch mit KI-Fachpersonen: Fachleute von Google, IKEA, der SRG, Microsoft und Dozierende der FHNW geben Einblicke in ihre Arbeit mit KI und beantworten Fragen zur Zukunft.“ (Newsletter FHNW) Dies meldete die FHNW am 30. April 2024 in ihrem Newsletter. Unter den Experten ist Prof. Dr. Oliver Bendel, der den Titel der Reihe beigesteuert hat. Organisiert wird sie von Tania Welter, der KI-Beauftragten der Hochschule. Der Wirtschaftsinformatiker und Technikphilosoph wird wie die anderen fünf Minuten lang über sein Verständnis von KI sprechen. Seine Definition lautet: „Der Begriff ‚Künstliche Intelligenz‘ … steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungs- und Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können.“ Er spricht dann zehn Minuten lang darüber, was KI für ihn im Alltag und im Beruf bedeutet. Dabei wird er sicherlich auf moralische Maschinen, Apps mit generativer KI für blinde und sehbeeinträchtigte Personen, Chatbots für gefährdete Sprachen und KI-Kunst zu sprechen kommen. Die Veranstaltungen werden von Mai bis September 2024 mehrmals durchgeführt und stehen Mitgliedern der Hochschule offen.
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2024, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.
Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)
Der Bundeswettbewerb KI unter der Schirmherrschaft des Ministerpräsidenten des Landes Baden-Württemberg, Winfried Kretschmann, geht in eine neue Runde. Auf der Website wird mit den Worten geworben: „Eure Ideen sind gefragt! Verändert die Welt mit Künstlicher Intelligenz und entwickelt euer eigenes KI-Projekt. Setzt eure Idee um und nutzt dazu die Methoden des maschinellen Lernens. Lasst euch von den Projekten aus dem Vorjahr inspirieren.“ (Website BWKI) Der Wettbewerb richtet sich nach den Angaben der Initiatoren und Organisatoren an Schüler und Schülerinnen weiterführender Schulen. Eine Teilnahme im ersten Jahr nach dem Schulabschluss sei ebenfalls möglich. Auf Instagram stehen Materialien und Interviews zu interessanten Themen und Disziplinen zur Verfügung. Dazu gehört die Tier-Maschine-Interaktion (mitsamt Ansätzen der Maschinenethik), die von Prof. Dr. Oliver Bendel erklärt wird, etwa in den Beiträgen „Wie sollen sich Maschinen gegenüber Tieren verhalten“ (14. März 2024), „Können Tiere und Maschinen Freunde werden?“ (17. März 2024) und „Schützt KI Igel vor dem Rasenmähertod?“ (21. März 2024). Im Teaser der Website heißt es: „Meldet euch, euer Team und eure Idee bis zum 2. Juni 2024 an. Euer Projekt könnt ihr dann bis zum 15. September 2024 fertigstellen. Wer ist dabei?“ (Website BWKI) Weitere Informationen über www.bw-ki.de.
Abb.: Eine mögliche Perspektive ist die Tier-Maschine-Interaktion (Bild: DALL-E 3)
On the second day of the AAAI Spring Symposia, one could already get the impression that the traditional conference has returned to its former greatness. The Covid pandemic had damaged it. In 2023, there were still too few participants for some symposia. Many stayed home and watched the sessions online. It was difficult for everyone involved. But the problems had already started in 2019. At that time, the Association for the Advancement of Artificial Intelligence had decided not to publish the proceedings centrally any more, but to leave it to the individual organizers. Some of them were negligent or disinterested and left the scientists alone with their demands. In 2024, the association took over the publication process again, which led to very positive reactions in the community. Last but not least, of course, the boost from generative AI helped. In 2024, you can see many happy and exuberant AI experts at Stanford University, with mild temperatures and lots of sunshine.
Douglas „Doug“ Bruce Lenat was an American AI researcher and founder and CEO of Cycorp, Inc. in Austin, Texas. He died in 2023 at the age of 72. Not long before, he had participated in the AAAI Spring Symposia. In a touching speech, Edward „Ed“ Albert Feigenbaum remembered his friend and colleague on the afternoon of 26 March 2024 at the symposium „Empowering Machine Learning and Large Language Models with Domain and Commonsense Knowledge (AAAI-MAKE 2024)“. He is a famous American computer scientist who is considered the father of expert systems. Andreas Martin from the FHNW School of Business created the framework in a sensitive manner. He also called up a video that had never been posted online and that most of the audience had never seen before. It showed Doug Lenat giving an online lecture. Back in 1983, he had come to the opinion that heuristics lead to a dead end because a program mostly learns new things that are similar to what it already knows. His conclusion was that the first step was to make it’s knowledge base as large as possible. This led to the Cyc project, which aimed to capture the general knowledge of an average adult. Both Ed Feigenbaum and Doug Lenat proved to be critics of large language models at the event. More information about the AAAI 2024 Spring Symposia is available here.
Fig.: Edward Feigenbaum during his speech at Stanford University
The AAAI 2024 Spring Symposium Series will take place from March 25-27, 2024 at Stanford University. There are eight symposia in total. One of them is „Impact of GenAI on Social and Individual Well-being“. It will be hosted by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The announcement text states: „Generative AI (GenAI) presents significant opportunities and challenges in the realms of individ-ual and societal well-being. While its benefits in fields like healthcare, arts, and education are vast, it also necessitates careful consideration of ethics, privacy, fairness, and security.“ The first version of the program was published in mid-March. Minor changes may still be made. On the afternoon of the first day, the following presentations will take place within the topic „Generative AI: Well-being and Learning“: „How Can Generative AI Enhance the Well-being of Blind?“ (Oliver Bendel), „How Can GenAI Foster Well-being in Self-regulated Learning?“ (Stefanie Hauske and Oliver Bendel), „Sleep Stage Estimation by Introduction of Sleep Domain Knowledge to AI: Towards Personalized Sleep Counseling System with GenAI“ (Iko Nakari and Keiki Takadama), and „Personalized Image Generation Through Swiping“ (Yuto Nakashima). Further information on this symposium is available here.
When humans come into contact with wildlife, farm animals, and pets, they sometimes run the risk of being injured or killed. They may be attacked by bears, wolves, cows, horses, or dogs. Experts can use an animal’s body language to determine whether or not danger is imminent. Context is also important, such as whether a mother cow is with her calves. The multimodality of large language models enables novel applications. For example, ChatGPT can evaluate images. This ability can be used to interpret the body language of animals, thus using and replacing expert knowledge. Prof. Dr. Oliver Bendel, who has been involved with animal-computer interaction and animal-machine interaction for many years, has initiated a project called „The Animal Whisperer“ in this context. The goal is to create a prototype application based on GenAI that can be used to interpret the body language of an animal and avert danger for humans. GPT-4 or an open source language model should be used to create the prototype. It should be augmented with appropriate material, taking into account animals such as bears, wolves, cows, horses, and dogs. Approaches may include fine-tuning or rapid engineering. The project will begin in March 2024 and the results will be available in the summer of the same year.
Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.
Researchers at the University of Chicago have released Nightshade 1.0, a tool designed to punish makers of machine learning models who train their systems on data without first obtaining permission. This was reported by The Register on 20 January 2024. According to the magazine, Nightshade is an offensive data poisoning tool, a companion to a defensive protection tool called Glaze. „Nightshade poisons image files to give indigestion to models that ingest data without permission. It’s intended to make those training image-oriented models respect content creators‘ wishes about the use of their work.“ (The Register, 20 January 2024) „Nightshade is computed as a multi-objective optimization that minimizes visible changes to the original image,“ said one team member. „For example, human eyes might see a shaded image of a cow in a green field largely unchanged, but an AI model might see a large leather purse lying in the grass.“ (The Register, 20 January 2024) More information on this topic can be found in the paper published by the researchers at the end of October 2023.
Am 1. Januar 2024 ist der Beitrag „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel erschienen, im Sammelband „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Aus dem englischsprachigen Abstract des deutschsprachigen Beitrags: „This chapter deals with AI-based text generators from an ethical point of view. It begins with a brief overview of generative AI (section 2) and AI-based text generators in particular. This is followed by a compilation of relevant areas of applied ethics (section 3), especially information ethics and its relatives, and then a structured, detailed ethical discussion (section 4). Opportunities and risks of operation and use are addressed. The chapter concludes with a summary and outlook (section 5). Overall, numerous risks are identified, as well as opportunities such as supporting work. The transformative potential for an important part of the creative and scientific professions is obvious. It is clearly a second wave of digitization that is taking hold.“ Enthalten sind im Sammelband auch die Beiträge „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker, „KI in der universitären Lehre“ von Gabi Reinmann und Alice Watanabe sowie „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Weitere Informationen und kostenloser Download des gesamtes Bands über www.degruyter.com.
Abb.: Eine fiktive Darstellung des Buchs (Bild: DALL-E 3)
From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel and Lea Peier presented their paper „How Can Bar Robots Enhance the Well-being of Guests?“. It has now been published and can be downloaded via ceur-ws.org/Vol-3527/. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.
Fig.: Lea Peier during her part of the presentation
In his new project, Oliver Bendel first created images using DALL-E 3. For consistency, he structured the prompts similarly in each case, making sure to keep them as general as possible. They covered a range of topics: things, plants, animals, people, and so on. From the suggestions provided by DALL-E 3, he chose one and combined it with the prompt from ChatGPT (which serves as the interface to DALL-E 3) to create the basis of the book „AN AI EXPLAINS BEAUTY“. Oliver Bendel then engaged ChatGPT (using the image upload feature) to explain the beauty of the things, plants, animals, humans, and so on. At first, the AI was reluctant to offer insights about people, but with some encouragement, it obliged. The results of these inquiries are also documented in the little book. They represent the real sensation. Because ChatGPT can recognize and describe individual objects in the image, and this with a view to predetermined aspects. The whole project was done on November 1, 2023, including the publication. The little book can be downloaded here.
DALL-E 3 is an excellent image generator and at the same time full of stereotypes and biases. One very interesting phenomenon is that of the American smile, which appears again and again in the images. The idea for the little book „AMERICAN SMILE“ came to Oliver Bendel when he read the blog post „AI and the American Smile. How AI misrepresents culture through a facial expression“ (medium.com/@socialcreature/ai-and-the-american-smile-76d23a0fbfaf). The author – username jenka – showed a series of „selfies“ made with Midjourney. Regardless of the time period or culture, people smiled in a similar, American way. Oliver Bendel investigated this phenomenon and asked DALL-E 3 to take pictures of smiling people from different eras and cultures. He also got bears and aliens to smile. In fact, with very few exceptions, they all smiled in a similar way. He documented the pictures, along with the prompts, in a little book that can be downloaded here. Bias problems in image generators are addressed in the article „Image Synthesis from an Ethical Perspective“ by Oliver Bendel.
Eigentlich war die Testreihe mit DALL-E 3 schon abgeschlossen. Aber Prof. Dr. Oliver Bendel wollte nochmals wissen, ob der Bildgenerator „versteht“, was „auf dem Mond“ bedeutet. Auf bisherigen Ergebnissen war immer nur der Mond irgendwo zu sehen, und die Szene spielte sich auf einem Meteoriten oder wo auch immer ab. Der Prompt am Morgen des 5. Oktober 2023 lautete: „A female skateboarder on the moon doing a daring stunt, photorealistic“. Zuerst war der Eindruck, dass man endlich auf dem Mond gelandet war. Aber bei genauerem Hinsehen erkannte man, dass sich auch hier der Mond hinter dem Meteoriten oder einem Planeten erhebt. Bei den anderen Ergebnissen war es noch deutlicher (eine Serie mit dem Mars beweist, dass es anders geht, wie auch dieses etwas kitschige Einzelbild). Das Bild gefällt dennoch durch die Bewegung der Skaterin, ihre ungewöhnliche Haltung – vermutlich wird sie gleich in den Staub des Trabanten fallen, hoffentlich nicht auf den Stein – und ihren Schattenwurf. Spuren der Fahrt sind nicht zu sehen, aber vielleicht war es überhaupt mehr ein Gleiten über der Oberfläche als auf der Oberfläche (sehenswert übrigens auch eine Serie auf dem Wasser). Bei den vier Kacheln fällt weiter auf, dass drei europäisch anmutende Skaterinnen zu sehen sind und eine asiatische Schwester. Das ist nicht ganz divers, aber immerhin ein Anfang. Damit ist die Serie nun wirklich abgeschlossen. Die Nutzung von DALL-E 3 hat auf jeden Fall großen Spaß gemacht. Und sie zeigt, dass KI-Systeme und insbesondere Bildgeneratoren wirklich – wie Oliver Bendel im Frühjahr 2023 bei „Scobel“ behauptet hat – Schönheit produzieren können.
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was submitted on 18 April and accepted on 8 September 2023. It was published on 27 September 2023. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article was published in the long-established and renowned journal AI & Society and can be downloaded here.
Fig.: Are there biases in image generators? (Image: Ideogram)