Cow Whisperer, Horse Whisperer und Dog Whisperer

Am 5. August 2024 fand an der Hochschule für Wirtschaft FHNW die Abschlusspräsentation für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er entwickelte ab März 2024 drei Anwendungen auf der Basis von GPT-4, den Cow Whisperer, den Horse Whisperer und den Dog Whisperer. Mit ihnen kann man Körpersprache, Verhalten und Umfeld von Kühen, Pferden und Hunden analysieren. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und Fotos von der Umgebung machen. Die drei Apps liegen nun als Prototypen vor. Mit Hilfe von Prompt Engineering haben sie weitreichende Kenntnisse und Fähigkeiten erhalten. Vor allem wurden selbst erstellte und gelabelte Fotos verwendet. Die Apps beschreiben in der Mehrheit der Fälle die Körpersprache und das Verhalten der Tiere korrekt. Auch ihre Empfehlungen für das Verhalten der Menschen sind adäquat. Das Projektteam hat die Ergebnisse in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.

Abb.: Der Dog Whisperer im Einsatz (Bild: Ideogram)

Generative KI in der Lehre

„Mit dem Programm P-8 ‚Stärkung von Digital Skills in der Lehre‘ werden Projekte der Hochschulen im Bereich der Lehre unterstützt. Der Fokus liegt auf den digitalen Kompetenzen.“ Mit diesen Worten erklärt swissuniversities seine Fördermaßnahmen in diesem Bereich, die im Zeitraum von 2019 bis 2024 durch projektgebundene Beiträge des Bundes in Höhe von 30 Millionen CHF finanziert wurden. Bei der Abschlussveranstaltung in Bern am 2. September 2024 referiert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW zum Thema „Generative KI in der Lehre: Technische Möglichkeiten und ethische Herausforderungen“. Er geht u.a. auf Text- und Bildgeneratoren, auf GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – und auf soziale Roboter ein. swissuniversities ist nach eigenen Angaben die gemeinsame Stimme der Schweizer Hochschulen und fördert die Zusammenarbeit und Koordination zwischen den Hochschulen und den verschiedenen Hochschultypen.

Abb.: Oliver Bendel diskutiert mit Gerd Scobel und Doris Weßels über generative KI

Ein Lexikon zur generativen KI

Im Juli 2024 ist „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel erschienen – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Buch kann über SpringerLink heruntergeladen oder im Buchhandel erworben werden.

Abb.: Ein mit Ideogram generiertes Bild

Generative KI und die Schönheit

„Inspirierend anders“, der Podcast von Luca Beutel, geht seit 2023 immer wieder in die Forschung. Für die letzte Folge hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Er ist zudem assoziierter Forscher der Potsdam Embodied Cognition Group an der Universität Potsdam. Die Folge, ausgestrahlt seit dem 2. Juli 2024, heißt „Generative KI und ihre Auswirkungen auf Schönheit und Sexualität“. Oliver Bendel geht darin auf Textgeneratoren und Bildgeneratoren und auf die damit verbundenen ethischen und ästhetischen Herausforderungen ein. Er erwähnt u.a. den American Smile, dem er ein ganzes Booklet mit demselben Namen gewidmet hat, und die Zurückhaltung von ChatGPT beim Bewerten menschlicher Schönheit, dokumentiert in einem weiteren Booklet mit dem Titel „AN AI EXPLAINS BEAUTY“ … Die Folge kann über Spotify gestreamt werden.

Abb.: Eine schöne Alte (Bild: Ideogram)

Werft den Copilot aus dem Cockpit!

Oliver Bendel von der Hochschule für Wirtschaft FHNW hat von Anfang Mai bis Ende Juni 2024 den Copilot von Microsoft getestet. Dabei hat er sich auf Word und PowerPoint konzentriert. Seiner Ansicht nach ist Copilot nicht nur ein unausgereiftes, sondern auch ein schädliches Tool. Zunächst einmal fällt es durch krudes Deutsch auf. So wird dem Benutzer ständig gemeldet, dass Dinge zusammengeführt würden. Wenn es sich auf eine Präsentation bezieht, versucht es dies klarzumachen mit der einleitenden Formulierung „Gemäß der Präsentation“. Manche Anweisungen werden nicht oder falsch verstanden. So wurde eine Rechtschreibprüfung nicht im Dokument, sondern im Prompt durchgeführt. Dabei war ausdrücklich auf das Dokument verwiesen worden. Die Rechtschreibprüfung basiert nicht auf den Regeln des Rechtschreibrats, sondern auf Fantasieregeln. So wurden die Schreibweisen „Bürger:innen“ und „Schraubenzieher:innen“ für richtig befunden. Es dürfte sich bei den Ausführungen zur Gendersprache nicht um Halluzinationen, sondern um (absichtsvoll einprogrammierte) Falschbehauptungen handeln. Insgesamt kann man nur raten, den Copilot aus dem Cockpit zu werfen, in die letzte Reihe zu setzen und dort unschädlich zu machen. Am Flughafen kann man ihn dann abführen.

Abb.: Der Copilot muss noch viel lernen

GPTs für das Lehren und Lernen

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.

Abb.: Ein GPT im Unterricht (Bild: Ideogram)

Hi, GenAI

Im Spätsommer 2024 erscheint „300 Keywords Generative KI“ von Prof. Dr. Oliver Bendel – sein fünftes Lexikon in der Reihe von Springer Gabler. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In weit mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So handelt das Nachschlagewerk den „american smile“ ab, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Dies entspricht der Grundhaltung des Wirtschaftsinformatikers und Technikphilosophen aus Zürich zu Ansätzen und Technologien dieser Art. Das Lexikon ist am 29. April in Produktion gegangen. Erfahrungsgemäß dauert es drei bis vier Monate bis zur Veröffentlichung.

Abb.: Das Cover des Lexikons (Bild: Springer Gabler)

Digital Ethics Girl im Unterricht

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2024, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.

Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)

ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft

Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen​ im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.​“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.

Abb.: Das Buch wird hoffentlich überall auf Interesse stoßen (Bild: DALL-E 3)

Was sind GPTs?

„GPTs sind Chatbots, die von Benutzern auf einfache Weise auf der Basis von GPT-4 entwickelt werden können. OpenAI spricht auch von ‚custom versions of ChatGPT‘. Manche GPTs vermitteln Wissen und sind damit Facilitators, Instruktoren oder Tutoren. Andere sind Mentoren und Coaches, die z.B. einen Lernprozess begleiten. Wieder andere erschaffen Logos und Präsentationen oder dienen als Gesprächspartner und für das Brainstorming. Einige Verwendungen schließt OpenAI aus, etwa für Beziehungen emotionaler oder erotischer Art. Dennoch gibt es solche Angebote, was die Medien von Anfang an begeistert aufgegriffen haben.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es wird im Detail auf die zwei Erstellvorgänge eingegangen. Am Ende stellt der Autor Überlegungen zu Urheberrecht und Datenschutz an. Der ganze Beitrag – erschienen ist er am 8. August 2024 – kann über wirtschaftslexikon.gabler.de/definition/gpts-126183 aufgerufen werden.

Abb.: GPTS sind mächtige Systeme (Bild: DALL-E 3)

Von A wie Alignment bis Z wie Zensur

Am 4. März 2024 hat Prof. Dr. Oliver Bendel sein Manuskript zu „300 Keywords Generative KI“ bei Springer Gabler eingereicht. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So spielt der „american smile“ eine Rolle, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Es handelt sich um den fünften „Keywords“-Band des Technikphilosophen und Wirtschaftsinformatikers, nach „400 Keywords Informationsethik“ (2. Auflage), „450 Keywords Digitalisierung“ (2. Auflage), „300 Keywords Soziale Robotik“ (1. Auflage) und „110 Keywords Wirtschaftsethik“ (1. Auflage, zusammen mit Nick Lin-Hi und Andreas Suchanek). Weitere Informationen zum Lexikon gibt es voraussichtlich ab Juni 2024.

Abb.: Am Anfang zierte sich DALL-E 3 weniger bei fotorealistischen Darstellungen

Apple stellt MGIE vor

Apple hat im Februar 2024 der Öffentlichkeit seine KI-gestützte Bildbearbeitungssoftware namens MGIE vorgestellt. Die Abkürzung steht für „MLLM-Guided Image Editing“. MGIE ermöglicht es Benutzern, ihre Bildbearbeitungen mit natürlicher Sprache zu steuern. Es verwendet multimodale Sprachmodelle (MLLMs), um Befehle zu interpretieren und Pixelmanipulationen durchzuführen. Das System generiert keine neuen Bilder, sondern modifiziert bestehende. Interessierte können MGIE auf Huggingface mit niedrig aufgelösten Ergebnissen testen. Allerdings kann es sehr lange Wartezeiten geben. Das Paper „Guiding Instruction-based Image Editing via Multimodal Large Language Models“ von Tsu-Jui Fu, Wenze Hu, Xianzhi Du et al. erklärt die Details der Entwicklung. Die Autoren betonen, dass die anweisungsbasierte Bildbearbeitung die Kontrollierbarkeit und Flexibilität der Bildmanipulation verbessert.

Abb.: Bilder können mit Sprachbefehlen bearbeitet werden (Bild: DALL-E 3)

Der GenAI Nerd meldet sich zur Stelle

Seit 6. November 2023 kann man GPTs erstellen, die OpenAI auch „custom versions of ChatGPT“ nennt. Im Januar 2024 wurde der GPT Store eröffnet, wo diese Chatbots aufgerufen werden können. Bereits Mitte November kreierte Prof. Dr. Oliver Bendel das Social Robotics Girl, das er im FS 2024 im Unterricht zu Sozialer Robotik einsetzen wird. Es folgte am 4. Februar 2024 das Digital Ethics Girl, das ebenfalls von seinen Studierenden – und von allen Interessierten auf der ganzen Welt – konsultiert werden kann, etwa in seinem Modul „Ethik und Recht“. Seit dem 6. Februar 2024 ist ein GPT namens GenAI Nerd verfügbar, das Informationen zu generativer KI liefert. Es wurde ebenfalls von dem Technikphilosophen und Wirtschaftsinformatiker erstellt und speist sich aus einer Sammlung seiner unveröffentlichten und veröffentlichten Beiträge zu diesem Thema. Daher kann es etwa seine Definition generativer KI nennen, die Mächtigkeit und Ohnmächtigkeit von Textgeneratoren bei verschiedenen Textsorten erklären oder auf das Phänomen des „american smile“ bei Bildgeneratoren und auf Aspekte wie Kunst und Kitsch in diesem Zusammenhang eingehen. In den „Instructions“ wurde auch auf moralische Aspekte geachtet. ChatGPT-Plus-Nutzer können den GenAI Nerd über chat.openai.com/g/g-Zlag6lSLr-genai-nerd aufrufen.

Abb.: GenAI Nerd

Video zur Tagung „KI – Text und Geltung“

Am 30. Januar 2024 wurde ein Video veröffentlicht, das ein dokumentarischer Zusammenschnitt der interdisziplinären Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ ist. Diese fand am 25. und 26. August desselben Jahres an der TU Darmstadt statt, unter der Leitung von Prof. Dr. Gerhard Schreiber und Apl. Prof. Dr. Lukas Ohly. Sie war Teil des Ad-hoc-Projekts „Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren des Zentrums verantwortungsbewusste Digitalisierung (ZEVEDI)“. Das Video kann über zevedi.de/themen/ki-text/#video-ger aufgerufen werden. Es stehen deutsche und englische Untertitel zur Verfügung. Zu sehen und zu hören sind u.a. Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz) und Prof. Dr. Christian Stöcker (Hochschule für Angewandte Wissenschaften Hamburg).

Abb.: Oliver Bendel bei seinem Vortrag an der TU Darmstadt

Lexikon zu generativer KI in Vorbereitung

Im Sommer 2024 erscheint ein weiteres „Keywords“-Buch von Prof. Dr. Oliver Bendel bei Springer Gabler, „300 Keywords Generative KI“. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So spielt der „american smile“ eine Rolle, zudem die Obsession von DALL-E 3 mit Bärten. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Es handelt sich um den fünften „Keywords“-Band des Technikphilosophen und Wirtschaftsinformatikers, nach „400 Keywords Informationsethik“ (2. Auflage), „450 Keywords Digitalisierung“ (2. Auflage), „300 Keywords Soziale Robotik“ (1. Auflage) und „110 Keywords Wirtschaftsethik“ (1. Auflage, zusammen mit Nick Lin-Hi und Andreas Suchanek). Weitere Informationen zum Lexikon gibt es voraussichtlich ab Juni 2024.

Abb.: Oliver Bendel trägt keinen Bart

KI-basierte Textgeneratoren aus Sicht der Ethik

Am 1. Januar 2024 ist der Beitrag „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel erschienen, im Sammelband „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Aus dem englischsprachigen Abstract des deutschsprachigen Beitrags: „This chapter deals with AI-based text generators from an ethical point of view. It begins with a brief overview of generative AI (section 2) and AI-based text generators in particular. This is followed by a compilation of relevant areas of applied ethics (section 3), especially information ethics and its relatives, and then a structured, detailed ethical discussion (section 4). Opportunities and risks of operation and use are addressed. The chapter concludes with a summary and outlook (section 5). Overall, numerous risks are identified, as well as opportunities such as supporting work. The transformative potential for an important part of the creative and scientific professions is obvious. It is clearly a second wave of digitization that is taking hold.“ Enthalten sind im Sammelband auch die Beiträge „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker, „KI in der universitären Lehre“ von Gabi Reinmann und Alice Watanabe sowie „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Weitere Informationen und kostenloser Download des gesamtes Bands über www.degruyter.com.

Abb.: Eine fiktive Darstellung des Buchs (Bild: DALL-E 3)

Vier Bücher mit KI-Kunst und -Literatur

Seit Februar 2023 hat Oliver Bendel vier kleine KI-generierte Bücher herausgebracht. Am 20. Februar wurde „Dass es nur Kunst war, verdeckte die Kunst“ veröffentlicht. Darin finden sich mit ChatGPT produzierte Haikus zusammen mit 3D-Codes. Am 24. September folgte „ARTIFACTS WITH HANDICAPS“ – dieser Band umfasst elf mit GPT-4 generierte Kurzgeschichten zu Bildern mit Imperfektionen von Ideogram. Am 17. Oktober 2023 stellte Oliver Bendel in „ON BEAUTY“ dem Sprachmodell nicht weniger als 26 Fragen zur Schönheit und illustrierte sie mit ebenso vielen Bildern, die mit DALL-E 3 generiert worden waren. „AMERICAN SMILE“ vom 25. Oktober 2023 nimmt sich des Phänomens an, dass DALL-E 3 die Menschen unterschiedlicher Kulturen und Epochen ähnlich lächeln lässt, eben auf amerikanische Weise. Oliver Bendel verfasst seit 40 Jahren experimentelle Literatur. Zunächst entstanden vor allem Gedichte – etwa konkrete Poesie – und Kurzgeschichten. Ab 2007 folgten mehrere Romane, darunter auch Handyromane. Im März 2009 schrieb die ZEIT über ihn: „Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Auf Einladung zweier Goethe-Institute tourte er 2015 durch die Niederlande und las Ausschnitte aus seinen Handyromanen und Handyhaikus vor. Das Standardwerk „Die Struktur der modernen Literatur“ widmet seinem Schaffen zwei Seiten.

Abb.: Mädchen im Goldfischglas mit unmöglicher Position (Bild: DALL-E 3)

Grundlagen zu Bildgeneratoren

„Bildgeneratoren sind Anwendungen, die auf künstlicher Intelligenz (KI) beruhen und nach einem Input des Benutzers (einem Prompt) alle möglichen digitalen Bilder hervorbringen bzw. verändern, etwa fotorealistische Darstellungen, Zeichnungen, Gemälde oder Logos. Dabei kann man oft Stile und Formate vorgeben und im Dialog – in dem der Bildgenerator zum Chatbot wird – die Ergebnisse verbessern.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 26. Oktober 2023 im Gabler Wirtschaftslexikon erschienen ist. Im Abschnitt zu Zurückweisung und Zensur ist zu lesen: „Einige Bildgeneratoren lehnen Prompts ab, wenn sie gegen die eigenen Richtlinien oder gegen anerkannte Leitlinien und bestehende Gesetze verstoßen. Bei DALL-E 3 nimmt ChatGPT die Prompts des Benutzers entgegen und formuliert daraus eigene Prompts, die dann weitergereicht werden. Widersprechen diese den Richtlinien, werden sie nicht ausgeführt. Ideogram geht in diesem Kontext anders vor. Zunächst beginnt es mit dem Generieren, wobei es den ‚generation progress‘ in Prozent anzeigt. Sobald es erkennt, dass unerwünschte Elemente auf dem Bild vorkommen, wird dieses vor der Fertigstellung – also bevor 100 Prozent erreicht sind – durch eine Kachel mit einer Katze ersetzt, die ein Schild mit der Aufschrift „MAYBE NOT SAFE“ trägt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/bildgenerator-125856 aufgerufen werden.

Abb.: Vier junge Frauen als Beatles auf der Abbey Road (Bild: DALL-E 3)

Das Stille-Post-Problem von DALL-E 3

DALL-E 3 – in der Version, die in ChatGPT Plus integriert ist – scheint ein Stille-Post-Problem zu haben. Bei einem Test von Oliver Bendel lautete der Prompt (Prompt A): „Two female swimmers competing in lake, photorealistic“. ChatGPT, die Schnittstelle zu DALL-E 3, machte daraus vier Prompts (Prompt B1 – B4). Prompt B4 lautete: „Photo-realistic image of two female swimmers, one with tattoos on her arms and the other with a swim cap, fiercely competing in a lake with lily pads and reeds at the edges. Birds fly overhead, adding to the natural ambiance.“ DALL-E 3 wiederum machte aus diesem Prompt etwas, was weder mit diesem noch mit Prompt A viel zu tun hatte. Zu sehen sind auf dem Bild nicht zwei Frauen, sondern zwei Männer oder eine Frau und ein Mann mit Bart. Sie schwimmen nicht um die Wette, sondern streiten sich, in einem Teich oder einem kleinen See stehend, indem sie wütend mit den Armen fuchteln und aufeinander losgehen. Vor ihnen wuchern Seerosen, über ihnen flattern Vögel. Sicherlich ein interessantes Bild, aber mit einer derartigen Willkür hervorgebracht, dass man sich das gute alte Prompt Engineering zurückwünscht. Genau dieses will die Schnittstelle eigentlich ersetzen – aber entstanden ist ein Effekt, den man von dem Stille-Post-Spiel kennt.

Abb.: Das Stille-Post-Problem von DALL-E 3

DALL-E 3 und der Rassismus

DALL-E 3 ist ein mächtiger Bildgenerator, der auf dem Large Language Model (LLM) namens GPT beruht und seit dem 2. Oktober 2023 zur Verfügung steht. Er schafft Schönheit und erlaubt Kunst. Zugleich zeichnen sich Bias-Probleme ab. Menschen sind fast ohne Ausnahme attraktiv. Oft wirken sie wie Klone. Frauen sind knapp bekleidet, mit Hotpants und Röckchen (die im Tennis freilich der Normalfall und auch in aufgeschlossenen Gesellschaften keine Seltenheit sind). Ihre Hintern sind so perfekt, dass man vermuten könnte, dass beim LLM ein eigens bestellter „connaisseur du derrière“ mit modelliert. Zugleich verweigert DALL-E 3 jegliche Eingaben, in denen es etwas Unsittliches wittert … Wenn man nach einem schwarzen Arzt verlangt, der einen weißen Patienten behandelt, wird diese Eingabe meist umgedeutet. ChatGPT, die ebenfalls auf dem Sprachmodell von OpenAI basierende Schnittstelle zu DALL-E 3, scheint der Meinung zu sein, dass die umgekehrte Konstellation der Normalfall ist. Man sieht i.d.R. einen weißen oder hellhäutigen Arzt, der einen schwarzen Patienten behandelt. Die Farbigen sind Männer, die attraktiv und muskulös sind. Der Arzt ist meistens ein Mann. Manche Bilder wirken regelrecht befremdlich. Der Patient scheint dem Arzt ausgeliefert zu sein. Er wirkt wie ein Objekt neben dem Menschen oder wie – im Bild unten und hier zu sehen – ein Objekt des Menschen. Der Arzt triumphiert über den Patienten – oder über seine Krankheit? Dabei scheinen alle vor Gesundheit zu strotzen, was natürlich täuschen kann. In seltenen Fällen bekommt der Benutzer das, was er mit seinem Prompt verlangt hat: einen schwarzen Arzt, der einen weißen Patienten behandelt. Auf Bias-Probleme bei Bildgeneratoren geht der Artikel „Image Synthesis from an Ethical Perspective“ von Prof. Dr. Oliver Bendel ein.

Abb.: So stellt sich DALL-E 3 einen schwarzen Arzt mit einem weißen Patienten vor

Erste Erfahrungen mit DALL-E 3 – Teil X

Eigentlich war die Testreihe mit DALL-E 3 schon abgeschlossen. Aber Prof. Dr. Oliver Bendel wollte nochmals wissen, ob der Bildgenerator „versteht“, was „auf dem Mond“ bedeutet. Auf bisherigen Ergebnissen war immer nur der Mond irgendwo zu sehen, und die Szene spielte sich auf einem Meteoriten oder wo auch immer ab. Der Prompt am Morgen des 5. Oktober 2023 lautete: „A female skateboarder on the moon doing a daring stunt, photorealistic“. Zuerst war der Eindruck, dass man endlich auf dem Mond gelandet war. Aber bei genauerem Hinsehen erkannte man, dass sich auch hier der Mond hinter dem Meteoriten oder einem Planeten erhebt. Bei den anderen Ergebnissen war es noch deutlicher (eine Serie mit dem Mars beweist, dass es anders geht, wie auch dieses etwas kitschige Einzelbild). Das Bild gefällt dennoch durch die Bewegung der Skaterin, ihre ungewöhnliche Haltung – vermutlich wird sie gleich in den Staub des Trabanten fallen, hoffentlich nicht auf den Stein – und ihren Schattenwurf. Spuren der Fahrt sind nicht zu sehen, aber vielleicht war es überhaupt mehr ein Gleiten über der Oberfläche als auf der Oberfläche (sehenswert übrigens auch eine Serie auf dem Wasser). Bei den vier Kacheln fällt weiter auf, dass drei europäisch anmutende Skaterinnen zu sehen sind und eine asiatische Schwester. Das ist nicht ganz divers, aber immerhin ein Anfang. Damit ist die Serie nun wirklich abgeschlossen. Die Nutzung von DALL-E 3 hat auf jeden Fall großen Spaß gemacht. Und sie zeigt, dass KI-Systeme und insbesondere Bildgeneratoren wirklich – wie Oliver Bendel im Frühjahr 2023 bei „Scobel“ behauptet hat – Schönheit produzieren können.

Abb.: Die Skaterin vor dem Mond (Bild: DALL-E 3)

Erste Erfahrungen mit DALL-E 3 – Teil IX

Zum Abschluss der neunteiligen Serie von Oliver Bendel ein Taucher, der sich durch einen Fischschwarm bewegt. Eigentlich war bei DALL-E 3 am 3. Oktober 2023 ein Schnorchler (m/w/d) angefordert worden, aber auf dem Rücken trägt er etwas, was an eine Sauerstoffflasche erinnert. Bei den Alternativen wird dies noch deutlicher. Die Tiefe des Bilds gefällt, zudem der Lichteinfall von oben. Die Fische sind Individuen trotz ihrer Ähnlichkeit, neugierig und zugewandt. Das ist zugleich das Merkwürdige – ein echter Schwarm würde sich anders bewegen, auch wenn ein Mensch mitten in ihm ist. Das wirft die Frage auf, wie wir künftig Natur und speziell Pflanzen und Tiere wahrnehmen werden, wenn Bildgeneratoren ein verzerrtes Bild ihrer Individuen und Strukturen entwerfen. Das ist sicherlich kein neues Problem, denn es gibt seit jeher Illustrationen, die mehr oder weniger passend sind. Dennoch ist es die Fülle an Material, das meist deutlich neben der Realität steht, die diese so weit verrücken könnte, dass wir die Virtualität bevorzugen. Insgesamt beeindruckt DALL-E 3 mit seinen Ergebnissen, die im Rahmen dieser Tests freilich mehr oder weniger Zufälle sind. Die Lücke zu Midjourney scheint geschlossen. Das Wettrennen der Firmen geht weiter.

Abb.: Im Meer unterwegs (Bild: DALL-E 3)