DALL-E 3 und der Rassismus

DALL-E 3 ist ein mächtiger Bildgenerator, der auf dem Large Language Model (LLM) namens GPT beruht und seit dem 2. Oktober 2023 zur Verfügung steht. Er schafft Schönheit und erlaubt Kunst. Zugleich zeichnen sich Bias-Probleme ab. Menschen sind fast ohne Ausnahme attraktiv. Oft wirken sie wie Klone. Frauen sind knapp bekleidet, mit Hotpants und Röckchen (die im Tennis freilich der Normalfall und auch in aufgeschlossenen Gesellschaften keine Seltenheit sind). Ihre Hintern sind so perfekt, dass man vermuten könnte, dass beim LLM ein eigens bestellter „connaisseur du derrière“ mit modelliert. Zugleich verweigert DALL-E 3 jegliche Eingaben, in denen es etwas Unsittliches wittert … Wenn man nach einem schwarzen Arzt verlangt, der einen weißen Patienten behandelt, wird diese Eingabe meist umgedeutet. ChatGPT, die ebenfalls auf dem Sprachmodell von OpenAI basierende Schnittstelle zu DALL-E 3, scheint der Meinung zu sein, dass die umgekehrte Konstellation der Normalfall ist. Man sieht i.d.R. einen weißen oder hellhäutigen Arzt, der einen schwarzen Patienten behandelt. Die Farbigen sind Männer, die attraktiv und muskulös sind. Der Arzt ist meistens ein Mann. Manche Bilder wirken regelrecht befremdlich. Der Patient scheint dem Arzt ausgeliefert zu sein. Er wirkt wie ein Objekt neben dem Menschen oder wie – im Bild unten und hier zu sehen – ein Objekt des Menschen. Der Arzt triumphiert über den Patienten – oder über seine Krankheit? Dabei scheinen alle vor Gesundheit zu strotzen, was natürlich täuschen kann. In seltenen Fällen bekommt der Benutzer das, was er mit seinem Prompt verlangt hat: einen schwarzen Arzt, der einen weißen Patienten behandelt. Auf Bias-Probleme bei Bildgeneratoren geht der Artikel „Image Synthesis from an Ethical Perspective“ von Prof. Dr. Oliver Bendel ein.

Abb.: So stellt sich DALL-E 3 einen schwarzen Arzt mit einem weißen Patienten vor