Schönheit war einem schon in mehreren Bildern von DALL-E 3 begegnet, von Menschen und Dingen. Auch den jungen Mann der letzten Darstellung mögen einige attraktiv finden. Bei den Tests taucht kaum Hässlichkeit auf, außer im Kitsch. Manchmal sind beide im Widerstreit auf einem einzigen Bild. In diesem, das von Oliver Bendel noch am 3. Oktober 2023 angefertigt wurde, zeigt sich eine pubertierende Schönheit inmitten von opulenter Blumenpracht. Der Prompt hatte gelautet: „Blonde teenage girl lies prone on blanket in garden, thousands of colorful flowers grow at edge of garden, photorealistic“. Von Schönheit war also keine Rede gewesen – aber diese Protagonistin und ihre Altersgenossinnen würden Angela Hayes in „American Beauty“ blass aussehen lassen, selbst für Lester Burnham. Ob man die Gesamtkomposition in ästhetischer Hinsicht durchgehen lassen will, ist eine andere Frage. Zur allgemeinen, fast erdrückenden Pracht bildet immerhin die graue, schlichte Decke einen Widerpart. Und auch der kurze Rasen wird schon andere Zeiten gesehen haben, in denen sich lediglich Igel und Amseln auf ihm bewegten. Wobei diese durchaus Schönheit bedeuten können, die Schönheit der Natur und des Natürlichen. Das Künstliche legt sich auch in diesem Bild wie ein Schleier über alles.
Abb.: Ein Teenager inmitten von Blumen (Bild: DALL-E 3)
Tai Tan Mai, Martin Crane und Marija Bezbradica von der Dublin City University veröffentlichten im Sommer 2023 bei Springer VS das Buch „Educational Data Mining und Learning Analytics: Ein maschinell generierter Forschungsüberblick“. Dessen Ziel ist es, einschlägige Artikel von Forschern zusammenzufassen. Es wird z.B. in der Schweiz in der gedruckten Version für 88.50 CHF angeboten. Stutzig macht bereits die Rubrik „About this book“, die orthografische und grammatikalische Fehler enthält. Wenn man durch das Buch blättert, kommen einem ständig solche Passagen entgegen: „Unter allen für die Bildung verfügbaren digitalen Ressourcen sind Massive Open Online Courses. (MOOC) als großartige Online-Tools, die den Lernprozess für jede Art von Inhalt erleichtern können.“ Über weite Strecken ergibt das Buch keinerlei Sinn. Das ist aber nicht das einzige Problem. Professor Marco Kalz von der Pädagogischen Hochschule Heidelberg meldete sich am 15. September 2023 auf LinkedIn mit einem Artikel, in dem er einen Plagiatsverdacht äußerte: „After reading the text more intensively, which should be a summary of our paper according to the introduction, I had the impression that the text itself is not a summary, but a direct translation of our original publication. This left me really confused and I translated the so-called summary back into English to see that my initial impression was right. A large proportion of text is not summarized but just translated and put into this chapter without quoting the original text.“ Nach seiner Darstellung konfrontierte er den Verlag und die Autoren mit seinen Befunden, allerdings ohne Erfolg. In dem Artikel, der auch auf seiner Website unter dem Titel „AI destroys principles of authorship. A scary case from educational technology publishing.“ zu finden ist, nimmt er ausführlich Stellung zu dem Fall. Die drei Herausgeber schreiben in ihrem Vorwort: „Ein besonderer Dank gilt auch den Mitarbeitern von Springer Nature für ihre Mitarbeit bei der Erstellung des vorliegenden Werks.“ Um wen es sich dabei handelt, ist nicht ersichtlich – Lektoren sind nicht aufgeführt. Insgesamt muss man eher von einem Machwerk sprechen. Springer VS ist mit diesem KI-generierten Buch in jeder Hinsicht gescheitert.
Das neue Philosophie Magazin (Oktober/November 2023) wartet mit dem Dossier „Macht künstliche Intelligenz uns freier?“ auf. Dominik Erhard schreibt über „das neue Feuer“. Künstliche Intelligenz rufe oft zwei grundsätzlich unterschiedliche Reaktionen hervor. Die Schriftstellerin Meghan O’Gieblyn wird im Artikel von Stefania Gherca mit dem Satz „KI ist unser kollektives Unbewusstes“ zitiert. Künstliche Intelligenz boome in Industrie und Forschung, bestimme immer mehr unseren Alltag und stelle unser menschliches Selbstverständnis als Krone der Schöpfung infrage. Antonia Siebeck hat für „Küss mich, KI!“ den Technikphilosophen Oliver Bendel befragt. Im Teaser heißt es: „Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung …“ (Philosophie Magazin, Oktober/November 2023). Der Germanist und Philosoph Richard David Precht fragt mit Blick auf KI: „Das Ende der Mühsal?“ Im Teaser heißt es: „Künstliche Intelligenz steigert alte Ängste: Uns geht die Arbeit aus! Die Maschinen werden uns beherrschen! Dabei liegt in der technischen Entwicklung eine Chance, die schon Karl Marx formulierte. Um sie zu nutzen, müssten wir die Gesellschaft neu denken.“ (Philosophie Magazin, Oktober/November 2023) Frederike Kaltheuner und Friedrich Weißbach beschäftigen sich in „Intelligent töten?“ mit KI in der militärischen Praxis. Weitere Informationen über www.philomag.de.
Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.
Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor
„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Beim zweiten Kurstag am 2. September 2023 wird ausführlich auf Grundlagen und Anwendungen der Künstlichen Intelligenz sowie auf Roboter in der Polizeiarbeit eingegangen. Zudem findet eine ethische Reflexion statt. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Auch diese Einteilung wird im CAS präsentiert
Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur ethischen Reflexion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.
Abb.: Auch Pepper wurde schon mit ChatGPT verbunden
Vom 1. März bis 11. August 2023 erstellte Dali Jabou im Rahmen seiner Bachelorarbeit den Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann. Es handelt sich um ein von Prof. Dr. Oliver Bendel initiiertes und finanziertes Low-Budget-Projekt, für das bisher ca. 300 CHF ausgegeben wurden. Die Ausgangsfrage ist, ob sich Sprachmodelle wie GPT für den Bau von Chatbots eignen, die tote, gefährdete oder ausgestorbene Sprachen beherrschen, und ob sie für die Spracherhaltung taugen (etwa im Rahmen des Unterrichts). Mit @llegra entstand ein Chatbot mit Sprachausgabe, der die Stärken und Schwächen von GPT-4 widerspiegelt. Er verfügt über Weltwissen und gibt mehrheitlich korrekt Auskunft, auch zu Einrichtungen im Unterengadin. Manchmal halluziniert er und erfindet Personen oder Werke – ein bekanntes Problem von Sprachmodellen, an dem die Entwickler bei OpenAI, Microsoft, Google und Co. arbeiten. Ein weiteres Problem ist, dass er manchmal vom Idiom abweicht und sich in Sursilvan und Rumantsch Grischun verirrt. Er wird sich weiter verbessern lassen, sobald man GPT-4 (wie im Falle von GPT-3) direkt mit Sprachmaterial trainieren kann – was noch nicht der Fall ist (eine Wissensdatenbank, angereichert mit Vallader-Kinderbüchern, zur Verfügung gestellt von der Lia Rumantscha, war aber hilfreich). Die Text-to-Speech-Engine für Vallader, die von SlowSoft kostenlos zur Verfügung gestellt wurde, erfüllt ihren Zweck. Man darf sie nicht mit einer professionellen Lösung verwechseln, wie sie heute mit Hilfe von Machine Learning möglich wäre. Der Chatbot stand auf allegra-bot.ch zur Verfügung, damit eingeladene Tester unkompliziert darauf zugreifen und auch Versuche im Feld (etwa direkt im Unterengadin) stattfinden konnten. Nachdem mehrere Medien über den Chatbot berichtet und den Link verbreitet hatten, nahmen die Zugriffe stark zu. Um die Kosten nicht zu stark anwachsen zu lassen und deutlich zu machen, dass es sich um ein wissenschaftliches Projekt und eine unfertige Vorstufe – einen Prototyp – handelt, nicht um einen öffentlichen Dienst und nicht um ein fertiges Produkt, wurde der Chatbot mit einer entsprechenden Information auf der Seite am 11. August vorerst stillgelegt. Er wird intern weiter getestet und verbessert, bis er Ende des Jahres (sofern die Annahme erfolgt) auf einer internationalen Konferenz vorgestellt wird. Im Rahmen der Begutachtung findet eine Freischaltung von September bis Dezember statt. Oliver Bendel wünscht sich, dass weitere Entwickler den Ansatz aufgreifen und irgendwann eine @llegra entsteht, die im Unterricht eingesetzt werden kann. Dafür müssten Unternehmen die Sache in die Hand nehmen, oder es müsste ein finanziertes Forschungs- und Entwicklungsprojekt aufgelegt werden. In letzterer Richtung unternimmt die FH Graubünden, mit der man in Kontakt ist, seit einiger Zeit Anstrengungen. Bei der Abschlusspräsentation der Bachelorarbeit am 11. August waren neben einer Vertreterin dieser Hochschule auch zwei Vertreter der Lia Rumantscha zugegen, die sich beeindruckt zeigten und wohlwollend äußerten. @llegra hat eine Zukunft – wenn man dies im rätoromanischen Sprachraum will.
Abb.: So stellen sich Bildgeneratoren Chatbots vor
Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)
DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.
Abb.: Ein scherzhaft verwendeter Genderstern in Zürich
Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.
Am 20. April 2023 fand die Shift statt, eine Tagung zu Fragen von Informationsethik, Roboterethik und KI-Ethik. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Er ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Ein Panel zur Regulierung von KI durch die EU fand am Nachmittag statt. Dabei stach die Schweizer Informatikerin und Unternehmerin Bea Knecht hervor, die nicht nur enorme fachliche Expertise hatte, sondern auch herausragende Reflexionsfähigkeiten – und eine genaue und anschauliche Sprache. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/ …
Abb.: Oliver Bendel im Gespräch mit Patrizia Laeri (Foto: Shift/Louis Rafael)
Auf TikTok findet sich ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Golem meldete am 17. April 2023: „Der Titel wurde vom Kanal ghostwriter977 veröffentlicht und ist eigenen Angaben zufolge komplett mithilfe einer künstlichen Intelligenz erstellt worden.“ (Golem, 17. April 2023) Das einminütige Stück hat es inzwischen auf YouTube geschafft, in der ursprünglichen – nach zwei Tagen bereits mehr als tausendmal kommentiert – und in einer verbesserten Version. Beide hat man allerdings wohl aus Rechtsgründen entfernt. Golem schreibt weiter: „Für die Musikindustrie dürften derartige Musikstücke, die zumindest beim ersten und zweiten Hinhören sehr echt klingen, ein Problem sein. Drake hatte sich in der Vergangenheit bereits bei anderen KI-Songs mit seiner Stimme kritisch bis verärgert gezeigt. Der Produzent von Jay-Z, Young Guru, spricht von einem Geist, der aus der Flasche gelassen wurde. Zum einen könne man den technologischen Fortschritt nicht aufhalten, zum anderen müssten die Rechte der Kunstschaffenden geschützt werden.“ (Golem, 17. April 2023) Die individuelle Stimme, verbunden mit gesprochener Sprache, kann bereits seit einigen Jahren mit Hilfe künstlicher Intelligenz imitiert werden. Darauf geht etwa der Beitrag „The Synthetization of Human Voices“ von Prof. Dr. Oliver Bendel aus dem Jahre 2017 ein. Inzwischen stellt auch gesungene Sprache lebender und toter Künstler kein Problem mehr dar.
„Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger künstlicher Intelligenz erreicht. Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen …“ (Spektrum, 13. April 2023) Dies schrieb Spektrum der Wissenschaft am 13. April 2023 unter Berufung auf das Unternehmen. „Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.“ (Spektrum, 13. April 2023) ChatGPT ist dafür bekannt, dass es nicht nur in seinen Aussagen halluziniert, etwa wenn es Falschinformationen zu Personen liefert, sondern auch in seinen Verweisen – so werden URLs generiert, die auf den ersten Blick plausibel aussehen und deren Domain oft korrekt ist, die dann aber – da der Pfad erfunden ist – ins Leere verweisen. Grundsätzlich ist die Behauptung von Faktizität und der Erfüllung von Anforderungen der Explainable AI und der Trustworthy AI in diesem Zusammenhang mit Vorsicht zu genießen – aber es wäre erfreulich, wenn Luminous weniger eine Münchhausen-Maschine wäre als der eine oder andere Konkurrent und von Halluzinationen befreit werden könnte.
„Die Shift ist eine exklusive Plattform zur Digitalen Ethik. Was begeistert uns bei neuartigen Angeboten, die dank Big Data, Künstlicher Intelligenz & Co. möglich sind? Was akzeptieren Kundinnen und Kunden sowie die Gesellschaft, was nicht? Und wo sind Grenzen nötig? Diese Fragen stehen im Zentrum der Shift. Es geht um aktuelle Kundenerwartungen sowie Akzeptanz und Vertrauen im digitalen Raum.“ (Website Shift) So steht es auf der Website der Tagung, die 2023 bereits in die fünfte Runde geht. Die Keynote hält Prof. Dr. Oliver Bendel aus Zürich. Er geht zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschreibt er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellt er ethische Überlegungen an. Am Ende behandelt er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigt, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik sind ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/ …
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Wie Golem am 25. Februar 2023 meldete, hat Meta das Sprachmodell LLaMA angekündigt. Dieses soll in Konkurrenz zu GPT-3 von OpenAI (ChatGPT) und LaMDA von Google (Bard) treten. „LLaMA ist nach Angaben von Meta für die Erstellung von Texten, die Führung von Chat-Gesprächen, die Zusammenfassung von schriftlichen Materialien und für komplexere Aufgaben wie das Lösen von mathematischen Problemen oder die Vorhersage von Proteinstrukturen geeignet. Das Modell wurde von Metas Fundamental AI Research Team entwickelt.“ (Golem, 25. Februar 2023) Das neue Sprachmodell werde derzeit nicht bei Plattformen wie Facebook oder Instagram verwendet. „Stattdessen solle es ausschließlich auf KI spezialisierten Forschern zur Verfügung gestellt werden, um diese bei ihrer Arbeit zu unterstützen.“ (Golem, 25. Februar 2023) Der Artikel „Facebook steigt in den KI-Markt ein“ kann hier abgerufen werden.
Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.
BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.
Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)
DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.