In late August 2023, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held at Stanford University from 25-27 March 2024. Due to staff shortages, the prestigious conference had to be held at the Hyatt Regency SFO Airport in San Francisco in March 2023 – and will now return to its traditional venue. The call for proposals is available on the AAAI Spring Symposium Series page. Proposals are due by 6 October 2023. They should be submitted to the symposium co-chairs, Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK), via the online submission page. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. More information is available at aaai.org/conference/spring-symposia/sss24/.
Fig.: Hoover Tower on the Stanford University campus
„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Beim zweiten Kurstag am 2. September 2023 wird ausführlich auf Grundlagen und Anwendungen der Künstlichen Intelligenz sowie auf Roboter in der Polizeiarbeit eingegangen. Zudem findet eine ethische Reflexion statt. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Auch diese Einteilung wird im CAS präsentiert
Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur ethischen Reflexion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.
Abb.: Auch Pepper wurde schon mit ChatGPT verbunden
Vom 1. März bis 11. August 2023 erstellte Dali Jabou im Rahmen seiner Bachelorarbeit den Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann. Es handelt sich um ein von Prof. Dr. Oliver Bendel initiiertes und finanziertes Low-Budget-Projekt, für das bisher ca. 300 CHF ausgegeben wurden. Die Ausgangsfrage ist, ob sich Sprachmodelle wie GPT für den Bau von Chatbots eignen, die tote, gefährdete oder ausgestorbene Sprachen beherrschen, und ob sie für die Spracherhaltung taugen (etwa im Rahmen des Unterrichts). Mit @llegra entstand ein Chatbot mit Sprachausgabe, der die Stärken und Schwächen von GPT-4 widerspiegelt. Er verfügt über Weltwissen und gibt mehrheitlich korrekt Auskunft, auch zu Einrichtungen im Unterengadin. Manchmal halluziniert er und erfindet Personen oder Werke – ein bekanntes Problem von Sprachmodellen, an dem die Entwickler bei OpenAI, Microsoft, Google und Co. arbeiten. Ein weiteres Problem ist, dass er manchmal vom Idiom abweicht und sich in Sursilvan und Rumantsch Grischun verirrt. Er wird sich weiter verbessern lassen, sobald man GPT-4 (wie im Falle von GPT-3) direkt mit Sprachmaterial trainieren kann – was noch nicht der Fall ist (eine Wissensdatenbank, angereichert mit Vallader-Kinderbüchern, zur Verfügung gestellt von der Lia Rumantscha, war aber hilfreich). Die Text-to-Speech-Engine für Vallader, die von SlowSoft kostenlos zur Verfügung gestellt wurde, erfüllt ihren Zweck. Man darf sie nicht mit einer professionellen Lösung verwechseln, wie sie heute mit Hilfe von Machine Learning möglich wäre. Der Chatbot stand auf allegra-bot.ch zur Verfügung, damit eingeladene Tester unkompliziert darauf zugreifen und auch Versuche im Feld (etwa direkt im Unterengadin) stattfinden konnten. Nachdem mehrere Medien über den Chatbot berichtet und den Link verbreitet hatten, nahmen die Zugriffe stark zu. Um die Kosten nicht zu stark anwachsen zu lassen und deutlich zu machen, dass es sich um ein wissenschaftliches Projekt und eine unfertige Vorstufe – einen Prototyp – handelt, nicht um einen öffentlichen Dienst und nicht um ein fertiges Produkt, wurde der Chatbot mit einer entsprechenden Information auf der Seite am 11. August vorerst stillgelegt. Er wird intern weiter getestet und verbessert, bis er Ende des Jahres (sofern die Annahme erfolgt) auf einer internationalen Konferenz vorgestellt wird. Im Rahmen der Begutachtung findet eine Freischaltung von September bis Dezember statt. Oliver Bendel wünscht sich, dass weitere Entwickler den Ansatz aufgreifen und irgendwann eine @llegra entsteht, die im Unterricht eingesetzt werden kann. Dafür müssten Unternehmen die Sache in die Hand nehmen, oder es müsste ein finanziertes Forschungs- und Entwicklungsprojekt aufgelegt werden. In letzterer Richtung unternimmt die FH Graubünden, mit der man in Kontakt ist, seit einiger Zeit Anstrengungen. Bei der Abschlusspräsentation der Bachelorarbeit am 11. August waren neben einer Vertreterin dieser Hochschule auch zwei Vertreter der Lia Rumantscha zugegen, die sich beeindruckt zeigten und wohlwollend äußerten. @llegra hat eine Zukunft – wenn man dies im rätoromanischen Sprachraum will.
Abb.: So stellen sich Bildgeneratoren Chatbots vor
Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)
Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.
Abb.: Mit Midjourney erstelltes Bild einer Schnorchlerin
DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.
Abb.: Ein scherzhaft verwendeter Genderstern in Zürich
Die interdisziplinäre Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Der Call for Papers wirft Fragen dieser Art auf: „Worin unterscheiden sich menschengemachte und computergenerierte Texte und welche Geltungsansprüche können jeweils erhoben, bestritten oder eingelöst werden? Werden bestimmte Textverständnisse dadurch überlagert, dass Menschen der KI die Fähigkeit zur Textgenerierung zuschreiben? Produziert ein wissenschaftlicher Diskurs über KI-Textgeneratoren dieselbe Art von Texten wie die Generatoren selbst? Was erwarten, befürchten und erhoffen sich die einzelnen Wissenschaften, wenn in ihren Diskursen Texte rezipiert und berücksichtigt werden, die mit KI-gestützten Werkzeugen erstellt wurden? Und nicht zuletzt: Welche Konsequenzen ergeben sich daraus für die Kriterien von Wissenschaftlichkeit und Urheberschaft?“ (CfP) Abstracts zur Tagung bzw. zum Tagungsband sind in deutscher oder englischer Sprache im Umfang von max. 250 Wörtern zu verfassen und bis zum 15. Juni 2023 einzureichen. Eine Mitteilung über Annahme oder Ablehnung erfolgt bis zum 23. Juni 2023. Für die Präsentation auf der Tagung stehen jeweils 20 Minuten sowie 10 Minuten zur Diskussion zur Verfügung. Der CfP ist hier verfügbar.
„Manche Menschen gehen bereits romantische Beziehungen mit Chatbots ein. Künstliche Intelligenz simuliert Zuneigung und Trost. Kann man Gefühle einfach so programmieren?“ (Tagesspiegel, 3. Mai 2023) Dies fragt Max Tholl in einem Essay mit dem Titel „Wenn die KI den Partner ersetzt: Können Maschinen uns lieben?“ vom 3. Mai 2023. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Chatbots, Sprachassistenten und soziale Roboter schreibt und forscht. Er nähert sich dem Gegenstand mit einem Rückblick: „Innige Beziehungen zwischen Menschen und künstlichen Kreaturen haben eine lange Tradition in der Ideengeschichte, sagt der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Sie finden sich schon in den mythologischen Erzählungen von Homer oder Ovid, später dann als Motiv in Science-Fiction-Geschichten.“ (Tagesspiegel, 3. Mai 2023) Der ganze Beitrag ist im Tagesspiegel hinter der Bezahlschranke zu finden und wird auch noch in der gedruckten Ausgabe erscheinen.
In der Schweiz soll eine neue Hochschule für Informatik FHNW mit einem Standort in Brugg-Windisch und einem Standort nördlich des Jura (Basel-Landschaft und Basel-Stadt) gegründet werden. Sie soll ihren Studienbetrieb im Herbst 2025 aufnehmen und ab diesem Zeitpunkt die bestehenden Informatikstudiengänge der Hochschule für Technik FHNW übernehmen. In der Leistungsauftragsperiode 2025 – 2028 wird sie laut Plan weitere Aus- und Weiterbildungsangebote aufbauen sowie Forschungs- und Entwicklungsaktivitäten entfalten. Ziel der neuen Hochschule ist es, in der Nordwestschweiz die von Wirtschaft und Verwaltung benötigten Informatiker aus- und weiterzubilden. Die Studiengänge und -angebote der Hochschule für Wirtschaft FHNW in Wirtschaftsinformatik, Künstlicher Intelligenz und Robotik sind von dieser Neuerung nicht betroffen. Das Portfolio der HSW bleibt damit unverändert. Die Hochschule für Informatik FHNW wird die zehnte Hochschule unter dem Dach der Fachhochschule Nordwestschweiz sein. Berichtet haben über die Neugründung u.a. Nau und Inside IT.
Abb.: Der Campus Brugg-Windisch (Foto: WEISSWERT C. Morin & M. Indermaur)
Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.
Am 20. April 2023 fand die Shift statt, eine Tagung zu Fragen von Informationsethik, Roboterethik und KI-Ethik. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Er ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Ein Panel zur Regulierung von KI durch die EU fand am Nachmittag statt. Dabei stach die Schweizer Informatikerin und Unternehmerin Bea Knecht hervor, die nicht nur enorme fachliche Expertise hatte, sondern auch herausragende Reflexionsfähigkeiten – und eine genaue und anschauliche Sprache. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/ …
Abb.: Oliver Bendel im Gespräch mit Patrizia Laeri (Foto: Shift/Louis Rafael)
Auf TikTok findet sich ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Golem meldete am 17. April 2023: „Der Titel wurde vom Kanal ghostwriter977 veröffentlicht und ist eigenen Angaben zufolge komplett mithilfe einer künstlichen Intelligenz erstellt worden.“ (Golem, 17. April 2023) Das einminütige Stück hat es inzwischen auf YouTube geschafft, in der ursprünglichen – nach zwei Tagen bereits mehr als tausendmal kommentiert – und in einer verbesserten Version. Beide hat man allerdings wohl aus Rechtsgründen entfernt. Golem schreibt weiter: „Für die Musikindustrie dürften derartige Musikstücke, die zumindest beim ersten und zweiten Hinhören sehr echt klingen, ein Problem sein. Drake hatte sich in der Vergangenheit bereits bei anderen KI-Songs mit seiner Stimme kritisch bis verärgert gezeigt. Der Produzent von Jay-Z, Young Guru, spricht von einem Geist, der aus der Flasche gelassen wurde. Zum einen könne man den technologischen Fortschritt nicht aufhalten, zum anderen müssten die Rechte der Kunstschaffenden geschützt werden.“ (Golem, 17. April 2023) Die individuelle Stimme, verbunden mit gesprochener Sprache, kann bereits seit einigen Jahren mit Hilfe künstlicher Intelligenz imitiert werden. Darauf geht etwa der Beitrag „The Synthetization of Human Voices“ von Prof. Dr. Oliver Bendel aus dem Jahre 2017 ein. Inzwischen stellt auch gesungene Sprache lebender und toter Künstler kein Problem mehr dar.
„Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger künstlicher Intelligenz erreicht. Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen …“ (Spektrum, 13. April 2023) Dies schrieb Spektrum der Wissenschaft am 13. April 2023 unter Berufung auf das Unternehmen. „Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.“ (Spektrum, 13. April 2023) ChatGPT ist dafür bekannt, dass es nicht nur in seinen Aussagen halluziniert, etwa wenn es Falschinformationen zu Personen liefert, sondern auch in seinen Verweisen – so werden URLs generiert, die auf den ersten Blick plausibel aussehen und deren Domain oft korrekt ist, die dann aber – da der Pfad erfunden ist – ins Leere verweisen. Grundsätzlich ist die Behauptung von Faktizität und der Erfüllung von Anforderungen der Explainable AI und der Trustworthy AI in diesem Zusammenhang mit Vorsicht zu genießen – aber es wäre erfreulich, wenn Luminous weniger eine Münchhausen-Maschine wäre als der eine oder andere Konkurrent und von Halluzinationen befreit werden könnte.
„Die Shift ist eine exklusive Plattform zur Digitalen Ethik. Was begeistert uns bei neuartigen Angeboten, die dank Big Data, Künstlicher Intelligenz & Co. möglich sind? Was akzeptieren Kundinnen und Kunden sowie die Gesellschaft, was nicht? Und wo sind Grenzen nötig? Diese Fragen stehen im Zentrum der Shift. Es geht um aktuelle Kundenerwartungen sowie Akzeptanz und Vertrauen im digitalen Raum.“ (Website Shift) So steht es auf der Website der Tagung, die 2023 bereits in die fünfte Runde geht. Die Keynote hält Prof. Dr. Oliver Bendel aus Zürich. Er geht zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschreibt er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellt er ethische Überlegungen an. Am Ende behandelt er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigt, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik sind ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/ …
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Am 2. März 2023 startete der 3sat-Abend Wissen hoch 2 zu KI und Robotik um 18.30 Uhr mit NANO. Oliver Bendel wurde mit folgenden Worten vorgestellt: „Im beschaulichen schweizerischen Brugg-Windisch forscht einer der wichtigsten Robotikexperten und Maschinenethiker, Prof. Oliver Bendel, Autor diverser Standardwerke, Sachverständiger für den deutschen Bundestag, Roboterfan.“ Ebenfalls im Interview mit der Sendung war Jonas Andrulis von Aleph Alpha, einem deutschen KI-Unternehmen. Nach der Tagesschau – ab 20.15 Uhr – wurde die Dokumentation „Mein Avatar und ich“ gezeigt. Ingolf Baur war u.a. zu Oliver Bendel nach Brugg-Windisch, zu Daniele Pucci nach Genua und zu Matt McMullen nach Kalifornien bzw. Nevada gereist. Ein ehemaliger Google-Ingenieur, der in LaMDA fälschlicherweise Bewusstsein vermutete, war online zugeschaltet. Den Abschluss bildete ab 21.00 Uhr eine Talkrunde bei Gerd Scobel mit Oliver Bendel, Doris Weßels (Fachhochschule Kiel) und Kristian Kersting (TU Darmstadt). Die Sprache kam auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker äußerte die Meinung, dass KI imstande ist, Schönheit zu produzieren. Nach dreieinhalb Stunden war der Abend, der viele herausragende Bilder und Geschichten lieferte, vorbei.
Abb.: Oliver Bendel bringt NAO zum Dreh (Foto: Sara Zarubica)
Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.
Am 2. März 2023 sind Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Prof. Dr. Kristian Kersting (TU Darmstadt) zu Gast bei Gerd Scobel. Die Sendung dreht sich um ChatGPT und das zugrundeliegende GPT-3. Aufgezeichnet wurde sie am Abend des 28. Februar 2023 im Studio in Köln. Erläutert werden die technologischen Grundlagen und die gesellschaftlichen Auswirkungen. Doris Weßels erwähnt die Veränderungen, die sich an den Hochschulen ergeben, und spricht sich gegen ein Verbot des Programms aus. Oliver Bendel geht darauf ein, dass sich die Kompetenzen der Studenten und Studentinnen verschieben. Sie nehmen den automatisch generierten Content und redigieren und strukturieren ihn. Die Sprache kommt auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker ist der Überzeugung, dass KI imstande ist, Schönheit zu produzieren. Weitere Informationen über www.3sat.de/wissen/scobel/scobel—kulturschock-durch-ki-100.html.
„Generative KI (‚KI‘ steht für ‚künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen. Menschliche Fertigkeiten sollen erreicht oder übertroffen werden. Generative KI kann Schüler, Studenten, Lehrkräfte, Büromitarbeiter, Politiker, Künstler und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Man spricht auch, dem englischen Wort folgend, von Generative AI, wobei ‚AI‘ die Abkürzung für ‚Artificial Intelligence‘ ist.“ Mit diesen Worten beginnt ein Beitrag, der am 22. Februar 2023 im Gabler Wirtschaftslexikon erschienen ist. Es werden Informationen zu Entwicklung und Hintergrund sowie einige Beispiele für Anwendungen gegeben. Am Ende wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Informationsethik. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/generative-ki-124952 abgerufen werden.
Abb.: Midjourney generiert ein Bild einer Schnorchlerin im Meer
Wie Golem am 25. Februar 2023 meldete, hat Meta das Sprachmodell LLaMA angekündigt. Dieses soll in Konkurrenz zu GPT-3 von OpenAI (ChatGPT) und LaMDA von Google (Bard) treten. „LLaMA ist nach Angaben von Meta für die Erstellung von Texten, die Führung von Chat-Gesprächen, die Zusammenfassung von schriftlichen Materialien und für komplexere Aufgaben wie das Lösen von mathematischen Problemen oder die Vorhersage von Proteinstrukturen geeignet. Das Modell wurde von Metas Fundamental AI Research Team entwickelt.“ (Golem, 25. Februar 2023) Das neue Sprachmodell werde derzeit nicht bei Plattformen wie Facebook oder Instagram verwendet. „Stattdessen solle es ausschließlich auf KI spezialisierten Forschern zur Verfügung gestellt werden, um diese bei ihrer Arbeit zu unterstützen.“ (Golem, 25. Februar 2023) Der Artikel „Facebook steigt in den KI-Markt ein“ kann hier abgerufen werden.