Sprachmodelle als Münchhausen-Maschinen

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien, sodass er eine unwahre oder unrichtige Antwort an den Benutzer weitergeben konnte. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Jüngste Ergebnisse von Forschern des Start-ups Anthropic zeigen nun laut Andreas Donath von Golem, „dass KI-Systeme darauf trainiert werden können, Menschen anzuschwindeln und in die Irre zu führen“ (Golem, 14. Januar 2024). Hier kann man von Münchhausen-Maschinen sprechen, da – wie beim LIEBOT – eine Absicht besteht, anders als etwa beim Halluzinieren, das gelegentlich und versehentlich geschieht. Der Golem-Artikel mit dem Titel „Anthropic zeigt Gefahren absichtlich schwindelnder KI“ (später umbenannt in „Mit dem richtigen Training kann KI täuschen und schwindeln“) kann hier abgerufen werden.

Abb.: Der Baron nicht nur auf einer Kugel, sondern auf einer ganzen Kanone (Bild: DALL-E 3)

ChatGPT und Co. als Münchhausen-Maschinen?

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.

Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)

Er lehrt Roboter Moral

„Bei einer ersten Begegnung vor fünf Jahren wirkte Oliver Bendel ziemlich abgefahren. Damals skizzierte er eine Zukunft, in der Technologien auf der Kontaktlinse oder unter der Haut stecken und Kriminelle eben jemandem eine Hand abhacken, um sich mit dem implantierten Chip Zugang zu einem Gebäude zu verschaffen. Er erzählte von einer Welt voller virtuellen Assistenten und Roboter, von seinem Staubsauger mit Moral, den er bauen wollte. Es klang nach Science-Fiction.“ (NZZ, 14. Juni 2019) Im Frühjahr 2019 hat Melanie Keim den Informations- und Maschinenethiker nochmals getroffen, im Lichthof der Universität Zürich. Sie findet ihn immer noch abgefahren. Aber sie hält in ihrem Artikel „Er lehrt Roboter Moral“ für die NZZ fest, dass seine Themen – zu denen er seit zwanzig Jahren forscht – im Mainstream angekommen sind. Inzwischen wurde LADYBIRD, der tierfreundliche Saugroboter, als Prototyp gebaut, und der LIEBOT, der systematisch lügen konnte, ist Geschichte. Dieser erklärte im Sommer 2016, dass Donald Trump der Präsident der USA sei. Warum er dies tat, wird in mehreren Papers und auf mehreren Slides erklärt, die u.a. über www.oliverbendel.net und www.maschinenethik.net heruntergeladen werden können. Nur soviel sei verraten: Es wird sozusagen Pingpong mit Yahoo gespielt. Der Artikel vom 22. Juni 2019 steht als PDF zur Verfügung. Zusätzlich gibt es eine Onlineversion.

Abb.: Auch Mähroboter kann man moralisieren

Münchhausen-Maschine

„Die Münchhausen-Maschine“ – so der Titel eines Beitrags am 7. Januar 2017 bei Deutschlandradio Kultur (Breitband, 13.05  – 14.00 Uhr). „Können Maschinen lügen? Wenn man sie so programmiert wie der Maschinenethiker Oliver Bendel seinen Lügenbot, dann schon. Der produziert auf Basis von zehn Lügenstrategien Aussagen wie ‚Angela Merkel ist Bundeskanzlerin und die beste Rapperin der Welt‘. Was können wir mit dieser ‚Lügen-Maschine‘ herausfinden, wie dieses Wissen nutzen? Darüber sprechen wir mit seinem Erfinder Oliver Bendel.“ (Website Deutschlandradio Kultur) Zudem geht es in der Sendung um Racial Profiling: „Der Tweet der Kölner Polizei mit dem Ausdruck ‚Nafri‘ sorgte für Verärgerung im Netz. Aber er machte auf etwas aufmerksam, was in der Polizeiarbeit schon länger Praxis ist: Racial Profiling. Diese diskriminierende Ermittlungsmethode wird nicht nur von Menschen, sondern auch von Computern angewendet.“ (Website Deutschlandradio Kultur) Und um Predicitive Policing, also „das Prinzip, mit Hilfe von Daten, statistischen Auswertungen und Profiling-Algorithmen Verbrechen erkennen und verhindern zu können“. „Wie viele Vorurteile im Predictive Policing stecken und wie die Polizei hierzulande arbeitet, hat sich Philip Banse gefragt.“ (Website Deutschlandradio Kultur) Weitere Informationen über www.deutschlandradiokultur.de.

Abb.: Auch Pinocchio war ein Meister der Lüge

VDI-Zukunftskonferenz zu humanoiden Robotern

Die VDI-Zukunftskonferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org (Links nicht mehr gültig). Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.

The Munchausen Machine

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born, a kind of a Munchausen machine. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: The adventures of Baron Munchausen

37 Grad im Schatten, sagt der Lügenbot

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot (Liebot) entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ sowie „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ und „Der Lügenbot und andere Münchhausen-Maschinen„. In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Abb.: Auch ein Meister der Lüge

Der Lügenbot Nana

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Abb.: Ein Ikea in Krakau

Der Lügenbot

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Er ist bekannt für seine Lügen