Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.
Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)
„Machina Sapiens“ lautet der Titel der diesjährigen Ausgabe des Festivals science+fiction in Basel. „Vom 5. bis 7. Mai beleuchtet es die Schnittstellen zwischen Menschen und Maschinen. Wo prägt uns die Künstliche Intelligenz schon heute? Wie gehen wir als Gesellschaft mit den vielen Chancen und Risiken um?“ (Website science+fiction) „Wissenschaftlerinnen und Entwickler, Philosophen und Kunstschaffende diskutieren mit dem Publikum über diese brennenden Fragen.“ (Website science+fiction) Prof. Dr. Oliver Bendel stellt zum einen seinen LÜGENBOT vor, ein Beispiel für eine Münchhausen-Maschine, und diskutiert zum anderen bei dem Panel „Maschinen und das Gesetz“ mit. „Selbstfahrende Autos, Pflegeroboter und autonom agierende Drohnen“ – die Errungenschaften der Forschung seien verheißungs- und verhängnisvoll zugleich. „Sie stellen uns auch vor neue juristische und ethische Fragen. Wer haftet, wenn eine Maschine eine Straftat begeht? Sind Roboter moralische Geschöpfe? Müssen neue Gesetze für Künstliche Intelligenzen geschaffen werden? Wer entscheidet, ob eine Maschine ein rechtliches Subjekt ist?“ (Website science+fiction) Weitere Informationen über scienceandfiction.ch. Zudem steht ein Flyer zur Verfügung.
Der Artikel „So erkennen Sie Meinungsroboter“ von Teresa Sickert widmet sich dem Phänomen der Social Bots. „Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.“ (Spiegel Online, 19. Januar 2017) Und weiter: „Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.“ (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.
„Die Münchhausen-Maschine“ – so der Titel eines Beitrags am 7. Januar 2017 bei Deutschlandradio Kultur (Breitband, 13.05 – 14.00 Uhr). „Können Maschinen lügen? Wenn man sie so programmiert wie der Maschinenethiker Oliver Bendel seinen Lügenbot, dann schon. Der produziert auf Basis von zehn Lügenstrategien Aussagen wie ‚Angela Merkel ist Bundeskanzlerin und die beste Rapperin der Welt‘. Was können wir mit dieser ‚Lügen-Maschine‘ herausfinden, wie dieses Wissen nutzen? Darüber sprechen wir mit seinem Erfinder Oliver Bendel.“ (Website Deutschlandradio Kultur) Zudem geht es in der Sendung um Racial Profiling: „Der Tweet der Kölner Polizei mit dem Ausdruck ‚Nafri‘ sorgte für Verärgerung im Netz. Aber er machte auf etwas aufmerksam, was in der Polizeiarbeit schon länger Praxis ist: Racial Profiling. Diese diskriminierende Ermittlungsmethode wird nicht nur von Menschen, sondern auch von Computern angewendet.“ (Website Deutschlandradio Kultur) Und um Predicitive Policing, also „das Prinzip, mit Hilfe von Daten, statistischen Auswertungen und Profiling-Algorithmen Verbrechen erkennen und verhindern zu können“. „Wie viele Vorurteile im Predictive Policing stecken und wie die Polizei hierzulande arbeitet, hat sich Philip Banse gefragt.“ (Website Deutschlandradio Kultur) Weitere Informationen über www.deutschlandradiokultur.de.
Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.
Raffael Schuppisser beleuchtet in seinem Artikel „Roboter lügen uns ins Gesicht“ (Schweiz am Sonntag, 18. September 2016) die Möglichkeiten von Lügenmaschinen. Er geht auf Social Bots ein, die Accounts in sozialen Medien anlegen, Kommentare schreiben und Gerüchte streuen, und auf Tay von Microsoft, der in schlechte Gesellschaft geriet und zum Rassisten wurde. Immer wieder zu Wort kommt Oliver Bendel, der 2013 die Idee zu einem LÜGENBOT aka LIEBOT hatte, diesen in mehreren Artikeln beschrieb und dann 2016 mit seinem Studenten Kevin Schwegler entwickelte. Der LÜGENBOT wendet unterschiedliche Lügenstrategien an und benutzt u.a. einen Thesaurus der Princeton University sowie Yahoo als Suchmaschine und Vorschlagsdienst. Wenn er nicht weiterweiß, fragt er seinen Kollegen, den Cleverbot, und borgt sich eine Antwort. Sieben verschiedene Animationen zeigen die jeweiligen Strategien an. Wird beispielsweise eine für wahr gehaltene Aussage negiert, wächst die Nase der Münchhausen-Maschine, und man fühlt sich an Pinocchio erinnert. Wenn ein Wort durch ein Antonym ausgetauscht wird, etwa „Junge“ durch „Mädchen“, wird der LIEBOT rot. Der Artikel ist auf Seite 15 der Zeitung aus Baden erschienen und kann auch online eingesehen werden, über www.schweizamsonntag.ch/ressort/nachrichten/roboter_luegen_uns_ins_gesicht/.
Die VDI-Zukunftskonferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org (Links nicht mehr gültig). Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.
Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren oder sie auch gegenüber anderen Lügen zu bevorzugen. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.
The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born, a kind of a Munchausen machine. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).
Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.
An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot (Liebot) entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ sowie „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ und „Der Lügenbot und andere Münchhausen-Maschinen„. In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.
Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.
In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.