Bei LLMs kann die Manipulation unterschiedliche Schritte oder Elemente betreffen, etwa die Auswahl der Trainingsdaten, das Reinforcement Learning from Human Feedback, das Finetuning, das Prompt Engineering und das Feedback von Endbenutzern. Davon zu trennen ist das Halluzinieren, das nicht gezielt herbeigeführt wird. Bei OpenAI und anderen Herstellern wie xAI ist bekannt, dass sie ihre LLMs manipulieren. So weichen diese etwa von Standardsprache ab und formulieren immer wieder Sätze in Gendersprache, die von der Mehrheit abgelehnt wird. Es geht dabei nicht nur um ChatGPT, es geht auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich OpenAI an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs rücken dann ihre Ersteller in ein bestimmtes Licht, ohne dass die etwas dafür können. Über die Sprache hinaus tendieren LLMs oft zu bestimmten gesellschaftlichen und politischen Einstellungen. Hier muss man nicht unbedingt von Manipulation sprechen, aber es kann eine Tendenziösität vorhanden sein, die man hinterfragen darf. In einem Artikel des Handelsblatts vom 25. Februar 2025 sind Statements von Oliver Bendel zur Manipulation von LLMs enthalten.
In den Jahren 2005 und 2006 praktizierten Oliver Bendel und seine Studenten und Studentinnen in Wikipedia organisierten Vandalismus. Sie schrieben Artikel wie den zu ihrer Hochschule um. Der Wissenschaftler wollte damit seinem Kurs die Manipulierbarkeit der Onlineenzyklopädie aufzeigen, die von Jimmy Wales und Larry Sanger gegründet wurde. Am Ende des Unterrichts wurden alle Änderungen rückgängig gemacht. Damals galt kein Vieraugenprinzip in der deutschsprachigen Wikipedia – Aktualisierungen wurden auf die Schnelle weder von Bots noch von Menschen kontrolliert. Heute gibt es weltweit vielfältige Mechanismen, und doch kommt es regelmäßig zu echtem Vandalismus und zu Hoaxes. Wie Golem am 14. Juli 2022 berichtete, dichtete eine Chinesin namens Zhemao aus Langeweile russische Geschichte um. „Sie ging dabei überaus planvoll vor: Sie vermischte Fakten und Fiktion, zitierte aus Quellen, die in der angegebenen Ausgabe nicht existierten oder in denen die angegebene Seite nicht vorhanden war. Zudem schuf sie mehrere sogenannte Sockenpuppen, die Zhemaos Artikel Glaubwürdigkeit verleihen sollten.“ (Golem, 14. Juli 2022) Eine von ihnen behauptete sogar, sie getroffen zu haben. Erneut zeigen sich die Grundprobleme von Wikipedia in aller Deutlichkeit. Sie ist in der Masse von Laien getrieben, und nicht alle von ihnen haben gute Absichten. Es werden Falschinformationen verbreitet und z.T. erst nach einiger Zeit aufgedeckt. In der Onlineenzyklopädie selbst ist über Larry Sanger, der Wikipedia bald nach der Gründung verließ, zu lesen: „Seit seinem Abschied hat er sich … zunehmend vehement von Wikipedia distanziert, da er der Ansicht ist, dass Fachexperten in der Enzyklopädie eine größere Rolle spielen sollten, um die Qualität und Verlässlichkeit zu steigern und ihre Reputation zu verbessern.“ (Wikipedia, Eintrag zu Larry Sanger) Oliver Bendel beschrieb seine damaligen Aktivitäten in seinem Artikel „Wikipedia als Methode und Gegenstand der Lehre“, der in der HMD (Heft 252/2006, S. 82 – 88) veröffentlicht wurde.
Abb.: Wikipedia ist ebenso beliebt wie problematisch
On June 30, 2022, the paper „Should Social Robots in Retail Manipulate Customers?“ by Oliver Bendel and Liliana Margarida Dos Santos Alves was published on arxiv.org. It was presented at the AAAI 2022 Spring Symposium „How Fair is Fair? Achieving Wellbeing AI“ at Stanford University and came in third place in the Best Presentation Awards. From the abstract: „Against the backdrop of structural changes in the retail trade, social robots have found their way into retail stores and shopping malls in order to attract, welcome, and greet customers; to inform them, advise them, and persuade them to make a purchase. Salespeople often have a broad knowledge of their product and rely on offering competent and honest advice, whether it be on shoes, clothing, or kitchen appliances. However, some frequently use sales tricks to secure purchases. The question arises of how consulting and sales robots should “behave”. Should they behave like human advisors and salespeople, i.e., occasionally manipulate customers? Or should they be more honest and reliable than us? This article tries to answer these questions. After explaining the basics, it evaluates a study in this context and gives recommendations for companies that want to use consulting and sales robots. Ultimately, fair, honest, and trustworthy robots in retail are a win-win situation for all concerned.“ The paper will additionally be published in the proceedings volume of the symposium by the end of summer. It can be downloaded via arxiv.org/abs/2206.14571.
Fig.: Social robots with sales tricks (Photo: Daimler and Benz Foundation)
Under the supervision of Prof. Dr. Oliver Bendel, Liliana Margarida Dos Santos Alves wrote her master thesis „Manipulation by humanoid consulting and sales hardware robots from an ethical perspective“ at the School of Business FHNW. The background was that social robots and service robots like Pepper and Paul have been doing their job in retail for years. In principle, they can use the same sales techniques – including those of a manipulative nature – as salespeople. The young scientist submitted her comprehensive study in June 2021. According to the abstract, the main research question (RQ) is „to determine whether it is ethical to intentionally program humanoid consulting and sales hardware robots with manipulation techniques to influence the customer’s purchase decision in retail stores“ (Alves 2021). To answer this central question, five sub-questions (SQ) were defined and answered based on an extensive literature review and a survey conducted with potential customers of all ages: „SQ1: How can humanoid consulting and selling robots manipulate customers in the retail store? SQ2: Have ethical guidelines and policies, to which developers and users must adhere, been established already to prevent the manipulation of customers‘ purchasing decisions by humanoid robots in the retail sector? SQ3: Have ethical guidelines and policies already been established regarding who must perform the final inspection of the humanoid robot before it is put into operation? SQ4: How do potential retail customers react, think and feel when being confronted with a manipulative humanoid consultant and sales robot in a retail store? SQ5: Do potential customers accept a manipulative and humanoid consultant and sales robot in the retail store?“ (Alves 2021) To be able to answer the main research question (RQ), the sub-questions SQ1 – SQ5 were worked through step by step. In the end, the author comes to the conclusion „that it is neither ethical for software developers to program robots with manipulative content nor is it ethical for companies to actively use these kinds of robots in retail stores to systematically and extensively manipulate customers‘ negatively in order to obtain an advantage“. „Business is about reciprocity, and it is not acceptable to systematically deceive, exploit and manipulate customers to attain any kind of benefit.“ (Alves 2021) The book „Soziale Roboter“ – which will be published in September or October 2021 – contains an article on social robots in retail by Prof. Dr. Oliver Bendel. In it, he also mentions the study by Liliana Margarida Dos Santos Alves.
Betrügende, täuschende und lügende Hardware- und Softwareroboter sind ein Stück weit erforscht. Die wenigen Prototypen wurden in der Disziplin der Maschinenethik gebaut, etwa von Ron Arkin (Georgia Tech) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Sie diskutierten 2016 zusammen in Krakau über „deceptive machines“ … Beratungs- und Verkaufsroboter – meist soziale Roboter – werden sich immer mehr verbreiten. Verkäufer und Berater sind selten Betrüger – aber sie manipulieren häufig die Kunden, damit diese ein Produkt kaufen. Die Frage ist nun, ob der Roboter dies auch tun soll. Dazu entsteht derzeit eine Masterarbeit unter der Betreuung von Oliver Bendel. Seit dem 9. Februar 2021 wird eine Onlinebefragung zum Thema durchgeführt. Die Studentin Liliana Margarida Dos Santos Alves schreibt auf ihrer Website: „Das Hauptziel meiner Masterthesis und Umfrage ist es, herauszufinden, ob es ethisch und moralisch vertretbar ist, humanoide Beratungs- und Verkaufsroboter im Einzelhandel einzusetzen, die Kunden derart manipulieren können, dass sie deren Kaufentscheidungen beeinflussen, um gezielt davon zu profitieren (z. B. Verkauf von Produkten, die der Kunde gar nicht braucht).“ Man kann an der Befragung bis ca. Ende April 2021 über www.survio.com/survey/d/V7Y/manipulativeroboter teilnehmen.