Virtuelle Freunde

In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.

Abb.: Was ist von virtuellen Freunden zu halten?

Empathie und Emotion

Am Buch „Soziale Roboter“ (Hrsg. Oliver Bendel) haben zahlreiche führende Experten und hochbegabte Nachwuchswissenschaftler mitgewirkt. Von Alexandra Tanner, Hartmut Schulze, Michelle Rüegg und Andreas Urech stammt die Abhandlung „Empathie und Emotion: Können sich soziale Roboter empathisch verhalten?“. Aus dem Abstract: „Roboter treten mehr und mehr in unser berufliches und privates Leben ein. Sie sprechen und interagieren mit uns, nicht nur aufgabenbezogen, sondern zunehmend auch mit einer sozialen Perspektive. Dies wirft gestalterische Fragen danach auf, wie genau die soziale Interaktion zwischen diesen Maschinen und uns ablaufen und was sie beinhalten sollte. Es sind aber darüber hinaus psychologische Fragen angesprochen. So ist noch wenig bekannt darüber, welche psychologischen Prozesse bei uns Menschen während der Interaktion mit dem Roboter stattfinden, z. B. ob und inwieweit wir ganz im Sinne einer empathischen Perspektivenübernahme versuchen, die emotionale Situation und die dahinterliegenden Ziele des Roboters zu verstehen. Darüber hinaus entdecken wir beim Versuch, dem Roboter seinerseits empathisches Verhalten einzuprogrammieren, was wir alles über unsere Form der empathischen Interaktion noch nicht wissen. Vorliegender Beitrag fasst zunächst einige Grundsätze typisch menschlicher Empathie zusammen, um anschließend typisches robotisch empathisches Verhalten zu skizzieren. Ein vertieftes Verständnis von Empathie bei sozialen Robotern stellt unseres Erachtens eine wichtige Voraussetzung dar, um beispielsweise ethische Fragen zu diskutieren, die sich darauf beziehen, über welche Verhaltensweisen soziale Roboter verfügen sollten und welche ggfs. uns Menschen vorbehalten bleiben sollten. Darüber hinaus unterstützen die Erkenntnisse die Gestaltung einer Mensch-Roboter-Interaktion.“ Das Werk ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Empathie und Emotion zwischen Menschen

Sind soziale Roboter verlässliche Partner?

„Die Changetagung 8 vom 27./28. Januar 2022 in Basel lotet aus, wie es um das Verhältnis von Kooperation, Verlässlichkeit und Steuerung in Zeiten der Digitalisierung bestellt ist.“ (Website Changetagung) Mit diesen Worten wird die nächste Ausgabe der Changetagung angekündigt. Eine der Keynotes stammt von Prof. Dr. Oliver Bendel und trägt den Titel „Sind soziale Roboter verlässliche Partner? Fünf Dimensionen des Gelingens und Scheiterns“. Aus dem Abstract: „Der Beitrag widmet sich zunächst der Definition und den Merkmalen sozialer Roboter und stellt Beispiele aus verschiedenen Bereichen vor. Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Beispiele sind Spielzeugroboter wie Cozmo, Therapieroboter wie Paro, Pflegeroboter wie Lio und P-Care sowie Sexroboter wie Harmony. Soziale Roboter gewinnen Menschen und Tiere mit wohlvertrauten Verhaltensweisen für sich. Aus technischer und funktionaler Sicht sind simulierte Emotionen und simulierte Empathie zur Erreichung des Nutzens für Menschen wichtig, ebenso aus psychologischer, wenn Beziehungen initiiert und etabliert werden sollen. Aus philosophischer und speziell ethischer Sicht stellen sich freilich auch Fragen zu Täuschung und Betrug sowie zur informationellen Autonomie. Genau diesen geht der Beitrag, ausgehend von den Merkmalen und Beispielen sozialer Roboter, dann nach. Er arbeitet heraus, wie soziale Roboter einerseits verlässliche Partner sind, andererseits das Gegenteil, da ihnen echte Emotionen und echte Empathie fehlen, sie nur ein simuliertes Gegenüber darstellen und sie dazu prädestiniert sind, uns unsere Geheimnisse zu entreißen.“ Das vollständige Programm ist hier einsehbar.

Abb.: Sind soziale Roboter verlässliche Partner?

Empathie und Emotionen sozialer Roboter

„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, im Jahre 2019 ausgeschrieben. Den Zuschlag hatte ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Co-Antragsteller Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW befragte zusammen mit Jeanne Kreis 12 Hersteller, Entwickler und Anwender sozialer Roboter aus der Schweiz, aus Deutschland, aus Luxemburg und den USA. Zudem nahmen sie die Perspektive von Informations-, Roboter- und Maschinenethik ein, um die simulierte Empathie und die simulierten Emotionen einordnen und Empfehlungen für die Gestaltung sozialer Roboter erarbeiten zu können. Ihre beiden Arbeitspakete wurden im Oktober 2020 abgeschlossen. Beteiligt an dem Projekt, das bis zum Frühjahr andauert, sind neben den Genannten u.a. Prof. Dr. Hartmut Schulze (Antragsteller, Psychologie), Prof. Dr. Maria Schubert (Co-Antragstellerin, Pflegewissenschaft), Prof. Dr. Mathias Binswanger (VWL) und Dr. Monika Simmler (Rechtswissenschaft). Der vollständige Projektbericht mit dem Titel „Chancen und Risiken sozialer Roboter für die Schweiz“ liegt bis Mitte 2021 vor.

Abb.: Ein Roboter im Futurium

Können Roboter Gefühle entwickeln?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Robben haben Gefühle, Roboter nicht

Ich bin nur eine Maschine

„Forscher arbeiten unter Hochdruck an sozialen Robotern. Sie sollen echte Gefährten werden, sogar eigene Persönlichkeit entwickeln. So schwindet die Differenz zwischen Mensch und Maschine. Das wirft ethische Fragen auf.“ (RP, 10. März 2016) Mit diesen Worten beginnt der Artikel „Soziale Roboter auf dem Vormarsch“ von Dorothee Krings, erschienen am 10. März 2016 in der Rheinischen Post. Eingegangen wird auf zwei neue Projekte in diesem Bereich: An der Uni Bielefeld wird „an einem Maschinen-Lehrer gebaut, der Einwandererkindern beim Deutschlernen helfen soll“ (RP, 10. März 2016). „Nao ist nur 60 Zentimeter groß, ein niedliches Spielzeug, aber er kann sehen, hören und bald auch die Stimmungslage seines Gegenübers einschätzen – und auf Unlust reagieren.“ (RP, 10. März 2016) In Freiburg „wird an Fritz getüftelt, einem Gestell mit Comicgesicht, das Blickkontakt aufnehmen und die Mundwinkel sinken lassen kann, wenn man sich von ihm abwendet“. Er soll „durchs Museum führen und merken, wenn seine Zuhörer sich langweilen“ (RP, 10. März 2016). „In 20 Jahren wird man Roboter haben, die wirklich unter uns leben, mit denen wir reden, die wir lieben“, wird Oliver Bendel zitiert, „einer der führenden Maschinenethiker, der in der Schweiz lehrt“ (RP, 10. März 2016). Dabei sieht er neben den Chancen die Risiken und macht Vorschläge, wie das Zusammenleben gelingen kann. Er spricht von einem V-Effekt für Roboter, „frei nach dem Theater von Brecht“; „der Roboter hält inne und betont, dass er nur eine Maschine ist“ (RP, 10. März 2016). Der Artikel kann über www.rp-online.de/politik/soziale-roboter-auf-dem-vormarsch-aid-1.5824498 abgerufen werden.

Abb.: Ich bin nicht echt!