In der Studie „Roboter, Empathie und Emotionen“ von 2021 schlägt Prof. Dr. Oliver Bendel die Einrichtung von Roboterparks in der Schweiz vor: „Um Menschen Maschinen näher zu bringen und eine kritische Einschätzung zu ermöglichen, ist der direkte Kontakt zu fördern, etwa mit Hilfe von Roboterparks. Zugleich müssen auch – zumindest vorübergehend – Räume eingerichtet werden, in denen keine sozialen Roboter sind bzw. eine Roboterquote besteht, um den Einwohnerinnen und Einwohnern, die zurückhaltend und argwöhnisch sind, Sicherheit zu geben, und zwar sowohl in städtischen als auch in ländlichen Gebieten der Schweiz.“ (Studie „Roboter, Empathie und Emotionen“) Bereits am 8. Dezember 2020 plädierte er in seinem Vortrag „Ethische Dimensionen von Robotik in der Pflege“ im deutschen Bundesministerium für Gesundheit (BMG) für Roboterparks, in denen man realen Robotern begegnet. „Man kann auch spezifische Parks mit Robotern in der Pflege einrichten. Dort könnten zudem gedankengesteuerte Rollstühle, Exoskelette, Hightechprothesen etc. ihren Platz haben.“ Die eingangs genannte Studie ist hier verfügbar.
Zahlreiche führende Experten und hochbegabte Nachwuchswissenschaftler haben am Buch „Soziale Roboter“ mitgewirkt. Von Ayanda Rogge stammt die Untersuchung „Artificial Companions der ersten Generation: Explorative Untersuchung zu Gestaltung und Kommunikationsfähigkeiten sowie ein Typologievorschlag nach Einsatzbereichen“. Aus dem Abstract: „In der theoretischen Diskussion ist mit einem Artificial Companion eine Reihe an Eigenschaften gemeint, welche fördern sollen, dass Nutzer:innen ein technologisches System als verlässlichen und treuen Gefährten wahrnehmen. Bislang gibt es allerdings keinen Konsens darüber, welche Eigenschaften dafür konkret notwendig sind. Der vorliegende Beitrag nähert sich deshalb der Thematik von einer praktischen Seite, damit Aussagen über die Eigenschaften heutiger Companion-Systeme getroffen werden können – welche in der vorliegenden Arbeit als Artificial Companions der ersten Generation bezeichnet werden. Der Beitrag stellt die Ergebnisse einer deskriptiven Datenanalyse von n=50 Companion-Robotern vor, die hinsichtlich ihres Aussehens und ihrer kommunikativen Fähigkeit verglichen werden. Es erfolgt ein Vorschlag für eine Companion-Typologie anhand ihrer Einsatzgebiete inklusive Beschreibung der zentralen Aufgaben und Funktionen. Der letzte Teil erläutert zwei zentrale Motive, auf deren Grundlage Artificial Companionships entstehen können.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Abb.: Harmony und ihre Bewunderinnen bei einer Messe (Foto: Realbotix)
Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil war Prof. Dr. Oliver Bendel. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.
In der am 8. November 2021 veröffentlichten Studie „Soziale Roboter, Empathie und Emotionen“ sind die Ergebnisse einer Hersteller-, Entwickler- und Anwenderbefragung enthalten, die von Prof. Dr. Oliver Bendel und Jeanne Kreis durchgeführt wurde. Neben der äußerlichen Gestaltung hielten die Befragten – so heißt es in der Zusammenfassung – natürlichsprachliche Fähigkeiten sozialer Roboter für zentral. Mit Blick auf Geschäftsmodelle wurde allgemein bemerkt, dass überzeugende Nutzenversprechen, Architekturen der Wertschöpfung und Ertragsmodelle für den Einsatz fehlen. Europa hinkt nach der Meinung der Befragten bei der Förderung und Entwicklung von sozialen Robotern hinterher. Diese bilden insgesamt noch keinen Massenmarkt, versprechen aber laut Mehrheitsmeinung ein großes Wachstum. Die meisten Unternehmen räumten ein, kaum Psychologen, Soziologen oder Philosophen zu beschäftigen oder mit Experten aus diesen Fachdisziplinen regelmäßig zusammenzuarbeiten. Eine wissenschaftliche Ethik kann daher nach Meinung der Autoren kaum betrieben werden. Die sozialen Roboter der interviewten Hersteller, Entwickler und Betreiber simulieren mehrheitlich Emotionen. Nach Ansicht mehrerer Hersteller sollten sie situationsspezifisch positive Emotionen wie Freude oder Überraschung ausdrücken und keine oder nur wenige negative Emotionen wie Ärger, Ekel oder Furcht zeigen. Einhellig war die Ansicht, dass soziale Roboter bei Menschen starke Emotionen hervorrufen. Dies wird von mehreren Befragten als eher unproblematisch oder gar hilfreich gesehen. Eine Mehrheit befand, dass es kein Problem darstelle, wenn der Mensch ein enges Verhältnis zum Roboter aufbaut. Hier schätzten die Interviewten die Selbstverantwortung und Selbstbestimmung der Besitzer und Nutzer als hoch ein. Mehrere von ihnen waren darüber hinaus der Meinung, dass soziale Roboter als potenzielle Spione verstanden werden können. Einige interviewte Hersteller bestätigten, dass ihre Systeme auch persönliche Daten weiterreichen. Die ethische und rechtliche Regulierung bei sozialen Robotern war ein kontroverses Thema. Mehrheitlich äußerten die interviewten Hersteller und Entwickler die Befürchtung, dass zu strenge Regulierungen Entwicklungen hemmen bzw. erschweren könnten. Die Studie ist über zenodo.org/record/5554564 verfügbar.
Dass Google deutsche Medien unterstützt und direkt oder indirekt beeinflusst, ist seit einer Weile bekannt. Es fehlte aber eine umfassende Studie dazu. Diese wurde am 26. Oktober 2020 von Ingo Dachwitz und Alexander Fanta vorgelegt, unter dem Titel „Medienmäzen Google: Wie der Datenkonzern den Journalismus umgarnt“. Die Zusammenfassung: „Der Internet-Riese Google hat seit 2013 mehr als 200 Mio. Euro in den europäischen Journalismus gesteckt, der Löwenanteil ging nach Deutschland. Neben technologischen Entwicklungen werden auch Rechercheprojekte gefördert, Journalismus-Kongresse organisiert und Ausbildungsaufenthalte junger JournalistInnen finanziert. Warum macht Google das? Ingo Dachwitz und Alexander Fanta, zwei engagierte Wissenschaftler und profilierte Datenjournalisten, beschreiben die Facetten eines komplexen ‚Ökosystems‘ von Medienverlagen, Redaktionen und Datenkonzernen, werten aktuelle Daten über die finanziellen Zuwendungen aus und befragen AkteurInnen beider Seiten zu dieser ungewöhnlichen Zusammenarbeit. Die Studie, von der OBS und dem DGB auf den Weg gebracht, zeigt, wie Google die Medien umgarnt – und lädt zugleich ein zu einer Debatte über öffentliche Innovationsförderung für den Medienbereich.“ Die Studie kann über www.otto-brenner-stiftung.de/wissenschaftsportal/informationsseiten-zu-studien/medienmaezen-google/ heruntergeladen werden.
Abb.: Ein Google-Stand bei einem Event in Deutschland
„Our sexual future with robots“ ist der Titel einer neuen Studie zu Sexrobotern und Robotersex, erschienen im Sommer 2017. Zuletzt war im Frühjahr 2017 der Proceedingsband „Love and sex with robots“ bei Springer erschienen, nach einer vielbeachteten Konferenz in London (LSR 2016) – nun widmen sich Noel Sharkey, Aimee van Wynsberghe, Scott Robbins und Eleanor Hancock dem Thema. Sie zitieren wissenschaftliche Artikel und Bücher und immer wieder auch die Medien, die in diesem Kontext eine sprudelnde, aber nicht immer verlässliche Quelle sind. Sieben Fragen stellen sich die Autorinnen und Autoren: „Q1. Would people have sex with a robot? Q2. What kind of relationship could we have with a sex robot? Q3. Will robot sex workers and bordellos be acceptable? Q4. Will sex robots change societal perceptions of gender? Q5. Could intimacy with robots lead to greater social isolation? Q6. Could robots help with sexual healing and therapy? Q7. Would sex robots help to reduce sex crimes?“ (Studie 2017) Sie kommen zu differenzierten Antworten, sehen einige Chancen und etliche Risiken. Ein Aspekt geht in den meisten Beiträgen zum Thema unter: Das Denken und Bauen von Sexmaschinen, Sexrobotern und Liebespuppen ist ein Anwenden von Kunstformen und ein Besetzen von Spielwiesen. Nicht umsonst fand die erwähnte LSR-Konferenz am Goldsmiths in London statt, wo sie auch Ende 2017 ihren Platz finden wird.
Abb.: Sexroboter entstehen aus Phantasiegestalten und sind Kunstprodukte
Die SATW hat im Februar 2017 die Studie „Ethische Herausforderungen für Unternehmen im Umgang mit Big Data“ präsentiert, in der die ethischen Herausforderungen von Big-Data-Anwendungen untersucht und Handlungsempfehlungen für Unternehmen und Politik formuliert werden. „Die Experten konnten acht ethische Normen und Werte identifizieren, die von Big Data tangiert werden. Oft müssen die Ansprüche der Konsumenten mit den ebenso berechtigten Ansprüchen der Unternehmen abgewogen werden.“ (Studie SATW) Zur informationellen Selbstbestimmung heißt es: „Jeder hat das Recht, selbst über das Erheben, Speichern, Verwenden und Weitergeben persönlicher Daten zu bestimmen.“ (Studie SATW) Für die Verwendung der Daten brauche es eine explizite, informierte Zustimmung, also eine Zustimmung nach erfolgter Aufklärung des Einzelnen. „Problematisch wäre eine gezielte emotionale Manipulation durch Werbung, die eine informierte Zustimmung erschweren könnte.“ (Studie SATW) Und zur digitalen Identität: „Die Kontrolle der eigenen digitalen Identität ist ein Spezialfall der informationellen Selbstbestimmung. Big-Data-Anwendungen machen es möglich, verschiedene Merkmale des Kunden zu einer digitalen Identität zu verdichten.“ (Studie SATW) Ethisch fragwürdig sei dieses Vorgehen dann, wenn der Kunde davon nichts wisse und keine Möglichkeit habe, allfällige Fehler zu korrigieren. Die Kurzfassung kann mit freundlicher Genehmigung der Verantwortlichen hier heruntergeladen werden. Die Studie kann man über www.satw.ch/bigdata bestellen.
Abb.: Viele Daten und Informationen gab es bereits in der Bibliothek