Projekt „The Animal Whisperer“ startet

Am 18. März 2024 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er wird im Rahmen seiner Abschlussarbeit drei GPT-4-basierte Anwendungen entwickeln, mit denen man Körpersprache und Umfeld von Kühen, Pferden und Hunden analysieren kann. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und ein Foto von der Umgebung machen. Nick Zbinden wird Literatur auswerten und mehrere Expertengespräche führen, um mehr über die Situation von Nutz- und Haustieren und ihr Verhalten zu erfahren. Er wird die Möglichkeiten, aber auch die Grenzen von multimodalen Sprachmodellen in diesem Kontext aufzeigen. Die Ergebnisse werden im August 2024 vorliegen.

Abb.: In einer solchen Situation könnte die Anwendung eingesetzt werden

Projekt zu GPT-4 für Blinde und Sehbehinderte

In einem aktuellen Projekt untersucht Prof. Dr. Oliver Bendel die Möglichkeiten und Grenzen der Funktion Be My AI der App Be My Eyes. Es handelt sich um eine GPT-4-basierte Entwicklung im Bereich der visuellen Assistenz für Blinde und Sehbehinderte. In der kleinen Studie werden eigene Tests beschrieben und ausgewertet. Zudem findet eine ethische und soziale Diskussion statt. Es zeigt sich die Mächtigkeit des Werkzeugs, das Standbilder auf eine erstaunliche Weise analysieren kann. Die Betroffenen erhalten eine neue Unabhängigkeit und eine neue Wahrnehmung ihrer Umwelt. Zugleich sind sie von der Weltanschauung und Moral des Anbieters bzw. Entwicklers abhängig, der ihnen bestimmte Beschreibungen vorgibt oder verweigert. Bei allen noch vorhandenen Schwächen und Fehlern wird deutlich, dass hier ein Paradigmenwechsel stattgefunden hat. In einem Ausblick der Studie wird deutlich gemacht, dass die Analyse von Bewegtbildern einen weiteren Sprung bedeuten wird. Man kann mit Fug und Recht behaupten, dass generative AI die Situation von Blinden und Sehbeeinträchtigten grundlegend verbessern kann und in unterschiedlicher Weise verändern wird. Die Ergebnisse des Projekts werden im Frühjahr 2024 veröffentlicht.

Abb.: Eine Ampelanlage mit Braille-Schrift

ITAS bleibt Betreiber des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB)

„Das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) beim Karlsruher Institut für Technologie (KIT) bleibt Betreiber des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Der zuständige Ausschuss für Bildung, Forschung und Technikfolgenabschätzung hat in seiner heutigen Sitzung einstimmig beschlossen, die Zusammenarbeit auch in der nächsten Vertragslaufzeit von September 2023 bis August 2028 fortzusetzen.“ (Pressemitteilung Deutscher Bundestag, 21. Juni 2023) Dies meldete die Pressestelle des Deutschen Bundestags am 21. Juni 2023 in einer Pressemitteilung. Leiter des ITAS ist Prof. Dr. Armin Grunwald, einer der renommiertesten Technikphilosophen in Europa. Zuletzt legte das TAB laut Pressemitteilung eine Studie zu den Anwendungspotenzialen und möglichen gesellschaftlichen Auswirkungen von KI-Systemen wie ChatGPT vor. „Weitere wesentliche Studien der letzten Monate beschäftigten sich mit den gesellschaftspolitischen und rechtlichen Herausforderungen von Data-Mining, dem Einfluss von Algorithmen in digitalen Medien auf die Meinungsbildung, den Herausforderungen von Beobachtungstechnologien im Bereich der zivilen Sicherheit oder den Innovationen des urbanen Holzbaus.“ (Pressemitteilung Deutscher Bundestag, 21. Juni 2023)

Abb.: Armin Grunwald und Oliver Bendel beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)

DeepL verwendet gegenderte Sprache

DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.

Abb.: Ein scherzhaft verwendeter Genderstern in Zürich

Zehn Missverständnisse rund um die Gendersprache

Es gibt viele Missverständnisse rund um die Gendersprache. Hier sind zehn davon, jeweils mit dem Versuch einer Ausräumung. 1. Geschlechtergerechte Sprache ist geschlechtergerecht: Sogenannte geschlechtergerechte Sprache ist in der Praxis nicht geschlechtergerecht, sondern sexistisch, da männliche Formen oft wegfallen. 2. Geschlechtergerechte Sprache ist geschlechtsneutral: Sogenannte geschlechtergerechte Sprache ist häufig sexualisierend und nennt Geschlechter, wo sie keine Rolle spielen. 3. Sprache muss moralisch sein: Sprache dient in erster Linie nicht der Herstellung von Moral, sondern der Verständigung, und eine Ausrichtung an der Moral kann sie als System stören und ihre Funktion beeinträchtigen. 4. Haltung ist wichtiger als Zielerfüllung: Die Verwendung von Gendersprache an den Hochschulen, in den Medien und in den Verlagen beeinträchtigt Korrektheit, Präzision und Prägnanz, also die Voraussetzungen für erfolgreiches Wirken in diesen Bereichen. 5. Gendersprache kann Mitarbeitern und Mitgliedern vorgeschrieben werden: Die Verwendung von Sprache in Unternehmen und an Hochschulen sollte den amtlichen Rechtschreibregeln folgen (an Hochschulen braucht es einen objektiven Maßstab für die Bewertung studentischer Arbeiten) und ist ansonsten geschützt durch Persönlichkeitsrechte und die Wissenschaftsfreiheit. 6. Sprache entwickelt sich weiter: Natürliche Sprache entwickelt sich nicht durch Vorgaben weiter, schon gar nicht durch Vorgaben einer Minderheit, sondern durch den Sprachgebrauch einer Mehrheit, außer in totalitären Systemen. 7. Beim generischen Maskulinum sind Frauen nur mitgemeint: Das Genus, das missverständlich generisches Maskulinum genannt wird, meint kein bestimmtes Geschlecht (es meint auch keines mit) und ist geschlechtsneutral. 8. Studien zeigen, dass sich Frauen durch das generische Maskulinum nicht mitgemeint fühlen: Es handelt sich mehrheitlich um problematische Assoziationsstudien, und objektiv gesehen werden mit dem generischen Maskulinum alle angesprochen. 9. Das generische Maskulinum ist uneindeutig: Das Problem, dass die männliche Form gleich aussehen kann wie das generische Maskulinum, ist in der Praxis meist keines, da der Kontext für Eindeutigkeit sorgt. 10. Gendersprache ist eine harmlose Variante: Der Gebrauch von Gendersternchen, Doppelpunkt, Unterstrich etc. ist ein tiefgehender Eingriff in die Wortstruktur und führt zu grammatikalischen Fehlern, etwa bei der Deklination.

Abb.: Nicht die Sprache ändern, sondern die Wirklichkeit

Service Robots and Social Robots in Policing

Robophilosophy 2022 is the fifth event in the biennial Robophilosophy Conference Series. It „will explore the societal significance of social robots for the future of social institutions with its usual broad scope, embracing both theoretical and practical angles“ (CfP Robophilosophy). It „is an invitation to philosophers and other SSH researchers, as well as researchers in social robotics and HRI, to investigate from interdisciplinarily informed perspectives whether and how social robotics as an interdisciplinary endeavour can contribute to the ability of our institutions to perform their functions in society“ (CfP Robophilosophy). Social institutions include retirement and nursing homes, strip clubs and brothels, monasteries and seminaries, and police departments. As announced by the organizers on April 15, Oliver Bendel (School of Business FHNW) will have the opportunity to present his paper entitled „Robots in Policing“ at the conference. It is about how service robots and social robots are changing policing as „social work“. In addition, a poster by Katharina Kühne and Melinda Mende (University of Potsdam) as well als Oliver Bendel entitled „Tamagotchi on our couch: Are social robots perceived as pets?“ was accepted.

Fig.: The NYPD has deployed robots like Spot

 

Artificial Companions der ersten Generation

Zahlreiche führende Experten und hochbegabte Nachwuchswissenschaftler haben am Buch „Soziale Roboter“ mitgewirkt. Von Ayanda Rogge stammt die Untersuchung „Artificial Companions der ersten Generation: Explorative Untersuchung zu Gestaltung und Kommunikationsfähigkeiten sowie ein Typologievorschlag nach Einsatzbereichen“. Aus dem Abstract: „In der theoretischen Diskussion ist mit einem Artificial Companion eine Reihe an Eigenschaften gemeint, welche fördern sollen, dass Nutzer:innen ein technologisches System als verlässlichen und treuen Gefährten wahrnehmen. Bislang gibt es allerdings keinen Konsens darüber, welche Eigenschaften dafür konkret notwendig sind. Der vorliegende Beitrag nähert sich deshalb der Thematik von einer praktischen Seite, damit Aussagen über die Eigenschaften heutiger Companion-Systeme getroffen werden können – welche in der vorliegenden Arbeit als Artificial Companions der ersten Generation bezeichnet werden. Der Beitrag stellt die Ergebnisse einer deskriptiven Datenanalyse von n=50 Companion-Robotern vor, die hinsichtlich ihres Aussehens und ihrer kommunikativen Fähigkeit verglichen werden. Es erfolgt ein Vorschlag für eine Companion-Typologie anhand ihrer Einsatzgebiete inklusive Beschreibung der zentralen Aufgaben und Funktionen. Der letzte Teil erläutert zwei zentrale Motive, auf deren Grundlage Artificial Companionships entstehen können.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Harmony und ihre Bewunderinnen bei einer Messe (Foto: Realbotix)

Soziale Robotik und Roboterpsychologie

Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält 30 Beiträge international bekannter Autorinnen und Autoren – wenn man das Vorwort mitzählt. Von Martina Mara und Benedikt Leichtmann stammt die Abhandlung „Soziale Robotik und Roboterpsychologie: Wie psychologische Forschung zur menschzentrierten Entwicklung robotischer Systeme beitragen kann“. Aus dem Abstract: „Egal in welchem Anwendungsbereich soziale Roboter zum Einsatz kommen, sie sind in jedem Fall dafür gemacht, mit Menschen zu interagieren. Die Psychologie als Wissenschaft menschlichen Denkens, Fühlens und Verhaltens kann im Austausch mit anderen Disziplinen daher wertvolle Beiträge zur Erforschung sozialer Roboter und zum Gelingen von Mensch-Roboter-Interaktion liefern. Ziel dieses Kapitels ist es, einen einführenden Einblick in die Besonderheiten psychologischer Zugänge zur Sozialen Robotik zu geben. Ausgewählte Themenfelder der Roboterpsychologie, darunter Anthropomorphismus, Technologieängstlichkeit oder Vertrauen in Roboter, werden theoretisch und empirisch beleuchtet. Da eine korrekte Einordnung von Forschungsergebnissen immer auch ein Verständnis zugrunde liegender Forschungsmethoden erfordert, geht ein weiterer Abschnitt darauf ein, wie psychologische Vorgänge wissenschaftlich untersucht und gemessen werden können. Mit der Frage ‚Brauchen Roboter Psychotherapie?‘ widmen wir uns abschließend populären Falschvorstellungen zur Roboterpsychologie und diskutieren außerdem Potenziale und Risiken von Robotern als therapeutischen Begleitwerkzeugen.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Der Roboter muss nicht zur Psychotherapie

Soziale Roboter aus der Perspektive von Informations-, Roboter- und Maschinenethik

Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil war Prof. Dr. Oliver Bendel. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.

Abb.: Cozmo ist vom Blechspielzeug gelangweilt