Ende September 2024 wurde an der Hochschule für Wirtschaft FHNW ein Projekt abgeschlossen, das die Entwicklung eines Digital-Trust-Radars zum Ziel hatte. Gefördert wurde es von der Stiftung FHNW und vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW. Einen letzten Feinschliff erhält die Website nach den Benutzertests. Zum Hintergrund kann man sagen, dass immer mehr Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz (KI) entstehen. Manche sind sehr allgemein, andere sehr konkret, bezogen auf einen Anwendungsbereich oder eine Nutzergruppe. Ein wesentlicher Aspekt bei der Durchführung von KI-Projekten und der Einführung von KI-Systemen ist Digital Trust. Die Entwickler müssen den Einrichtungen, die Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz verantworten und vorlegen, vertrauen können, und sie müssen den Regeln selbst vertrauen können. Die Anbieter und Benutzer müssen beim Betrieb der KI-Systeme darauf vertrauen können, dass alle Leitfäden, Richtlinien und Verordnungen beachtet wurden und das KI-System den Anforderungen entspricht. Die Endbenutzer müssen darauf vertrauen können, dass das KI-System den Anforderungen entspricht und es sich um vertrauenswürdige KI handelt. Der interaktive, webbasierte Digital-Trust-Radar schafft für Wirtschaft, Verwaltung und Gesellschaft spezifische Zugänge zu Leitfäden, Richtlinien und Verordnungen, reichert sie mit Metainformationen an und fasst sie in aller Kürze zusammen. Das Projekt dauerte vom 1. Oktober 2023 bis zum 30. September 2024. Projektleiter war Prof. Dr. Oliver Bendel vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW in Brugg-Windisch. Co-Projektleiterin war Prof. Dr. Petra Asprion vom Competence Center Digital Trust an der Hochschule für Wirtschaft FHNW in Basel. Der Digital-Trust-Radar ist in der Beta-Version über radar.digitaltrust-competence.ch verfügbar.
Abb.: Studenten in Brugg-Windisch (Foto: Pati Grabowicz)
Am Buch „Soziale Roboter“ (Hrsg. Oliver Bendel) haben zahlreiche führende Experten und hochbegabte Nachwuchswissenschaftler mitgewirkt. Von Katharina Weitz stammt die Abhandlung „Vertrauen und Vertrauenswürdigkeit bei sozialen Robotern: Stärkung von Mensch-Roboter-Vertrauensbeziehungen mithilfe Erklärbarer Künstlicher Intelligenz“. Aus dem Abstract: „Dieses Kapitel befasst sich mit der Vertrauensbeziehung zwischen Menschen und sozialen Robotern, stellt doch Vertrauen einen wichtigen Bestandteil für die Akzeptanz sozialer Roboter dar. Ausgehend von den Merkmalen sozialer Interaktionen zwischen Mensch und Roboter wird ein Überblick über verschiedene Definitionen von Vertrauen in diesem Kontext gegeben. Zudem werden theoretische Vertrauensmodelle und praktische Möglichkeiten der Erfassung von Vertrauen skizziert sowie der Vertrauensverlust als Folge von Roboterfehlern betrachtet. Es wird beleuchtet, wie Erklärbare Künstliche Intelligenz helfen kann, eine transparente Interaktion zwischen Roboter und Mensch zu ermöglichen und dadurch das Vertrauen in soziale Roboter (wieder-)herzustellen. Insbesondere wird auf die Gestaltungsmöglichkeiten und Herausforderungen beim Einsatz von Erklärungen im Bereich der Robotik eingegangen.“ Ausführungen zur Wirkung, die Erklärungen von Robotern auf die mentalen Modelle von Nutzern und Nutzerinnen haben, bilden den Abschluss des Kapitels. Das Werk ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
A group of about 50 scientists from all over the world worked for one week (September 19 – 24, 2021) at Schloss Dagstuhl – Leibniz-Zentrum für Informatik on the topic „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“. Half were on site, the other half were connected via Zoom. Organizers of this event were Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester), and Björn Schuller (University of Augsburg). On-site participants from Germany and Switzerland included Elisabeth André (University of Augsburg), Stefan Schaffer (DFKI), Sebastian Hobert (University of Göttingen), Matthias Kraus (University of Ulm), and Oliver Bendel (School of Business FHNW). The complete list of participants can be found on the Schloss Dagstuhl website, as well as some pictures. Oliver Bendel presented projects from ten years of research in machine ethics, namely GOODBOT, LIEBOT, BESTBOT, MOME, and SPACE-THEA. Further information is available here.
Fig.: On-site participants in front of Schloss Dagstuhl (photo: Schloss Dagstuhl)
Die International Review of Information Ethics (IRIE) hat einen Call for Papers zum Thema „Ethics for the Internet of Things“ veröffentlicht. Deadline für die Einreichung der Abstracts ist der 31. August 2014. Auf der Website der Zeitschrift heißt es: „The 22nd issue of IRIE will tackle the ethical challenge of the Internet of Things and therefore furnish a contribution to the establishment of an ethics for it. This ethics is anchored in the field of information ethics, yet it radicalizes to a certain degree the fundamental issues in this field, insofar as the entire mesosphere appears as a sphere shaped by information and its technologies. And hence, the boundaries then disappear between electronic technology and what underpins it.“ Mögliche Themen seien „Privacy in the IoT“, „Access to beneficial use of IoT and social justice“, „Establishment of trust in the IoT“ und „Status of agents and agency in the IoT“. Gastherausgeber sind Hektor Haarkötter und Felix Weil. Weitere Informationen über i-r-i-e.net/call_for_papers.htm.