Einführung in das Symposium „Socially Responsible AI for Well-being“

Am 27. März 2023 begann das Symposium „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposium Series. Die traditionsreiche Konferenz wurde ausnahmsweise von der Stanford University ins Hyatt Regency SFO Airport verlegt. In seinem Eröffnungsvortrag erklärte Takashi Kido, einer der beiden Organisatoren, was Responsible AI ist, und erwähnte die Begriffe „Accountability“, „Responsibility“ und „Transparency“. Der Fokus des Symposiums ist Well-being und Fairness. Takashi Kido erwähnte den Vortrag „Should Social Robots in Retail Manipulate Customers?“ von Prof. Dr. Oliver Bendel beim Symposium „How Fair is Fair? Achieving Wellbeing AI“ von 2022, der auf dem gleichnamigen Paper von Oliver Bendel und Liliana Alves beruhte. Er leitete dann über zum Begriff “Socially Responsible AI“, wobei er folgende Diskussion benutzte: „Socially Responsible AI is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human flourishing and well-being in a sustainable world, considering for humans and AI ideal relationships“. Am Ende durften auch Überlegungen zu ChatGPT nicht fehlen. Es schloss sich eine intensive Diskussion über den Chatbot an, der zugleich ein Contentgenerator ist. Das Faszinierende ist, dass dieses Thema Laien und Experten gleichermaßen aufwühlt. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.

Abb.: Takashi Kido bei seinem Einführungsvortrag

Bar Robots for Well-being

From March 27-29, 2023, the AAAI 2023 Spring Symposia will feature the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The venue is usually Stanford University. For staffing reasons, this year the conference will be held at the Hyatt Regency in San Francisco. On March 28, Prof. Dr. Oliver Bendel and Lea Peier will present their paper „How Can Bar Robots Enhance the Well-being of Guests?“. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More information via aaai.org/conference/spring-symposia/sss23/.

Fig.: Barney Bar and Lea Peier at Migros Wetzikon

Increasing Well-being and Health through Robotic Hugs

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Not a robotic hug

How Can Bar Robots Enhance the Well-being of Guests?

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Barney Bar in action

Socially Responsible AI for Well-being

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: View of San Francisco

Ein europäischer Rechtsrahmen für den Einsatz von KI-Systemen

Die EU-Kommission schlägt einen Rechtsrahmen für den Einsatz von KI-Systemen vor. Diese werden nach ihrem vermeintlichen Risiko kategorisiert. Als inakzeptabel gilt alles, was als eindeutige Bedrohung für die EU-Bürger angesehen wird, von Social Scoring durch Regierungen bis hin zu Spielzeug mit Sprachassistenz, etwa in der Art von Hello Barbie. Zu den Bereichen mit hohem Risiko gehören kritische Infrastrukturen (z. B. des Verkehrs), die das Leben und die Gesundheit der Bürgerinnen und Bürger gefährden könnten. Damit wird das autonome Fahren – zumindest bei Ansätzen, wie sie von Tesla und Co. bevorzugt werden – einer ständigen Kontrolle unterworfen sein. Auch Operationsroboter fallen in diese Kategorie, obwohl diese heute fast ausnahmslos vom Arzt gesteuert werden. Ein begrenztes Risiko wird etwa bei Chatbots gesehen. Hier sollen lediglich minimale Transparenzpflichten gelten. So kann die Maschine deutlich machen, dass sie nur eine Maschine ist – diese Anforderung hat bereits der GOODBOT von 2013 erfüllt. Überhaupt werden Chatbots seit ca. 50 Jahren entwickelt, und die Regulierung kommt hier mit einiger Verzögerung. Ein minimales Risiko ist laut Kommission bei der Mehrheit der KI-Systeme vorhanden. Als (vielleicht nicht ganz glücklich gewählte) Beispiele werden KI-fähige Videospiele oder Spamfilter genannt. Bei den Anbietern von KI-Systemen im Hochrisikobereich sollen vier Schritte durchlaufen werden. Nach der Entwicklung finden Überprüfung und Eintrag in eine Datenbank statt. Dann wird eine Konformitätserklärung unterzeichnet und eine CE-Kennzeichnung aufgebracht. Am Ende kann das KI-System auf den Markt oder in die Anwendung gebracht werden. Die Pressemitteilung der Europäischen Kommission vom 21. April 2021 findet sich hier.

Abb.: Der Sitz der Europäischen Kommission

Was ist Responsible AI?

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Gesichtserkennung im öffentlichen Raum ist problematisch

International Workshop on Trustworthy Conversational Agents

In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots like GOODBOT, LIEBOT and BESTBOT in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)

Fig.: Is this voicebot trustworthy?