How Fair is Fair?

The AAAI 2022 Spring Symposium „How Fair is Fair? Achieving Wellbeing AI“ will be held March 21-23 at Stanford University. The symposium website states: „What are the ultimate outcomes of artificial intelligence? AI has the incredible potential to improve the quality of human life, but it also presents unintended risks and harms to society. The goal of this symposium is (1) to combine perspectives from the humanities and social sciences with technical approaches to AI and (2) to explore new metrics of success for wellbeing AI, in contrast to ‚productive AI‘, which prioritizes economic incentives and values.“ (Website „How Fair is Fair“) After two years of pandemics, the AAAI Spring Symposia are once again being held in part locally. However, several organizers have opted to hold them online. „How fair is fair“ is a hybrid event. On site speakers include Takashi Kido, Oliver Bendel, Robert Reynolds, Stelios Boulitsakis-Logothetis, and Thomas Goolsby. The figure below shows a part of the program with the presentations of the mornings and early afternoons of March 21 and 22. More information via sites.google.com/view/hfif-aaai-2022/program.

Fig.: A part of the program

International Workshop on Trustworthy Conversational Agents at Schloss Dagstuhl

A group of about 50 scientists from all over the world worked for one week (September 19 – 24, 2021) at Schloss Dagstuhl – Leibniz-Zentrum für Informatik on the topic „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“. Half were on site, the other half were connected via Zoom. Organizers of this event were Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester), and Björn Schuller (University of Augsburg). On-site participants from Germany and Switzerland included Elisabeth André (University of Augsburg), Stefan Schaffer (DFKI), Sebastian Hobert (University of Göttingen), Matthias Kraus (University of Ulm), and Oliver Bendel (School of Business FHNW). The complete list of participants can be found on the Schloss Dagstuhl website, as well as some pictures. Oliver Bendel presented projects from ten years of research in machine ethics, namely GOODBOT, LIEBOT, BESTBOT, MOME, and SPACE-THEA. Further information is available here.

Fig.: On-site participants in front of Schloss Dagstuhl (photo: Schloss Dagstuhl)

Trustworthy Conversational Agents

The Dagstuhl seminar „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ will take place from September 19 – 24, 2021. According to the website, Schloss Dagstuhl – Leibniz-Zentrum für Informatik „pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers“. Organizers of this event are Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester) and Björn Schuller (University of Augsburg). They outline the background as follows: „CA, like many other AI/ML-infused autonomous systems, need to gain the trust of their users in order to be deployed effectively. Nevertheless, in the first place, we need to ensure that such systems are trustworthy. Persuading users to trust a non-trustworthy CA is grossly unethical. Conversely, failing to convince users to trust a trustworthy CA that is beneficial to their wellbeing can be detrimental, given that a lack of trust leads to low adoption or total rejection of a system. A deep understanding of how trust is initially built and evolved in human-human interaction (HHI) can shed light on the trust journey in human-automation interaction (HAI). This calls forth a multidisciplinary analytical framework, which is lacking but much needed for informing the design of trustworthy autonomous systems like CA.“ (Website Dagstuhl) Regarding the goal of the workshop, the organizers write: „The overall goal of this Dagstuhl Seminar is to bring together researchers and practitioners, who are currently engaged in diverse communities related to Conversational Agent (CA) to explore the three main challenges on maximising the trustworthiness of and trust in CA as AI/ML-driven autonomous systems – an issue deemed increasingly significant given the widespread uses of CA in every sector of life – and to chart a roadmap for the future research on CA.” (Website Dagstuhl) Oliver Bendel (School of Business FHNW) will talk about his chatbot and voice assistant projects. These emerge since 2013 from machine ethics and social robotics. Further information is available here (photo: Schloss Dagstuhl).

Fig.: Bird’s eye view of Schloss Dagstuhl (Photo: Schloss Dagstuhl)

Ein europäischer Rechtsrahmen für den Einsatz von KI-Systemen

Die EU-Kommission schlägt einen Rechtsrahmen für den Einsatz von KI-Systemen vor. Diese werden nach ihrem vermeintlichen Risiko kategorisiert. Als inakzeptabel gilt alles, was als eindeutige Bedrohung für die EU-Bürger angesehen wird, von Social Scoring durch Regierungen bis hin zu Spielzeug mit Sprachassistenz, etwa in der Art von Hello Barbie. Zu den Bereichen mit hohem Risiko gehören kritische Infrastrukturen (z. B. des Verkehrs), die das Leben und die Gesundheit der Bürgerinnen und Bürger gefährden könnten. Damit wird das autonome Fahren – zumindest bei Ansätzen, wie sie von Tesla und Co. bevorzugt werden – einer ständigen Kontrolle unterworfen sein. Auch Operationsroboter fallen in diese Kategorie, obwohl diese heute fast ausnahmslos vom Arzt gesteuert werden. Ein begrenztes Risiko wird etwa bei Chatbots gesehen. Hier sollen lediglich minimale Transparenzpflichten gelten. So kann die Maschine deutlich machen, dass sie nur eine Maschine ist – diese Anforderung hat bereits der GOODBOT von 2013 erfüllt. Überhaupt werden Chatbots seit ca. 50 Jahren entwickelt, und die Regulierung kommt hier mit einiger Verzögerung. Ein minimales Risiko ist laut Kommission bei der Mehrheit der KI-Systeme vorhanden. Als (vielleicht nicht ganz glücklich gewählte) Beispiele werden KI-fähige Videospiele oder Spamfilter genannt. Bei den Anbietern von KI-Systemen im Hochrisikobereich sollen vier Schritte durchlaufen werden. Nach der Entwicklung finden Überprüfung und Eintrag in eine Datenbank statt. Dann wird eine Konformitätserklärung unterzeichnet und eine CE-Kennzeichnung aufgebracht. Am Ende kann das KI-System auf den Markt oder in die Anwendung gebracht werden. Die Pressemitteilung der Europäischen Kommission vom 21. April 2021 findet sich hier.

Abb.: Der Sitz der Europäischen Kommission

Was ist Responsible AI?

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Gesichtserkennung im öffentlichen Raum ist problematisch