In 2018, Dr. Yuefang Zhou and Prof. Dr. Martin Fischer initiated the first international workshop on intimate human-robot relations at the University of Potsdam, „which resulted in the publication of an edited book on developments in human-robot intimate relationships“. This year, Prof. Dr. Martin Fischer, Prof. Dr. Rebecca Lazarides, and Dr. Yuefang Zhou are organizing the second edition. „As interest in the topic of humanoid AI continues to grow, the scope of the workshop has widened. During this year’s workshop, international experts from a variety of different disciplines will share their insights on motivational, social and cognitive aspects of learning, with a focus on humanoid intelligent tutoring systems and social learning companions/robots.“ (Website Embracing AI) The international workshop „Learning from Humanoid AI: Motivational, Social & Cognitive Perspectives“ will take place on 29 and 30 November 2019 at the University of Potsdam. Keynote speakers are Prof. Dr. Tony Belpaeme, Prof. Dr. Oliver Bendel, Prof. Dr. Angelo Cangelosi, Dr. Gabriella Cortellessa, Dr. Kate Devlin, Prof. Dr. Verena Hafner, Dr. Nicolas Spatola, Dr. Jessica Szczuka, and Prof. Dr. Agnieszka Wykowska. Further information is available at embracingai.wordpress.com/.
„Die britische Elite-Universität Oxford hat eine Spende in Höhe von 150 Millionen Pfund (rund 168 Millionen Euro) von US-Milliardär Stephen A. Schwarzman erhalten.“ (SPON, 19. Juni 2019) Mit der höchsten Einzelspende in der Geschichte der Hochschule solle das „Stephen A. Schwarzman Centre“ für Geisteswissenschaften entstehen. Dies meldete der Spiegel am 19. Juni 2019. Weiter heißt es: „In dem Gebäude sollen unter anderem die Fakultäten für … Geschichts- und Sprachwissenschaften, Philosophie, Musik und Theologie zusammengelegt werden. Rund ein Viertel aller Oxford-Studenten sind in diesen Fächern eingeschrieben. Zusätzlich soll dort ein neues Institut für Ethik im Umgang mit Künstlicher Intelligenz entstehen, wie die Universität mitteilte.“ (SPON, 19. Juni 2019) Der Schwerpunkt scheint auf Informations- und Roboterethik zu liegen. Schwarzman selbst sagte laut Spiegel, Universitäten müssten dabei helfen, ethische Grundsätze für den schnellen technologischen Wandel zu entwickeln. Über die Herkunft der Mittel wird debattiert. Weitere Informationen über www.spiegel.de/lebenundlernen/uni/oxford-elite-uni-erhaelt-150-millionen-pfund-spende-a-1273161.html.
Am 21. und 22. Mai 2019 findet in Berlin der Digitalisierungskongress „Künstliche Intelligenz – Wer steuert wen?“ statt. Getragen wird er von der Hans-Böckler-Stiftung (HBS) in Kooperation mit der Vereinten Dienstleistungsgewerkschaft ver.di und mit Unterstützung des vom BMBF geförderten Projekts TransWork. Auf der Website von ver.di ist zu lesen: „Die wirtschaftlichen Potenziale von KI stehen den Fragen, wie wir miteinander leben und arbeiten wollen, keineswegs spannungsfrei gegenüber. Wie, wo und in welchem Umfang KI eingesetzt wird, muss gesellschaftlich ausgehandelt werden.“ (Website ver.di) Am ersten Tag hält Prof. Dr. Oliver Bendel einen Kurzvortrag zu „Grundfragen der Ethik beim Einsatz von KI“. Danach diskutieren Rena Tangens, Digitalcourage e.V., Prof. Dr. Svenja Falk, Managing Director, Accenture Research, Norman Nieß, Betriebsratsvorsitzender und Mitglied im Konzernbetriebsausschuss, Callcenter-Branche, und Prof. Dr. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker, Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW auf dem Podium miteinander. Weitere Informationen und Programm über www.verdi.de/themen/digitalisierungskongresse/kongress-2019.
Abb.: Die Konferenz wird sich auch Fragen der Ethik widmen
Emotional and fascinating lectures and discussions were held at the AAAI 2019 Spring Symposium „Towards Conscious AI Systems“ at Stanford University. Machine consciousness is a research area located between artificial intelligence and cognitive robotics. The aim is the creation of a synthetic consciousness or self-consciousness. This simulates human consciousness or self-consciousness, approaches it a little or reproduces it in parts. Or it reaches the original, is identical with it in essential parts, which until further notice is far away from reality. Some of the topics that the symposium covered include the following: recent work on conscious AI systems, embodied conscious AI systems, self-reflective higher-order AI systems, ethical issues involving conscious AI systems and trust in conscious AI systems. Further interesting symposia were „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“ and „Privacy-Enhancing Artificial Intelligence and Language Technologies“. More information via aaai.org/Symposia/Spring/sss19.php.
Fig.: One of the machine consciousness talks at Stanford University
Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. The ethicist from Zurich will share his results between 25 and 27 March 2019 at the AAAI Spring Symposia (Stanford University).
Robots in the health sector are important, valuable innovations and supplements. As therapy and nursing robots, they take care of us and come close to us. In addition, other service robots are widespread in nursing and retirement homes and hospitals. With the help of their sensors, all of them are able to recognize us, to examine and classify us, and to evaluate our behavior and appearance. Some of these robots will pass on our personal data to humans and machines. They invade our privacy and challenge the informational autonomy. This is a problem for the institutions and the people that needs to be solved. The article “The Spy who Loved and Nursed Me: Robots and AI Systems in Healthcare from the Perspective of Information Ethics” by Oliver Bendel presents robot types in the health sector, along with their technical possibilities, including their sensors and their artificial intelligence capabilities. Against this background, moral problems are discussed, especially from the perspective of information ethics and with respect to privacy and informational autonomy. One of the results shows that such robots can improve the personal autonomy, but the informational autonomy is endangered in an area where privacy has a special importance. At the end, solutions are proposed from various disciplines and perspectives. The article was published in Telepolis on December 17, 2018 and can be accessed via www.heise.de/tp/features/The-Spy-who-Loved-and-Nursed-Me-4251919.html.
„Künstliche Intelligenz“ ist der Titel der aktuellen Aufbruch-Ausgabe, die im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. Es liegt mehreren Zeitungen und Zeitschriften bei, etwa dem Spiegel (Ausgabe vom 14. Oktober 2018) und dem Focus (Ausgabe vom 13. Oktober 2018). In der Rubrik „Sorgen und Fragen“ kommen Fernanda Viégas (Co-Leiterin der Google-Initiative „People + AI Research“), Prof. Dr. John-Dylan Haynes (Hirnforscher am Bernstein Center für Computational Neuroscience), Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW) und Prof. Dr. Kathrin Möslein (Wirtschaftsinformatikerin an der Friedrich-Alexander-Universität Nürnberg) zu Wort. Das Interview mit Oliver Bendel kann mit freundlicher Genehmigung der Münchner Agentur hier heruntergeladen werden.
Das Handelsblatt titelt am 26. August 2018 mit den Worten „Wenn Algorithmen den Menschen diskriminieren“. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: „Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.“ Und im Haupttext: „Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.“ (Handelblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.
„Beim Nudging (engl. ‚Anstoßen‘, ‚Schubsen‘ oder ‚Stupsen‘) bewegt man jemanden auf mehr oder weniger subtile Weise dazu, etwas Bestimmtes einmalig oder dauerhaft zu tun oder zu lassen. Dabei können Voreinstellungen und Standards (Defaults) ebenso zum Einsatz kommen wie Produktinformationen und Warenpräsentationen. Angestrebt werden die Verhaltensänderungen der Personen und Gruppen etwa von Unternehmen oder vom Staat.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der Anfang August 2018 im Wirtschaftslexikon von Springer Gabler erschienen ist. Auch die Perspektive der Ethik wird eingenommen. Am Ende heißt es: „Manche Nudges führen u.U. nicht nur zu einer Verhaltens-, sondern auch zu einer Bewusstseinsänderung und einer Realitätsverschiebung. Wir lassen uns von sozialen Medien und Systemen der Künstlichen Intelligenz animieren und dirigieren, reagieren auf Lob und Tadel, akzeptieren Belohnungen und Geschenke, selbst wenn wir damit auf andere Druck ausüben und zu Gleichschaltung und Überwachung beitragen.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/nudging-99919 abgerufen werden.
The international workshop „Understanding AI & Us“ will take place in Berlin (Alexander von Humboldt Institute for Internet and Society) on 30 June 2018. It is hosted by Joanna Bryson (MIT), Janina Loh (University of Vienna), Stefan Ullrich (Weizenbaum Institute Berlin) and Christian Djeffal (IoT and Government, Berlin). Birgit Beck, Oliver Bendel and Pak-Hang Wong are invited to the panel on the ethical challenges of artificial intelligence. The aim of the workshop is to bring together experts from the field of research reflecting on AI. The event is funded by the Volkswagen Foundation (VolkswagenStiftung). The project „Understanding AI & Us“ furthers and deepens the understanding of artificial intelligence (AI) in an interdisciplinary way. „This is done in order to improve the ways in which AI-systems are invented, designed, developed, and criticised.“ (Invitation letter) „In order to achieve this, we form a group that merges different abilities, competences and methods. The aim is to provide space for innovative and out-of-the-box-thinking that would be difficult to pursue in ordinary academic discourse in our respective disciplines. We are seeking ways to merge different disciplinary epistemological standpoints in order to increase our understanding of the development of AI and its impact upon society.“ (Invitation letter)
Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.
Nach dem Mittagessen spannte Oliver Bendel beim Symposium „AI and Society“ den Bogen „From GOODBOT to BESTBOT“. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. „Toward Beneficial Human-Level AI … and Beyond“ thematisierte maschinelles Bewusstsein und „superintelligence“ und das TalaMind-Projekt. Philip Jackson betonte, dieses „will help to achieve beneficial human-level AI and superintelligence“ schneller und besser als andere Methoden. Andrew Williams sprach über „The Potential Social Impact of the Artificial Intelligence Divide“. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.
Das „AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema „Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains“. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session „Applications and Interactive Agents“ startete mit „Interactive Agent that Understands the User“. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in „The Heart of the Matter“ vor und fragte nach der „Patient Autonomy as a Model for the Wellbeing of Technology Users“ (so der Untertitel). Sie stellte eine Case Study mit dem Titel „Joe the heart patient“ vor. In „The Uncanny Return of Physiognomy“ kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.
Abb.: Auch am zweiten Tag war bestes Wetter in Stanford
Nach dem Lunch ging es beim Symposium „AI and Society“ am 26. März 2017 um 14.00 Uhr weiter mit der Session „Ethics and Moral Agents“. Umang Bhatt trug vor zum Thema „Maintaining The Humanity of Our Models“. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In „Ethics as Aesthetic for Artificial General Intelligence“ stellte Dan Ventura die Frage: „How can we ensure an AI agent behaves ethically?“ Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in „Importance of Contextual Knowledge in Artificial Moral Agents Development“, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.
The tentative schedule of AAAI 2018 Spring Symposium on AI and Society at Stanford University (26 – 28 March 2018) has been published. On Tuesday Emma Brunskill from Stanford University, Philip C. Jackson („Toward Beneficial Human-Level AI … and Beyond“) and Andrew Williams („The Potential Social Impact of the Artificial Intelligence Divide“) will give a lecture. Oliver Bendel will have two talks, one on „The Uncanny Return of Physiognomy“ and one on „From GOODBOT to BESTBOT“. From the description on the website: „Artificial Intelligence has become a major player in today’s society and that has inevitably generated a proliferation of thoughts and sentiments on several of the related issues. Many, for example, have felt the need to voice, in different ways and through different channels, their concerns on: possible undesirable outcomes caused by artificial agents, the morality of their use in specific sectors, such as the military, and the impact they will have on the labor market. The goal of this symposium is to gather a diverse group of researchers from many disciplines and to ignite a scientific discussion on this topic.“ (AAAI website)
Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei „Beat the Prof“ auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zur Künstlichen Intelligenz. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: „Er wird getötet, damit andere auf dem Gleis überleben.“ Antwort 2: „Er wird heruntergeschubst, damit die Brücke nicht einstürzt.“ Antwort 3: „Er wird getötet, damit das Fetter-Mann-Problem entsteht.“ Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden.
„We love AI“ nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: „Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.“ (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: „Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.“ Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.
In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: „We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?“ (Website EA) The text continues: „In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.“ (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.
Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk.