The paper „Care Robots with Sexual Assistance Functions“ by Oliver Bendel was accepted at the AAAI 2020 Spring Symposia. From the abstract: „Residents in retirement and nursing homes have sexual needs just like other people. However, the semi-public situation makes it difficult for them to satisfy these existential concerns. In addition, they may not be able to meet a suitable partner or find it difficult to have a relationship for mental or physical reasons. People who live or are cared for at home can also be affected by this problem. Perhaps they can host someone more easily and discreetly than the residents of a health facility, but some elderly and disabled people may be restricted in some ways. This article examines the opportunities and risks that arise with regard to care robots with sexual assistance functions. First of all, it deals with sexual well-being. Then it presents robotic systems ranging from sex robots to care robots. Finally, the focus is on care robots, with the author exploring technical and design issues. A brief ethical discussion completes the article. The result is that care robots with sexual assistance functions could be an enrichment of the everyday life of people in need of care, but that we also have to consider some technical, design and moral aspects.“ The paper had been submitted to the symposium „Applied AI in Healthcare: Safety, Community, and the Environment“. Oliver Bendel will present the paper at Stanford University between 23 and 25 March 2020.
Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. Oliver Bendel will introduce his ideas at the AAAI spring symposium „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“ at Stanford University in late March 2019. More information via aaai.org/Symposia/Spring/sss19.php.
Nach dem Mittagessen spannte Oliver Bendel beim Symposium „AI and Society“ den Bogen „From GOODBOT to BESTBOT“. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. „Toward Beneficial Human-Level AI … and Beyond“ thematisierte maschinelles Bewusstsein und „superintelligence“ und das TalaMind-Projekt. Philip Jackson betonte, dieses „will help to achieve beneficial human-level AI and superintelligence“ schneller und besser als andere Methoden. Andrew Williams sprach über „The Potential Social Impact of the Artificial Intelligence Divide“. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.
Das „AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema „Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains“. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session „Applications and Interactive Agents“ startete mit „Interactive Agent that Understands the User“. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in „The Heart of the Matter“ vor und fragte nach der „Patient Autonomy as a Model for the Wellbeing of Technology Users“ (so der Untertitel). Sie stellte eine Case Study mit dem Titel „Joe the heart patient“ vor. In „The Uncanny Return of Physiognomy“ kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.
Abb.: Auch am zweiten Tag war bestes Wetter in Stanford
Nach dem Lunch ging es beim Symposium „AI and Society“ am 26. März 2017 um 14.00 Uhr weiter mit der Session „Ethics and Moral Agents“. Umang Bhatt trug vor zum Thema „Maintaining The Humanity of Our Models“. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In „Ethics as Aesthetic for Artificial General Intelligence“ stellte Dan Ventura die Frage: „How can we ensure an AI agent behaves ethically?“ Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in „Importance of Contextual Knowledge in Artificial Moral Agents Development“, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.
Das Symposium „AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ an der Stanford University begann am 26. März 2018 um 9 Uhr. Den Invited Talk hielt Vince Conitzer, Duke University, über „Moral Artificial Intelligence, Kidney Exchanges, and Societal Tradeoffs“. Er diskutierte ausführlich das Parking Game. Sodann stellte er die Moral Machine des MIT vor und ging auf einen „kidney exchange algorithm“ und „underdemanded pairs“ ein. Von 11.00 bis 12.30 Uhr fand die Session „Moral Decision Making“ statt. In „Towards Provably Moral AI Agents in Bottom-up Learning Frameworks“ forderten Nolan P. Shaw und Ryan W. Orr „robustness“, „simplicity“, „consistence“ und „universality“ von ihren moralischen Maschinen; diese sollen über neuronale Netzwerke von moralischen Agenten aller Art lernen. In „A Military AI System with Ethical Rules“ brachte Yetian Wang Knowledge Representation und Machine Learning zusammen. Der letzte Vortrag vor dem Mittagessen – das man in den Cafés der Umgebung bei Bilderbuchwetter einnahm – war „Preferences and Ethical Principles in Decision Making“. Das Thema von Kristen Brent Venable waren CP-Nets.
Am 27. März 2017 begann um 9.00 Uhr das AAAI Spring Symposium „AI for Social Good“. Eingeführt wurde von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die ersten beiden Keynotes hielten Carla Gomes (Cornell University) und Henry Kautz (University of Rochester) zum Thema „AI for Sustainability and Public Health“. Ihre gemeinsame These lautete: „Two real, immediate existential threats facing humanity are, first, the exhaustion of the earth’s physical and biological resources, and second, global contagion. AI will play a major role fighting both threats.“ (Website AISOC) Carla Gomes ging aus vom Begriff „computational sustainability“ – es handele sich um ein neues interdisziplinäres Forschungsfeld, das darauf abziele, „computational methods for sustainable development“ zu entwickeln. Ihr Anliegen ist es u.a., den Lebensraum von Bären und Vögeln zu schützen. Der Vortrag von Henry Kautz trug den Titel „Mining Social Media to Improve Public Health“. Die Benutzer sozialer Medien seien ein „organic sensor network“. Ein Projekt, das vorgestellt wurde, war Twitterflu. Ein anderes richtete sich gegen „foodborne illness“ und trug den Namen nEmesis. Bei diesem werden ebenfalls Tweets ausgewertet, wie auch bei GeoDrink, wo das Trinkverhalten von Benutzern analysiert wird. Sechs weitere Zusammenfassungen der Vorträge des Symposiums, auch zur Maschinenethik, finden sich auf maschinenethik.net (beginnend mit einem Beitrag vom 27. März).