Paper on GPT-4-based App for the Blind

The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as a preprint at arxiv.org/abs/2402.07919. It was accepted at the AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ Oliver Bendel will present the paper at Stanford University on March 25-27. It is his ninth consecutive appearance at the AAAI Spring Symposia, which this time consists of eight symposia on artificial intelligence.

Fig.: Tests with the app (Image: DALL-E 3)

About Basic Income and Basic Property

Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. The ethicist from Zurich will share his results between 25 and 27 March 2019 at the AAAI Spring Symposia (Stanford University).

Fig.: A nice property in Hawaii

Über Sicherheits- und Überwachungsroboter

Sicherheits- und Überwachungsroboter verbreiten sich auf den Firmengeländen und in den Shopping Malls, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen und Kunden sorgen. Dabei entsteht allerdings auch Unsicherheit. Man kann mit ihnen zusammenstoßen, sie können einen überwachen und aushorchen. Technology Review war im Gespräch mit Oliver Bendel von der Hochschule für Wirtschaft FHNW. Es ging unter anderem um den K5 im Silicon Valley, den der Informations- und Maschinenethiker im vergangenen Jahr vor Ort inspiziert hat. Der Roboter von Knightscope ist im Shopping Center in Stanford im Einsatz. Er streift die ganze Zeit durch die Gegend und meldet Auffälliges und Verdächtiges an eine Zentrale. Diese bewertet die Situation und ergreift gegebenenfalls Maßnahmen. Der kegelförmige Mitarbeiter ist über 100 Kilo schwer und 1,20 Meter hoch. Der Artikel „Wer hat Angst vor Robocobs“ mit Aussagen von Oliver Bendel ist in der Ausgabe 5/2017 auf den Seiten 32 bis 34 erschienen.

Abb.: Der K5 im Shopping Center in Stanford

Von Menlo Park bis Mountain View

Am 10. April 2017 besuchte die Delegation aus Studierenden und Dozierenden der FHNW im Rahmen von connectUS die Swisscom in Menlo Park und Microsoft in Mountain View. Für den Zuständigen der Swisscom ist das Silicon Valley ein Erfolgsmodell. Zugleich wurden aber auch offen die Probleme angesprochen, die etwa durch den Zuzug der Fachkräfte nach San Francisco entstehen. Bei der Weiterreise wurde u.a. kontrovers diskutiert, ob die disruptiven Technologien mehr Chancen oder mehr Risiken beinhalten. Microsoft empfing die Delegation mit offenen Armen. Nach einer Verköstigung und einem Vortrag zur Künstlichen Intelligenz von Jarek Kazmierczak probierte man die Microsoft HoloLens aus, eine Datenbrille im Bereich der Augmented bzw. Mixed Reality. Die Studentinnen und Studenten erzeugten einen riesenhaften, muskelbepackten Mann, ließen eine Baletttänzerin auf dem Kopf eines Professors tanzen und einen Goldfisch um die Beine einer Studentin schwimmen. Neben diesem Schabernack gibt es interessante Möglichkeiten für berufliche Anwendungen, sowohl in Konstruktion und Produktion als auch in Kommunikation, Kooperation und Kollaboration. Es wurden noch weitere Anwendungen ausprobiert, von historischen Videospielen bis hin zu modernen Computerspielen. Ein Besuch des Campus der Stanford University schloss den ereignis- und angesichts der Kontakte und Diskurse auch folgenreichen Tag ab.

Abb.: Schabernack mit der HoloLens

Maschinenethik an der Stanford University

Am 27. März 2017 begann um 9.00 Uhr das AAAI Spring Symposium „AI for Social Good“. Eingeführt wurde von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die ersten beiden Keynotes hielten Carla Gomes (Cornell University) und Henry Kautz (University of Rochester) zum Thema „AI for Sustainability and Public Health“. Ihre gemeinsame These lautete: „Two real, immediate existential threats facing humanity are, first, the exhaustion of the earth’s physical and biological resources, and second, global contagion. AI will play a major role fighting both threats.“ (Website AISOC) Carla Gomes ging aus vom Begriff „computational sustainability“ – es handele sich um ein neues interdisziplinäres Forschungsfeld, das darauf abziele, „computational methods for sustainable development“ zu entwickeln. Ihr Anliegen ist es u.a., den Lebensraum von Bären und Vögeln zu schützen. Der Vortrag von Henry Kautz trug den Titel „Mining Social Media to Improve Public Health“. Die Benutzer sozialer Medien seien ein „organic sensor network“. Ein Projekt, das vorgestellt wurde, war Twitterflu. Ein anderes richtete sich gegen „foodborne illness“ und trug den Namen nEmesis. Bei diesem werden ebenfalls Tweets ausgewertet, wie auch bei GeoDrink, wo das Trinkverhalten von Benutzern analysiert wird. Sechs weitere Zusammenfassungen der Vorträge des Symposiums, auch zur Maschinenethik, finden sich auf maschinenethik.net (beginnend mit einem Beitrag vom 27. März).

Abb.: Frühling in Stanford

AI for Social Good

Vom 28. bis zum 30. März 2017 findet das AAAI 2017 Spring Symposium „AI for Social Good (AISOC)“ an der Stanford University statt. Aus dem Call for Papers: „A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society. We seek to bring together AI researchers and researchers/practitioners/experts/policy makers from a wide variety of domains.“ (Website AISOC) Es tragen vor allem Forscherinnen und Forscher aus den USA vor, aber auch aus Holland und der Schweiz. Oliver Bendel von der Hochschule für Wirtschaft FHNW ist mit zwei Beiträgen mit dabei, mit „Towards Kant Machines“ (zusammen mit Kevin Schwegler und Bradley Richards, die nicht vor Ort sein können) und „LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner“. Damit ist auch die Maschinenethik beim KI-Symposium vertreten. Weitere Informationen über scf.usc.edu/~amulyaya/AISOC17/index.html.

Abb.: Gedenktafel für Alan Turing in San Francisco

Mit Robotern töten?

„Darf die Polizei mit Robotern töten?“ Dies ist der Titel eines Beitrags, der am 9. Juli 2016 auf Spiegel Online erschienen ist. „Nachdem ein Roboter den mutmaßlichen Heckenschützen von Dallas getötet hat, werden unbequeme Fragen laut: Wie und warum ist die Entscheidung gefallen? Bricht mit dem Einsatz von ferngesteuerten Maschinen in der Polizeiarbeit eine neue Ära an? Ist der Einsatz von tötenden Maschinen ethisch vertretbar und – wollen die USA das?“ (SPON, 9. Juli 2016) Zu Wort kommt u.a. Peter Asaro, der im März 2016 in Stanford zum Symposium zur Maschinenethik beigetragen und auch in der Roboterethik als Disziplin, die nach den Konsequenzen des Einsatzes von automatischen und autonomen Maschinen fragt, einen Namen hat. Gegenüber Bloomberg äußerte er: „Sobald das zu einem Standardverfahren wird, wird es auch in anderen Situationen eingesetzt werden, die nicht so deutlich sind wie dieser Fall.“ (SPON, 9. Juli 2016) Der Jurist Stoughton wies gegenüber dem gleichen Nachrichtendienst darauf hin, dass sich, ob bei Schusswaffen oder Elektroschockern, jedes Mal die Frage des angemessenen Einsatzes gestellt habe. „Ich glaube, wir werden ähnliche Gespräche über Roboter haben, die den Tod bringen.“ (SPON, 9. Juli 2016)

Abb.: Wer hat die Waffe in der Hand?

Tagungsband zur Maschinenethik

Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.

Abb.: Auf dem Stanford-Campus

Konferenz zur Maschinenethik

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University vom 21. bis 23. März 2016 im Rahmen der AAAI Spring Symposia erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie präsentierten Szenarien, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte. Bis zum Mittwoch tauschte man sich zur Maschinenethik und zur Roboterethik aus. Die letzte Keynote („Programming Machine Ethics“) hielt Amit Kumar Pandey von Aldebaran Robotics (SoftBank Group). Der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports SS-16-01 – SS-16-07“ kann über aaai.org/proceeding/04-spring-2016/ bezogen werden.

Abb.: Sicherheitsdienst in Roboterform in der Shopping Mall von Stanford