37 Grad im Schatten, sagt der Lügenbot

An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot (Liebot) entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ sowie „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ und „Der Lügenbot und andere Münchhausen-Maschinen„. In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.

Abb.: Auch ein Meister der Lüge

Ausschreibung zu einer Studie zu Quantified Self

Die TA-SWISS schreibt eine Technology-Assessment-Studie zum Thema „Quantified Self – Schnittstelle zwischen Lifestyle und Medizin“ aus. „Quantified Self“ steht für Self-Tracking-Lösungen, vor allem im sportlichen und medizinischen Bereich, und eine damit verbundene Bewegung. Es werden Daten des Körpers zusammen mit anderen Daten (Zeit, Raum etc.) erfasst, ausgewertet und dokumentiert sowie teilweise – etwa über Streaming und über Erfahrungsberichte – mit anderen geteilt. Eingesetzt werden Wearables aller Art, etwa Smartwatches. In der Ausschreibung heißt es zu dem Phänomen: „Aus der Datenfülle sollen Erkenntnisse gewonnen werden für die Früherkennung von Krankheiten und die Optimierung von Therapien, zudem sollen die Daten auch Aufschluss geben darüber, welche Faktoren einer guten Gesundheit förderlich sind. Doch der Umgang mit gesundheitsrelevanten Daten ist heikel und sollte hohen Anforderungen des Datenschutzes genügen.“ In der Studie sollen laut TA-SWISS die Chancen und Risiken von Quantified Self diskutiert werden. Auch die Informationsethik ist eine mögliche Perspektive. Es steht ein Budget von bis zu 140000 CHF zur Verfügung. Gewünschter Projektbeginn ist März 2016. Weitere Informationen über www.ta-swiss.ch.

Abb.: Quantified Self mit Hilfe einer Smartwatch

Roboterautos und Umweltschutz

An der Fachhochschule Nordwestschweiz FHNW untersucht ein Student seit Anfang Oktober 2015, ob Fahrerassistenzsysteme (FAS) und autonome Autos zur Verbesserung der Energieeffizienz, zur Ressourcenschonung und zum Umweltschutz beitragen können. FAS unterstützen den Lenker von Kraftfahrzeugen und übernehmen in bestimmten Fällen seine Aufgaben. Selbstständig fahrende oder autonome Autos bewegen sich als Prototypen durch die Städte und Landschaften, in den USA genauso wie in Europa und Asien. Im Projekt werden vorhandene umweltfreundliche Technologien betrachtet. Beispielsweise haben manche PKW eine Standby-Funktion, die sich vor Ampeln und in Staus aktivieren lässt. Es sollen aber auch neue Technologien für das Energiesparen, die Reduktion von Schadstoffemissionen, die Verkehrsoptimierung und -lenkung etc. vorgestellt und allenfalls vorgeschlagen werden. Auch LKW sollen einbezogen werden. Es wird bis Januar 2016 eine knappe Studie entstehen, die Möglichkeiten darstellt und diskutiert. In der Vertiefung Umwelt und Management im Studiengang Energie- und Umwelttechnik werden immer wieder hochaktuelle Fragestellungen definiert. Betreuer der Arbeit ist Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW.

Abb.: Passen Roboterautos und Umweltschutz zusammen?

Expertenbeirat für QuartrBack

Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW, sitzt ab Oktober 2015 im Expertenbeirat des vom BMBF geförderten Projekts „QuartrBack – Intelligente Notfallkette im Quartier für Menschen mit Demenz“. Bestellt hat ihn das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Laut Website ist das Ziel des Projekts, Menschen mit Demenz einen gefahrlosen Zugang zu ihren individuellen Sozialräumen im Quartier und eine „gesicherte Teilhabe“ am sozialen Leben zu ermöglichen. „Dabei werden unterschiedliche bereits vorhandene Technologien (Mensch-Technik-Interaktion) für Ortung, Monitoring, Zugangskontrolle und Information kombiniert eingesetzt. So können mithilfe einer im Zuge des Projektes neu entwickelten und bedarfsorientiert konfigurierbaren Technologie für Ortung/Monitoring die Bewegungsfreiheit und Unabhängigkeit von Menschen mit Demenz ihren individuellen Bedürfnissen gemäß gestärkt werden“ (Website ITAS). Die Hauptaufgabe des ITAS „besteht vor allem in der entwicklungsbegleitenden Technikfolgenbeurteilung des Gesamtprozesses mit einem Fokus auf den technischen, rechtlichen, ökonomischen und insbesondere ethisch-sozialen Aspekten der verwendeten Technologien“. (Website ITAS) Die Expertengruppe wird sich achtmal in drei Jahren in Frankfurt und Karlsruhe treffen. Weitere Informationen zum Projekt über www.itas.kit.edu/projekte_wein15_quartrback.php.

Der Lügenbot Nana

Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.

Abb.: Ein Ikea in Krakau

informationsethik.net wird drei

informationsethik.net feiert. Fast 150 Beiträge im Blog, ein Literaturverzeichnis zu Informationsethik und Maschinenethik und DAS KLEINE LEXIKON DER INFORMATIONSETHIK mit ca. 200 Begriffen – das ist die Bilanz nach drei Jahren. Betrieben werden Website und Blog von Oliver Bendel. Es handelt sich um ein privates Projekt. Es gibt keine Werbung, wenn man von dem Verweis auf das Buch „Die Rache der Nerds“ (mit Gedanken und Geschichten zur Informationsethik) absieht. Fusioniert wurde informationsethik.net mit informationsethik.info, einem wissenschaftlichen Projekt, das von der schweizerischen Ernst Göhner Stiftung unterstützt wurde. Deshalb finden sich nun z.B. auch Materialien, eine Experten- und eine Linkliste auf der Website. Man darf gespannt sein, wo informationsethik.net im Jahre 2016 steht.

Kampf gegen Littering

Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW ist im Februar 2015 das Projekt CLEANINGFISH gestartet. Littering ist in der Schweiz ein Problem. Die Gewässer sind hochgradig belastet. Vordergründig wirken sie sauber, und im Vergleich zu den 60er- und 70er-Jahren wurden in Bezug auf bestimmte Schadstoffe erhebliche Fortschritte erzielt. Allerdings hat zum Beispiel der Anteil von Kunststoffen stark zugenommen. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Ein Ansatz könnten Schwärme von Robotern sein, die rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Der CLEANINGFISH, eine Designstudie von Oliver Bendel (s. Rubrik Studien auf www.maschinenethik.net), ist der Ausgangspunkt dieser Überlegungen. Er ist handgroß, stark und schnell, und er könnte größere und kleinere Geschwister für spezielle Aufgaben haben. Ein Student der Hochschule für Technik erstellt eine Machbarkeitsstudie, die Grundlage für weitere Aktivitäten sein kann. Beantwortet werden auch Fragen der Maschinenethik sowie der Informations- und Technikethik.

Abb.: Ein Robofish (Quelle: commons.wikimedia.org; Autor: Kuba Bożanowski, Warschau)

Kriegsmaschinen

Wie verschiedene Medien melden, will das US-Militär „Roboter mit Moralempfinden entwickeln“. Das will es schon lange, aber nun wird die Öffentlichkeit informiert. Im deutschsprachigen GIZMODO heißt es: „Über die nächsten fünf Jahre stellt eine Abteilung des US-Verteidigungsministeriums, das Office of Naval Research, 7,5 Mio. US-Dollar (etwa 5,5 Mio. Euro) für Universitätsforschung zur Verfügung, um Roboter zu entwickeln, die richtig und falsch unterscheiden können. So könnten autonome Kampfsysteme effektiver und selbstständiger operieren. Manch ein Wissenschaftler glaubt sogar, dass solche Maschinen bessere Entscheidungen als Menschen treffen könnten, da sie einfach klaren Regeln folgen, um die Chancen und Risiken von Operationen zu bewerten.“ Es ist wichtig, die Maschinenethik möglichst unabhängig von militärischer Forschung zu halten und die zivile, kommerzielle Nutzung voranzutreiben. Dass dies nicht einfach sein wird, liegt auf der Hand. In Technik- und Informationsethik sind die entstehenden moralischen Probleme zu diskutieren.

Abb.: Ein klassisches Kriegsgerät

Moral auf Knopfdruck gibt es nicht

In der Ausgabe 5/2014 der UnternehmerZeitung ist ein Interview zu informationsethik.info erschienen. Die Plattform wird vom Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW betrieben und von der Ernst Göhner Stiftung unterstützt. Im Teasertext heißt es: „Eine neue Plattform der Hochschule für Wirtschaft FHNW widmet sich Informationsethik und Medienkompetenz. Initiator Oliver Bendel stellt sie vor.“ Das Interview führte die Historikerin Nathalie Baumann. Auf eine ihrer Fragen lautet die Antwort: „Moral auf Knopfdruck gibt es nicht, auch nicht bei informationsethik.info. Aber besser informierte und ‚ausgerüstete‘ Konsumenten und Unternehmer können und müssen stärker in die Pflicht genommen und zur Verantwortung gezogen werden.“ Der Zweiseiter kann kostenlos heruntergeladen werden.

Abb.: Plattform informationsethik.info

The Day We Fight Back

Dieser Tag ist der 11. Februar 2014, zumindest nach dem Wunsch der Organisatoren. Auf ihrer Website stellen sie mit Hilfe von Zitaten einige Fakten zusammen. Die NSA „has secretly broken into the main communications links that connect Yahoo and Google data centers around the world“ (The New York Times). Und: Die NSA „is harvesting hundreds of millions of contact lists from personal e-mail and instant messaging accounts around the world“ (Washington Post). Und so weiter. Was kann man tun? Auf der Website ist zu lesen: „Governments worldwide need to know that mass surveillance, like that conducted by the NSA, is always a violation of our inalienable human rights. Over the past year, more than 360 organizations in over 70 countries have come together to support the International Principles on the Application of Human Rights to Communications Surveillance. These thirteen Principles establish the human rights obligations of any government conducting surveillance. They are the core of an international movement to compel all states to stop the mass spying of the innocent. The Principles are already being used in national campaigns and international pressure to reign in spies including the NSA.“ Vielleicht sollte es keinen Tag, sondern ein Jahrhundert des digitalen Widerstands und des digitalen Ungehorsams geben.

Abb.: Das Auge als Symbol

Diskussionsteilnehmer für EU-Projekt gesucht

TA-SWISS hat sich an informationsethik.net gewandt mit der Bitte, auf ein EU-finanziertes Forschungsprojekt (SurPRISE: Surveillance, Privacy and Security) hinzuweisen. 300 Personen in der Schweiz haben die Möglichkeit, an einem sogenannten Diskussionsforum zum Thema „Sicherheitstechnologien, Überwachung und Privatsphäre“ teilzunehmen. „Im Zentrum des Interesses steht, wie die Bürgerinnen und Bürger in neun Ländern Europas auf Überwachungstechnologien reagieren. Sind sie, wie in politischen Debatten gerne unterstellt wird, tatsächlich bereit, für ein Mehr an Sicherheit ein Weniger an Privatsphäre in Kauf zu nehmen? Welche Sicherheitsmassnahmen erachten sie als akzeptabel in einem demokratischen Staat und welche nicht?“ (Zitat aus der Mitteilung) Geplant seien je eine ganztägige Gesprächsrunde (10 – 16 Uhr) in der Deutschschweiz (Zürich, 8. März 2014), in der Romandie (Grandson, 22. März 2014) und im Tessin (29. März 2014). Die Reisespesen werden übernommen, für Verpflegung ist gesorgt, und alle Teilnehmenden erhalten eine kleine Entschädigung. Weitere Informationen und Anmeldung: www.ta-swiss.ch. Anmeldefrist: 31. Januar 2014.

Abb.: Überwachung in London

Eine Plattform im Wandel

informationsethik.info ist ein Projekt des Instituts für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW und wird von der Ernst Göhner Stiftung unterstützt. Es wird von Prof. Dr. Oliver Bendel geleitet. Mehrere Monate musste die Plattform mit einem provisorischen Design auskommen. Ende Dezember 2013 fiel der Startschuss für eine erste Phase der Verwandlung. Ein neues Template wurde gewählt (das ebenfalls „responsive“ ist), die Fotografie im Willkommenstext wurde verkleinert und rutschte in den Header hoch, eine Rubrik „Begriff des Monats“ wurde eröffnet. Es handelt sich also nicht nur um alten Wein in neuen Schläuchen. In den nächsten Monaten werden Design und Content weiterentwickelt. Wer das Projekt unterstützen will, in welcher Form auch immer, ist von den Betreibern dazu eingeladen. Die E-Mail-Adresse findet sich auf informationsethik.info in der Rubrik „Kontakt“.

Neue Plattform zur Informationsethik

Die Informationsethik widmet sich, um nur ein paar Beispiele zu nennen, den Risiken von Anonymität und Identifizierbarkeit im Netz, dem Verlust der Privatheit durch soziale Medien und Überwachungssysteme, den Gefahren durch Automatismen und technische Manipulationen, den Auswirkungen der digitalen Piraterie, der Zunahme von Cybermobbing und -stalking, der Omnipräsenz von Informations- und Kommunikationssystemen sowie der Abhängigkeit von IT-Unternehmen und IT. Seit 1. September 2013 wird in der Schweiz informationsethik.info aufgebaut. Es handelt sich um eine webbasierte Informations- und Kommunikationsplattform, die Privatpersonen, Schülerinnen und Schüler, Studierende und Dozierende sowie Mitarbeitende von Unternehmen mit der Informationsethik und mit den Grundfragen der Medienkompetenz vertraut machen und bei damit verbundenen Anliegen unterstützen soll. Die Plattform zielt vor allem auf das Wissen und Lernen und dient der Aufklärung der Mitglieder der Informationsgesellschaft und dem Aufbau der Wissensgesellschaft. Es wird auf eigene und fremde Definitionen, Kurzdarstellungen, Fallbeschreibungen und anderes Material sowie auf Linksammlungen und Vernetzungsmöglichkeiten gesetzt, um das problembezogene und informelle Lernen zu ermöglichen. Die Plattform wird vom Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW verantwortet. Initiator und Projektleiter ist Prof. Dr. Oliver Bendel. Die Ernst Göhner Stiftung unterstützt die Plattform finanziell.

Der GOODBOT kommt auf die Welt

Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über www.fhnw.ch/personen/oliver-bendel.

Abb.: Eine Designstudie zum GOODBOT

informationsethik.net feiert

informationsethik.net feiert. Über vierzig Beiträge im Blog, ein Literaturverzeichnis zu Informationsethik und Maschinenethik und ein Glossar zur Informationsethik mit über 160 Begriffen – das ist die Bilanz nach einem Jahr. Betrieben werden Website und Blog von Oliver Bendel. Es handelt sich um ein privates Projekt. Es gibt keine Werbung, wenn man von dem Verweis auf das Buch „Die Rache der Nerds“ und von den Links absieht. Seit Anfang des Jahres werden Stiftungen angefragt, mit dem Ziel, die Plattform auszubauen bzw. eine neue Plattform aufzubauen. Allerdings sind viele Einrichtungen im Bereich der Ethik nicht neutral und nicht – wie informationsethik.net – einer wissenschaftlichen Ethik verpflichtet. Erstes Ziel ist, die Unabhängigkeit zu bewahren. Zugleich möchte der Betreiber andere Perspektiven hinzunehmen – von Philosophen und (Wirtschafts-)Informatikern sowie von Künstlern –, Lehr- und Lernmaterialien bereitstellen und den Diskurs ermöglichen. Das wird aber nur mit einer finanziellen Unterstützung gehen. Man darf gespannt sein, wo informationsethik.net im Jahre 2014 steht.

Abb.: informationsethik.net feiert

Mein COMPANION und ich

Junge Arbeitnehmerinnen und -nehmer verursachen infolge psychisch bedingter Probleme hohe Kosten auf gesellschaftlicher, betrieblicher und individueller Ebene. Trotzdem gibt es bisher in der Schweiz kein auf sie zugeschnittenes betriebliches Gesundheitsmanagement. Eine nichtnative App zur Unterstützung der Peer-Kultur in Betrieben bietet eine innovative Möglichkeit, die psychische Gesundheit der Jugendlichen nachhaltig zu stärken. Im Projekt „Betriebliche Gesundheitsförderung bei Jugendlichen“ der Gesundheitsförderung Schweiz, des IAP der ZHAW und des IWI der HSW (FHNW) wird seit 2012 der COMPANION entwickelt. Das IWI zeichnet für die technische Entwicklung (Leitung Prof. Dr. Rainer Telesko) und den informationsethischen und -logistischen Teil (Leitung Prof. Dr. Oliver Bendel) verantwortlich. Die Gesamtfördersumme beträgt CHF 291’896. Weitere Informationen über blogs.fhnw.ch/iwi (Link nicht mehr gültig).

Abb.: Eine App zur Unterstützung der Gesundheit