Gesprächsroboter und Social Bots

Ende August 2018 erscheint das Buch „Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs“, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim „Medientag 2017“ der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Aus dem Klappentext: „Immer öfter kommuniziert Software mit und für uns. Bots übernehmen oft unbemerkt komplexe Aufgaben und virtuelle Assistenzen verarbeiten die gesprochene ­Sprache. Die Technologieentwicklung gestattet uns mittlerweile, die Dienste von digitalen, oftmals sprachbasierten Assistenzsystemen in unseren Alltag zu integrieren. Besonders im Bereich der politischen Propaganda und Public Relations sind Social Bots seit einiger Zeit zu zweifelhafter Berühmtheit gelangt. … Der interdisziplinär ausgerichtete Band befasst sich mit dieser Thematik und sucht nach Antworten auf Fragen wie die folgenden: Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation?“ (Klappentext iup) Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.

Abb.: Gesprächsrunde (Foto: Universität Innsbruck)

Social Bots und Cyborgs im Abstimmungskampf

„Wissenschaftlerinnen und Wissenschaftler der Hochschule für Wirtschaft FHNW erforschten in einem Projekt, ob Social Bots oder Cyborgs die No-Billag-Abstimmung in der Schweiz zu beeinflussen versuchten. Social Bots sind in sozialen Medien wie Facebook und Twitter unterwegs. Wenn sie Meinungen verbreiten bzw. beeinflussen sollen, nennt man sie auch Meinungsroboter. Cyborgs sind im vorliegenden Zusammenhang reale Nutzer, die ihr Kommunikationsvolumen mit Automatisierungstools steigern. Im Projekt wurde auf die Kommunikation zur Abstimmung auf Twitter fokussiert.“ (Medienmitteilung FHNW) Untersucht wurde die heiße Phase der Abstimmung vom 7. Januar bis zum 4. März 2018 (Abstimmungssonntag). In diesen gut acht Wochen gab es auf Twitter knapp 200000 Wortmeldungen (Tweets, Retweets, Replies) zur Abstimmung. Sie stammten von 26000 Accounts, von denen 19.5 % Befürworter und 80.5 % Gegner der Initiative waren. „Pro- und Contra-Tweets traten hingegen im Verhältnis 35:65 auf. Die Gegner der Initiative konnten mehr Personen mobilisieren, die Befürworter vermochten dies mit erhöhter Betriebsamkeit auszugleichen.“ (Medienmitteilung FHNW) Das Forschungsprojekt wird mit Mitteln der Hasler Stiftung finanziert. Die Projektleitung haben Prof. Dr. Stefan Gürtler (Datenerhebung und -auswertung) und Prof. Dr. Oliver Bendel (Abschlussbericht) inne.

Abb.: Ein Cyborg-Girl an einer Wand an der Limmat in Zürich

Social Bots und No-Billag-Initiative

Ein Team der Hochschule für Wirtschaft FHNW (Prof. Dr. Stefan Gürtler, Prof. Dr. Oliver Bendel, Dr. Elzbieta Pustulka und Matthias Binz) untersucht den Einfluss von Social Bots im Kontext der No-Billag-Initiative. Aus der Projektbeschreibung: „Soziale Medien gewinnen bei der öffentlichen Meinungsbildung an Bedeutung. Ebenso nimmt deren Beeinflussung durch technische Mittel zu. Verschiedene Untersuchungen haben das Ausmaß und das Gefahrenpotenzial von sogenannten Meinungsrobotern aufgezeigt, die … politische Diskussionen mit maschinell erzeugter Kommunikation überschwemmen. Eine freie Meinungsbildung ist unabdingbare Grundvoraussetzung für eine funktionierende demokratische Gesellschaft. Sie muss vor manipulativen Eingriffen geschützt werden. Ein erster Schritt zu ihrem Schutz ist die Erprobung eines algorithmischen Suchverfahrens, wie es bereits in anderen Ländern zur erfolgreichen Detektion von Meinungsrobotern eingesetzt wurde. Eine nächste Gelegenheit bietet die kontroverse Kommunikation rund um die No-Billag-Initiative.“ Erste Ergebnisse der Untersuchung, die von einer Schweizer Stiftung finanziert wird, liegen ab März 2018 vor. Ein Bericht folgt im Sommer dieses Jahres.

Abb.: Ein Sendemast in den Bergen

Bots, Hate, Fake

Vom 2. bis 4. Mai 2017 finden die „Medientage Mitteldeutschland“ statt. „Bots, Hate, Fake: Werte und Grenzen in der Kommunikation“ lautet der Titel einer Podiumsdiskussion am 3. Mai. Es moderiert Vera Linß, auf dem Podium sitzt Tabea Rößner (Bündnis 90/Die Grünen), live zugeschaltet ist Oliver Bendel (Fachhochschule Nordwestschweiz). Über Social Bots und Fake News soll der Wahlkampf in verschiedenen Ländern, so die Website, „vorsätzlich in eine bestimmte Richtung gelenkt worden sein“ (Website Medientage Mitteldeutschland). „Und auch in Deutschland gibt es Sorge, dass der Wahlkampf so beeinflusst werden könnte. Die Landesregierungen von Hessen, Bayern und Sachsen-Anhalt werben für einen Gesetzentwurf, der ‚manipulativer Kommunikation im Internet‘ auf strafrechtlicher Ebene begegnen soll. Kritiker des Entwurfs bemängeln, dass eine deutsche Gesetzesinitiative zwar hierzulande greifen könnte, bei Aktivitäten aus dem Ausland allerdings keine Handhabe biete.“ (Website Medientage Mitteldeutschland) Ein Ansatz der Grünen fordere, so die Website, kein Verbot von Bots, sondern eine Anzeigepflicht bei deren Verwendung. Auch Oliver Bendel kann sich eine Anzeigepflicht vorstellen. Zudem schlägt er vor, dass Social Bots und Chatbots ihre Ziele, Methoden und Quellen benennen müssen. Weitere Informationen über www.medientage-mitteldeutschland.de.

Abb.: Ist die Nachahmung einer Vogelscheuche eine Fake?

Social Bots und Chatbots

„Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.“ So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: „Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.“ Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.

Abb.: Social Bots sind in den Social Media zu finden

Die Macht der Meinungsroboter

Der Artikel „So erkennen Sie Meinungsroboter“ von Teresa Sickert widmet sich dem Phänomen der Social Bots. „Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.“ (Spiegel Online, 19. Januar 2017) Und weiter: „Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.“ (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot