Laptop manufacturer Lenovo launched the Lenovo Daystar robot in 2020. The design of the machine, with four wheels and a cobot on the back, was less than convincing. The latest development is different. The website ifdesign.com reports on the award winner: „Step into the forefront of industrial automation and public services with Lenovo Daystar Bot GS. The groundbreaking six-legged design guarantees unmatched stability and maneuverability that surpasses traditional robotic platforms, allowing it to traverse diverse terrains with ease.“ (iF DESIGN, 2024) The six legs are indeed unusual and a real eye-catcher. There is disagreement about the advantages. Perhaps the six legs provide more stability on stairs and very uneven terrain. The article continues: „Boasting an advanced control system, cutting-edge perception algorithms, and IP66 robust protection, GS outperforms in unforeseen scenarios, enabling comprehensive data collection at any location and time. In our unwavering pursuit of excellence, GS stands as a testament to innovation, efficiency, safety, and the boundless potential of automated exploration.“ (iF DESIGN, 2024) Interestingly, Lenovo itself has nothing to say about the product. However, the media are now reporting intensively. The next few months will bring more clarity about the Lenovo Daystar Bot GS.
LOOI von TangibleFuture soll ein sozialer Roboter für den Schreibtisch sein, ein sogenannter Desktop Companion. Es handelt sich um ein Kickstarter-Projekt, das auf großes Interesse stößt. Der Kern des Systems ist das eigene Smartphone. Auf dem Display werden Augen dargestellt, die – zusammen mit weiteren Funktionen – Emotionen ausdrücken können. Die Verbindung mit GPT ermöglicht die entsprechende Kommunikation. Nach Aussage der Firma ist auch eine „Persönlichkeit“ vorhanden. Eine mobile Plattform mit Rädern erlaubt die Bewegung auf dem Schreibtisch. Damit gewinnt LOOI Ähnlichkeit mit sozialen Robotern wie Emo, Loona, Cozmo und Vector. Die Integration von Smartphones und Figuren oder Plattformen ist nicht neu, wenn man an den Romo Smartphone Robot von Romotive und Hugvie aus den Hiroshi Ishiguro Laboratories denkt. Hier erscheint sie durchaus geglückt. Es ist allerdings nicht ganz klar, welchen Vorteil der bewegliche Körper hat, bis auf den durch ihn unterstützten Ausdruck von Emotionen. TangibleFuture ist nach eigenen Angaben ein Unternehmen, das sich auf interaktive Innovationen konzentriert und sich der Erforschung und Neugestaltung emotionaler Unterhaltungserlebnisse für Erwachsene widmet. Weitere Informationen über looirobot.com.
Abb.: Bei LOOI ist das Smartphone waagrecht angebracht (Bild: DALL-E 3)
Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.
Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik
The workshop „ViVa RE’24: Virtues and Values in Requirements Engineering 2024“ will take place on April 8, 2024 in Winterthur. It is part of the conference „Requirements Engineering: Foundation for Software Quality (REFSQ) 2024“. From the workshop website: “Including human values into the development of software-intensive systems has long been a topic of discussion. A satisfactory solution such as a collection of (software-supported) methods or a model gallery for ethical argumentation has not yet been developed. This workshop will work on collecting methods for incorporating values into system development. Two particular methods, the Square of Values (SoV) and the Software Sustainability Assessment (SoSA) approaches, will be examined in more detail. A specific focus of the workshop lies on how ethical reasoning can be supported with the help of software-tools.” (Website ViVa) The program committee consists of Prof. Dr. Oliver Bendel, Dr. Renata Guizzardi-Silva Souza, Prof. Dr. Kurt Schneider, and Alexander Bock. Organizers are Prof. Dr. Alexander Rachmann and Dr. Jens Gulden. More information is available at google.com/view/vivarerefsq24.
MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden, aber nicht Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Zweibeiner wie Atlas, Figure 01 und Unitree H1. Auch der Prototyp Optimus ist aufgeführt. Die meisten Modelle stammen von amerikanischen Firmen, dicht gefolgt von chinesischen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf zwei Beinen zu entwickeln. Mit diesen kann man alle Artefakte begehen und gebrauchen, die auch Menschen zugänglich und nützlich sind, etwa Wege, Plätze, Gebäude und Werkzeuge. Ein Vorteil von Zweibeinern ist, dass sie mit ihren Greifern und Händen anspruchsvolle Manipulationen vornehmen können. Ein Nachteil ist, dass sie umfallen und stürzen und damit Menschen gefährden können. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.
Abb.: Die Übersicht über robotische Zweibeiner (Bild: MERPHI)
MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden und Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Vierbeiner wie Spot, Unitree Go2 und Unitree B2. Eine Besonderheit ist Robot Pony. Die meisten Modelle stammen von chinesischen Firmen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf vier Beinen zu entwickeln. Mit diesen kann man Gebäude inspizieren und Gegenstände transportieren. Man kann auch Waffen auf ihnen installieren und damit gegen Terroristen oder Kriminelle (oder gegen Unschuldige) vorgehen. Ein Vorteil von Vierbeinern ist, dass sie selbst auf unwegsamem Gelände sicher unterwegs sind. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.
Abb.: Die Übersicht über robotische Vierbeiner (Bild: MERPHI)
NAO und Pepper von Aldebaran – einem Unternehmen der United Robotics Group – sind Flaggschiffe der Sozialen Robotik. Der Kleinere erblickte 2006 das Licht der Welt (inzwischen liegt Version 6 vor), der Größere 2014. Bei Veranstaltungen an Hochschulen wie den Wahlmodulen zur Sozialen Robotik von Prof. Dr. Oliver Bendel an der FHNW oder in Unternehmen sind beide umschwärmt. Alle schätzen die karikaturenhafte Gestaltung und die natürlichsprachlichen Fähigkeiten. Und lachen sich tot, wenn sie Pepper streicheln und dieser sagt, er fühle sich wie eine Katze. Seit einiger Zeit gibt es Roboter mit zwei separaten Displays für die Augen, wie Alpha Mini, oder mit einem Display für den Mund, wie Navel. Unitree Go2 und Unitree H1 weisen eine erstaunliche Beweglichkeit auf. In der Community stellt sich die Frage, wann NAO II und Pepper II kommen, nicht als neue Versionen, sondern als neue Modelle. Allerdings ist es ein bisschen wie beim VW Käfer. Es ist sehr anspruchsvoll, einen Klassiker neu aufzulegen, und schnell sind alte Fans enttäuscht, wie sich beim New Beetle und Beetle II gezeigt hat. NAO II und Pepper II müssten ebenfalls zwei separate Displays für ihre Augen bekommen. Orientieren kann man sich an denjenigen von Navel, die plastisch wirken. Bei Pepper kämen zudem Displays für Mund und Wangen in Frage. Damit könnte er Mimik darstellen und rot werden, wenn man ihm ein Kompliment macht. Oder lächeln, wenn man ihn streichelt. Die Körper müssten ebenfalls generalüberholt werden. Beide Roboter sollten – hier ist Cozmo ein Vorbild – jederzeit lebendig wirken. Und beide sollten zumindest etwas greifen und festhalten können, wie ein Unitree H1 oder ein Figure 01. Zugleich muss man beide auf Anhieb wiedererkennen können. Wahrscheinlich hat man bei VW aus den Reaktionen enttäuschter Fans gelernt. Vielleicht sollte man sich zusammensetzen. Und 2025 einen Beetle III, einen NAO II und einen Pepper II auf den Markt bringen.
When humans come into contact with wildlife, farm animals, and pets, they sometimes run the risk of being injured or killed. They may be attacked by bears, wolves, cows, horses, or dogs. Experts can use an animal’s body language to determine whether or not danger is imminent. Context is also important, such as whether a mother cow is with her calves. The multimodality of large language models enables novel applications. For example, ChatGPT can evaluate images. This ability can be used to interpret the body language of animals, thus using and replacing expert knowledge. Prof. Dr. Oliver Bendel, who has been involved with animal-computer interaction and animal-machine interaction for many years, has initiated a project called „The Animal Whisperer“ in this context. The goal is to create a prototype application based on GenAI that can be used to interpret the body language of an animal and avert danger for humans. GPT-4 or an open source language model should be used to create the prototype. It should be augmented with appropriate material, taking into account animals such as bears, wolves, cows, horses, and dogs. Approaches may include fine-tuning or rapid engineering. The project will begin in March 2024 and the results will be available in the summer of the same year.
„Nothing Phone (2a) bekommt Glubschaugen“ – so titelte Golem am 28. Februar 2024. Das sehen die Benutzer genauso. Einer schreibt in seinem Kommentar im Unternehmensblog: „Phoebe: ‚My eyes, My eyes'“ … Ein anderer: „This is so great. I can see a robot there?“ Und ein weiterer: „Fresh Eyes For a Reason“. Nothing selbst hat diese Wortwahl vorgegeben: „See the world through fresh eyes.“ Normalerweise gibt man seinem Smartphone keinen Namen. Die Augen könnten aber genau dazu führen. Das Smartphone würde damit neben das Auto, den Staubsaugerroboter und viele andere Gegenstände treten, die wir zärtlich oder scherzhaft benennen. Es ist nicht abschließend geklärt, warum Menschen dies tun. Vermutlich hat es mit der Bewegung von Dingen zu tun, die an die Bewegung von Lebewesen erinnert, aber auch mit der Bedeutung, die sie für unser Leben haben. Und wenn sie soziale Merkmale erhalten, Augen, Mund, Töne oder natürliche Sprache, dann liegt es nahe, sie wie Lebewesen zu behandeln. In bestimmte Formen wiederum projizieren wir etwas hinein, und die Anthropomorphisierung kann so weit gehen, dass wir mit Aussehen und Verhalten bestimmte Fähigkeiten verbinden. Im Falle des Nothing Phone (2a) sind eigentlich nur Kameralinsen vorhanden – aber diese erscheinen uns offensichtlich als Augen. Ein Blickfang waren die nachhaltigen Geräte schon immer. Nun scheinen sie den Blick zu erwidern.
In der messtec drives Automation (Ausgabe 1/2024) ist der zweieinhalbseitige Artikel „Der künstliche Barkeeper – Teil III“ von Prof. Dr. Oliver Bendel und Lea Peier enthalten. Es handelt sich um den Abschluss einer dreiteiligen Serie, die auf das Paper „How Can Bar Robots Enhance the Well-being of Guests?“ zurückgeht und die sich auf die Ausgaben 8/2023, 9/2023 und 1/2024 verteilte. Im Fokus stehen Barroboter wie Barney Bar und Robobarista, die an der Hochschule für Wirtschaft FHNW erforscht werden. Im ersten Teil wurden Industrieroboter, Serviceroboter und soziale Roboter erklärt. Dabei spielte Bendels Modell mit den fünf Dimensionen eine Rolle. Zudem wurde auf Roboter in der Gastronomie eingegangen und eine Übersicht über Barroboter gegeben. Im zweiten Teil wurden Barney Bar von F&P Robotics und Robobarista von Smyze unter die Lupe genommen, wieder unter Verwendung des Modells mit den fünf Dimensionen. Im dritten Teil erörtern die Autoren, wie die Roboter verbessert werden könnten, um das Wohlbefinden der Kunden und Gäste zu erhöhen und besser auf ihre individuellen Wünsche und Anforderungen einzugehen. Dabei kann künstliche Intelligenz eine wichtige Rolle spielen. Zudem werden ethische und soziale Probleme beim Einsatz von Barrobotern diskutiert und mögliche Lösungen angedeutet. Das ganze Heft kann hier heruntergeladen werden.
Seit Jahren setzt man Pepper in Bibliotheken ein. Anfang 2019 titelte die Frankfurter Rundschau: „Ein Roboter führt durch die Stadtbücherei“. Nur wenige Wochen später schrieb die MAZ: „Der Stifterverband zeichnet das Projekt mit dem humanoiden Roboter Wilma an der TH Wildau aus. Die Roboterdame arbeitet in der Hochschulbibliothek.“ Wilma war niemand anderes als Pepper. Ende 2019 titelte der Düsseldorfer Anzeiger: „Roboter Pepper hilft in der Zentralbibliothek Düsseldorf aus“. Die Berliner Morgenpost konnte 2021 gleich über zwei Roboter berichten, nämlich NAO und Pepper, die aus dem selben Haus stammen. „In der Stadtbibliothek Spandau helfen jetzt Roboter aus“, hieß es in dem Artikel. Im selben Jahr assistierte laut der Plattform Silicon Pepper in der Stadtbücherei Biberach. Ein Fernsehsender berichtete 2022: „Die Stadtbücherei am Haidplatz baut ihren Robotik-Schwerpunkt weiter aus und stellt ihr neues Teammitglied, Roboter ‚Charlie‘, vor.“ Und auch bei Charlie handelte es sich um niemand anderen als Pepper, wie auch bei Hilbi in der Stadtbibliothek Hildesheim, über den die Hildesheimer Presse im selben Jahr berichtete. Seit Dezember 2019 ist Auxilio aka Pepper für die FHNW am Campus Brugg-Windisch im Einsatz. Und dort ist er bis heute.
Abb.: Pepper am Campus Brugg-Windisch im Jahre 2024
On February 19, 2024, the article „@llegra: a chatbot for Vallader“ by Oliver Bendel and Dalil Jabou was published in the International Journal of Information Technology. From the abstract: „Extinct and endangered languages have been preserved primarily through audio conservation and the collection and digitization of scripts and have been promoted through targeted language acquisition efforts. Another possibility would be to build conversational agents like chatbots or voice assistants that can master these languages. This would provide an artificial, active conversational partner which has knowledge of the vocabulary and grammar and allows one to learn with it in a different way. The chatbot, @llegra, with which one can communicate in the Rhaeto-Romanic idiom Vallader was developed in 2023 based on GPT-4. It can process and output text and has voice output. It was additionally equipped with a manually created knowledge base. After laying the conceptual groundwork, this paper presents the preparation and implementation of the project. In addition, it summarizes the tests that native speakers conducted with the chatbot. A critical discussion elaborates advantages and disadvantages. @llegra could be a new tool for teaching and learning Vallader in a memorable and entertaining way through dialog. It not only masters the idiom, but also has extensive knowledge about the Lower Engadine, that is, the area where Vallader is spoken. In conclusion, it is argued that conversational agents are an innovative approach to promoting and preserving languages.“ Oliver Bendel has been increasingly focusing on dead, extinct and endangered languages for some time. He believes that conversational agents can help to strengthen and save them.
The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as a preprint at arxiv.org/abs/2402.07919. It was accepted at the AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ Oliver Bendel will present the paper at Stanford University on March 25-27. It is his ninth consecutive appearance at the AAAI Spring Symposia, which this time consists of eight symposia on artificial intelligence.
Am Nachmittag des 13. Februar 2024 fand im Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten die Robodemo statt, mit NAO und Pepper aus dem Robo-Lab der Hochschule und mit Alpha Mini, Cozmo und Unitree Go2 aus dem privat finanzierten Social Robots Lab von Prof. Dr. Oliver Bendel. Der Unitree Go2 beeindruckte die Studierenden am meisten. Er gab ihnen die Pfote, zeichnete für sie – auf den Hinterbeinen stehend – ein Herz in die Luft, machte große Sprünge und setzte sich auf Befehl hin. Bao, so sein Name, wurde in den Lichthof des Campus genommen und versetzte die Anwesenden – vor allem Teilnehmer einer Konferenz – in helle Aufregung. Viele versuchten den Vierbeiner herzulocken und zu streicheln. Das ist erstaunlich, denn zunächst wirkt er etwas befremdlich, da er keinen Kopf hat. Man scheint sich aber sehr schnell daran gewöhnen und erfreut sich dann an den flüssigen, überzeugenden Bewegungen und seinen Kunststücken. Danach beschäftigten sich die Studierenden noch mit den anderen Modellen.
Das Rabbit R1 ist ein Gerät des kalifornischen Start-ups Rabbit. Es hat abgerundete Ecken, ist mehr oder weniger quadratisch und halb so groß wie ein Smartphone. Es hat Display, Mikrofon und Lautsprecher. Von dem Anbieter wird es „pocket companion“ genannt. Dem System liegt ein Large Action Model (LAM) zugrunde. Es lernt damit, die Aktivitäten des Benutzers nachzuahmen. Dazu muss es mit den Apps des Smartphones verbunden sein. Laut Website ist es z.B. optimal dazu geeignet, Suchanfragen auszuführen, Musik zu wählen und Essen zu bestellen. Auch generative KI soll es ansteuern können. Man kann Rabbit R1 zu den AI Assistants zählen, die einen wachsenden Markt bilden. Verglichen wird es immer wieder mit dem Tamagotchi, dem legendären Spielzeug der 1990er-Jahre.
Abb.: Verglichen wird das Rabbit R1 mit dem Tamagotchi
Apple hat im Februar 2024 der Öffentlichkeit seine KI-gestützte Bildbearbeitungssoftware namens MGIE vorgestellt. Die Abkürzung steht für „MLLM-Guided Image Editing“. MGIE ermöglicht es Benutzern, ihre Bildbearbeitungen mit natürlicher Sprache zu steuern. Es verwendet multimodale Sprachmodelle (MLLMs), um Befehle zu interpretieren und Pixelmanipulationen durchzuführen. Das System generiert keine neuen Bilder, sondern modifiziert bestehende. Interessierte können MGIE auf Huggingface mit niedrig aufgelösten Ergebnissen testen. Allerdings kann es sehr lange Wartezeiten geben. Das Paper „Guiding Instruction-based Image Editing via Multimodal Large Language Models“ von Tsu-Jui Fu, Wenze Hu, Xianzhi Du et al. erklärt die Details der Entwicklung. Die Autoren betonen, dass die anweisungsbasierte Bildbearbeitung die Kontrollierbarkeit und Flexibilität der Bildmanipulation verbessert.
Abb.: Bilder können mit Sprachbefehlen bearbeitet werden (Bild: DALL-E 3)
Millions of tons of plastic waste float down polluted urban rivers and industrial waterways and into the world’s oceans every year. According to Microsoft, a Hong Kong-based startup has come up with a solution to help stem these devastating waste flows. „Open Ocean Engineering has developed Clearbot Neo – a sleek AI-enabled robotic boat that autonomously collects tons of floating garbage that otherwise would wash into the Pacific from the territory’s busy harbor.“ (Deayton 2023) After a long period of development, its inventors plan to scale up and have fleets of Clearbot Neos cleaning up and protecting waters around the globe. The start-up’s efforts are commendable. However, polluted rivers and harbors are not the only problem. A large proportion of plastic waste comes from the fishing industry. This was proven last year by The Ocean Cleanup project. So there are several places to start: We need to avoid plastic waste. Fishing activities must be reduced. And rivers, lakes and oceans must be cleared of plastic waste.
Fig.: It is not enough to clean the rivers (Image: DALL-E 3)
Im Frühjahrssemester 2024 bindet Prof. Dr. Oliver Bendel in seine Lehrveranstaltungen an der FHNW virtuelle Tutorinnen ein. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung steht Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Er hat vor einem Vierteljahrhundert an der Universität St. Gallen über pädagogische Agenten (engl. „pedagocial agents“) promoviert, über Chatbots, Sprachassistenten und frühe Formen sozialer Roboter im Lernbereich. Zusammen mit Stefanie Hauske von der ZHAW hat er jüngst das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ verfasst, das beim AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ an der Stanford University angenommen wurde und Ende März vor Ort vorgestellt wird. Dabei geht es nicht um die Lehre an Hochschulen, sondern um das selbstregulierte Lernen von Mitarbeitern in Unternehmen.
Abb.: Zwei GPTs unterstützen die Lehre (Bild: DALL-E 3)
Der Technikphilosoph und Wirtschaftsinformatiker Prof. Dr. Oliver Bendel widmet sich seit einiger Zeit verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Er ist der Meinung, dass Conversational Agents zu ihrer Stärkung und Rettung beitragen können. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wurde bis August 2023 der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Chatbot beruht auf dem Sprachmodell GPT-4. Er hat Texteingabe und -ausgabe sowie Sprachausgabe. Der Avatar ist ein Steinbockmädchen. Man kann in Deutsch oder Rätoromanisch mit @llegra kommunizieren – sie versucht sich immer auf Vallader. Manchmal rutscht sie in Sursilvan oder Rumantsch Grischun. Das Paper „@llegra: A Chatbot for Vallader“ von Oliver Bendel und Dalil Jabou wurde nun vom International Journal of Information Technology angenommen. Es wird in einigen Wochen erscheinen. Das nächste Idiom des Rätoromanischen soll noch in diesem Jahr in Angriff genommen werden.
Abb.: Ein Junge im Unterengadin plaudert mit @llegra
Am 19. Januar 2024 wurde ein GPT namens DER DICHTER erstellt. Es trägt Gedichte von Oliver Bendel vor und interpretiert sie auf Wunsch des Benutzers. Gefüttert wurde es mit mehreren Sammlungen, nämlich „Die Stadt aus den Augenwinkeln“ und „Die Astronautin“ sowie „Ein roter Splitter liegt im Gras“. Der erste Band war 2004 im Alkyon Verlag erschienen, fünf der Gedichte bereits 2003 in der legendären Literaturzeitschrift neue deutsche literatur (ndl). Der zweite Band wurde unter einer CC-Lizenz im Juli 2000 veröffentlicht. Drei Gedichte daraus sind in Kürze in dem Band „Tender Digitality“ – herausgegeben von Charlotte Axelsson – zu finden, wiederum in der Form von 3D-Codes. Die Gedichte des dritten Bands sind mehrheitlich unveröffentlicht und stammen aus den Jahren 2000 bis 2006. Bereits seit 12. November 2023 gibt es ein GPT namens Social Robotics Girl, das Informationen über Soziale Robotik liefert. Es speist sich aus einer Sammlung von Beiträgen von Oliver Bendel zu diesem Thema. Daher kann es etwa seine Definition sozialer Roboter nennen und Einteilungen anhand seines Fünf-Dimensionen-Modells vornehmen. Oliver Bendel veröffentlicht seit 40 Jahren Gedichte und trägt sie zu seltenen Gelegenheiten auch vor.
Abb.: Oliver Bendel bei einer seiner Lesungen im Jahre 1985 im Club Orange (Foto: SZ)
Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.
Abb.: So gesittet geht es bei Secret Girlfriend Sua zu
Dual-use is a familiar problem. It usually means that something can be used for both civilian and military purposes. The latter are often not what the inventor had in mind. More broadly, the term can mean that useful tools and technologies can become harmful in the wrong hands. We already know this from knives and vehicles, and many helpful robots can be turned into deadly weapons. In some cases, both meanings are true. In the fall of 2023, the U.S. Marines outfitted a Unitree Go1 with a training version of an M72 antitank weapon. The tests were successful. Robots are certainly an option for the military. But technology philosopher Oliver Bendel finds it problematic that commercially available service robots are equipped with weapons. This can harm the manufacturer. But above all, it damages the reputation of the robots. They can be used in many contexts to help people and animals. Such contexts must be systematically found so that the robots can then be used and constantly improved. Oliver Bendel wants his Go2 to meet animals to gain insights that can help them. He is against testing the new model in a military context.
Fig.: Oliver Bendel with his Unitree Go2 (Photo: Frank Graef)