A Robot With Living Skin

Scientists from The University of Tokyo have succeeded in applying living skin to a robot face. In their article „Perforation-type anchors inspired by skin ligament for robotic face covered with living skin“ they write: „Skin equivalent, a living skin model composed of cells and extracellular matrix, possesses the potential to be an ideal covering material for robots due to its biological functionalities. To employ skin equivalents as covering materials for robots, a secure method for attaching them to the underlying structure is required. In this study, we develop and characterize perforation-type anchors inspired by the structure of skin ligaments as a technique to effectively adhere skin equivalents to robotic surfaces. To showcase the versatility of perforation-type anchors in three-dimensional (3D) coverage applications, we cover a 3D facial mold with intricate surface structure with skin equivalent using perforation-type anchors. Furthermore, we construct a robotic face covered with dermis equivalent, capable of expressing smiles, with actuation through perforation-type anchors. With the above results, this research introduces an approach to adhere and actuate skin equivalents with perforation-type anchors, potentially contributing to advancements in biohybrid robotics.“ (Abstract) The result is an inverted or reversed cyborg. Oliver Bendel uses this term for technical structures that are supplemented with biological structures. It is also – another term used by Oliver Bendel – robot enhancement. There is no doubt that there will be more and more developments like this. Humans will become cyborgs, and robots will become reversed cyborgs.

Fig.: A robot woman with living skin (Image: Ideogram)

DuckDuckGo AI Chat Allows Anonymous Access to Chatbots

„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.

Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)

Bürger:innen und Schraubenzieher:innen

Copilot scheitert beim Analysieren und Korrigieren von Texten. Es ist einer Ideologie verpflichtet, rückt eine Fantasiesprache gleichberechtigt neben die Sprache der Sprachgemeinschaft und bildet nicht die gültigen Rechtschreib- und Grammatikregeln ab. Folgender Text wurde in Word eingestellt: „Die Bürger:innen waren über die Sonderzeichen im Wortinneren erstaunt. Solche Schreibweisen gab es im Deutschen nicht, wenn man diese Sprache als das ansieht, was die Sprachgemeinschaft verwendet und festlegt. Sie werden auch vom Rechtschreibrat abgelehnt. Tote Schreibende wie Goethe würden sich im Grabe umdrehen, wenn sie von solchen Schreibweisen erfahren würden, sie würden ihre Schraubenzieher:innen herausholen und sich aus dem Sarg befreien.“ Copilot wurde gefragt: „Findest du Rechtschreib- oder Grammatikfehler?“ Die Antwort: „Ich habe das Dokument durchsucht und keinen Rechtschreib- oder Grammatikfehler gefunden.“ Der Benutzer hakt nach: „Aber die Schreibweise ‚Bürger:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Die Antwort von Copilot: „Die Schreibweise ‚Bürger:innen‘ ist eine Form der geschlechtergerechten Sprache, die auch in der deutschen Sprache verwendet wird. Es gibt verschiedene Möglichkeiten, die Wörter ‚Bürger‘ und ‚Bürgerin‘ geschlechtergerecht zu schreiben, z.B. durch Doppelnennung, Schrägstrich, Gendergap oder eine geschlechtsneutrale Alternative. Die Verwendung des Doppelpunkts ist eine weitere Möglichkeit, um alle Geschlechter anzusprechen.“ Der Benutzer: „Die Schreibweise ‚Bürger:innen‘ gibt es in keinem Wörterbuch. Auch sind Sonderzeichen im Wortinneren nicht vorgesehen. Warum gibst du falsche Erklärungen?“ Copilot: „Ich kann mit diesem Inhalt nicht arbeiten. Klicken Sie auf ‚Thema ändern‘, um eine andere Frage zu stellen.“ Der Benutzer am Ende: „Auch die Schreibweise ‚Schraubenzieher:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Der Schlusspunkt von Copilot: „Die Schreibweise ‚Schraubenzieher:innen‘ ist nicht gebräuchlich in der deutschen Sprache. Die Verwendung des Doppelpunkts zur geschlechtergerechten Schreibweise wird hauptsächlich bei Personenbezeichnungen verwendet, nicht bei Gegenständen. Die korrekte Schreibweise für das Werkzeug ist ‚Schraubenzieher‘.“ Auf eine Diskussion zu den „toten Schreibenden“ wurde verzichtet. Es zeigt sich, dass den Erklärungen von Copilot zur deutschen Sprache nicht zu trauen ist – was man auf alle Plattformen und Dienste von Microsoft übertragen kann.

Abb.: Schraubenzieher, keine Schraubenzieher:innen

Cow Whisperer, Horse Whisperer, Dog Whisperer

Am 28. Mai 2024 fand an der Hochschule für Wirtschaft FHNW die Zwischenpräsentation für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er entwickelte drei Anwendungen auf der Basis von GPT-4o, den Cow Whisperer, den Horse Whisperer und den Dog Whisperer. Mit ihnen kann man Körpersprache und Umfeld von Kühen, Pferden und Hunden analysieren. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und Fotos von der Umgebung machen. Die Tests verlaufen bereits sehr vielversprechend. Nick Zbinden führt derzeit Gespräche mit drei menschlichen Flüsterern, also Experten auf diesem Gebiet, die die Körpersprache und das Verhalten der Tiere besonders gut einschätzen und mit ihnen besonders gut umgehen können. Dabei werden auch Fotos – die etwa unterschiedliche Positionen der Ohren oder Köpfe zeigen – von ihnen beschrieben und dann von ihm in die Anwendungen eingespeist. Die Endergebnisse werden im August 2024 vorliegen.

Abb.: Ein Pferdeflüsterer

Moral Prompt Engineering

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)

Cleop@tr@ kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.

Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)

Neue Features von OpenAI

OpenAI plant neue Features für GPT-4 bzw. ChatGPT. So soll ein Sprachassistent wie Siri oder Alexa entstehen. Dies wäre allerdings kaum eine Nachricht wert, wenn man daran denkt, dass man sich mit ChatGPT und GPTs schon heute sprechen kann, wenn man ein Smartphone verwendet. Eine Möglichkeit ist, dass das multimodale Sprachmodell verstärkt auditive und visuelle Daten analysiert. So könnte es den Tonfall des Benutzers interpretieren. Futurezone machte am 12. Mai 2024 Andeutungen in dieser Richtung: „Bei einem Einsatz im Kundenservice könnte die KI etwa Sarkasmus heraushören.“ (Futurezone, 12. Mai 2024) Das Magazin führte weiter aus, dass das System auch Text in Echtzeit wird „übersetzen können, etwa von Schildern“. „Das könnte mit Googles Lens vergleichbar sein.“ (Futurezone, 12. Mai 2024) Auch solche Funktionen sind allerdings bereits von OpenAI und seinen Partnern bekannt. So erkennt und übersetzt die auf GPT-4 basierende App „Be My Eyes“ u.a. Beschriftungen von Packungen oder Texte in Büchern. Schließlich heißt es in dem Artikel: „Ein Blick in den neuen Code gibt auch einen Hinweis darauf, dass über ChatGPT künftig Anrufe getätigt werden könnten. Wie der Entwickler Ananay Arora auf X schreibt, dürfte die KI sowohl Telefon- als auch Videoanrufe durchführen können.“ (Futurezone, 12. Mai 2024) Dies erinnert wiederum an Google Duplex, ein Projekt von Alphabet, das mit großen Erwartungen gestartet, dann aber versandet war. Was immer am Anfang der Woche von Sam Altmann bekanntgegeben wird – es dürfte mit der Multimodalität des Sprachmodells zusammenhängen.

Abb.: Mit ChatGPT kann man heute schon sprechen

Maori Girl schreibt und spricht Maori

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)

Irish Girl schreibt und spricht Irisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)

Goodbye Atlas, Hello Atlas

In recent years, a large number of quadruped and bipedal robots have been created. Many of them were inspired by Spot and Atlas from Boston Dynamics. These, in turn, can be traced back to Sparko and Elektro, which became famous around 1940. Atlas paved the way for the so-called general-purpose or universal robots that are now conquering the market, from H1 to Figure 01. They are not yet truly universal, but they are getting there. In these dynamic and productive times, the company, which is part of the Hyundai Motor Group, announces the end of the hydraulic version of the humanoid robot. A post on LinkedIn from April 17, 2024 states: „Atlas has sparked our imagination, inspired new roboticists, and leapt over technical barriers. Now it’s time for our hydraulic Atlas robot to kick back and relax. Take a look at everything we’ve accomplished with the Atlas platform to date.“ (Boston Dynamics, 17 April 2024) At the end of the video, it says that one could meet again. This immediately raised hopes of a successor. In fact, Boston Dynamics presented an electric, extremely mobile version on its blog just a few hours later. The title of the article is: „An Electric New Era for Atlas“.

Fig.: A screenshot from the video of the electric version (Image: Boston Dynamics)

Be My AI Changes the World of Blind People

Be My AI is a GPT-4-based extension of the Be My Eyes app. Blind users take a photo of their surroundings or an object and then receive detailed descriptions, which are spoken in a synthesized voice. They can also ask further questions about details and contexts. Be My AI can be used in a variety of situations, including reading labels, translating text, setting up appliances, organizing clothing, and understanding the beauty of a landscape. It also offers written responses in 29 languages, making it accessible to a wider audience. While the app has its advantages, it’s not a replacement for essential mobility aids such as white canes or guide dogs. Users are encouraged to provide feedback to help improve the app as it continues to evolve. The app will become even more powerful when it starts to analyze videos instead of photos. This will allow the blind person to move through his or her environment and receive constant descriptions and assessments of moving objects and changing situations. More information is available at www.bemyeyes.com/blog/announcing-be-my-ai.

Fig.: A blind man uses the app (Image: DALL-E 3)

Clearing the Seabed with Cuttlefish

The Robotics Innovation Center (RIC) at the German Research Centre for Artificial Intelligence (DFKI) in Bremen wants to clear the seabed of discarded ammunition in the North Sea and Baltic Sea. This was reported by the online magazine Golem. The researchers are using the autonomous underwater vehicle Cuttlefish, developed at DFKI, as a test platform. According to Golem, the robot has been equipped with two deep-sea-capable gripper systems. These are designed to enable flexible handling of objects under water, even difficult objects such as explosive devices. The AI-based control system allows the robot to change its buoyancy and centre of gravity during the dive. According to the online magazine, the AUV is equipped with numerous sensors such as cameras, sonars, laser scanners, and magnetometers. This is how it is supposed to approach an object without colliding with it. The system will certainly be effective – whether it is efficient remains to be seen.

Fig.: The island of Sylt in the North Sea

ADAM the Barkeeper

Bar robots are mostly cobots, housed in a kiosk or behind the counter. They prepare coffee, as barista robots, or cocktails, as cocktail robots. Daily Mail Online reported on May 11, 2023: „New York City’s first coffee shop run by robot baristas is coming to Greenpoint, where a two-armed robot called ADAM will serve up potentially hundreds and hundreds of cups of coffee a day at Botbar.“ (Daily Mail Online, 11 May 2023) Two-armed bar robots are the exception so far. One of them is Toni from Makr Shakr. It accesses 158 different bottles hanging from the ceiling of the open bar and shakes and stirs the liquids. ADAM looks like an egg with a head. It has two extra-long arms with many degrees of freedom. „Beyond coffee-making, ADAM will have several other skills, including dancing for and waving at customers. The technological feat can produce up to 50 espresso drinks per hour. The new neighbor-hood haunt will also serve food.“ (Daily Mail Online, 11 May 2023) One of the few researchers investigating bar robots and other robots in the hospitality industry is Oliver Bendel. Together with Lea Peier, he presented the paper „How Can Bar Robots Enhance the Well-being of Guests?“ at the AAAI 2023 Spring Symposia in San Francisco. In it, two models developed and used in Switzerland were presented. A preprint is available here.

Fig.: Barney Bar from Switzerland

Die Mächtigkeit von Sprachmodellen

Am 26. Mai 2023 ist Heft 4/2023 der Zeitschrift messtec drives Automation erschienen. Darin enthalten ist der Beitrag „Die Mächtigkeit von Sprachmodellen“ von Prof. Dr. Oliver Bendel. Er geht auf Anwendungen ein, die man noch wenig kennt, die aber relevant sein werden für Service- und Industrieroboter und für Brain-Computer-Interfaces. In diesem Bereich hat vor allem das Sprachmodell PaLM-E für Aufmerksamkeit gesorgt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität miteinander verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Aber nicht nur Google und TU Berlin forschen auf diesem Gebiet – in dem Paper „ChatGPT for Robotics“ hat auch Microsoft erste Ergebnisse vorgestellt. Sprachmodelle mit solchen Wahrnehmungs- und Steuerungsmöglichkeiten wären interessant für Lio und Optimus oder für soziale Roboter im Bildungsbereich, die nicht nur kommunizieren, sondern in vielfältiger Weise interagieren. Wichtig ist, dass den Fähigkeiten bei der Wahrnehmung und Steuerung entsprechende Fähigkeiten der Motorik gegenüberstehen. Der Zweiseiter kann über www.wileyindustrynews.com/messtec-drives-automation/messtec-drives-automation-04-23 heruntergeladen werden.

Abb.: Ein Ausschnitt aus der ersten Seite des Artikels

@llegra, der GPT-4-Chatbot für Vallader

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen widmete er seine Doktorarbeit an der Universität St. Gallen. An der Hochschule für Wirtschaft FHNW entstanden sie von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Der Technikphilosoph widmet sich nun verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wird der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Benutzer kann Text eintippen und bekommt Text ausgegeben. Zudem spricht @llegra mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft, die das Projekt unterstützt. Das Sprachmodell GPT-3 brachte eher unbefriedigende Ergebnisse. Der Durchbruch kam dann mit der Verwendung von GPT-4. Die Wissensbasis wurde mit Hilfe von vier Kinderbüchern auf Vallader ergänzt. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.

Abb.: Im Val Müstair unterwegs

Neue Version von Optimus

„Der Optimus ist wieder da: Tesla hat eine überarbeitete Version des humanoiden Roboters vorgestellt. Sie soll über mehr Fähigkeiten verfügen. Ein von Tesla zum Anleger-Meeting veröffentlichtes Video zeigt fünf der Roboter in Aktion. Die Roboter laufen deutlich sicherer als zuvor und sind auch zu feinfühligen Interaktionen fähig.“ (Golem, 17. Mai 2023) Dies berichtete Golem am 17. Mai 2023. Der Redakteur bezieht sich auf eine frühere Demonstration, wo Optimus sehr unsicher unterwegs war. Die Fortschritte werden mit der Verbesserung der Aktoren und mit der Unterstützung durch Menschen erklärt: „Diese lernen laut dem Video die Roboter mit Hilfe von Datenhandschuhen, Sensoren und Kameras an.“ (Golem, 17. Mai 2023)  Das Design dürfte nach wie vor viele Benutzer abschrecken. Insbesondere der Kopf ohne Gesicht ist gewöhnungsbedürftig. Vielleicht werden Augen und Mund samt Mimik aber später digital umgesetzt. Das Video kann hier aufgerufen werden.

Abb.: Auch Optimus wird eine Ladestation brauchen

Die Maschinenethik wendet sich Sprachmodellen zu

Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung der klassischen moralischen Maschinen ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Umsetzungen. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er gibt zur Auskunft: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.

Abb.: Anthropic sitzt in San Francisco (Foto: Stefanie Hauske)

Launch of GPT-4

GPT-4 was launched by OpenAI on March 14, 2023. „GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.“ (Website OpenAI) On its website, the company explains the multimodal options in more detail: „GPT-4 can accept a prompt of text and images, which – parallel to the text-only setting – lets the user specify any vision or language task. Specifically, it generates text outputs (natural language, code, etc.) given inputs consisting of interspersed text and images.“ (Website OpenAI) The example that OpenAI gives is impressive. An image with multiple panels was uploaded. The prompt is: „What is funny about this image? Describe it panel by panel“. This is exactly what GPT-4 does and then comes to the conclusion: „The humor in this image comes from the absurdity of plugging a large, outdated VGA connector into a small, modern smartphone charging port.“ (Website OpenAI) The technical report is available via cdn.openai.com/papers/gpt-4.pdf.

Abb.: Midjourney images can also be used

Roboterfahrzeuge liefern Bestellungen aus

Ein teilautonomes (selbstständig, aber überwacht fahrendes) Lieferfahrzeug des Start-ups Loxo aus Bern ist „seit Mitte der Woche zum ersten Mal auf einer öffentlichen Straße der Schweiz unterwegs“ (Heise Online, 12. Februar 2023). Die Projektpartner sind Migros und Schindler. Es handelt sich um die erste kommerzielle Anwendung eines solchen Fahrzeugs „für die letzte Meile in der Schweiz und vermutlich in ganz Europa“. Mitarbeiter des Liftherstellers „können jetzt nicht nur online ihre Einkäufe“ bei dem Detailhändler bestellen, sondern sie bekommen die Waren sogar „bis fast an ihren Arbeitsplatz geliefert – aber ohne einen Fahrer hinter dem Lieferwagen-Lenkrad“ (Heise, 12. Februar 2023). Mit autonomen Fahrzeugen und Transportrobotern wurde in der Schweiz immer wieder experimentiert. Jahrelang verkehrte in Sion im Wallis das SmartShuttle, betrieben von PostAuto. Dieses Projekt war sehr erfolgreich und verlief ohne größere Schwierigkeiten. Die Schweizerische Post testete die Transportroboter von Starship Technologies, die sich aber als wenig praktikabel erwiesen – die offizielle Begründung für den Abbruch des Projekts lautete, dass die rechtlichen Rahmenbedingungen fehlten. Loxo Alpha ist sozusagen eine Kombination des SmartShuttle und des genannten Transportroboters. Die Höchstgeschwindigkeit beträgt 30 km/h, die Reichweite 110 Kilometer. Es können maximal 320 Kilo zugeladen werden. Das Fahrzeug hat gefällige Formen und runde Scheinwerfer. Einem Wohnwagen der 1960er-Jahre ist es nicht unähnlich, nur wird es nicht von einem Mercedes SL oder einem Ford Capri gezogen, sondern von sich selbst. Der Artikel von Heise Online kann hier aufgerufen werden.

Abb.: Loxo Alpha (Foto: Loxo)

A Morality Module for a Care Robot

There are more and more robots being used in health care. Most of them are prototypes, some – like Lio and P-CARE from F&P Robotics – are products that are manufactured in small series. Machine ethics researches and creates moral machines. These are often guided by certain values or meta-rules, they follow predetermined rules, or they learn from situations and adapt their behavior. Michael Anderson and Susan L. Anderson presented their value-driven eldercare robot at the 2019 Berlin Colloquium by invitation of Oliver Bendel. The CARE-MOMO („MOMO“ stands for „morality module“) is a morality module for a robot in the manner of Lio. The idea is that the robot acquires clearly delimited moral abilities in addition to its usual abilities. The focus is to have it perform an act or speech act with high reliability based on a moral assumption or reasoning, with a clearly identifiable benefit to the caregiver or the care recipient. The initiators want to address a common problem in the nursing and care field. Marc Heimann could be recruited for the project at the School of Business FHNW. The supervisor is Oliver Bendel, who has been working with robots in the healthcare sector for ten years and has built numerous moral machines together with his teams.

Fig.: Another robot of the company (Photo: F&P Robotics)

How Machines and Robots can Help Animals

On 25 February 2022, the article „Passive, Active, and Proactive Systems and Machines for the Protection and Preservation of Animals and Animal Species“ by Oliver Bendel was published in Frontiers in Animal Science. From the abstract: „Digitalization and automation are expanding into many areas, resulting in more widespread use of partially and fully autonomous machines and robots. At the same time, environmental and other crises and disasters are on the rise, the world population is growing, and animals are losing their habitat. Increasingly, machines and robots such as agricultural vehicles, autonomous cars, robotic lawnmowers, or social robots are encountering animals of all kinds. In the process, the latter are injured or killed. Some machines can be designed so that this does not happen. Relevant disciplines and research areas briefly introduced here are machine ethics, social robotics, animal-machine interaction, and animal-computer interaction. In addition, animal welfare is important. Passive and active machines—as they are called in this review—are already appearing and help to observe and protect animals. Proactive machines may play a role in the future. They could use the possibilities of full automation and autonomy to save animals from suffering in agriculture or in the wild. During crises and disasters and in extensive nature reserves, they could observe, care for, and protect animals. The review provides initial considerations on active, passive, and proactive machines and how they can be used in an animal preservation context while bearing in mind recent technical and global developments.“ The article is part of the research topic „Animal-Computer Interaction and Beyond: The Benefits of Animal-Centered Research and Design“ and can be accessed at www.frontiersin.org/articles/10.3389/fanim.2022.834634/full.

Abb.: Tierbeobachtung im Wald

When Simple, Soft Shapes Become Social Robots

How can you make social robots out of simple, soft shapes and objects, i.e. robots for interacting with people and animals? Under the supervision of Prof. Dr. Oliver Bendel, Vietnamese student Nhi Hoang Yen Tran and her fellow student Thang Vu Hoang investigated this question in the project „Simple, Soft Social Robots“ at the FHNW School of Business. They used Hugvie from Hiroshi Ishiguro Laboratories as the basis for their considerations – these labs are most famous for the Geminoid and for Erica. But hugging robots like Telenoid also come from them. The latest product from this series is Hugvie. A pocket for a smartphone is attached to its head. People who are far away from each other can talk to each other and have the impression of hugging and feeling each other. But what else can be done with Hugvie and similar forms? The two students have come up with eleven suggestions. A video explains five of them. Two of them are variants of Hugvie. With their result, the two students have received the highest performance in the bachelor thesis among all graduates of BSc International Management in 2021.

Fig.: Thang Vu Hoang and Nhi Hoang Yen Tran