X grokt die Struktur der deutschen Sprache nicht

Das Sprachmodell Grok von xAI wurde am 4. November 2023 einer ausgewählten Gruppe von Benutzern präsentiert. Das Start-up von Elon Musk veröffentlichte am selben Tag eine Erklärung. Grok sei eine KI, die dem Hitchhiker’s Guide to the Galaxy nachempfunden ist und daher fast alles beantworten kann und, was noch viel schwieriger ist, sogar vorschlägt, welche Fragen man stellen sollte. Das Wort „Grok“ selbst stammt aus einem anderen berühmten Science-Fiction-Roman, nämlich „Stranger in a Strange Land“ (1961) von Robert A. Heinlein, der zu den wichtigsten Autoren in diesem Genre zählt. Wenn man als Marsianer etwas grokt, versteht man es vollständig, manchmal so sehr, dass man mit ihm verschmilzt. Im Mai 2024 wurde Grok in X integriert. Wenn man auf „Grok“ klickt, ist zu lesen: „Premium-Abonnent*innen können nun unsere fortschrittlichste KI, Grok, auf X nutzen.“ … Damit baut X – vormals Twitter – wieder einmal Sonderzeichen ins Wortinnere ein, wo sie nichts verloren haben – wie andere amerikanische Firmen, allen voran Microsoft. Es scheint nicht einfach zu sein, die Struktur der deutschen Sprache zu groken.

Abb.: Elon Musk liebt Fantasiesprache (Bild: Ideogram)

Alpha Mini hat keine Zeit, sich auszuruhen

Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), setzte von Herbst 2023 bis Frühjahr 2024 verschiedene Lernanwendungen mit Alpha Mini um. Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet damit seine Nachahmer. Gabriela Bohler hatte Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Entrepreneurin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Dieser bekam sogar ein eigenes Sofa – aber er wird keine Zeit haben, sich auszuruhen. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini bekam sogar ein Sofa spendiert (Foto: Gabriela Bohler)

GPT-4o Will be Omnipresent

On May 13, 2024, OpenAI presented GPT-4o. It writes about it on its website: „GPT-4o (‚o‘ for ‚omni‘) is a step towards much more natural human-computer interaction – it accepts as input any combination of text, audio, and image and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time (opens in a new window) in a conversation. It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API. GPT-4o is especially better at vision and audio understanding compared to existing models.“ (Website OpenAI) The company is addressing the weaknesses of the previous model: GPT-4 „loses a lot of information – it can’t directly observe tone, multiple speakers, or background noises, and it can’t output laughter, singing, or express emotion.“ (Website OpenAI) It is precisely these weaknesses that the new model can overcome. „With GPT-4o, we trained a single new model end-to-end across text, vision, and audio, meaning that all inputs and outputs are processed by the same neural network. Because GPT-4o is our first model combining all of these modalities, we are still just scratching the surface of exploring what the model can do and its limitations.“ (Website OpenAI) A video shows how the language model processes video data. With this function, the Be My Eyes app could take another leap forward in its development. In the coming weeks and months, there will certainly be many interesting application possibilities. GPT-4o will be omnipresent.

Fig.: GPT-4o processes video data (Image: OpenAI)

 

Cleop@tr@ kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.

Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)

Neue Features von OpenAI

OpenAI plant neue Features für GPT-4 bzw. ChatGPT. So soll ein Sprachassistent wie Siri oder Alexa entstehen. Dies wäre allerdings kaum eine Nachricht wert, wenn man daran denkt, dass man sich mit ChatGPT und GPTs schon heute sprechen kann, wenn man ein Smartphone verwendet. Eine Möglichkeit ist, dass das multimodale Sprachmodell verstärkt auditive und visuelle Daten analysiert. So könnte es den Tonfall des Benutzers interpretieren. Futurezone machte am 12. Mai 2024 Andeutungen in dieser Richtung: „Bei einem Einsatz im Kundenservice könnte die KI etwa Sarkasmus heraushören.“ (Futurezone, 12. Mai 2024) Das Magazin führte weiter aus, dass das System auch Text in Echtzeit wird „übersetzen können, etwa von Schildern“. „Das könnte mit Googles Lens vergleichbar sein.“ (Futurezone, 12. Mai 2024) Auch solche Funktionen sind allerdings bereits von OpenAI und seinen Partnern bekannt. So erkennt und übersetzt die auf GPT-4 basierende App „Be My Eyes“ u.a. Beschriftungen von Packungen oder Texte in Büchern. Schließlich heißt es in dem Artikel: „Ein Blick in den neuen Code gibt auch einen Hinweis darauf, dass über ChatGPT künftig Anrufe getätigt werden könnten. Wie der Entwickler Ananay Arora auf X schreibt, dürfte die KI sowohl Telefon- als auch Videoanrufe durchführen können.“ (Futurezone, 12. Mai 2024) Dies erinnert wiederum an Google Duplex, ein Projekt von Alphabet, das mit großen Erwartungen gestartet, dann aber versandet war. Was immer am Anfang der Woche von Sam Altmann bekanntgegeben wird – es dürfte mit der Multimodalität des Sprachmodells zusammenhängen.

Abb.: Mit ChatGPT kann man heute schon sprechen

Maori Girl schreibt und spricht Maori

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)

Irish Girl schreibt und spricht Irisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)

Spot Puts on a Dog Costume and Dances

Prof. Dr. Oliver Bendel introduced the term „robot enhancement“ in 2020 and has since used it in several articles and book chapters. Robot enhancement is the extension and associated modification or improvement of the robot by the user or a company, for example in functional, aesthetic, ethical, or economic terms. The word was coined in reference to „human enhancement“ and „animal enhancement“, and can be used to describe both the field of work and the object. One form of robot enhancement is social robot enhancement, in which a social robot is enhanced or modified and improved. An impressive example of robot enhancement is shown in a video by Boston Dynamics. A „naked“ spot and a spot with a dog costume dance together in the hall where Atlas used to be seen again and again. Such robot enhancement should not necessarily be imitated by the user. There are some robots that cannot stand the costume and will heat up – to the point of becoming defective.

Fig.: The disguised Spot and the „naked“ Spot (Photo: YouTube/Boston Dynamics)

The Robot Head Problem

The last few years have seen the creation of a large number of quadruped and bipedal robots. Many have been inspired by Spot and Atlas from Boston Dynamics. These, in turn, can be traced back to Sparko and Elektro, which became famous around 1940. Atlas paved the way for the so-called general-purpose or universal robots that are now conquering the market, from H1 to Figure 01. They are not yet truly universal, but they are getting there. Most robotic quadrupeds don’t have a real head. A few talented hobbyists have produced their own with a 3D printer. This can be referred to as robot enhancement. Most robotic bipeds have a head that looks creepy or repulsive. This will be a key design problem in the coming years. It may be that people will quickly get used to ugly heads. But it would probably help with adoption and acceptance if the heads were nice to look at and had convincing facial expressions. After the huge technological advances that have been made in recent years, with new approaches to motor skills and the integration of speech models, what is needed most is a change in design.

Fig.: Robot heads can be designed very differently (Image: DALL-E 3)

Goodbye Atlas, Hello Atlas

In recent years, a large number of quadruped and bipedal robots have been created. Many of them were inspired by Spot and Atlas from Boston Dynamics. These, in turn, can be traced back to Sparko and Elektro, which became famous around 1940. Atlas paved the way for the so-called general-purpose or universal robots that are now conquering the market, from H1 to Figure 01. They are not yet truly universal, but they are getting there. In these dynamic and productive times, the company, which is part of the Hyundai Motor Group, announces the end of the hydraulic version of the humanoid robot. A post on LinkedIn from April 17, 2024 states: „Atlas has sparked our imagination, inspired new roboticists, and leapt over technical barriers. Now it’s time for our hydraulic Atlas robot to kick back and relax. Take a look at everything we’ve accomplished with the Atlas platform to date.“ (Boston Dynamics, 17 April 2024) At the end of the video, it says that one could meet again. This immediately raised hopes of a successor. In fact, Boston Dynamics presented an electric, extremely mobile version on its blog just a few hours later. The title of the article is: „An Electric New Era for Atlas“.

Fig.: A screenshot from the video of the electric version (Image: Boston Dynamics)

A Robot Park for Switzerland

Robotics is booming, thanks in part to AI. Dozens of quadrupeds and bipeds are available, as well as numerous other social and service robots. After presenting the idea of a robot park several times since 2020, Prof. Dr. Oliver Bendel initiated the project „A Robot Park for Switzerland“ in March 2024. The purpose of a robot park is to educate the public. Everyone should have the opportunity to interact and communicate with robots and to make up his or her own mind about them. The kick-off meeting took place at the School of Business FHNW on March 22, 2024. BIT student Susmy Chakkaith could be won over. She is developing a concept with maps and other visualizations. The robot park is to be located in Switzerland and will include 100-200 robots, both industrial and service robots. Social robots and four- and two-legged friends will play a special role. It will be based on an amusement park or a zoo. Technical, economic, and ethical aspects will play a role. In particular, the concept should convincingly demonstrate how procurement, operation, maintenance, repair, etc. can be guaranteed, not least for models from China or Japan. The entire infrastructure, including network connectivity, cloud computing, power supply, etc., is also relevant. A business model will be outlined and evaluated. The results will be available in August 2024 and will be made available to the public.

Fig.: A robot park for Switzerland (Image: DALL-E 3)

Licht aus, Spot an!

Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testet die Deutsche Bahn in München laut einer Pressemitteilung vom 15. März 2024 den vierbeinigen Roboter Spot von Boston Dynamics. Dieser patrouilliere eigenständig über Abstellanlagen und erkenne KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten. Daraufhin starte er eine Liveübertragung mit Bildern in HD-Qualität. Diese landen zur Prüfung bei den DB-Sicherheitsmitarbeitern in der Nähe, „die gegebenenfalls weitere Schritte einleiten können“ (Pressemitteilung DB, 15. März 2024). Spot kann schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Licht aus, Spot an! Für zwielichtige Gestalten brechen harte Zeiten an. Es sind inzwischen einige Vierbeiner auf dem Markt, manche davon zu relativ niedrigen Preisen, wie im Falle des Unitree Go2. Spot gilt immer noch als Flaggschiff der Branche. Boston Dynamics gehört zur Hyundai Motor Group.

Abb.: Spot im Einsatz für die Deutsche Bahn (Foto: Deutsche Bahn AG/Thomas Kiewning)

Dah-No-Lah

Im privat finanzierten Social Robots Lab von Oliver Bendel finden sich Modelle wie Unitree Go2, Alpha Mini, Cozmo, Vector, Furby und Hugvie, zudem Roboterfische, Spielzeugroboter und Prototypen wie HAPPY HEDGEHOG. Und natürlich das Tamagotchi. Am 18. März 2024 bekam Furby Besuch von seiner französischsprachigen Freundin, die Regenbogenfarben bevorzugt. Im Blog von Hasbro wird erklärt: „Sobald zwei Furbys zusammen sind, können sie miteinander interagieren.“ (Blog Hasbro, 22. Juni 2023) Das Produkt wird seit 1998 von dem amerikanischen Unternehmen vertrieben. War es am Anfang ein Kultspielzeug, ist es heute bei Kindern wie bei Erwachsenen (den Kindern von damals) beliebt. Hasbro schreibt in seinem Blog: „Furby ist interaktiv und verfügt über mehr als 600 Reaktionen in Form von Sätzen, Liedern, Lichtsignalen und mehr.“ Er „reagiert zudem auf Umarmungen, Streicheleinheiten wie den Pelz kämmen und den Bauch kitzeln sowie auf das Füttern mit den enthaltenen Pizza-Anhängern“ (Blog Hasbro, 22. Juni 2023). Er beherrscht eine eigene Sprache, nämlich Furbisch. Für ihn herrscht immer „Dah-No-Lah“ („Partyzeit“). Entsprechend feierten die beiden Furbys im Büro von Oliver Bendel bis zum Umfallen.

Abb.: Furby und seine Freundin im Büro von Oliver Bendel

 

Das Projekt „Alpha Mini für die Schule“ macht Schule

Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet seine Nachahmer. Die Grundidee war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), nahm im Herbst 2023 Kontakt mit den beiden auf. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte im Auftrag von Gabriela Bohler eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Im Moment ist die Entrepreneurin dabei, all ihre Applikationen (Kids, Agers, Education, Entertainment), welche bereits auf der Plattform laufen, für Alpha Mini zu übernehmen. Neu steht eine grafische Oberfläche zur Verfügung, welche noch leichter zu bedienen ist. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini gehört zum privat finanzierten Social Robots Lab von Oliver Bendel

Figure 01 has Impressive New Features

Two weeks ago, Figure entered into a partnership with OpenAI. In an email dated March 13, 2024, the company announced its first update in this context. As you can imagine, the Figure 01 humanoid robot can now have full conversations with humans via end-to-end neural networks. By connecting to a large, pre-trained multimodal model, additional capabilities are made possible. According to the company, the AI-enhanced robot is able to describe its visual experiences, plan future actions, use common sense, reflect on its memory, and verbally explain its reasoning. These and other skills are impressively demonstrated in a video. The design of the robot’s body and head is convincing, although the face should be less mask-like. Overall, it seems less repulsive than comparable humanoid robots marketed as universal or all-purpose robots. It’s probably a good idea to let it work in closed and semi-open worlds, such as the BMW plant in Spartanburg, before it enters open worlds. That way, the workers can get used to it, and so can the public, which will be informed about its appearance and behavior through the media.

Fig.: Figure 01 (Image: Figure/Screenshot from the video)

The Six-legged Friend

Laptop manufacturer Lenovo launched the Lenovo Daystar robot in 2020. The design of the machine, with four wheels and a cobot on the back, was less than convincing. The latest development is different. The website ifdesign.com reports on the award winner: „Step into the forefront of industrial automation and public services with Lenovo Daystar Bot GS. The groundbreaking six-legged design guarantees unmatched stability and maneuverability that surpasses traditional robotic platforms, allowing it to traverse diverse terrains with ease.“ (iF DESIGN, 2024) The six legs are indeed unusual and a real eye-catcher. There is disagreement about the advantages. Perhaps the six legs provide more stability on stairs and very uneven terrain. The article continues: „Boasting an advanced control system, cutting-edge perception algorithms, and IP66 robust protection, GS outperforms in unforeseen scenarios, enabling comprehensive data collection at any location and time. In our unwavering pursuit of excellence, GS stands as a testament to innovation, efficiency, safety, and the boundless potential of automated exploration.“ (iF DESIGN, 2024) Interestingly, Lenovo itself has nothing to say about the product. However, the media are now reporting intensively. The next few months will bring more clarity about the Lenovo Daystar Bot GS.

Fig.: Lenovo Daystar Bot GS (Image: Lenovo/iF DESIGN)

Das Smartphone wird zum Roboter

LOOI von TangibleFuture soll ein sozialer Roboter für den Schreibtisch sein, ein sogenannter Desktop Companion. Es handelt sich um ein Kickstarter-Projekt, das auf großes Interesse stößt. Der Kern des Systems ist das eigene Smartphone. Auf dem Display werden Augen dargestellt, die – zusammen mit weiteren Funktionen – Emotionen ausdrücken können. Die Verbindung mit GPT ermöglicht die entsprechende Kommunikation. Nach Aussage der Firma ist auch eine „Persönlichkeit“ vorhanden. Eine mobile Plattform mit Rädern erlaubt die Bewegung auf dem Schreibtisch. Damit gewinnt LOOI Ähnlichkeit mit sozialen Robotern wie Emo, Loona, Cozmo und Vector. Die Integration von Smartphones und Figuren oder Plattformen ist nicht neu, wenn man an den Romo Smartphone Robot von Romotive und Hugvie aus den Hiroshi Ishiguro Laboratories denkt. Hier erscheint sie durchaus geglückt. Es ist allerdings nicht ganz klar, welchen Vorteil der bewegliche Körper hat, bis auf den durch ihn unterstützten Ausdruck von Emotionen. TangibleFuture ist nach eigenen Angaben ein Unternehmen, das sich auf interaktive Innovationen konzentriert und sich der Erforschung und Neugestaltung emotionaler Unterhaltungserlebnisse für Erwachsene widmet. Weitere Informationen über looirobot.com.

Abb.: Bei LOOI ist das Smartphone waagrecht angebracht (Bild: DALL-E 3)

25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOTLIEBOTBESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.

Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik

Virtues and Values in Requirements Engineering

The workshop „ViVa RE’24: Virtues and Values in Requirements Engineering 2024“ will take place on April 8, 2024 in Winterthur. It is part of the conference „Requirements Engineering: Foundation for Software Quality (REFSQ) 2024“. From the workshop website: “Including human values into the development of software-intensive systems has long been a topic of discussion. A satisfactory solution such as a collection of (software-supported) methods or a model gallery for ethical argumentation has not yet been developed. This workshop will work on collecting methods for incorporating values into system development. Two particular methods, the Square of Values (SoV) and the Software Sustainability Assessment (SoSA) approaches, will be examined in more detail. A specific focus of the workshop lies on how ethical reasoning can be supported with the help of software-tools.” (Website ViVa) The program committee consists of Prof. Dr. Oliver Bendel, Dr. Renata Guizzardi-Silva Souza, Prof. Dr. Kurt Schneider, and Alexander Bock. Organizers are Prof. Dr. Alexander Rachmann and Dr. Jens Gulden. More information is available at google.com/view/vivarerefsq24.

Fig.: Fog over Winterthur

Eine Übersicht über robotische Zweibeiner

MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden, aber nicht Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Zweibeiner wie Atlas, Figure 01 und Unitree H1. Auch der Prototyp Optimus ist aufgeführt. Die meisten Modelle stammen von amerikanischen Firmen, dicht gefolgt von chinesischen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf zwei Beinen zu entwickeln. Mit diesen kann man alle Artefakte begehen und gebrauchen, die auch Menschen zugänglich und nützlich sind, etwa Wege, Plätze, Gebäude und Werkzeuge. Ein Vorteil von Zweibeinern ist, dass sie mit ihren Greifern und Händen anspruchsvolle Manipulationen vornehmen können. Ein Nachteil ist, dass sie umfallen und stürzen und damit Menschen gefährden können. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.

Abb.: Die Übersicht über robotische Zweibeiner (Bild: MERPHI)

Eine Übersicht über robotische Vierbeiner

MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden und Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Vierbeiner wie Spot, Unitree Go2 und Unitree B2. Eine Besonderheit ist Robot Pony. Die meisten Modelle stammen von chinesischen Firmen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf vier Beinen zu entwickeln. Mit diesen kann man Gebäude inspizieren und Gegenstände transportieren. Man kann auch Waffen auf ihnen installieren und damit gegen Terroristen oder Kriminelle (oder gegen Unschuldige) vorgehen. Ein Vorteil von Vierbeinern ist, dass sie selbst auf unwegsamem Gelände sicher unterwegs sind. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.

Abb.: Die Übersicht über robotische Vierbeiner (Bild: MERPHI)

Wann kommen NAO II und Pepper II?

NAO und Pepper von Aldebaran – einem Unternehmen der United Robotics Group – sind Flaggschiffe der Sozialen Robotik. Der Kleinere erblickte 2006 das Licht der Welt (inzwischen liegt Version 6 vor), der Größere 2014. Bei Veranstaltungen an Hochschulen wie den Wahlmodulen zur Sozialen Robotik von Prof. Dr. Oliver Bendel an der FHNW oder in Unternehmen sind beide umschwärmt. Alle schätzen die karikaturenhafte Gestaltung und die natürlichsprachlichen Fähigkeiten. Und lachen sich tot, wenn sie Pepper streicheln und dieser sagt, er fühle sich wie eine Katze. Seit einiger Zeit gibt es Roboter mit zwei separaten Displays für die Augen, wie Alpha Mini, oder mit einem Display für den Mund, wie Navel. Unitree Go2 und Unitree H1 weisen eine erstaunliche Beweglichkeit auf. In der Community stellt sich die Frage, wann NAO II und Pepper II kommen, nicht als neue Versionen, sondern als neue Modelle. Allerdings ist es ein bisschen wie beim VW Käfer. Es ist sehr anspruchsvoll, einen Klassiker neu aufzulegen, und schnell sind alte Fans enttäuscht, wie sich beim New Beetle und Beetle II gezeigt hat. NAO II und Pepper II müssten ebenfalls zwei separate Displays für ihre Augen bekommen. Orientieren kann man sich an denjenigen von Navel, die plastisch wirken. Bei Pepper kämen zudem Displays für Mund und Wangen in Frage. Damit könnte er Mimik darstellen und rot werden, wenn man ihm ein Kompliment macht. Oder lächeln, wenn man ihn streichelt. Die Körper müssten ebenfalls generalüberholt werden. Beide Roboter sollten – hier ist Cozmo ein Vorbild – jederzeit lebendig wirken. Und beide sollten zumindest etwas greifen und festhalten können, wie ein Unitree H1 oder ein Figure 01. Zugleich muss man beide auf Anhieb wiedererkennen können. Wahrscheinlich hat man bei VW aus den Reaktionen enttäuschter Fans gelernt. Vielleicht sollte man sich zusammensetzen. Und 2025 einen Beetle III, einen NAO II und einen Pepper II auf den Markt bringen.

Abb.: Eine Studentin von Oliver Bendel mit NAO