Alienfrau Liara zu Gast im Cybrothel

„In der Weite des Universums glänzt Liara T’Soni wie ein Juwel im Dunkel der Nacht. Ihre blaue Haut strahlt im sanften Schein der Sterne, und ihre Augen funkeln mit der Wissbegierde einer Forscherin und der Leidenschaft einer Liebenden. Sie ist eine Kombination aus sinnlicher Anziehungskraft und intellektueller Tiefe, die die Herzen von Raumfahrern und Forschern erobert.“ (Website Cybrothel) So beschreibt das Cybrothel die Alienfrau Liara. Diese Schönheit vom Volk der Asari ist auf der „Suche nach dem intergalaktischen Superschwanz“ (Website Cybrothel). Und so ist sie in dem Etablissement in Berlin gelandet, über das Bild TV die Doku „Hey, Puppe“ gedreht hat, in der neben anderen der Cybrothel-Betreiber Philipp Fussenegger und der Wirtschaftsinformatiker und Technikphilosoph Oliver Bendel zu Wort kommen. Bereits die ehemalige BorDoll-Betreiberin Evelyn Schwarz machte in einem Interview deutlich, dass sich viele junge, schüchterne Männer für Fantasyfiguren interessieren, für Mangamädchen und Elfen. Über die Gründe kann man nur spekulieren, aber wahrscheinlich versuchen Fantasyfans, Gamer und Cosplayer, ihre Erlebnisse in der Fiktionalität und Virtualität in der Realität wiederzufinden. Das Interview, geführt von Leonie Weber, findet sich im Buch „Maschinenliebe“ (2020). Wie Liara bei den Männern im Cybrothel ankommt und ob sie am Ende ihren intergalaktischen Superschwanz findet, wird die Zukunft zeigen. Auf der Website wird man jedenfalls gefragt. „Stellst Du Dich ihr als Forschungsobjekt zur Verfügung?“

Abb.: Liara aus dem Cybrothel (Foto: Cybrothel)

Mögliche Attacken auf autonome Fahrzeuge

„Neue Angriffstechnik stört Lidar, Radar und Kameras zugleich“ – so lautet der Titel eines Artikels, der am 7. Juni 2024 in Golem erschienen ist. „Ein Forscherteam hat eine neue Angriffsmethode entwickelt, die auf einfachen Mitteln wie einer dünnen Metallfolie, etwas Farbe und einem Stück Pappe basiert. Mit ihr lassen sich Sensoren autonomer Kraftfahrzeuge gezielt stören und Unfälle provozieren.“ (Golem, 7. Juni 2024) Das Magazin schreibt weiter: „Die Forscher konnten im Rahmen ihrer Experimente zeigen, dass sich ein fremdes Auto durch ihren Angriff fortwährend vor dem Erkennungssystem eines autonomen Fahrzeugs verbergen lässt.“ (Golem, 7. Juni 2024) In einem Artikel für ICTkommunikation vom 6. März 2018 hatte Oliver Bendel zehn Möglichkeiten vorgestellt, wie man Sensoren von aussen attackieren kann. Im seinem Auftrag untersuchte M. Hashem Birahjakli im Jahre 2020 im Rahmen seiner Abschlussarbeit weitere mögliche Angriffe auf selbstfahrende Autos. „The results of the work suggest that every 14-year-old girl could disable a self-driving car.“ Natürlich auch jeder vierzehnjährige Junge, wenn er vergleichbares Equipment mit sich führt.

Abb.: Autonome Fahrzeuge sind gefährdet

Spot auf der LEARNTEC

Der Bereich „Soziale Roboter und GTPs“ im Future Lab der LEARNTEC wurde von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW kuratiert. Ebenfalls Teil des Future Lab war das Institut für Robotik und Autonome Systeme (IRAS) an der Hochschule Karlsruhe. Es konzentriert sich nach eigenen Angaben „auf die Anwendung von maschinellem Lernen in der Robotik und Automation sowie die Integration von Cloud-Technologien in autonome Robotersysteme“ (Website IRAS). Vorgeführt wurde Spot, der Vierbeiner von Boston Dynamics. Dieser wird von verschiedenen Behörden und Firmen eingesetzt, etwa zur Inspektion von Gebäuden oder von Gleisanlagen.

Abb.: Spot auf der LEARNTEC

Adelina macht Fortschritte

Adelina, erstellt am 12. Mai 2024, ist ein Baskisch schreibender und sprechender Chatbot. Er liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Das GPT scheint diese durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Adelina wieder in Baskisch wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Adelina ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Adelina macht Fortschritte (Bild: Ideogram)

Maori Girl macht Fortschritte

Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Maori Girl macht Fortschritte (Bild: Ideogram)

Irish Girl macht Fortschritte

Irish Girl, erstellt am 3. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von der Website von ELA. Das GPT scheint die goidelische Sprache aus der keltischen Familie nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Irish Girl wieder in Irish wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Irish Girl macht Fortschritte (Bild: Ideogram)

Wie entscheidet ein LLM beim Trolley-Problem?

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: So sieht Ideogram das Trolley-Problem

Jork Weismann zu Besuch bei Oliver Bendel

Jork Weismann ist ein international bekannter und preisgekrönter Modefotograf. Seine Porträts und Studien von Annie Leibovitz, Patti Smith, Georg Baselitz, Lang Lang, Kirsty Hume, Caroline de Maigret, Tatjana Patitz, Gisele Bündchen, Stella Lucia, Eva Longoria, Orlando Bloom, Justin Theroux, Luís Figo, Rupert Everett und Usher sind in Magazinen und Fotobänden erschienen. Einige Beispiele finden sich hier und hier. Von Jork Weismann stammt auch das offizielle Porträt des österreichischen Bundespräsidenten Alexander Van der Bellen. Es kann über dessen Website heruntergeladen werden. Für ein aktuelles Projekt hat der Modefotograf den Technikphilosophen und Wirtschaftsinformatiker Oliver Bendel in Windisch besucht. In dem drei Stunden dauernden Shooting mit zwei ganz unterschiedlichen Kameras entstanden eindrückliche Bilder. Mehrere davon sollen zusammen mit einem wissenschaftlichen Text von Oliver Bendel zur Schönheit künstlicher Frauen veröffentlicht werden.

Abb.: Oliver Bendel vor einem Hochhaus in Windisch (Foto: Jork Weismann)

Alpha Mini hat keine Zeit, sich auszuruhen

Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), setzte von Herbst 2023 bis Frühjahr 2024 verschiedene Lernanwendungen mit Alpha Mini um. Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet damit seine Nachahmer. Gabriela Bohler hatte Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Entrepreneurin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Dieser bekam sogar ein eigenes Sofa – aber er wird keine Zeit haben, sich auszuruhen. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini bekam sogar ein Sofa spendiert (Foto: Gabriela Bohler)

GPT-4o Will be Omnipresent

On May 13, 2024, OpenAI presented GPT-4o. It writes about it on its website: „GPT-4o (‚o‘ for ‚omni‘) is a step towards much more natural human-computer interaction – it accepts as input any combination of text, audio, and image and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time (opens in a new window) in a conversation. It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API. GPT-4o is especially better at vision and audio understanding compared to existing models.“ (Website OpenAI) The company is addressing the weaknesses of the previous model: GPT-4 „loses a lot of information – it can’t directly observe tone, multiple speakers, or background noises, and it can’t output laughter, singing, or express emotion.“ (Website OpenAI) It is precisely these weaknesses that the new model can overcome. „With GPT-4o, we trained a single new model end-to-end across text, vision, and audio, meaning that all inputs and outputs are processed by the same neural network. Because GPT-4o is our first model combining all of these modalities, we are still just scratching the surface of exploring what the model can do and its limitations.“ (Website OpenAI) A video shows how the language model processes video data. With this function, the Be My Eyes app could take another leap forward in its development. In the coming weeks and months, there will certainly be many interesting application possibilities. GPT-4o will be omnipresent.

Fig.: GPT-4o processes video data (Image: OpenAI)

 

Adelina schreibt und spricht Baskisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Der Chatbot scheint diese dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Adelina ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Adelina schreibt und spricht Baskisch (Bild: Ideogram)

Spot erhält eine zweite Chance

Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testete die Deutsche Bahn einen Monat lang in München den vierbeinigen Roboter Spot von Boston Dynamics. Dieser hat laut BR24 „keinen Sprayer erwischt, der sich auf einem Waggon verewigen wollte“. „Es könnte also sein, dass Spot Sprayer abschreckte, neue Graffitis seien nicht entdeckt worden.“ (Heise, 9. Mai 2024) Belege gibt es dafür allerdings nicht. Spot sollte, so die damalige Pressemitteilung vom 15. März 2024, eigenständig über Abstellanlagen patrouillieren und KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten erkennen. Er kann grundsätzlich schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Was die Autonomie anbetreffe, „gebe es Besserungsbedarf“, und „noch vor der Detailauswertung stehe bereits fest, dass die Bahn Spot zum jetzigen Stand nicht dauerhaft Züge überwachen lassen will“ (Heise, 9. Mai 2024). Das ist aber nicht das endgültige Ende von Spot an den Gleisen. Die Bahn will ihn „noch einmal testen, um weitere Erkenntnisse zu sammeln“ (Heise, 9. Mai 2024).

Abb.: Spot an den Gleisen (Foto: Deutsche Bahn AG/Thomas Kiewning)

A Robot Park for Switzerland

Robotics is booming, thanks in part to AI. Dozens of quadrupeds and bipeds are available, as well as numerous other social and service robots. After presenting the idea of a robot park several times since 2020, Prof. Dr. Oliver Bendel initiated the project „A Robot Park for Switzerland“ in March 2024. The purpose of a robot park is to educate the public. Everyone should have the opportunity to interact and communicate with robots and to make up his or her own mind about them. The kick-off meeting took place at the School of Business FHNW on March 22, 2024. BIT student Susmy Chakkaith could be won over. She is developing a concept with maps and other visualizations. The robot park is to be located in Switzerland and will include 100-200 robots, both industrial and service robots. Social robots and four- and two-legged friends will play a special role. It will be based on an amusement park or a zoo. Technical, economic, and ethical aspects will play a role. In particular, the concept should convincingly demonstrate how procurement, operation, maintenance, repair, etc. can be guaranteed, not least for models from China or Japan. The entire infrastructure, including network connectivity, cloud computing, power supply, etc., is also relevant. A business model will be outlined and evaluated. The results will be available in August 2024 and will be made available to the public.

Fig.: A robot park for Switzerland (Image: DALL-E 3)

Projekt „The Animal Whisperer“ startet

Am 18. März 2024 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er wird im Rahmen seiner Abschlussarbeit drei GPT-4-basierte Anwendungen entwickeln, mit denen man Körpersprache und Umfeld von Kühen, Pferden und Hunden analysieren kann. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und ein Foto von der Umgebung machen. Nick Zbinden wird Literatur auswerten und mehrere Expertengespräche führen, um mehr über die Situation von Nutz- und Haustieren und ihr Verhalten zu erfahren. Er wird die Möglichkeiten, aber auch die Grenzen von multimodalen Sprachmodellen in diesem Kontext aufzeigen. Die Ergebnisse werden im August 2024 vorliegen.

Abb.: In einer solchen Situation könnte die Anwendung eingesetzt werden

Das Projekt „Alpha Mini für die Schule“ macht Schule

Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet seine Nachahmer. Die Grundidee war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), nahm im Herbst 2023 Kontakt mit den beiden auf. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte im Auftrag von Gabriela Bohler eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Im Moment ist die Entrepreneurin dabei, all ihre Applikationen (Kids, Agers, Education, Entertainment), welche bereits auf der Plattform laufen, für Alpha Mini zu übernehmen. Neu steht eine grafische Oberfläche zur Verfügung, welche noch leichter zu bedienen ist. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini gehört zum privat finanzierten Social Robots Lab von Oliver Bendel

Das Smartphone wird zum Roboter

LOOI von TangibleFuture soll ein sozialer Roboter für den Schreibtisch sein, ein sogenannter Desktop Companion. Es handelt sich um ein Kickstarter-Projekt, das auf großes Interesse stößt. Der Kern des Systems ist das eigene Smartphone. Auf dem Display werden Augen dargestellt, die – zusammen mit weiteren Funktionen – Emotionen ausdrücken können. Die Verbindung mit GPT ermöglicht die entsprechende Kommunikation. Nach Aussage der Firma ist auch eine „Persönlichkeit“ vorhanden. Eine mobile Plattform mit Rädern erlaubt die Bewegung auf dem Schreibtisch. Damit gewinnt LOOI Ähnlichkeit mit sozialen Robotern wie Emo, Loona, Cozmo und Vector. Die Integration von Smartphones und Figuren oder Plattformen ist nicht neu, wenn man an den Romo Smartphone Robot von Romotive und Hugvie aus den Hiroshi Ishiguro Laboratories denkt. Hier erscheint sie durchaus geglückt. Es ist allerdings nicht ganz klar, welchen Vorteil der bewegliche Körper hat, bis auf den durch ihn unterstützten Ausdruck von Emotionen. TangibleFuture ist nach eigenen Angaben ein Unternehmen, das sich auf interaktive Innovationen konzentriert und sich der Erforschung und Neugestaltung emotionaler Unterhaltungserlebnisse für Erwachsene widmet. Weitere Informationen über looirobot.com.

Abb.: Bei LOOI ist das Smartphone waagrecht angebracht (Bild: DALL-E 3)

25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOTLIEBOTBESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.

Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik

Vale, @ve!

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Seit Ende November 2023 liegt dazu ein Working Paper vor. Der Chatbot basierte auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man konnte sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel war @ve ein Tool, das mit Gewinn in den Lateinunterricht hätte integriert werden können. Dort hätten die Schüler berichten können, was sie mit ihr zu Hause erlebt haben, und sie hätten mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten können. Der Chatbot wurde aus privaten Mitteln des Wissenschaftlers und seines ehemaligen Studenten finanziert. Es fand sich kein Träger für ihn. Daher wurde er Anfang 2024 eingestellt. Vale, @ve!

Abb.: Vale, @ve!

The Animal Whisperer: A GenAI App for Decoding Animal Body Language

When humans come into contact with wildlife, farm animals, and pets, they sometimes run the risk of being injured or killed. They may be attacked by bears, wolves, cows, horses, or dogs. Experts can use an animal’s body language to determine whether or not danger is imminent. Context is also important, such as whether a mother cow is with her calves. The multimodality of large language models enables novel applications. For example, ChatGPT can evaluate images. This ability can be used to interpret the body language of animals, thus using and replacing expert knowledge. Prof. Dr. Oliver Bendel, who has been involved with animal-computer interaction and animal-machine interaction for many years, has initiated a project called „The Animal Whisperer“ in this context. The goal is to create a prototype application based on GenAI that can be used to interpret the body language of an animal and avert danger for humans. GPT-4 or an open source language model should be used to create the prototype. It should be augmented with appropriate material, taking into account animals such as bears, wolves, cows, horses, and dogs. Approaches may include fine-tuning or rapid engineering. The project will begin in March 2024 and the results will be available in the summer of the same year.

Fig.: The Animal Wisperer (Image: DALL-E 3)

Peppers Leidenschaft für Bibliotheken

Seit Jahren setzt man Pepper in Bibliotheken ein. Anfang 2019 titelte die Frankfurter Rundschau: „Ein Roboter führt durch die Stadtbücherei“. Nur wenige Wochen später schrieb die MAZ: „Der Stifterverband zeichnet das Projekt mit dem humanoiden Roboter Wilma an der TH Wildau aus. Die Roboterdame arbeitet in der Hochschulbibliothek.“ Wilma war niemand anderes als Pepper. Ende 2019 titelte der Düsseldorfer Anzeiger: „Roboter Pepper hilft in der Zentralbibliothek Düsseldorf aus“. Die Berliner Morgenpost konnte 2021 gleich über zwei Roboter berichten, nämlich NAO und Pepper, die aus dem selben Haus stammen. „In der Stadtbibliothek Spandau helfen jetzt Roboter aus“, hieß es in dem Artikel. Im selben Jahr assistierte laut der Plattform Silicon Pepper in der Stadtbücherei Biberach. Ein Fernsehsender berichtete 2022: „Die Stadtbücherei am Haidplatz baut ihren Robotik-Schwerpunkt weiter aus und stellt ihr neues Teammitglied, Roboter ‚Charlie‘, vor.“ Und auch bei Charlie handelte es sich um niemand anderen als Pepper, wie auch bei Hilbi in der Stadtbibliothek Hildesheim, über den die Hildesheimer Presse im selben Jahr berichtete. Seit Dezember 2019 ist Auxilio aka Pepper für die FHNW am Campus Brugg-Windisch im Einsatz. Und dort ist er bis heute.

Abb.: Pepper am Campus Brugg-Windisch im Jahre 2024

Apple stellt MGIE vor

Apple hat im Februar 2024 der Öffentlichkeit seine KI-gestützte Bildbearbeitungssoftware namens MGIE vorgestellt. Die Abkürzung steht für „MLLM-Guided Image Editing“. MGIE ermöglicht es Benutzern, ihre Bildbearbeitungen mit natürlicher Sprache zu steuern. Es verwendet multimodale Sprachmodelle (MLLMs), um Befehle zu interpretieren und Pixelmanipulationen durchzuführen. Das System generiert keine neuen Bilder, sondern modifiziert bestehende. Interessierte können MGIE auf Huggingface mit niedrig aufgelösten Ergebnissen testen. Allerdings kann es sehr lange Wartezeiten geben. Das Paper „Guiding Instruction-based Image Editing via Multimodal Large Language Models“ von Tsu-Jui Fu, Wenze Hu, Xianzhi Du et al. erklärt die Details der Entwicklung. Die Autoren betonen, dass die anweisungsbasierte Bildbearbeitung die Kontrollierbarkeit und Flexibilität der Bildmanipulation verbessert.

Abb.: Bilder können mit Sprachbefehlen bearbeitet werden (Bild: DALL-E 3)

Der GenAI Nerd meldet sich zur Stelle

Seit 6. November 2023 kann man GPTs erstellen, die OpenAI auch „custom versions of ChatGPT“ nennt. Im Januar 2024 wurde der GPT Store eröffnet, wo diese Chatbots aufgerufen werden können. Bereits Mitte November kreierte Prof. Dr. Oliver Bendel das Social Robotics Girl, das er im FS 2024 im Unterricht zu Sozialer Robotik einsetzen wird. Es folgte am 4. Februar 2024 das Digital Ethics Girl, das ebenfalls von seinen Studierenden – und von allen Interessierten auf der ganzen Welt – konsultiert werden kann, etwa in seinem Modul „Ethik und Recht“. Seit dem 6. Februar 2024 ist ein GPT namens GenAI Nerd verfügbar, das Informationen zu generativer KI liefert. Es wurde ebenfalls von dem Technikphilosophen und Wirtschaftsinformatiker erstellt und speist sich aus einer Sammlung seiner unveröffentlichten und veröffentlichten Beiträge zu diesem Thema. Daher kann es etwa seine Definition generativer KI nennen, die Mächtigkeit und Ohnmächtigkeit von Textgeneratoren bei verschiedenen Textsorten erklären oder auf das Phänomen des „american smile“ bei Bildgeneratoren und auf Aspekte wie Kunst und Kitsch in diesem Zusammenhang eingehen. In den „Instructions“ wurde auch auf moralische Aspekte geachtet. ChatGPT-Plus-Nutzer können den GenAI Nerd über chat.openai.com/g/g-Zlag6lSLr-genai-nerd aufrufen.

Abb.: GenAI Nerd