Vor 10 Jahren fand zum ersten Mal der CYBATHLON statt. Damit begann ein faszinierendes und inspirierendes Projekt, das sich um Inclusive AI und Inclusive Robotics dreht. Ins Leben gerufen hat den Wettkampf, bei dem behinderte und beeinträchtigte Personen miteinander und gegeneinander antreten, Prof. Dr. Robert Riener von der ETH Zürich. Beim CYBATHLON 2016 war der SRF-Moderator Tobias Müller fünfmal im Gespräch mit Prof. Dr. Oliver Bendel, Technikphilosoph aus Zürich, der den Einsatz von Implantaten, Prothesen und Robotern einordnete und bewertete. Einmal war Prof. Dr. Lino Guzzella mit dabei, der damalige ETH-Präsident, einmal Robert Riener. Die letzte Durchführung des CYBATHLON erfolgte 2024. Es traten 67 Teams aus 24 Nationen in der SWISS Arena in Kloten bei Zürich sowie an den sieben miteinander verbundenen Hubs in den USA, Kanada, Südafrika, Ungarn, Thailand und Südkorea in acht Disziplinen gegeneinander an. Auf der Website heißt es heute: „Während die Reise des CYBATHLON an der ETH Zürich hier endet, ist die Geschichte noch lange nicht vorbei. Die nächste Ausgabe der Veranstaltung könnte 2028 in Asien stattfinden und damit ein neues, aufregendes Kapitel rund um diesen einzigartigen globalen Wettkampf aufschlagen.“ (Website CYBATHLON) Damit würde eine Erfolgsgeschichte weitergeschrieben, aber wieder einmal nicht in Europa, sondern in Asien.
Abb.: Eine Teilnehmerin beim CYBATHLON (Foto: ETH Zürich, CYBATHLON/Alessandro della Bella)
Erduan Ismailji’s master’s thesis, entitled „Ethical Decision-Making Framework for AI-Powered Autonomous Weapon Systems“, develops an interdisciplinary decision support framework for the responsible use of AI-powered autonomous weapon systems. The starting point is ethical theories, international humanitarian law, and the technical limitations of today’s AI. Using a design science research approach, a six-step framework is designed and validated through expert interviews. Key elements include the assessment of the deployment context, legal admissibility, ethical and design constraints, human oversight requirements, transparency, and the final deployment decision. The thesis shows that „meaningful human control“ remains indispensable and that existing approaches such as the Ethical Governor alone are not sufficient to close accountability gaps. The result is a practical governance model for decision-makers, developers, and military leaders that systematically integrates ethical and legal standards into the use of autonomous weapon systems. The master’s thesis was defended on January 20, 2026, before Prof. Dr. Oliver Bendel (FHNW School of Business, supervisor) and Prof. Dr. Aurona Gerber (University of the Western Cape, examiner).
The idea of a desk companion with a pseudo-holographic character is not entirely new. Japan’s Gatebox has offered such a system since 2018, featuring virtual characters like Hatsune Miku displayed as a projected assistant designed for everyday interaction. Project AVA is Razer’s take on this concept, pushing it further as a fully integrated AI desk companion for life, work, and play. The cylindrical device combines microphones, a camera, RGB lighting, and a speaker with a 5.5-inch holographic display that renders animated 3D avatars with expressive, real-time motion. Connected via USB-C to a Windows PC, AVA can assist with daily organization, wellness routines, professional tasks, and gaming coaching, while remaining compliant with competitive gaming rules by acting strictly as a coach. Powered in its current form by xAI’s Grok engine and built on an open architecture, Project AVA is positioned as a future-ready AI companion, with availability planned for the second half of 2026. A final pop culture note: the name AVA inevitably recalls Ava, the AI character from „Ex Machina“, a film that has become a defining reference point for artificial intelligence embodied in human form. More details can be found at www.razer.com/concepts/project-ava.
Fig.: The original Gatebox (Photo: Katharina Kühne)
Robotik und Künstliche Intelligenz sind im Mainstream angekommen. Jeder spricht über diese Disziplinen oder über ihren Gegenstand, also Roboter und künstliche Intelligenz. Dadurch ergeben sich Bedeutungsverschiebungen und Begriffsverwirrungen. So ist in den sozialen und klassischen Medien oft von KI die Rede, wenn eigentlich generative KI gemeint ist. Damit verbunden sind grundsätzliche Einschätzungen, die aber lediglich auf bestimmte KI-Systeme zutreffen. Weiterhin trifft man ständig auf „KI-Chatbots“. Allerdings basieren alle Chatbots auf Formen künstlicher Intelligenz. Früher gab es regelbasierte Systeme, heute setzt man vor allem auf ML- bzw. LLM-basierte (wobei „ML“ für „Machine Learning“ steht, „LLM“ für „Large Language Model“). Damit ist die alte Welt der symbolischen KI keineswegs untergegangen, denn man wendet Retrieval-Augmented Generation (RAG) an und greift manchmal auf regelbasierte Ansätze zurück. Fast ebenso beliebt ist der Begriff des humanoiden Roboters. Es handelt sich dabei eigentlich um menschenähnlich gestaltete sensomotorische Maschinen. Zu ihnen gehören soziale Roboter wie NAO, Pepper und Alpha Mini ebenso wie Modelle, die als Allzweckroboter vermarktet werden, etwa Digit, Apollo und Figure 03. Allzweckroboter sind in aller Regel humanoide Roboter, aber nicht alle humanoiden Roboter sind Allzweckroboter – und dennoch wird allenthalben so getan. Auch der Begriff der Humanoiden verbreitet sich. Dieser ist allerdings bereits belegt, er ist breiter angelegt, denn er bezeichnet sowohl menschenähnliche Artefakte als auch Lebewesen (Menschen, Vormenschen, fiktive Aliens wie die Vulkanier). Man darf immer neue Begriffe einführen, man darf alte umdeuten. Vorsicht ist jedoch geboten, wenn jahrzehntelange Bemühungen der Bestimmung und Klärung vorhanden sind und in den Fachgemeinschaften ein Konsens besteht. Man sorgt durch den unreflektierten Gebrauch nicht nur für Begriffsverwirrungen in der Gegenwart, sondern auch mit Blick in die Vergangenheit – ältere Texte werden mehr und mehr unverständlich, selbst wenn sie die Grundlagen von Robotik und Künstlicher Intelligenz darstellen.
Prof. Dr. Oliver Bendel will host the next ACI Conference, bringing the event to continental Europe for the first time as it convenes on the FHNW campus in Brugg-Windisch, Switzerland, from December 2-5, 2026. The conference website is already online at www.aciconf.org, where the most important information is available; individual deadlines may still change. In the meantime, the website has been updated and expanded. It now includes visual elements that reference both the animal world of Switzerland and the thematic focus of the conference, strengthening its visual identity and contextual framing. Building on a tradition that has taken the community from Glasgow to North Carolina, Newcastle, Bloomington, Milton Keynes, Haifa, and Atlanta, this edition continues the conference’s role as a leading venue for advancing Animal-Computer Interaction. As the field grows, researchers and practitioners explore how technology shapes animals’ lives, welfare, cognition, and social dynamics while developing animal-centered systems and methods that embrace multispecies perspectives. The conference maintains its commitment to interdisciplinary collaboration across biology, technology, and cultural studies, supporting work that seeks to design ethically grounded, welfare-enhancing, and inclusive technological futures for all animals, humans included. ACI 2026 will also feature a Special Issue on Animal-Machine Interaction, a research field shaped in important ways by Oliver Bendel. The conference proceedings will be published in a volume of a renowned organization, ensuring wide visibility and long-term accessibility for the contributions presented.
„Physical AI ist die Verbindung von künstlicher Intelligenz (abgekürzt ‚KI‘, im Englischen ‚AI‘ von ‚Artificial Intelligence‘) mit physischen Systemen wie Kameras, Geräten, Anlagen, Drohnen, Robotern und selbstfahrenden Autos und Bussen. Sie ermöglicht diesen, komplexe Vorgänge in der physischen Welt wahrzunehmen, zu analysieren, zu evaluieren und auszuführen. Es geht nicht nur darum, teilautonome oder autonome Maschinen mit Hilfe von KI aufzuwerten und zu erweitern, wie im Falle von Gesichtserkennung, Gestikerkennung und Emotionserkennung oder von Chatbots für soziale Roboter, sondern darum, für die KI gleichsam einen Körper zu suchen, in dem sie sich entfalten und beweisen kann.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 16. Januar 2026 im Gabler Wirtschaftslexikon erschienen ist. Es werden technische Grundlagen erläutert, Beispiele für Lösungen gegeben und Anwendungsbereiche genannt: „Wearables, Wearable Robots und Wearable Social Robots können zu Inclusive AI und Inclusive Robotics beitragen, indem sie behinderte und beeinträchtigte Personen physisch und psychisch unterstützen.“ Am Ende erfolgt eine Einordnung aus Sicht von Informationsethik und KI-Ethik sowie Wirtschaftsethik. Der vollständige Artikel kann über wirtschaftslexikon.gabler.de/definition/physical-ai-177399 aufgerufen werden.
Wikipedia ist 25 Jahre alt. Von Anfang an war das Lexikon ebenso umstritten wie beliebt. 2006 veröffentlichte Oliver Bendel in der HMD – Praxis der Wirtschaftsinformatik den Beitrag „Wikipedia als Methode und Gegenstand der Lehre“. Aus dem Abstract: „Wikipedia ist eine erfolgreiche Wiki-Anwendung, eine offene Online-Enzyklopädie mit insgesamt mehreren Hunderttausend Autoren. Der Beitrag beschreibt Möglichkeiten und Grenzen sowie erste Erfahrungen beim Einsatz von Wikipedia in der Lehre. Es stehen dabei weniger Wissensvermittlung und Problemlösung durch das Lexikon im Vordergrund, sondern mehr die Aspekte der Veröffentlichung und Zusammenarbeit. Der Autor setzte Wikipedia in Lehrveranstaltungen der PH Weingarten ein. Die Studierenden schrieben während und außerhalb des Unterrichts an bereits vorhandenen Beiträgen mit. Der Einsatz von Wikipedia in der Lehre lohnt offenkundig in verschiedener Hinsicht: Die Studierenden entlassen ihre Erkenntnisse in die Welt, um sie – ähnlich wie in einer Scientific Community – begutachten und korrigieren zu lassen, und sie erproben Konzepte der E-Collaboration im kleinen, kontrollierbaren wie im großen, unkontrollierbaren Raum. Nicht zuletzt finden sie in Wikipedia einen faszinierenden und sich ständig verändernden Gegenstand.“ Heute hat Wikipedia mit vielen Herausforderungen zu kämpfen, von Versuchen der Unterwanderung bis zur Ausbreitung von Inhalten, die mit generativer KI erstellt wurden.
Am 24. Oktober 2010 trat Oliver Bendel im Wittelsbacher Schloss in Friedberg beim „LITERATUR UPDATE BAYERN 2010“ auf. Michael Seefelder schrieb drei Tage später in der Augsburger Allgemeinen: „Der Wirtschaftsprofessor und freie Schriftsteller Oliver Bendel gilt in Europa als Pionier, was Handy-Haikus anbelangt. Im Friedberger Schloss lässt er am dritten Veranstaltungsabend die Grenzen zwischen den Medien verschwimmen. Der gedruckte Band, aus dem Bendel liest, enthält die Haikus in herkömmlichen Schriftzeichen und als QR-Codes. Diese Codes sind Informations-Speicher, die mit einem Scanner ausgelesen werden können. Parallel zum Textvortrag sprüht der Grafiker Christoph Knobel einen QR-Code auf eine Leinwand. Wird das Bild mit einem Handy gescannt, erscheint ein Haiku auf dem Display. Nicht immer sind Bendels Texte futuristisch. Neben Handygirl und Pixelboy, zwei Maschinenwesen, geht es auch um Homer, den griechischen Dichter der Odyssee.“ (Augsburger Allgemeine, 27. Oktober 2010) Eine Stunde dauerten Lesung und Performance. Dann konnten die Zuhörer und Zuschauer das Haiku auslesen und mit nach Hause nehmen. Das Buch „handyhaiku“ von Oliver Bendel war das erste weltweit, in dem Gedichte in QR-Codes untergebracht waren, nicht als Online-, sondern als Offlineanwendung. Die erste Auflage erschien 2010 im Hamburger Haiku Verlag.
Abb.: Oliver Bendel und der Sprayer von Friedberg im Jahre 2010
Poketomo is a pocket-sized AI robot designed as a personal, always-available companion. It can be understood as a wearable social robot, intended to accompany users throughout the day and provide lightweight interaction rather than full task automation. Poketomo engages in conversations, remembers user preferences over time, and responds to emotional cues in a calm and friendly manner. Interaction is primarily conversational: users can talk to Poketomo about everyday topics, personal interests, or their current mood. As usage continues, the device adapts its responses based on prior interactions, creating a sense of continuity and personalization. In addition to conversational features, Poketomo offers basic daily support functions such as weather updates, news notifications, and alarms.From a technical perspective, Poketomo combines compact hardware with AI-driven software. Despite its small form factor, it includes sensors, voice and facial recognition, a camera, and small motors that enable simple physical movements of the head and arms. Connectivity options such as Wi-Fi, Bluetooth, and GPS allow it to integrate into everyday routines. Developed by Sharp, Poketomo represents an example of a wearable social robot that blends emotional interaction with limited practical assistance, focusing on companionship rather than productivity. Further information is available at poketomo.com/en/.
At CES 2026, some of the most compelling examples of Inclusive AI and Inclusive Robotics came not from consumer gadgets, but from European assistive technologies designed to expand human autonomy. This was reported by FAZ and other media outlets in January 2026. These innovations show how AI-driven perception and robotics can be centered on accessibility – and still scale beyond niche use cases. Romanian startup Dotlumen exemplifies Inclusive AI through its “.lumen Glasses for the Blind,” a wearable system that replaces a guide dog with real-time, on-device intelligence. Using multiple cameras, sensors, and GPU-based computer vision, the glasses interpret sidewalks, obstacles, and spatial structures and translate them into intuitive haptic signals. The company calls this approach “Pedestrian Autonomous Driving” – a concept that directly bridges human navigation and mobile robotics. Notably, the same algorithms are now being adapted for autonomous delivery robots, underscoring the overlap between assistive AI and broader robotic autonomy. A complementary approach comes from France-based Artha (Seehaptic), whose haptic belt uses AI-powered scene understanding to convert visual space into tactile feedback. By shifting navigation cues from sound to touch, the system reduces cognitive load and leverages sensory substitution – an inclusive design principle with implications for human-machine interfaces in robotics. Together, these technologies illustrate a European model of Inclusive AI: privacy-preserving, embodied, and focused on real-world autonomy. What begins as assistive tech increasingly becomes a foundation for the next generation of intelligent, human-centered robotics.
Fig.: A scene from the Cybathlon (Photo: ETH Zürich, CYBATHLON/Alessandro della Bella)
From September to December 2025, Oliver Bendel published three articles on wearable social robots. The first was „That Robot Suits You Well!: On the Phenomenon of Wearable Social Robots“ – a technical article introducing the topic, which appeared in Wiley Industry News. This was followed by the full paper „Wearable Social Robots for the Disabled and Impaired“ and the short paper „Wearable Social Robots in Space“ (lead author Tamara Siegmann), which were presented at ICSR 2025 in Naples and published in the proceedings volume by Springer. One paper presents opportunities and risks for disabled and impaired people that arise, for example, from the connection with multimodal large language models. The other presents opportunities and risks for astronauts, for whom the small robots can be „contact persons“ and comforters. MLLMs are also relevant here. Oliver Bendel coined the term „wearable social robots“. His AIBI, together with Cozmo, Vector, Alpha Mini, Boo Boo, Unitree Go2 aka Bao, Hugvie, and other robots, forms his privately funded Social Robots Lab.
Das Buch „E-Learning im Unternehmen“ von Andrea Back, Oliver Bendel und Daniel Stoller-Schai erschien im Jahre 2001 bei Orell Füssli. Die drei Autoren waren zum damaligen Zeitpunkt an der Universität St. Gallen beschäftigt – Andrea Back war Lehrstuhlinhaberin – und arbeiteten ab April 2000 an dem Werk. Oliver Bendel verfasste mehrere Kapitel bzw. Abschnitte: In „1.2 Annäherung an den Begriff ‚E-Learning’“ erklärte und verortete er diesen auf mehreren Seiten – bereits 2000 war seine Definition im Netlexikon erschienen. In „4.2 Umsetzung von Lernräumen: Blended-Learning-Modell“ wurden Polaritäten wie „Virtuelles und nichtvirtuelles Lernen“, „Stationäre und mobile Technologien und Systeme“, „Lokale und verteilte Technologien und Systeme“ oder „Statische und dynamische Technologien und Systeme“ aufgezeigt. „4.3 Lern- und Wissensportale“ widmete sich Plattformen, die um die Jahrtausendwende auftauchten. „4.4 Trends“ behandelte „Standardisierung und Learning Objects“ (4.4.1), „Mobile Learning (M-Learning)“ (4.4.2) und „Pädagogische Agenten“ (4.4.3). In letzterem Abschnitt wurde nicht nur auf Chatbots und Virtual Assistants eingegangen, die als Teachers, Coaches, Mentors und Role Players fungierten, sondern auch auf Avatare, die sich stark verbreiteten. Das Buch war das erste, das sich vollständig auf den Begriff „E-Learning“ abstützte, der um 1999 in den USA aufgekommen war. Es galt damals als Bestseller und hat den E-Learning-Bereich über Jahre hinweg maßgeblich mitgeprägt.
„Zur Zeit bereitet man die Avatare auf eine neue Umgebung vor. Sie sollen nicht nur in PCs und Notebooks agieren, sondern auch in Handys. Man bekommt sie mitgeliefert bzw. lädt sie herunter oder erstellt sie selbst und verschickt sie von Gerät zu Gerät. Damit ergeben sich interessante Implikationen. Zum einen ist eine massenhafte Herstellung wahrscheinlich, sowohl als ‚Konfektionsware‘ (Avatare für die Massen) als auch in individueller Form (Massen machen Avatare). Zum anderen werden die Avatare mobil und so zu Begleitern in allen möglichen Situationen.“ Dies schrieben 2004 Dr. Oliver Bendel und Dr. Michael Gerhard – damals Fraunhofer ISST in Dortmund – in ihrem Artikel „Handy-Avatare – neue Möglichkeiten der Informationsversorgung und Kommunikationsunterstützung“, veröffentlicht in der damaligen Zeitschrift Infoweek, dem Vorgänger des Swiss IT Magazine. Die Idee, aus einem Porträtfoto einen 3D-Avatar zu erstellen, der mit einer Nachricht mitgeliefert wird und sie vorliest, mitsamt einem Zwinkern oder Lachen bei entsprechenden Smileys, gefiel Siemens gut. So gut, dass Klaus Kleinfeld, der kurz darauf Vorstandsvorsitzender der Siemens AG wurde, einen Mitarbeiter einfliegen ließ. Alle hatten schon Dollarzeichen in den Augen, als der Konzern seine Handysparte verkaufte. Die beiden Wissenschaftler wandten sich anderen Themen zu. Oliver Bendel ging über Umwege wieder in die Schweiz. Ab 2017 griffen Unternehmen wie Synthesia und Apple die Idee auf. Es folgten Samsung, Meta, Microsoft und Google. Der Artikel kann hier heruntergeladen werden.
Abb.: Avatare fürs Handy (Bild: ChatGPT nach der Vorlage im Artikel)
Im Januar ist der Band „Ent-decken: Sexualität bei Krankheit, Behinderung und im Alter“, herausgegeben von Ursula Immenschuh und Bernhard Rauh, bei Mabuse erschienen. Enthalten sind die Beiträge „Sexualität und Selbst: Prolog“ (Ursula Immenschuh und Bernhard Rauh), „Zwischen Kindheit und Lebensabend: Zur Wiederkehr psychosexueller Muster – Psychodynamische Zugänge zu Regression, Sexualität und Fürsorge im Kontext von Alter, Krankheit und Behinderung“ (Judith Bußmann), „Wo bleibt die Liebe?: Zur Unsichtbarkeit der sozialen Bedeutung von Liebesbeziehungen im heilpädagogischen Fachdiskurs über Sexualität und ‚geistige Behinderung'“ (Alexandra Pelka), „Die Haut: Ihre Bedeutung in der Sexualität und der Pflege“ (Bernhard Rauh), „Sexualität und Naturzweck: Der Onanie-Diskurs im Lichte der Sonderpädagogik“ (Marius Cramer), „‚Da musst du die Scham weglassen‘ oder: Warum das gut klingt, aber fatal wäre“ (Ursula Immenschuh), „‚Ich bin noch ein Mensch, so wie du‘: Sexuelle Übergriffe an (männlichen) Pflegeauszubildenden“ (Michaela Kuck), „‚Grenz-Gänge‘: Sexualität als Thema in der Beratung für Menschen mit sogenannter geistiger Behinderung und herausforderndem Verhalten (Konsulentendienst) – Ein Praxisbericht“ (Martin Jochheim), „Liebespuppen und Sexroboter in Alten- und Pflegeheimen“ (Oliver Bendel), „‚Du glaubst es nicht, aber ich habe sie losgelassen.‘: Von der Liebe, dem Begehren und dem Mord in Michael Hanekes Amour (2012)“ (Jean-Marie Weber) sowie „Übergangsräume und Ent-deckungen: Epilog“ (Ursula Immenschuh und Bernhard Rauh). Weitere Informationen über www.mabuse-verlag.de/anr_9783863217440.
As part of the ToBIT event series at the FHNW School of Business, four students of Prof. Dr. Oliver Bendel explored four topics related to his field of research during the Fall 2025/2026 semester: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“, and „The decoding of extraterrestrial languages“. The students presented their papers on January 9, 2026. In some cases, the state of research was not only reviewed, but an independent position was also developed. The paper „The decoding of extraterrestrial languages“ by Ilija Bralic argues that Messaging Extraterrestrial Intelligence (METI), in contrast to passive SETI (Search for Extraterrestrial Intelligence), creates a dangerous imbalance between humanity’s rapidly expanding technical capacity to send interstellar messages and its limited ethical, scientific, and political ability to govern this power responsibly. The central thesis is that the moral justifications for METI are speculative and anthropocentric, relying largely on optimistic assumptions about extraterrestrial behavior, while the potential risks are severe, logically grounded, and potentially existential. These risks include fundamental misinterpretation caused by the “human lens,” strategic dangers described by the Dark Forest hypothesis, historical patterns of harm in technologically asymmetric encounters, and profound cultural, psychological, and political disruption. The paper concludes that unilateral METI decisions by individuals or private groups are ethically indefensible and that, under the Precautionary Principle, humanity should immediately halt active transmissions. As a solution, it proposes a binding international governance framework, including a temporary global moratorium, the creation of a dedicated international authority, a strict multi-stage decision-making protocol, and robust transparency and monitoring mechanisms. This approach frames responsible restraint – not transmission – as humanity’s first genuine test of cosmic maturity.
Mit Grok kann man auf X in Sekundenschnelle hochgeladene Bilder manipulieren. So kann man etwa angezogene Frauen oder Mädchen entkleiden und im Bikini oder fast nackt zeigen. SRF war dazu per Videokonferenz im Gespräch mit Prof. Dr. Oliver Bendel. Der Technikphilosoph führte aus, wenn kein Einverständnis vorliege, gebe es mehrere Probleme auf ethischer und rechtlicher Ebene. Es handele sich womöglich um eine Verletzung der Menschenwürde, einen Eingriff in das Persönlichkeitsrecht, wenn man an das Recht am eigenen Bild denke, und um digitale sexuelle Gewalt. Es handele sich um sexuelle Fremdbestimmung statt Selbstbestimmung, geschlechtsbezogene Diskriminierung (es sind vor allem Frauen und Mädchen betroffen) und bei Kindern um eine Verletzung des Kindeswohls. Es seien Reputations- und Folgeschäden möglich, privat und beruflich, letztlich möglich gemacht dadurch, dass die Plattform ihrer Verantwortung nicht nachkomme. Der Technikphilosoph betonte, wenn man dies bei Accounts mit vielen Followern und Zugriffen mache, habe man eine große Reichweite. Deepfakes seien damit in der breiten Öffentlichkeit angekommen. Einige Ausschnitte aus dem Gespräch wurden in der Sendung „10 vor 10“ unter dem Titel „KI-Deepfakes und sexualisierte Bilder“ vom 7. Januar 2026 gebracht.
As partofthe AAAI Spring Symposia, thesymposium „Will AI Light Up Human CreativityorReplaceIt?: Toward Well-Being AI forco-evolving human and machineintelligence“ focuses on howadvances in generative AI, large languagemodels, and multi-agentsystemsaretransforming human creativity and decision-making. Itaddressesthecentralquestionofwhether AI will amplify human potential or increasingly take its place. The symposium advances the idea of Well-Being AI, emphasizing human-AI collaboration and co-evolution rather than AI as an isolated or autonomous system. While highlighting the potential of AI to support creativity, discovery, and personal development, it also examines risks such as overreliance, reduced diversity of thought, and loss of human autonomy. Chaired by Takashi Kido of Teikyo University and Keiki Takadama of The University of Tokyo, the symposium brings together researchers and practitioners from technical, philosophical, and social disciplines to discuss principles and frameworks for AI that augments rather than replaces human creativity. Further information on this symposium and the broader AAAI Spring Symposia organized by the Association for the Advancement of Artificial Intelligence can be found at https://aaai.org/conference/spring-symposia/sss26/ and webpark2506.sakura.ne.jp/aaai/sss26-will-ai-light-up-human-creativity-or-replace-it/.
The AAAI 2026 Spring Symposium Series, sponsored by the Association for the Advancement of Artificial Intelligence, will take place from April 7 to April 9, 2026 at the Hyatt Regency, San Francisco Airport in Burlingame. This annual series offers a distinctive format in which multiple symposia run in parallel at a shared venue, creating an intimate yet vibrant environment for exchange across the AI community. Designed as a two-and-a-half-day gathering, the series gives participants substantially more time for discussion, feedback, and collaboration than typical one-day workshops, making it particularly well suited for fostering emerging research communities. Each symposium typically brings together 40 to 75 participants, with attendance structured to encourage deep engagement by having each participant focus on a single symposium. The 2026 program spans a wide range of timely and forward-looking topics, including advances in AI-enabled tactical autonomy from sensing to execution, AI in business and intelligent transformation, AI and humanitarian assistance and disaster response, challenges around the enshittification of embodied AI and robotics, machine consciousness at the intersection of theory, technology, and philosophy, machine learning and knowledge engineering for knowledge-grounded semantic agents, safety and teamwork in multi-agent systems, and the impact of AI on human creativity and well-being in the context of co-evolving human and machine intelligence. By combining focused symposia with a shared setting, the AAAI Spring Symposium Series continues to serve as a meaningful convening point for researchers and practitioners shaping the future of artificial intelligence. However, the fact that this traditional conference no longer takes place at Stanford University is a shame, as is the fact that entering the US today is a matter of conscience. Further details about the program, participation, and updates can be found at aaai.org/conference/spring-symposia/sss26/.
Ursula Immenschuh und Bernhard Rauh sind die Herausgeber des Buchs „Ent-decken: Sexualität bei Krankheit, Behinderung und im Alter“. Enthalten ist darin der Beitrag „Liebespuppen und Sexroboter in Alten- und Pflegeheimen“ von Oliver Bendel. Aus dem Abstract: „Der vorliegende Beitrag untersucht aus technischer, organisationaler, wirtschaftlicher und ethischer Perspektive, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen einsetzen kann und soll. Damit wird eine deskriptive und eine normative Richtung verfolgt. Die Grundannahme lautet, dass manche Bewohner sexuelle Bedürfnisse haben, die befriedigt werden sollten, was in gegenwärtigen Strukturen aber nur eingeschränkt möglich ist. Zunächst wird dargelegt, welche Merkmale und Fähigkeiten die erwähnten Artefakte haben. Dabei spielen technische und gestalterische Aspekte eine Rolle. Dann wird untersucht, ob und wie man Liebespuppen und Sexroboter in technischer und organisationaler Hinsicht in den Betrieb integrieren kann. Es interessieren unterschiedliche Ansätze, nämlich das systematische Einführen, das systemische Dulden und das aktive Unterstützen solcher Artefakte. Auch wirtschaftliche Aspekte und personelle Auswirkungen werden betrachtet. Schließlich wird im Rahmen einer ethischen und sozialen Diskussion erörtert, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen zulassen soll. Dabei wird die Sicht der Älteren und Pflegebedürftigen, der Angehörigen und Freunde sowie der Pflegekräfte und Führungskräfte berücksichtigt. Am Ende plädiert der Beitrag dafür, andere Möglichkeiten der sexuellen Befriedigung in Betracht zu ziehen, etwa erhöhte Respektierung der Privat- und Intimsphäre, Zurverfügungstellung von Sexspielzeug als Hilfsmittel, Förderung des Austauschs unter den Bewohnern, wiederum bei erhöhter Respektierung der Privat- und Intimsphäre, und Etablierung von Sexualassistenz.“ Das Buch kann seit Anfang Januar 2026 über den Verlag bezogen werden, ab Anfang Februar über alle üblichen Kanäle.
Abb.: Eine Liebespuppe im Cybrothel (Foto: Cybrothel)
The article „Small Talk with a Robot Reduces Stress and Improves Mood“ by Katharina Kühne, Antonia L. Z. Klöffel, Oliver Bendel, and Martin H. Fischer was published on December 23, 2025. It is part of the volume „Social Robotics + AI: 17th International Conference, ICSR+AI 2025, Naples, Italy, September 10–12, 2025, Proceedings, Part III.“ From the abstract: „Research has demonstrated that social support is crucial in mitigating stress and enhancing mood. Not only do long-term, meaningful relationships contribute to well-being, but everyday social interactions, such as small talk, also offer psychological benefits. As social robots increasingly become more integrated into daily life, they present a potential avenue for stress interventions. In our online study, 98 participants underwent a stress induction using the Stroop task and were then assigned to one of three conditions: engaging in scripted small talk with a simulated NAO robot online, listening to a neutral story told by the same NAO robot, or no intervention (control condition). Results indicate that both interventions effectively reduced stress, with a tendency towards a stronger effect in the Small talk condition. Small talk not only helped maintain positive affect but also reduced negative affect. Notably, the benefits were more pronounced among individuals experiencing higher acute stress following the stress induction, but were less evident in those with chronically elevated stress levels. Furthermore, the effect of the intervention on stress reduction was mediated by changes in positive affect. These findings suggest that small talk with a social robot may serve as a promising tool for stress reduction and affect regulation.“ The first author, a researcher from the University of Potsdam, presented the paper on September 12, 2025, in Naples. It can be downloaded from link.springer.com/chapter/10.1007/978-981-95-2398-6_1.
Fig.: Katharina Kühne together with Tamara Siegmann
The article „Wearable Social Robots in Space“ by Tamara Siegmann and Oliver Bendel was published on December 23, 2025. It is part of the volume „Social Robotics + AI: 17th International Conference, ICSR+AI 2025, Naples, Italy, September 10–12, 2025, Proceedings, Part I.“ From the abstract: „Social robots have been developed on Earth since the 1990s. This article shows that they can also provide added value in space – particularly on a manned flight to Mars. The focus in this paper is on wearable social robots, which seem to be an obvious type due to their small size and low weight. First, the environment and situation of the astronauts are described. Then, using AIBI as an example, it is shown how it fits into these conditions and requirements and what tasks it can perform. Possible further developments and improvements of a wearable social robot are also mentioned in this context. It becomes clear that a model like AIBI is well suited to accompany astronauts on a Mars flight. However, further developments and improvements in interaction and communication are desirable before application.“ The Swiss student presented the paper together with her professor on September 10, 2025, in Naples. It can be downloaded from link.springer.com/chapter/10.1007/978-981-95-2379-5_33.
The article „Wearable Social Robots for the Disabled and Impaired“ by Oliver Bendel was published on December 23, 2025. It is part of the volume “Social Robotics + AI: 17th International Conference, ICSR+AI 2025, Naples, Italy, September 10–12, 2025, Proceedings, Part III.“ From the abstract: „Wearable social robots can be found on a chain around the neck, on clothing, or in a shirt or jacket pocket. Due to their constant availability and responsiveness, they can support the disabled and impaired in a variety of ways and improve their lives. This article first identifies and summarizes robotic and artificial intelligence functions of wearable social robots. It then derives and categorizes areas of application. Following this, the opportunities and risks, such as those relating to privacy and intimacy, are highlighted. Overall, it emerges that wearable social robots can be useful for this group, for example, by providing care and information anywhere and at any time. However, significant improvements are still needed to overcome existing shortcomings.“ The technology philosopher presented the paper on September 12, 2025, in Naples. It can be downloaded from link.springer.com/chapter/10.1007/978-981-95-2398-6_8.