Fotosafaris für Blinde

Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Fotosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.

Abb.: Fotosafaris für Blinde (Bild: Ideogram)

Was ist und soll Inclusive AI?

„Inclusive AI (dt. ‚inklusive KI‘) will zum einen Phänomene der künstlichen Intelligenz (KI) mit exkludierendem Charakter wie Bias, Halluzination, Hate Speech und Deepfakes bekämpfen, zum anderen Anwendungen mit inkludierendem Charakter stärken und damit Betroffenen helfen. Die eine Bedeutung ist mit weiteren Ausdrücken wie ‚Responsible AI‘, ‚Explainable AI‘ und ‚Trustworthy AI‘ verknüpft, die andere mit solchen wie ‚AI for Good‘ oder ‚AI for Wellbeing‘. Insgesamt spricht man von Ethical AI, wobei es sich hierbei auch um einen Marketingbegriff handelt.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 5. März 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Am Ende des ersten Abschnitts wird festgestellt: „Inclusive AI kann mit generativer KI sowie mit anderen Formen von künstlicher Intelligenz einhergehen.“ Im zweiten Abschnitt werden Beispiele für die Bewegung gegeben, im dritten die Perspektiven von Informationsethik, KI-Ethik und Wirtschaftsethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/inclusive-ai-171870 aufgerufen werden.

Abb.: Was ist und soll Inclusive AI?

Photo Safaris for the Blind

The VISUAL project will be launched in March 2025 at the FHNW School of Business. It was initiated by Prof. Dr. Oliver Bendel. „VISUAL“ stands for „Virtual Inclusive Safaris for Unique Adventures and Learning“. There are webcams all over the world showing wild animals. Sighted people can use them to go on photo safaris from the comfort of their sofa. Blind and visually impaired people are at a disadvantage. As part of inclusive AI – a movement that includes apps like Be My Eyes with the Be My AI feature – a solution is to be found for them. The project aims to develop a prototype by August 2025 that will allow blind and visually impaired people to have webcam images of wildlife described to them. The system takes regular snapshots of the videos and analyzes and evaluates them using a multimodal LLM. It presents the results ini spoken language via an integrated text-to-speech engine. As a byproduct, poaching, bush and forest fires, and other events can be detected. The project is likely to be one of the first to combine inclusive AI with new approaches of animal-computer interaction (ACI).

Fig.: Photo safaris for the blind

Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive III

Seit 2021 führt Oliver Bendel an der Hochschule für Wirtschaft FHNW seine Wahlmodule zur Sozialen Robotik durch, inzwischen dreimal im Jahr. Vom 13. bis zum 15. Februar 2025 fand am Campus Brugg-Windisch die Veranstaltung unter dem Titel „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ statt. Am dritten Tag legte der Technikphilosoph und Wirtschaftsinformatiker dar, wie man bei sozialen Robotern eine empirische Grundlage schafft für die Beurteilung aus Informations- und Maschinenethik heraus. Zudem stellte er zahlreiche Modelle von Servicerobotern vor, die soziale Merkmale und Fähigkeiten haben. Auch wenn die Soziale Robotik bis heute in ökonomischer Hinsicht nicht sehr erfolgreich ist, fließen ihre Ergebnisse in die Servicerobotik ein, bei der das Gegenteil der Fall ist – mit Reinigungs-, Transport- und Sicherheitsrobotern verdient man Geld. Viel von ihnen haben Augen und geben Töne von sich. Damit wecken sie Aufmerksamkeit und steigern die Akzeptanz. Wieder gab es Vorführungen von Robotern, nämlich von Cozmo und Vector, wobei nur der erstere in Aktion gezeigt wurde. Am Ende konzipierten die Studenten in Gruppenarbeiten eigene soziale Roboter – sie erstellten mit Hilfe von DALL-E 3 und Co. entsprechende Illustrationen, beschrieben die Entwürfe mit Hilfe des 5-Dimensionen-Modells und skizzierten ein Geschäftsmodell. Dabei wurden Bereiche wie Bildung, Ernährung und Haushalt abgedeckt. Auch an die Inclusive AI wurde gedacht, mit einem sozialen Roboter, der die Gebärdensprache beherrschte.

Abb.: Cozmo kann viele Emotionen simulieren