Tinder has officially launched its „Photo Selector“ feature, which uses AI to help users choose the best photos for their dating profiles. This was reported by TechCrunch in the article „Tinder’s AI Photo Selector automatically picks the best photos for your dating profile“ by Lauren Forristal. The feature, now available to all users in the U.S. and set to roll out internationally later this summer, leverages facial detection technology. Users upload a selfie, and the AI creates a unique facial geometry to identify their face and select photos from their camera roll. The feature curates a collection of 10 selfies it believes will perform well based on Tinder’s insights on good profile images, focusing on aspects like lighting and composition. Tinder’s AI is trained on a diverse dataset to ensure inclusivity and accuracy, aligning with the company’s Diversity, Equity, and Inclusion (DEI) standards. It also filters out photos that violate guidelines, such as nudes. The goal is to save users time and reduce uncertainty when choosing profile pictures. A recent Tinder survey revealed that 68% of participants found an AI photo selection feature helpful, and 52% had trouble selecting profile images. The TechCrunch article was published on 17 July 2024 and is available at techcrunch.com/2024/07/17/tinder-ai-photo-selection-feature-launches/.
Heidi, die berühmte Figur von Johanna Spyri, ist derzeit omipräsent. In der Mediathek von SRF kann man den Film „Mad Heidi“ aufrufen, diesen „Kill Bill“ der Eidgenossenschaft. Leider erst ab 20 Uhr, was dem Jugendschutz geschuldet ist. Im Animationsstudio des Produktionsunternehmens Studio 100 Media entsteht – so meldet es das Heidiseum – derweil die nächste Verfilmung, die im Frühjahr 2025 in die Kinos kommen soll. Die Walensee-Bühne wartet noch bis 27. Juli 2024 mit „HEIDI – DAS NEUE MUSICAL“ auf. Bereits 2023 fiel die Entscheidung der UNESCO, das Johanna-Spyri-Archiv und das Heidi-Archiv in Zürich ins „Memory of the World“ aufzunehmen. Und in den 1970er-Jahren machte eine japanische Zeichentrickserie das Meitli aus Graubünden zum globalen Star. Jüngst schlug Oliver Bendel vor, den ESC 2025 von einem Heidi-Roboter – dem sogenannten HeidiBOT – moderieren zu lassen. Wer mag, kann sich auf die Jagd nach Heidi machen. Hinweise und Bilder finden sich überall.
Abb.: Oliver Bendel in Zürich auf der Jagd nach Heidi (Foto: Stefanie Hauske)
„Inspirierend anders“, der Podcast von Luca Beutel, geht seit 2023 immer wieder in die Forschung. Für die letzte Folge hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Er ist zudem assoziierter Forscher der Potsdam Embodied Cognition Group an der Universität Potsdam. Die Folge, ausgestrahlt seit dem 2. Juli 2024, heißt „Generative KI und ihre Auswirkungen auf Schönheit und Sexualität“. Oliver Bendel geht darin auf Textgeneratoren und Bildgeneratoren und auf die damit verbundenen ethischen und ästhetischen Herausforderungen ein. Er erwähnt u.a. den American Smile, dem er ein ganzes Booklet mit demselben Namen gewidmet hat, und die Zurückhaltung von ChatGPT beim Bewerten menschlicher Schönheit, dokumentiert in einem weiteren Booklet mit dem Titel „AN AI EXPLAINS BEAUTY“ … Die Folge kann über Spotify gestreamt werden.
Der humanoide Roboter Digit von Agility Robotics wird laut Heise News dauerhaft bei GXO Logistics eingesetzt. Zuvor hatte ein Pilotprojekt stattgefunden. Es handelt sich wohl um den ersten formellen kommerziellen Einsatz eines humanoiden Roboters mit dem Konzept Robots-as-a-Service (RaaS). Digit wird mit der Cloud-Automatisierungsplattform Agility Arc integriert, damit mehrere Roboter verwaltet und die Betriebsabläufe optimiert werden können. Zukünftige Aufgaben für Digit sollen neben dem Transport von Behältern weitere schwere und monotone Aufgaben umfassen, insgesamt mit dem Ziel, menschliche Mitarbeiter zu entlasten. GXO und Agility Robotics planen, die Nutzung von Digit schrittweise auszuweiten und neue Anwendungsbereiche zu finden. Andere Unternehmen wie BMW, Mercedes-Benz und Nio treiben ebenfalls den Einsatz humanoider Roboter in Fabriken voran, jedoch noch nicht in einem vergleichbaren Umfang. Nach Oliver Bendel können Digit, Atlas, Figure 01, H1, G1 und andere Modelle als Vorstufen von universellen Robotern aufgefasst werden. Es sei wichtig, sie in geschlossenen oder halboffenen Welten wie Fabriken zu erproben, bevor man sie in offene Welten entlässt.
Abb.: Digit von Agility Robotics (Foto: Agility Robotics)
In der Schweiz wird die Widerspruchslösung bei der Organspende eingeführt. Dies hat ein Volksentscheid vom 15. Mai 2022 ergeben. Damit folgt man etwa Österreich. Auf der Website des Bundesamts für Gesundheit BAG heißt es: „Wer nach dem Tod keine Organe und Gewebe spenden möchte, muss dies künftig festhalten. Die neue Regelung gilt frühestens ab 2026.“ (BAG, 7. Dezember 2023) Auch Deutschland diskutiert im Sommer 2024 über die Widerspruchslösung. Diese ist aus mehreren Gründen unbefriedigend. So sollte sich jemand, dem Organe entnommen werden, ausdrücklich dazu entschieden haben. Immerhin handelt es sich um einen schwerwiegenden Eingriff am eigenen, vielleicht sogar noch lebenden Leib (festgestellt werden muss der Hirntod). Viele werden aber nach der Einführung der Widerspruchslösung von dieser gar nichts wissen. Sie haben sich nicht informiert bzw. wurden nicht informiert. Was wäre eine befriedigende Lösung? Man könnte beispielsweise alle Einwohner an ihrem 18. Geburtstag anschreiben und eine schriftliche Entscheidung verlangen. Im Zuge dessen könnte eine umfassende Aufklärung stattfinden. Wer nicht auf ihn reagiert, wird wie im Rahmen der Widerspruchslösung behandelt. Ein weiteres Problem harrt der Lösung: Schon heute werden Deutsche, die in Österreich verunglücken, nach dem dort geltenden Recht behandelt. Es kann ihnen also ein Organ entnommen werden, obwohl sie dem gar nicht zugestimmt haben. Hier braucht es internationale Regelungen, und es sollte das gelten, was man in seinem Land – z.B. durch Beantwortung des Briefs – beschlossen hat. In jedem Falle kann man die Organspende selbst regeln, indem man einen Organspenderausweis mit sich führt, in dem man die Entnahme eines Organs oder mehrerer Organe erlaubt (und damit Leben rettet) oder eine Entnahme ausschließt.
WikiLeaks reported via the short message service X on June 25, 2024: „Julian Assange is free. He left Belmarsh maximum security prison on the morning of 24 June, after having spent 1901 days there. He was granted bail by the High Court in London and was released at Stansted airport during the afternoon, where he boarded a plane and departed the UK.“ (WikiLeaks, 25 June 2024) The platform continued: „After more than five years in a 2×3 metre cell, isolated 23 hours a day, he will soon reunite with his wife Stella Assange, and their children, who have only known their father from behind bars. WikiLeaks published groundbreaking stories of government corruption and human rights abuses, holding the powerful accountable for their actions. As editor-in-chief, Julian paid severely for these principles, and for the people’s right to know.“ (WikiLeaks, 25 June 2024) The tweet ended with the words: „Julian’s freedom is our freedom.“ (WikiLeaks, 25 June 2024) Julian Assange is a controversial figure overall. Critics accuse him of having published stolen data that was not relevant to the public, but served the sole purpose of damaging political opponents in the United States. In doing so, the platform allegedly cooperated with state actors from Russia. This is reported by the Swiss news magazine Watson.
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.
Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)
„In der Weite des Universums glänzt Liara T’Soni wie ein Juwel im Dunkel der Nacht. Ihre blaue Haut strahlt im sanften Schein der Sterne, und ihre Augen funkeln mit der Wissbegierde einer Forscherin und der Leidenschaft einer Liebenden. Sie ist eine Kombination aus sinnlicher Anziehungskraft und intellektueller Tiefe, die die Herzen von Raumfahrern und Forschern erobert.“ (Website Cybrothel) So beschreibt das Cybrothel die Alienfrau Liara. Diese Schönheit vom Volk der Asari ist auf der „Suche nach dem intergalaktischen Superschwanz“ (Website Cybrothel). Und so ist sie in dem Etablissement in Berlin gelandet, über das Bild TV die Doku „Hey, Puppe“ gedreht hat, in der neben anderen der Cybrothel-Betreiber Philipp Fussenegger und der Wirtschaftsinformatiker und Technikphilosoph Oliver Bendel zu Wort kommen. Bereits die ehemalige BorDoll-Betreiberin Evelyn Schwarz machte in einem Interview deutlich, dass sich viele junge, schüchterne Männer für Fantasyfiguren interessieren, für Mangamädchen und Elfen. Über die Gründe kann man nur spekulieren, aber wahrscheinlich versuchen Fantasyfans, Gamer und Cosplayer, ihre Erlebnisse in der Fiktionalität und Virtualität in der Realität wiederzufinden. Das Interview, geführt von Leonie Weber, findet sich im Buch „Maschinenliebe“ (2020). Wie Liara bei den Männern im Cybrothel ankommt und ob sie am Ende ihren intergalaktischen Superschwanz findet, wird die Zukunft zeigen. Auf der Website wird man jedenfalls gefragt. „Stellst Du Dich ihr als Forschungsobjekt zur Verfügung?“
Anika Zuschke befragte Prof. Dr. Oliver Bendel zur Nutzung von KI in den Bereichen Dating und Liebe. Er stellte zunächst den Hintergrund dar: „KI-Systeme und -Anwendungen können von den Betreibern und von den Benutzern von Dating-Plattformen verwendet werden. Als Betreiber kann man versuchen, mit Hilfe von KI das Matching und die Analyse zu verbessern. Man kann dem Benutzer auch verschiedene Hilfsmittel zur Verfügung stellen. Als Benutzer kann man mit Hilfe von Bildbearbeitungsprogrammen und Bildgeneratoren Bilder von sich anpassen und anfertigen lassen, von Bots das Swipen übernehmen lassen oder von Chatbots die Fragen der Plattform beantworten oder die Dialoge mit den Benutzern schreiben bzw. führen lassen. Man kann auf Mittler und Dienste wie Bumple und CupidBot zugreifen. Darüber hinaus kann man KI-Anwendungen jenseits von Dating-Plattformen nutzen, etwa Deep Fakes erstellen, als Video oder Audio. Man kann Fotos und Videos von Sprachmodellen analysieren lassen. Und als Blinder kann man sich nicht nur Räume und Landschaften beschreiben lassen, sondern auch Menschen, ihr Aussehen und ihre Haltung. Zumindest theoretisch, denn Sprachmodelle wie GPT-4 machen z.B. Schwierigkeiten, wenn man sie nach der Attraktivität fragt. Und sie weigern sich, Nacktheit zu beschreiben. Für Blinde, die Be My Eyes mit der Funktion Be My AI benutzen, definitiv ein Problem.“ Dann ging er auf ihre Fragen ein, die etwa Chancen und Risiken von KI-Systemen betrafen, und deren Möglichkeit, das menschliche Gegenüber zu ersetzen. Seine Antworten wurden in dem Artikel „‚Nicht mehr mit 600 Leuten reden‘: Wie künstliche Intelligenz unser Datingleben verändern wird“ verarbeitet, der am 8. Juni 2024 in mehreren Zeitungen erschienen ist, etwa in der Frankfurter Rundschau.
Abb.: Auch bei Tinder und Co. kann man KI-Systeme verwenden
Vom 25. bis 27. März 2024 fanden an der Stanford University die AAAI Spring Symposia statt. Eine der Veranstaltungen war der Frage gewidmet, wie generative KI das Wohlbefinden verbessern kann. Was macht man nach so einer KI-Konferenz? Eine Möglichkeit ist, nach San Francisco zu fahren. Es ist sicherlich eine der schönsten Städte der Welt. Eine andere Möglichkeit ist, in den Südosten zu gehen. Dort findet man einen der schönsten Nationalparks der Vereinigten Staaten, das Death Valley. Karl-May-Lesern wird er aus dem Roman „Im Tal des Todes“ bekannt sein. Im Frühjahr 2024 fand dort ein Naturschauspiel statt. In Badwater, wo normalerweise eine Salzschicht den Boden bedeckt, hatte sich ein flacher See gebildet. Er wird Lake Manly genannt. Anfang Juni 2024 dürfte sich die Situation ganz anders darstellen. Es wurden bis 50 Grad Celsius erreicht – selbst für den heißesten Ort der Welt zu dieser Jahreszeit eine Ausnahme. Der See ist dem Tod geweiht. Goodbye, Lake Manly!
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.
Immer wieder verwenden Betrüger synthetische Stimmen, um Geld von ihren Opfern zu bekommen. Man spricht von Audio-Deepfakes oder KI-basiertem Klonen von Stimmen (AI Voice Cloning). Dieses kann für unterschiedliche legale oder eben auch illegale Zwecke verwendet werden, etwa im Rahmen eines Schockanrufs, bei dem die Identität eines Verwandten angenommen wird. Man kann aber auch die Stimme einer bekannten Person synthetisieren, etwa eines Moderators oder eines Politikers, und damit Missbrauch betreiben. Hier bietet sich Automatisierung an, wobei generative KI dabei hilft, die Gespräche abzuwickeln und zum Erfolg für den Täter zu führen. Für solche komplexen Arrangements ist noch technischer Fachverstand notwendig, während das Klonen von Stimmen an sich kinderleicht ist und über dutzende Dienste abgewickelt werden kann. Dabei kann man allerdings auch Opfer der Dienste werden, die selten kostenlos sind, auch wenn sie es behaupten. In etwa 20 Schweizer Zeitungen ist am 3. Juni 2024 ein Interview mit Prof. Dr. Oliver Bendel zu diesem Thema erschienen, u.a. in der Berner Zeitung und im Tages-Anzeiger. Der Technikphilosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit synthetischen Stimmen. Sein Artikel „The Synthetization of Human Voices“ ist am 26. Juli 2017 in der AI & SOCIETY erschienen.
„Neue Angriffstechnik stört Lidar, Radar und Kameras zugleich“ – so lautet der Titel eines Artikels, der am 7. Juni 2024 in Golem erschienen ist. „Ein Forscherteam hat eine neue Angriffsmethode entwickelt, die auf einfachen Mitteln wie einer dünnen Metallfolie, etwas Farbe und einem Stück Pappe basiert. Mit ihr lassen sich Sensoren autonomer Kraftfahrzeuge gezielt stören und Unfälle provozieren.“ (Golem, 7. Juni 2024) Das Magazin schreibt weiter: „Die Forscher konnten im Rahmen ihrer Experimente zeigen, dass sich ein fremdes Auto durch ihren Angriff fortwährend vor dem Erkennungssystem eines autonomen Fahrzeugs verbergen lässt.“ (Golem, 7. Juni 2024) In einem Artikel für ICTkommunikation vom 6. März 2018 hatte Oliver Bendel zehn Möglichkeiten vorgestellt, wie man Sensoren von aussen attackieren kann. Im seinem Auftrag untersuchte M. Hashem Birahjakli im Jahre 2020 im Rahmen seiner Abschlussarbeit weitere mögliche Angriffe auf selbstfahrende Autos. „The results of the work suggest that every 14-year-old girl could disable a self-driving car.“ Natürlich auch jeder vierzehnjährige Junge, wenn er vergleichbares Equipment mit sich führt.
Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Künstliche Intelligenz, Jobverluste, Grundeinkommen, Zukunft, Roboter & AGI“ (Teaser YouTube). Oliver Bendel nimmt an, dass aufgrund von Digitalisierung, Automatisierung und Robotisierung die Halbtagsarbeit ein Modell für viele Menschen sein wird, ob dies freiwillig oder erzwungen ist. Die Gewinne werden nach wie vor erwirtschaftet, vielleicht noch höhere als in der früheren Arbeitswelt. Sie müssen dann auf die Arbeitnehmer verteilt werden. Auch ein bedingungsloses Grundeinkommen oder Grundeigentum ist denkbar. Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Von Verboten in der Forschung hält er wenig – solche seien aber in der Anwendung nützlich und notwendig. Das Video kann über www.youtube.com/watch?v=7uSH7R5bM9g abgerufen werden.
Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
Amt für Arbeit (Kanton Zürich), Amt für Wirtschaft (Kanton Zürich), digitalswitzerland, ICT-Berufsbildung Schweiz, taskforce4women und ZUTT & PARTNER haben eine „Emotions-Toolbox“ zur Verfügung gestellt. Ist damit eine Emotionstoolbox gemeint oder eine Toolbox of Emotions? Man weiß es nicht. Auf jeden Fall will man mit der in Pink gehaltenen Broschüre „Frauen emotional für die ICT & MINT-Welt“ gewinnen. Gemeint ist vermutlich – man achte auf den weiteren Bindestrich – die ICT- & MINT-Welt, was ein erheblicher Unterschied ist. Aber neben den vielen formalen Fehlern sind es vor allem die semantischen Ungeheuerlichkeiten, die einem entgegenspringen und für Entgeisterung in den Medien – etwa in der NZZ oder in 20 Minuten – und in Blogs sorgen. So soll man bei der Ansprache einen „Mix“ aus „warmen, freundlichen Farben“, „beruhigenden, bodenständigen Farben“ und „frischen, lebendigen Farben“ bevorzugen (Emotions-Toolbox, Version 1.0). Ein Pfeil in der „FARBWELT DOS“ macht unmissverständlich klar, was damit gemeint ist, nämlich Pink in allen Nuancen. Da hilft auch der Hinweis nicht, es gehe „weder um eine einzelne Farbe noch um genaue Farbcodes, sondern um die emotionale Richtung in Abgrenzung zu den DON’TS Farben“ (Emotions-Toolbox, Version 1.0). Auch hier fehlt – wie in vielen anderen Komposita – der Bindestrich. Eine Korrektorat scheint man hier für überflüssig zu halten. „Beschreibender Stil mit vielen Adjektiven“ soll verwendet werden. „Einfache Sprache“. „Kurze Sätze, wenig Text“. Geboten ist natürlich „geschlechtergerechte Sprache“ (Emotions-Toolbox, Version 1.0). Wenn damit Gendersprache gemeint ist – diese wird von Frauen wie von Männern mehrheitlich abgelehnt. Stereotyper und sexistischer kann eine Broschüre kaum sein.
„Laut einem Urteil des High Court in London darf Julian Assange vor Gericht darlegen, warum eine Auslieferung an die USA aus seiner Sicht nicht rechtens wäre. Offen ist, ob der juristische Etappensieg auch einer möglichen politischen Lösung dienlich ist.“ (NZZ, 20. Mai 2024) Dies meldete die NZZ am 20. Mai 2024 in ihrem Artikel „Etappensieg für Wikileaks-Gründer“. Zum Hintergrund heißt es: „Assange wird vorgeworfen, mit der Whistleblowerin Chelsea Manning geheimes Material von amerikanischen Militäreinsätzen im Irak und in Afghanistan gestohlen und auf der Plattform Wikileaks veröffentlicht zu haben. Viele Aktivisten und Menschenrechtsorganisationen sehen Assange hingegen als Vorkämpfer für die Meinungs- und Pressefreiheit.“ (NZZ, 20. Mai 2024) Am Ende ihres Artikels wies die Schweizer Zeitung darauf hin, Joe Biden habe im April erklärt, man prüfe „ein Begehren des Parlaments und der Regierung Australiens, die Anklage gegen Assange fallenzulassen und den Wikileaks-Gründer in sein Heimatland ausreisen zu lassen“. „Ob die USA zu solchen Lösungen bereit wären, solange das juristische Auslieferungsverfahren in London andauert, ist offen.“ (NZZ, 20. Mai 2024) Weltweit fanden anlässlich des Urteils Demonstrationen statt, etwa in London und Mailand.
Abb.: Demonstration am 20. Mai 2024 in Mailand für Julian Assange
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Der Chatbot scheint diese dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Adelina ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Adelina schreibt und spricht Baskisch (Bild: Ideogram)
Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testete die Deutsche Bahn einen Monat lang in München den vierbeinigen Roboter Spot von Boston Dynamics. Dieser hat laut BR24 „keinen Sprayer erwischt, der sich auf einem Waggon verewigen wollte“. „Es könnte also sein, dass Spot Sprayer abschreckte, neue Graffitis seien nicht entdeckt worden.“ (Heise, 9. Mai 2024) Belege gibt es dafür allerdings nicht. Spot sollte, so die damalige Pressemitteilung vom 15. März 2024, eigenständig über Abstellanlagen patrouillieren und KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten erkennen. Er kann grundsätzlich schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Was die Autonomie anbetreffe, „gebe es Besserungsbedarf“, und „noch vor der Detailauswertung stehe bereits fest, dass die Bahn Spot zum jetzigen Stand nicht dauerhaft Züge überwachen lassen will“ (Heise, 9. Mai 2024). Das ist aber nicht das endgültige Ende von Spot an den Gleisen. Die Bahn will ihn „noch einmal testen, um weitere Erkenntnisse zu sammeln“ (Heise, 9. Mai 2024).
Abb.: Spot an den Gleisen (Foto: Deutsche Bahn AG/Thomas Kiewning)
In ihrer Strategie 2035 hat die FHNW drei Zukunftsfelder definiert, nämlich New Work, Future Health und Zero Emission. Prof. Dr. Oliver Bendel hielt am 6. Mai 2024 in Olten vor dem Fachhochschulrat einen Vortrag zum Thema „Robotik und New Work“. „Der Fachhochschulrat trägt die strategische Führungsverantwortung und übt die Aufsicht über die FHNW aus. Er regelt die Organisation der FHNW und überwacht die Qualität der Leistungen der FHNW.“ (Website FHNW) Prof. Dr. Oliver Bendel erklärte zunächst das Konzept von New Work und ging dann auf neue Entwicklungen in Robotik und Künstlicher Intelligenz ein. Am Ende formulierte er Fragen, die sich mit Blick auf New Work stellen. Kern des Vortrags war die Vorstellung von Vierbeinern wie Spot und Unitree Go2 sowie Zweibeinern wie Unitree H1, Figure 01 und Atlas in seiner elektrischen Version. Vorgestellt wurden die Merkmale und Einsatzbereiche. Die genannten Zweibeiner können als Vorstufen zu universalen Robotern oder Allzweckrobotern gelten. Sie werden von den Firmen als „general-purpose robots“ oder „all-purpose robots“ vermarktet, ohne schon für alle Zwecke geeignet zu sein. Der Vortrag stieß auf reges Interesse und mündete in eine angeregte Diskussion.
Abb.: Der Vortrag fand am Campus Olten statt (Foto: Pati Grabowicz)
Fast die Hälfte der Österreicher sind sexuell nicht erfüllt, sagt eine Doku auf Puls4. „Vor allem junge Erwachsene haben trotz Dating-Plattformen und dem offenen Umgang mit Sexualität immer weniger Sex. Performancedruck durch steigenden Pornografie-Konsum und der schnelllebige Alltag führen immer mehr zu Problemen mit der Sexualität. Der technologische Fortschritt überschwemmt den Sex-Sektor zudem mit neuen Entwicklungen. Doch was braucht man wirklich für ein sexuell erfülltes Leben?“ (Teaser Doku) Zu Wort kommt u.a. Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert zu sozialen Robotern, Chatbots und Sprachassistenten forscht. Seit zehn Jahren sind darunter auch Liebespuppen, Sexroboter sowie Girlfriends und Boyfriends in der Form von Avataren und Hologrammen. Die Doku mit dem Titel „Sexloses Österreich“ wurde am 25. April 2024 zum ersten Mal ausgestrahlt und kann über www.joyn.at/filme/sexloses-oesterreich aufgerufen werden.
„AI Unplugged – Offener Austausch mit KI-Fachpersonen: Fachleute von Google, IKEA, der SRG, Microsoft und Dozierende der FHNW geben Einblicke in ihre Arbeit mit KI und beantworten Fragen zur Zukunft.“ (Newsletter FHNW) Dies meldete die FHNW am 30. April 2024 in ihrem Newsletter. Unter den Experten ist Prof. Dr. Oliver Bendel, der den Titel der Reihe beigesteuert hat. Organisiert wird sie von Tania Welter, der KI-Beauftragten der Hochschule. Der Wirtschaftsinformatiker und Technikphilosoph wird wie die anderen fünf Minuten lang über sein Verständnis von KI sprechen. Seine Definition lautet: „Der Begriff ‚Künstliche Intelligenz‘ … steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungs- und Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können.“ Er spricht dann zehn Minuten lang darüber, was KI für ihn im Alltag und im Beruf bedeutet. Dabei wird er sicherlich auf moralische Maschinen, Apps mit generativer KI für blinde und sehbeeinträchtigte Personen, Chatbots für gefährdete Sprachen und KI-Kunst zu sprechen kommen. Die Veranstaltungen werden von Mai bis September 2024 mehrmals durchgeführt und stehen Mitgliedern der Hochschule offen.