A start-up promises that lucid dreaming will soon be possible for everyone. This was reported by the German magazine Golem on November 10, 2023. The company is Prophetic by Eric Wollberg (CEO) and Wesley Louis Berry III (CTO). In a lucid dream, the dreamers are aware that they are dreaming. They can shape the dream according to their will and also exit the dream. Everyone has the ability to experience lucid dreams. One can learn to induce this form of dreaming, but one can also have this form of dreaming as a child and unlearn it again as an adult. The Halo headband, a non-invasive neural device, is designed to make lucid dreaming possible. „The combination of ultrasound and machine learning models (created using EEG & fMRI data) allows us to detect when dreamers are in REM to induce and stabilize lucid dreams.“ (Website Prophetic) According to Golem, the neuronal device will be available starting in 2025.
Fig.: A woman with a lucid dream (Image: DALL-E 3)
Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.
Abb.: Die neuen Suchmaschinen sind dialogorientiert
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
The paper „The HAPPY HEDGEHOG Project“ by Prof. Dr. Oliver Bendel, Emanuel Graf and Kevin Bollier was accepted at the AAAI Spring Symposia 2021. The researchers will present it at the sub-conference „Machine Learning for Mobile Robot Navigation in the Wild“ at the end of March. The project was conducted at the School of Business FHNW between June 2019 and January 2020. Emanuel Graf, Kevin Bollier, Michel Beugger and Vay Lien Chang developed a prototype of a mowing robot in the context of machine ethics and social robotics, which stops its work as soon as it detects a hedgehog. HHH has a thermal imaging camera. When it encounters a warm object, it uses image recognition to investigate it further. At night, a lamp mounted on top helps. After training with hundreds of photos, HHH can quite accurately identify a hedgehog. With this artifact, the team provides a solution to a problem that frequently occurs in practice. Commercial robotic mowers repeatedly kill young hedgehogs in the dark. HAPPY HEDGEHOG could help to save them. The video on in the corresponding section of this website shows it without disguise. The robot is in the tradition of LADYBIRD.
Am 8. April 2019 startete an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.
Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 29. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel „Für eine Ethik der digitalen Gesellschaft“ statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Christian Ströbele, galt dem Thema „Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges“. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert von Dieter Janecek, war dem Thema „Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Weitere Informationen über www.gruene-bundestag.de.
Abb.: Klose, Janecek und Bendel vor dem Workshop (Foto: Kai Wargalla)