OpenAI hat nach eigenen Angaben unter dem Namen OpenAI o1 eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken aufwenden, bevor sie eine Ausgabe generieren. Sie können komplexe Aufgaben durchdenken und schwierigere Probleme lösen als frühere Modelle. In den Tests schneidet das Update bei anspruchsvollen Aufgaben in Physik, Chemie und Biologie angeblich ähnlich gut ab wie Doktoranden, eine ebenso allgemeine wie gewagte Aussage. Man habe außerdem festgestellt, dass es in Mathematik und Programmierung überragend sei. Das Unternehmen spricht von „reasoning models for solving hard problems“ (Website OpenAI, 12. September 2024). Wenn es sich nicht nur um leere Versprechungen handelt, machen nicht nur Chatbots einen Sprung vorwärts, sondern auch Allzweckroboter, für die Reasoning von hoher Bedeutung ist.
Abb.: OpenAI steht in Konkurrenz mit anderen Anbietern
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)
On 4 January 2023, OpenAI informed ChatGPT Plus users that the company would be launching the GPT Store next week. If users are interested in sharing their GPT in the store, they’ll need to: Review their updated usage policies and GPT brand guidelines to ensure that their GPT is compliant; verify their Builder Profile; publish their GPT as ‚Public‘. As early as 6 November, OpenAI made so-called GPTs available for ChatGPT Plus users. „GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home – and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers.“ (Blogpost OpenAI, 6 November 2023) According to OpenAI, anyone can easily build their own GPT, without any programming skills. „You can make them for yourself, just for your company’s internal use, or for everyone. Creating one is as easy as starting a conversation, giving it instructions and extra knowledge, and picking what it can do, like searching the web, making images or analyzing data.“ (Blogpost OpenAI, 6 November 2023) Early tests have shown the power of the new feature. ChatGPT suggests a name for the Chatbot, creates the profile picture, and accepts documents with text and literature lists to expand its knowledge of the topic. Since 12 November 2023, a new GPT named Social Robotics Girl is available that provides information about social robotics. It was created by Oliver Bendel and fed by a collection of his articles on the topic. Learn more about GPTs at openai.com/blog/introducing-gpts.
On 6 November 2023, OpenAI made so-called GPTs available for ChatGPT Plus users. „GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home – and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers.“ (Blogpost OpenAI, 6 November 2023) According to OpenAI, anyone can easily build their own GPT, without any programming skills. „You can make them for yourself, just for your company’s internal use, or for everyone. Creating one is as easy as starting a conversation, giving it instructions and extra knowledge, and picking what it can do, like searching the web, making images or analyzing data.“ (Blogpost OpenAI, 6 November 2023) Early tests have shown the power of the new feature. ChatGPT suggests a name for the Chatbot, creates the profile picture, and accepts documents with text and literature lists to expand its knowledge of the topic. Since 12 November 2023, a new GPT named Social Robotics Girl is available that provides information about social robotics. It was created by Oliver Bendel and fed by a collection of his articles on the topic. Learn more about GPTs at openai.com/blog/introducing-gpts.
Fig.: A user with her own GPT chatbot (Image: DALL-E 3)
„GPT als Lösung für Phishing-Erkennung“ ist der Titel einer Abschlussarbeit, die ab März 2023 von Noeh Pertoldi unter der Betreuung von Prof. Dr. Oliver Bendel geschrieben und im August abgeschlossen wurde. Auftraggeber war eine Schweizer Privatbank. Untersucht wurde, ob Sprachmodelle gegenüber traditionellen Ansätzen zur Identifizierung von Phishing-E-Mails einen signifikanten Vorteil aufweisen. Dabei fokussierte der Student der Hochschule für Wirtschaft FHNW auf GPT von OpenAI. „Zudem wurde ein Konzept erstellt, wie diese neuartige Methode angewendet und in ein E-Mail-Programm eingebunden werden kann.“ (Management Summary) Die Tests haben ergeben, dass GPT die Phishing-E-Mails, welche durch die traditionellen Filter rutschen, mit einer hohen Genauigkeit erkennen kann. Es spricht demnach viel dafür, Sprachmodelle auch in diesem Bereich einzusetzen. Das Ergebnis der Abschlussarbeit ist, „dass die Erkennung von betrügerischen E-Mails durch Sprachmodelle effektiv ist, doch nur das Zusammenspiel mit den traditionellen Methoden für die maximale Sicherheit sorgt“ (Management Summary). Inwieweit es Sinn ergibt, dass Unternehmen als Anwender selbst Lösungen zur Bekämpfung von Phishing mit GPT vorantreiben, sei dahingestellt. Die Anbieter sind bereits dabei, ihre Office-Lösungen mit generativer KI zu ergänzen.
Abb.: GPT kann betrügerische E-Mails erkennen (Bild: Ideogram)
Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur ethischen Reflexion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.
Abb.: Auch Pepper wurde schon mit ChatGPT verbunden
Ein Forscherteam von der University of Texas hat ein neues Verfahren für Brain-Computer-Interfaces vorgestellt, mit dem die Vision des Gedankenlesens ein wenig näher rückt. Verwendet wird in der Studie – das ist ein entscheidender Punkt – ein Sprachmodell wie GPT, in Kombination mit Magnetresonanztomografie. Generell können solche Systeme im Moment allenfalls wahrscheinliche Phrasen vorschlagen. Sie machen noch viele Fehler. Diese dürften sich in Zukunft aber zum Teil beheben lassen. Von Bedeutung wären solche Verfahren für Schwerbehinderte, etwa Querschnittsgelähmte. Diese können über Brain-Computer-Interfaces bereits Geräte mit Gedanken steuern – in ein paar Jahren wären sie in der Lage, über Gedanken mit anderen zu kommunizieren. Interessiert werden auch Polizei, Geheimdienst und Verfassungsschutz sein. Selbst bei gegebenem Kooperationswillen kann es sich um einen Übergriff handeln. Ohne einen gegebenen Kooperationswillen, der im Moment noch Grundlage der Methode ist, kann es sich um psychische Gewalt handeln. Es wäre auf jeden Fall ein Eingriff in die Intim- und Privatsphäre. Der Mensch steht mit seinen Gedanken nackt vor den anderen da. Dies gilt insbesondere, aber nicht nur, bei sexuellen Vorstellungen. Ferner kann man evtl. auch an politische und moralische Überzeugungen oder an Passwörter herankommen. Die Studie zeigt, dass Sprachmodelle für alle möglichen Zwecke eingesetzt werden können und auch eingesetzt werden, bei den entsprechenden Chancen und Risiken. Die Nachrichtensendung 10 vor 10 im SRF hat dem Thema am 3. Mai 2023 einen Beitrag gewidmet. Darin kommen Prof. Dr. Lutz Jäncke (Universität Zürich), Dr. Ricardo Chavarriaga (ZHAW) und Prof. Dr. Oliver Bendel (FHNW) zu Wort. Der Artikel mitsamt dem Video kann über www.srf.ch/news/experiment-in-den-usa-gedanken-entschluesseln-dank-hirn-scans-und-ki abgerufen werden.