Was sind GPTs?

„GPTs sind Chatbots, die von Benutzern auf einfache Weise auf der Basis von GPT-4 entwickelt werden können. OpenAI spricht auch von ‚custom versions of ChatGPT‘. Manche GPTs vermitteln Wissen und sind damit Facilitators, Instruktoren oder Tutoren. Andere sind Mentoren und Coaches, die z.B. einen Lernprozess begleiten. Wieder andere erschaffen Logos und Präsentationen oder dienen als Gesprächspartner und für das Brainstorming. Einige Verwendungen schließt OpenAI aus, etwa für Beziehungen emotionaler oder erotischer Art. Dennoch gibt es solche Angebote, was die Medien von Anfang an begeistert aufgegriffen haben.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es wird im Detail auf die zwei Erstellvorgänge eingegangen. Am Ende stellt der Autor Überlegungen zu Urheberrecht und Datenschutz an. Der ganze Beitrag – erschienen ist er am 8. August 2024 – kann über wirtschaftslexikon.gabler.de/definition/gpts-126183 aufgerufen werden.

Abb.: GPTS sind mächtige Systeme (Bild: DALL-E 3)

Erst das Gesicht, dann die Ware?

„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.

Abb.: Erst das Gesicht, dann die Ware?

Erst Venenscan, dann Badespaß

In Weiden am See sind die Betreiber eines Freibads auf die Idee gekommen, ein Hochsicherheitszugangssystem einzuführen, wie Golem am 17. Juli 2019 unter Berufung auf den Kurier berichtete. Käufer einer Saisonkarte müssen zunächst ihre Handvenen registrieren. Mit Hilfe eines Handvenenscanners wird dann bei jedem Besuch überprüft, ob sie zugangsberechtigt sind. Hans Zeger, Obmann der ARGE Daten, wird mit folgenden Worten zitiert: „Ich halte den, der das macht, für einen überforderten Apparatschik, der die Grundrechte mit Füßen tritt.“ (Kurier, 17. Juli 2019) Die Nutzung biometrischer Merkmale ist aus mehreren Gründen problematisch. Erstens ist sie mit persönlichen Daten verbunden, die in die falschen Hände gelangen können. Zweitens ist es oft möglich, ein Sicherheitssystem auf einfache Weise zu überlisten. In diesem Falle helfen Toner und Bienenwachs dabei. Drittens kann man sich unter Ausübung brutaler Gewalt Zugang verschaffen. Am Neusiedler See wird vermutlich niemand die Hand eines Stammkunden abhacken. Aber in anderen Kontexten ist eine solche Möglichkeit durchaus vorhanden. Insgesamt schafft die Biometrik vor allem Nachteile für die Betroffenen.

Abb.: Noch sind die Hände dran

Smart Clothes

„Der Begriff der Smart Clothes zielt auf elektronifizierte bzw. computerisierte Kleidungsstücke. Diese ermöglichen Funktionen aller Art, etwa das Erheben von Daten, die Anzeige von Angaben oder die Bedienung von Geräten. Ein Smartphone, das mit den Kleidungsstücken verbunden wird, kann dabei eine zentrale Rolle spielen, ebenso unterschiedliche Wearables, die wiederum oft mit dem Smartphone verbunden sind. Gebraucht man den Begriff der Wearables weit, darf man auch Smart Clothes darunter zählen.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon, erschienen am 10. Dezember 2018. Auch die Perspektive der Ethik wird eingenommen: „In der Informationsethik interessiert, ob durch die (Nicht-)Verfügbarkeit von Optionen aus finanziellen oder anderweitigen Gründen die Informationsgerechtigkeit in Frage gestellt und ob die persönliche oder informationelle Autonomie des Menschen eingeschränkt oder erweitert wird. Quantified Self wird aus Datenschutzsicht hinterfragt, wegen der Personendaten und der Bewegungsprofile. Speziell das Verschwinden des Digitalen im Analogen stellt vor besondere Herausforderungen, vor allem wenn die Träger oder andere Betroffene nicht über die Funktionen aufgeklärt wurden.“ Den Beitrag kann man über wirtschaftslexikon.gabler.de/definition/smart-clothes-119091 aufrufen.

Abb.: Sind Smart Clothes die Zukunft?

Beitrag zu Privacy by Default

„Mit Privacy by Default soll durch entsprechende Voreinstellungen bei Diensten, Geräten und Systemen die Privatsphäre bewahrt und der Datenschutz sichergestellt werden. ‚Privacy‘ ist das englische Wort für Privatsphäre und Privatheit. Es wird auch mit Blick auf den Datenschutz verwendet. Der Besitzer bzw. Benutzer kann die Einstellungen in der Regel verändern und dadurch z.B. zusätzliche Funktionen freischalten, mit dem Risiko der Beeinträchtigung der Privatsphäre und der Preisgabe und Verarbeitung personenbezogener Daten.“ So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Oliver Bendel, erschienen am 8. Mai 2018. Es wird der Bezug zu Privacy by Design und zur Datenschutz-Grundverordnung (DSGVO) ebenso hergestellt wie zur Informationsethik. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/privacy-default-99475 aufgerufen werden.

Abb.: Bei Überwachungskameras gibt es kein Privacy by Default

Selbstdarstellung und Datenschutz

Technology Review befragte den Informations- und Maschinenethiker Oliver Bendel zu Informationsethik und Datenschutz. Dabei interessierte u.a., ob man aus ethischer Sicht mehr Datenschutz fordern und gleichzeitig großzügig mit seinen Daten umgehen darf. Die Antwort lautete: „Das darf ich durchaus. Ich kann ja daran interessiert sein, dass fremde personenbezogene Daten geschützt werden, etwa die meiner Kinder. Ich kann grundsätzlich an Schutz und Gerechtigkeit interessiert sein. Zugleich kann ich – auch das kann informationelle Autonomie bedeuten – mich dafür entscheiden, meine persönlichen Daten freizügig wegzugeben. Wichtig ist letztlich, dass die Entscheidung über meine Daten bei mir liegt. Auch wenn die Mehrheit einen laxen Umgang im Privaten hat, bedeutet das nicht, dass ich dann auch einen haben muss. Ich möchte im Gegenteil im Rechtsstaat als Minderheit vor der Mehrheit geschützt werden. Interessant wäre, wenn ich einzelne personenbezogene Daten oder Datensätze bestimmten Personen und Einrichtungen gegenüber freigeben, anderen Personen und Einrichtungen gegenüber sperren könnte, und wenn ich bei einer Freigabe eine Gegenleistung verlangen dürfte.“ Diese und andere Antworten flossen in den Beitrag von Denis Dilba ein, der unter dem Titel „Darf ich private Daten posten und trotzdem mehr Datenschutz wollen?“ in der Ausgabe 10/2017 erschienen ist.

Abb.: Selfie im Meer

Privacy by Design

Petra Grimm und Tobias Keber von der Hochschule der Medien haben internationale Experten zu einem Experten-Round-Table zum Thema „Privacy by Design im automatisierten Autofahren“ an die Hochschule der Medien in Stuttgart eingeladen. Nach Angaben von Susanne Kuhnert entstand die Idee zu dem interdisziplinären Austausch zum Themenbereich „Datenschutz und Datensicherheit im automatisierten und autonomen Autofahren“ im Rahmen der Mitarbeit im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt KoFFI. „KoFFI“ stehe, so das Einladungsschreiben, „für eine kooperative Fahrer-Fahrzeug-Interaktion und erforscht und erarbeitet ein multimodales Interaktionstool, welches im automatisierten Fahrzeug der Zukunft zum Einsatz kommen soll“. Weitere Informationen dazu über www.digitale-ethik.de/forschung/forschungsprojekte/koffi/. Am 27. Juli 2017 diskutierten Expertinnen und Experten wie Rafael Capurro und Oliver Bendel zum Thema. Im Anschluss entstanden Videos mit zentralen Statements, produziert von Studierenden der Hochschule. Diese werden in einigen Tagen online gestellt.

Abb.: Wieviel Privatsphäre bietet das Auto der Zukunft?

Zürcher Zentrum für Informationstechnologie und Datenschutz

Die Zürcher Hochschule für Angewandte Wissenschaften und der Datenschutzbeauftragte des Kantons Zürich wollen, wie im Sommer 2015 bekanntgegeben wurde, in Bezug auf den Datenschutz enger zusammenarbeiten. Sie haben gemeinsam das Zürcher Zentrum für Informationstechnologie und Datenschutz ITPZ gegründet. Auf der Website der ZHAW heißt es: „Mit der neusten Generation von Datensammlern wie Fitnessuhren oder neuen Zahlungsmöglichkeiten wie digitalen Portemonnaies ist das Thema Datenschutz im Alltag angekommen. Denn mit den aktuellen technischen Möglichkeiten tauchen auch immer wieder neue Fragen und Unsicherheiten auf. Was bis jetzt im Bereich Datenschutz und Informationssicherheit vernachlässigt wurde, ist die gezielte Forschung und Vermittlung von Wissen durch Aus- und Weiterbildung sowie die Sensibilisierung durch Beratung.“ (Website ZHAW) Ob man sich auch Fragen der Ethik annimmt, muss sich zeigen. Weitere Informationen über www.zhaw.ch.

Abb.: Fitnessuhren werfen Fragen des Datenschutzes auf