SWISS nutzt Gesichtserkennung beim Boarding ohne ausdrückliche Zustimmung der Passagiere

Am 9. April 2023 versammelten sich die Passagiere am Flughafen von San Francisco an einem der Gates, um auf das Boarding eines SWISS-Flugs zu warten. Für viele Schweizer und Deutsche ging es – mit dem Zielflughafen Zürich – zurück in die Heimat. Beim Boarding mussten alle vor ein Gesichtserkennungssystem treten und ihre biometrischen Merkmale erfassen lassen. Dies ersetzte das Vorzeigen der Bordkarte. Es gab keinen Hinweis der Airline oder einer Behörde auf eine Alternative. Eine Anfrage eines Betroffenen an SWISS, auf welcher rechtlichen Grundlage dies erfolgte, wurde wie folgt beantwortet: „Ich habe mir Ihren Fall durchgelesen und möchte Ihnen mitteilen, dass das Gesichtserkennungssystem nicht obligatorisch ist. Es wird immer ein Mitarbeiter im Dienst sein, der die Sicherheitskontrolle auch manuell durchführen kann. Wenn Sie das nächste Mal in eine solche Situation kommen und nicht durch das Gesichtserkennungssystem gehen möchten, können Sie jederzeit einen Mitarbeiter bitten, Sie manuell durch die Kontrolle zu begleiten.“ Der Hinweis, dass die Nutzung des Systems nicht obligatorisch ist, müsste allerdings vor Ort gegeben werden. Man ist beim Boarding eines Rückflugs unter einem gewissen Druck, befindet sich auf fremdem Boden – und sieht sich mit einer unerwarteten Situation konfrontiert. All dies nutzt das Unternehmen oder sein Partner – die US-amerikanische Behörde – offenbar aus. Auch zur Datenerfassung und -verwendung gab es keinerlei Informationen, weder vor noch nach dem Vorgang. Ohne Zweifel wird die informationelle Autonomie verletzt. Insgesamt findet der Einsatz eines problematischen Systems ohne ausdrückliche Zustimmung der Passagiere statt. Laut einem Artikel von 2021 hat man das Verfahren bereits seit längerer Zeit getestet. „Die Swiss bestätigt den Einsatz der Technologie. Zusammen mit dem Mutterkonzern, der Lufthansa-Gruppe, engagiere man sich für den Einsatz der biometrischen Gesichtsfelderkennung. … Beim Projekt in San Francisco handle es sich in erster Linie um einen ‚übergeordneten Grenzkontrollprozess‘ der US-Behörden … Die Swiss und die Lufthansa seien aber bei der Umsetzung begleitend involviert gewesen, um eine Schnittstelle im Abfertigungsprogramm herzustellen.“ (Luzerner Zeitung, 8. September 2021)

Abb.: Mitten in San Francisco

Video zeigt System zur Gesichtserkennung bei Bären

Zum Projekt „ANIFACE: Animal Face Recognition“ liegt nun ein Video vor, das die Grundzüge des Systems erklärt. Erstellt wurde es von Ali Yürekkirmaz. Prof. Dr. Oliver Bendel hatte 2021 an der Hochschule für Wirtschaft FHNW das Thema ausgeschrieben und die Wahl gelassen, ob es um Wölfe oder Bären gehen sollte. Ali Yürekkirmaz nahm den Auftrag an und konzipierte in seiner Abschlussarbeit ein System, mit dem man in den Alpen – ohne elektronische Halsbänder oder implantierte Microchips – einzelne Bären identifizieren und entsprechende Maßnahmen einleiten könnte. Es stehen, so die Idee, in bestimmten Gebieten entsprechende Kamera- und Kommunikationssysteme bereit. Wenn ein Bär identifiziert ist, wird eruiert, ob er als harmlos oder gefährlich gilt. Dann werden die zuständigen Stellen oder direkt die Betroffenen informiert. Spaziergänger können vor den Aufnahmen gewarnt werden – es ist aber auch technisch möglich, ihre Privatsphäre zu schützen. In einem Expertengespräch mit einem Vertreter von KORA konnten wichtige Erkenntnisse zur Wildtierbeobachtung und speziell zur Beobachtung von Bären gewonnen werden, und eine Umfrage hat die Haltung von Teilen der Bevölkerung in Erfahrung gebracht. Aufbauend auf der Arbeit von Ali Yürekkirmaz, die im Januar 2022 abgegeben wurde, könnte ein Algorithmus für Bären entwickelt und ein ANIFACE-System in den Alpen implementiert und evaluiert werden.

Abb.: Das Video zu ANIFACE

Gesichtserkennung für Bären

Gesichtserkennung ist eine problematische Technologie, vor allem wenn sie für die Überwachung von Menschen eingesetzt wird. Sie hat allerdings auch Potenzial, etwa mit Blick auf die Erkennung von (Individuen von) Tieren. Prof. Dr. Oliver Bendel hatte 2021 an der Hochschule für Wirtschaft FHNW das Thema „ANIFACE: Animal Face Recognition“ ausgeschrieben und die Wahl gelassen, ob es um Wölfe oder Bären gehen sollte. Ali Yürekkirmaz nahm den Auftrag an und konzipierte in seiner Abschlussarbeit ein System, mit dem man in den Alpen – ohne elektronische Halsbänder oder implantierte Microchips – einzelne Bären identifizieren und entsprechende Maßnahmen einleiten könnte. Es stehen, so die Idee, in bestimmten Gebieten entsprechende Kamera- und Kommunikationssysteme bereit. Wenn ein Bär identifiziert ist, wird eruiert, ob er als harmlos oder gefährlich gilt. Dann werden die zuständigen Stellen oder direkt die Betroffenen informiert. Spaziergänger können vor den Aufnahmen gewarnt werden – es ist aber auch technisch möglich, ihre Privatsphäre zu schützen. In einem Expertengespräch mit einem Vertreter von KORA konnten wichtige Erkenntnisse zur Wildtierbeobachtung und speziell zur Beobachtung von Bären gewonnen werden, und eine Umfrage hat die Haltung von Teilen der Bevölkerung in Erfahrung gebracht. Aufbauend auf der Arbeit von Ali Yürekkirmaz, die im Januar 2022 abgegeben wurde, könnte ein Algorithmus für Bären entwickelt und ein ANIFACE-System in den Alpen implementiert und evaluiert werden.

Abb.: Ein Bär in der Schweiz

Vortrag zur digitalen Selbstverteidigung

Die Digitalisierung hat viele Facetten. Beim Lernen und Arbeiten gehen wir mit Plattformen und Apps um. Immer mehr interagieren und kommunizieren wir auch mit Hardwarerobotern (etwa sozialen Robotern wie Nao und Pepper) und Softwarerobotern (etwa Chatbots wie Mitsuku und Voicebots wie Siri und Alexa). Jugendliche sind in der Schule bestimmten Anwendungen ausgeliefert. Im Alltag liefern sie sich selbst bestimmten Anwendungen aus. Ein Ansatz ist, sie zur digitalen Selbstermächtigung und vor allem – dies wird zu wenig vorgeschlagen – zur digitalen Selbstverteidigung zu ermutigen. Sie sollen einerseits neue Medien und neue Technologien zu ihrem Nutzen einsetzen, sie andererseits in manchen Zusammenhängen zurückweisen und z.B. ihre Datensammlung und -auswertung verhindern. Wir alle sind aufgerufen, den digitalen Graben beim Lernen und Arbeiten zu überwinden. Wir sollten uns auf demselben Niveau bewegen können – und dann als Gesellschaft und als Individuen selbstbestimmt entscheiden können, welche neuen Medien und neuen Technologien wir nutzen und welche nicht. Und wir sollten Jugendlichen gewisse Formen der digitalen Selbstverteidigung näherbringen oder selbst entwickeln lassen. Der Vortrag „Digitale Selbstverteidigung für Jugendliche“ am 29. März 2021 von Prof. Dr. Oliver Bendel für Smartfeld stellt Problemfelder des Lernens und Arbeitens vor, wie sie sich im Zuge der Digitalisierung entwickelt haben, und thematisiert Ansätze und Werkzeuge für die digitale Selbstermächtigung und Selbstverteidigung. Weitere Informationen über www.smartfeld.ch/digitale-selbstverteidigung/.

Abb.: Digitale Selbstverteidigung ist gerade für Jugendliche und junge Erwachsene wichtig

Ban on Biometric Mass Surveillance Practices

The „Reclaim Your Face“ alliance, which calls for a ban on biometric facial recognition in public space, has been registered as an official European Citizens‘ Initiative. One of the goals is to establish transparency: „Facial recognition is being used across Europe in secretive and discriminatory ways. What tools are being used? Is there evidence that it’s really needed? What is it motivated by?“ (Website RYF) Another one is to draw red lines: „Some uses of biometrics are just too harmful: unfair treatment based on how we look, no right to express ourselves freely, being treated as a potential criminal suspect.“ (Website RYF) Finally, the initiative demands respect for human: „Biometric mass surveillance is designed to manipulate our behaviour and control what we do. The general public are being used as experimental test subjects. We demand respect for our free will and free choices.“ (Website RYF) In recent years, the use of facial recognition techniques have been the subject of critical reflection, such as in the paper „The Uncanny Return of Physiognomy“ presented at the 2018 AAAI Spring Symposia or in the chapter „Some Ethical and Legal Issues of FRT“ published in the book „Face Recognition Technology“ in 2020. More information at reclaimyourface.eu.

Fig.: A surveillance camera

Chancen und Risiken von Stimm-, Sprach- und Gesichtserkennung

„TA-SWISS schreibt ein Projekt aus, um die Chancen und Risiken von Stimm-, Sprach- und Gesichtserkennung abzuschätzen.“ (Website TA-SWISS) So lautet die Aussage auf der Website der Schweizer Einrichtung für Technologiefolgenabschätzung. Im Vorfeld hatte ein Expertengremium (u.a. mit Prof. Dr. Oliver Bendel) getagt, um die Inhalte und Schwerpunkte einzukreisen. In der Ausschreibung heißt es: „Stimm-, Sprach- und Gesichtserkennung können unseren Alltag erleichtern und sicherer machen. Durch diese Technologien können wir unsere Geräte einfach entsperren (und damit vor Missbrauch schützen), Grenzübertritte reibungsloser gestalten und smarten Helfern Befehle erteilen. Gleichzeitig dringen diese Technologien in den öffentlichen und privaten Raum ein und erheben biometrische Daten, die uns nicht nur identifizieren, sondern möglicherweise auch Auskunft über unsere Emotionen, Persönlichkeit oder Krankheiten geben könnten.“ (Website TA-SWISS) Die Projektskizzen sind bis zum 9. Februar 2020 einzureichen. Weitere Informationen über www.ta-swiss.ch/en/projects/call-for-tenders/.

Abb.: Hier wohnt Alexa

Erst das Gesicht, dann die Ware?

„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.

Abb.: Erst das Gesicht, dann die Ware?

Damit Menschen nicht zu Nummern werden

„San Francisco, am nördlichen Ende des Silicon Valley, ist das technologische Herz Amerikas. Apple, Google und Facebook haben ihre Büros nur wenige Kilometer entfernt von der Metropole. Hier wird entwickelt, was die Welt verändert. Hier wird die Zukunft zur Gegenwart. Und hier wurde soeben ein Gesetz beschlossen, das genauso prägend sein könnte wie all die technologischen Errungenschaften der letzten Dekade: San Francisco verbietet Technologie zur Gesichtserkennung für Polizei und Behörden. Überwachungskameras sind zwar erlaubt, aber Software, die Gesichter erkennt und mit Datenbanken abgleicht, ist nicht zugelassen.“ (SaW, 25. Mai 2019) So beginnt ein Artikel von Raffael Schuppisser mit dem Titel „Damit Menschen nicht zu Nummern werden“, der am 25. Mai 2019 in der Schweiz am Wochenende erschienen ist. Zu Wort kommt Oliver Bendel, der die Chancen und Risiken der Gesichtserkennung erforscht und vor Anwendungen im privaten und öffentlichen Raum warnt. Das Verbot in San Francisco, von dem „der Flughafen und der Hafen“ (SaW, 25. Mai 2019) ausgenommen sind, begrüßt er ausdrücklich. Der Artikel kann hier als PDF heruntergeladen werden.

Abb.: Damit Menschen nicht zu Nummern werden

San Francisco verbietet Gesichtserkennung

„Als erste Stadt in den USA hat San Francisco den Einsatz von Gesichtserkennung durch Behörden verboten.“ (SPON, 15. Mai 2019) Dies meldet SPIEGEL ONLINE am 15. Mai 2019. „Die Gefahr, dass solche Technologien die Bürgerrechte verletzen können, überwiege die behaupteten Vorteile bei Weitem, entschied der Stadtrat der kalifornischen Metropole …“ (SPON, 15. Mai 2019) Der Einsatz von Gesichtserkennung drohe rassistische Ungerechtigkeit zu verschärfen und bedrohe „unsere Möglichkeit, frei von ständiger Beobachtung durch die Regierung zu leben“, heißt es laut SPON in dem Beschluss. „Die städtische Polizei und andere städtische Behörden dürfen gemäß der Entscheidung keinerlei Gesichtserkennungstechnologie erwerben, besitzen oder nutzen. Flughäfen oder andere von den Bundesbehörden betriebene Einrichtungen sind von dem Verbot ausgenommen. Kritiker argumentieren, Systeme zur Gesichtserkennung bedeuteten einen starken Eingriff in die Privatsphäre. Zudem drohe die Gefahr, dass Unschuldige fälschlich als Straftäter identifiziert werden könnten. Die US-Bürgerrechtsorganisation ACLU warnt, mit der Technologie könne die Öffentlichkeit wahllos und ohne konkreten Verdacht oder Anhaltspunkt flächendeckend überwacht werden.“ (SPON, 15. Mai 2019) Bei den AAAI Spring Symposia an der Stanford University war Gesichtserkennung immer wieder ein Thema gewesen.

Abb.: In einem Museum in San Francisco

Weniger Ethik, mehr Recht

Microsoft gehört zu den führenden Unternehmen im Bereich der Gesichtserkennung. Man hat in den letzten Jahren mächtige Systeme geschaffen, die man in Displays mit Kameras integrieren oder an Chatbots ankoppeln kann – der BESTBOT ist ein Beispiel dafür. Nun hat das Unternehmen vor Gesichtserkennung gewarnt und nach dem Gesetz gerufen. Das ist nicht merkwürdig, sondern folgerichtig. Man hat eine Technologie entwickelt und ihre Chancen und Risiken untersucht. Man hat erkannt, dass Diskriminierung, Zerstörung der Privatsphäre und staatliche Totalüberwachung drohen. Es ist wichtig, zwischen Forschung und Entwicklung auf der einen und Anwendung auf der anderen Seite zu unterscheiden. Manchmal muss man eine Technologie auf die Welt bringen und dann im Einsatz beschränken, bis hin zum Verbot auf bestimmten Gebieten. Der Einschätzung des Konzerns mag eine ethische Reflexion vorausgegangen sein, vielleicht auch nur eine moralische Diskussion (der Spiegel wirft dem Konzern gar vor, sich zum Moralwächter aufzuschwingen). Wichtig ist aber, dass man dabei nicht stehenbleibt (und Microsoft ruft gerade nicht nach der Moral). Denn die Ethik vermag selten Probleme zu lösen. In diesem Fall braucht es weniger Ethik, mehr Recht.

Abb.: Bei Microsoft im Silicon Valley

Das Erkennen und Deuten des Gesichts

Ein neuer Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler erklärt, was Gesichtserkennung ist. „Gesichtserkennung ist das automatisierte Erkennen eines Gesichts in der Umwelt bzw. in einem Bild (das bereits vorliegt oder zum Zwecke der Gesichtserkennung erzeugt wird) oder das automatisierte Erkennen, Vermessen und Beschreiben von Merkmalen eines Gesichts, um die Identität einer Person … oder deren Geschlecht, Gesundheit, Herkunft, Alter, sexuelle Ausrichtung oder Gefühlslage … festzustellen.“ Auch die Perspektive der Ethik wird eingenommen: „Die Informationsethik fragt nach der Verletzung der informationellen Autonomie, die Wirtschaftsethik nach Chancen und Risiken des Einsatzes von Gesichtserkennung im Zusammenhang mit Beratung und Werbung. Um sich zu schützen, können Individuen ihr Erscheinungsbild modifizieren oder die Systeme manipulieren, was die Informationsethik wiederum unter dem Begriff der informationellen Notwehr behandeln würde.“ Der Beitrag ist am 5. Oktober 2017 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/gesichtserkennungssoftware.html abgerufen werden.

Abb.: Gesichtserkennung bei Microsoft

Gesichtserkennung macht Schlagzeilen

Gesichtserkennung macht seit einiger Zeit Schlagzeilen. Ob Südkreuz in Berlin, ob Face ID beim iPhone, ob Software, die angeblich die sexuelle Ausrichtung festzustellen vermag – es existieren zahlreiche Anwendungs- und Missbrauchsmöglichkeiten. Der WDR hat in seiner Sendung Cosmo am 14. September 2017 Oliver Bendel zum Thema befragt. Ob er Angst habe, wollte Sümeyra Kaya u.a. wissen, und der in der Schweiz lebende Informations- und Maschinenethiker räumte ein, dass dies der Fall sei. Sein Gesicht gehöre ihm, führte er aus, und er wolle nicht, dass es von allen möglichen Personen, Gruppen und Parteien aufgenommen werde. „Schon gar nicht will ich, dass mein Alter, mein Geschlecht, meine Gesundheit etc. festgestellt werden. Natürlich kann jeder auf der Straße sehen, wer ich bin, aber ich habe die Chance, auch dem anderen ins Gesicht zu schauen. Es besteht ein gewisses Gleichgewicht. Im Falle von Gesichtserkennungssoftware schaut mich ein Unbekannter an, und ich sehe ihn nicht nur nicht, ich weiß auch nicht, welche Absichten er verfolgt, welche Daten er sammelt und auswertet, was er mit den Ergebnissen macht. Es besteht ein Ungleichgewicht, und es besteht ein Risiko: Vielleicht erfährt meine Krankenkasse, dass ich dick geworden bin, und will mich von bestimmten Zusatzleistungen ausschließen.“ In der Schweiz ist das beispielsweise möglich. Online ist Cosmo über www1.wdr.de/radio/cosmo/programm/index.html erreichbar.

Abb.: Ein Paar macht Selfies