„Mundraub“ mit Hilfe von KI

„KI passt Lippenbewegungen an andere Sprachen an“ – so der Titel eines Artikels von Tobias Költzsch, der am 23. Mai 2021 bei Golem erschienen ist. „Das britische Unternehmen Flawless entwickelt eine auf Deepfake basierende Technologie, mit deren Hilfe synchronisierte Filme realistischer aussehen sollen. Das vom Regisseur Scott Mann mitgegründete Unternehmen will mit Hilfe von künstlicher Intelligenz die Lippenbewegungen von Schauspielern im Nachhinein anpassen, damit sie der synchronisierten Sprache entsprechen.“ (Golem, 23. Mai 2021) Dies wirft zahlreiche Fragen auf. Die Lippen gehören den Schauspielerinnen und Schauspielern, die Bewegungen ihrer Lippen zu ihrem Spiel. Wenn die Lippen nun anders aussehen und sich anders bewegen, könnte das zum einen Persönlichkeitsrechte verletzen, zum anderen die Qualität des Films beeinträchtigen. Insgesamt gibt es ethische, rechtliche und künstlerische Implikationen. Der Raub der Stimme ist schon seit einiger Zeit möglich – nun erfolgt ein „Mundraub“ der neuen Art.

Abb.: Charlize Theron auf dem roten Teppich

Deep Fakes in der Bilanz

Ein Deepfake oder Deep Fake ist nach der Darstellung von Prof. Dr. Oliver Bendel ein mit Hilfe künstlicher Intelligenz erstelltes Bild oder Video, das authentisch wirkt, es aber nicht ist. Auch die Methoden und Techniken in diesem Zusammenhang würden mit dem Begriff bezeichnet. „Verwendet werden Machine Learning und speziell Deep Learning. Mit Deepfakes will man Kunst- und Anschauungsobjekte schaffen oder Mittel zur Diskreditierung, Manipulation und Propaganda. Politik und Pornografie sind entsprechend eng mit dem Phänomen verwoben. Medien kritisieren Deepfakes und benutzen sie absichtlich oder unabsichtlich zur Desinformation.“ (Gabler Wirtschaftslexikon) In der Bilanz vom 7. Oktober 2020 ist der Beitrag „Was für Pornos erfunden wurde, könnte künftig Kriege auslösen“ von Norbert Lossau erschienen. Zitiert wird auch Oliver Bendel. Der Beitrag ist online über www.welt.de/wissenschaft/plus197745219/Deep-Fakes-Wie-erkennt-man-gefaelschte-Videos-im-Internet.html aufrufbar.

Abb.: Auch von Barack Obama existieren Deep Fakes

Das Ende der Verlässlichkeit der Videos

„Ein Bild sagt bekanntlich mehr als tausend Worte. Und bewegte Bilder, also Videos, gelten noch immer als untrüglicher Beweis dafür, dass sich etwas genau so abgespielt hat, wie es im Film zu sehen ist. Mit dieser Gewissheit ist es jetzt allerdings vorbei. Leistungsfähige Verfahren der künstlichen Intelligenz (KI) erlauben mittlerweile die Herstellung von so perfekten Fälschungen, dass mit bloßem Auge nicht mehr zu erkennen ist, ob ein Video echt oder manipuliert ist. In sogenannten Deep-Fake-Videos sagen oder tun Personen Dinge, die sie niemals sagen oder tun würden.“ (Die Welt, 1. August 2019) Mit diesen Worten beginnt der Artikel „Künstliche Intelligenz könnte Kriege auslösen“ von Dr. Norbert Lossau in der Welt. Zu Wort kommt der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel, der sich aus technischer und philosophischer Perspektive mit Deepfakes bzw. Deep Fakes beschäftigt hat. Der Artikel ist am 1. August 2019 in der gedruckten Ausgabe erschienen. Er steht in mehreren Ausgaben und in elektronischer Form in deutscher und englischer Sprache zur Verfügung.

Abb.: Das Ende der Verlässlichkeit der Videos

Was ist ein Deepfake?

„Ein Deepfake oder Deep Fake ist ein mit Hilfe künstlicher Intelligenz erstelltes Bild oder Video, das authentisch wirkt, es aber nicht ist. Auch die Methoden und Techniken in diesem Zusammenhang werden mit dem Begriff bezeichnet. Verwendet werden Machine Learning und speziell Deep Learning. Mit Deepfakes will man Kunst- und Anschauungsobjekte schaffen oder Mittel zur Diskreditierung, Manipulation und Propaganda. Politik und Pornografie sind entsprechend eng mit dem Phänomen verwoben.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon, veröffentlicht am 26. Juli 2019. Am Ende wird auch die Perspektive der Ethik eingenommen: „Deepfakes können Persönlichkeitsrechte verletzen und in Anschuldigungen, Verwicklungen und Auseinandersetzungen münden. Sie gefährden die informationelle Autonomie und sind so ein Thema der Informationsethik. Ferner können, je nach Fall, Medien-, Politik- und Wirtschaftsethik ins Spiel kommen.“ Der ganze Beitrag kann über wirtschaftslexikon.gabler.de/definition/deepfake-120960 aufgerufen werden.

Abb.: Auch von Barack Obama gibt es ein Deepfake

Das Ende von DeepNude

Mit der KI-basierten App DeepNude konnten Bilder von angezogenen Frauen in Bilder von nackten Frauen umgewandelt werden. Die Methode erinnert laut Golem an Deepfakes, bei denen man Gesichter auf andere Körper setzt. Bei DeepNude „sind es allerdings Körperteile wie nackte Haut, Brüste und Vagina, die über die Kleidung gelegt werden“ (Golem, 28. Juni 2019). Auch das kann freilich als Deepfake bezeichnet werden. Die App nutzt laut dem Magazin sogenannte Generative Adversial Networks (GANs), die mithilfe „vieler verschiedener Bilder aus größtenteils pornografischen Inhalten aus dem Internet trainiert wurden“. „Die fertige Applikation funktioniert nur bei weiblichen Körpern, da es … einfach ist, diese in Menge zu finden.“ (Golem, 28. Juni 2019) „Die Beliebtheit der Software hat die Erwartungen der Entwickler nach eigener Aussage drastisch überstiegen. So sollen etwa 500.000 Menschen die Software vom Server geladen haben.“ (Golem, 28. Juni 2019) Nun wurde das Projekt eingestellt. Interessant ist die Aussage der Entwickler hierzu: „Wenn 500.000 Leute es benutzen, ist die Chance hoch, dass sie es falsch benutzen“ – zudem sei der Server „unter der Last der Anfragen zusammengebrochen, was zum Ausfall des Downloaddienstes geführt habe“ (Golem, 28. Juni 2019).

Abb.: Fassade in Porto