Betrug mit Hilfe von AI Voice Cloning

Immer wieder verwenden Betrüger synthetische Stimmen, um Geld von ihren Opfern zu bekommen. Man spricht von Audio-Deepfakes oder KI-basiertem Klonen von Stimmen (AI Voice Cloning). Dieses kann für unterschiedliche legale oder eben auch illegale Zwecke verwendet werden, etwa im Rahmen eines Schockanrufs, bei dem die Identität eines Verwandten angenommen wird. Man kann aber auch die Stimme einer bekannten Person synthetisieren, etwa eines Moderators oder eines Politikers, und damit Missbrauch betreiben. Hier bietet sich Automatisierung an, wobei generative KI dabei hilft, die Gespräche abzuwickeln und zum Erfolg für den Täter zu führen. Für solche komplexen Arrangements ist noch technischer Fachverstand notwendig, während das Klonen von Stimmen an sich kinderleicht ist und über dutzende Dienste abgewickelt werden kann. Dabei kann man allerdings auch Opfer der Dienste werden, die selten kostenlos sind, auch wenn sie es behaupten. In etwa 20 Schweizer Zeitungen ist am 3. Juni 2024 ein Interview mit Prof. Dr. Oliver Bendel zu diesem Thema erschienen, u.a. in der Berner Zeitung und im Tages-Anzeiger. Der Technikphilosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit synthetischen Stimmen. Sein Artikel „The Synthetization of Human Voices“ ist am 26. Juli 2017 in der AI & SOCIETY erschienen.

Abb.: Die Stimme ist ein wertvolles Gut