Deepfakes

Deepfakes: Wenn Betrüger die KI für den Enkeltrick nutzen

Der sogenannte Enkeltrick, bei dem Betrüger sich als Verwandte ausgeben, um an Geld zu kommen, ist bekannt. Jetzt können die Stimmen sogar täuschend echt imitiert werden – mithilfe von Künstlicher Intelligenz.

„Audio Deepfake“ heißt die Technologie. Dabei werden eine Vielzahl von Stimmproben einer Person in den Computer gegeben und dann auf Knopfdruck die fast gleich klingende Stimme synthetisch hergestellt, sodass per Texteingabe Audiodateien ausgegeben werden können. Das eröffnet einerseits viele Chancen und Möglichkeiten, zum Beispiel für Hörbücher oder vorgelesene Zeitungsartikel, aber es birgt auch Gefahren. Denn auch Kriminelle können die Technologie nutzen, um jemanden nachzuahmen.

Was gibt es für Betrugsmaschen und wen betrifft es?

CEO-Betrug: Eingesetzt werden Audio-Deepfakes laut Expertinnen und Experten zum Beispiel bei der sogenannten „Fake President“ Masche. Hier geben sich Betrüger als hochrangige Führungskräfte eines Unternehmens aus und nutzen die Audio-Deepfakes, um die Stimme des CEO (Chief Executive Officer) oder anderer Schlüsselpersonen nachzuahmen. Sie können dann Mitarbeiter oder Finanzabteilungen dazu bringen, Gelder freizugeben oder vertrauliche Informationen preiszugeben. Der Rückversicherer Allianz Trade berichtet von einem Fall eines deutschen Energieversorgers, bei dem es den Betrügern gelang, sich 220.000 Euro zu erschleichen. In einem anderen Fall, in dem mutmaßlich ein Audio-Deepfake eingesetzt wurde, wurden 35 Millionen US-Dollar erbeutet.

Telefonbetrug: Betrügerinnen und Betrüger können Audio-Deepfakes verwenden, um die Stimmen von Verwandten, Freunden oder anderen vertrauenswürdigen Personen nachzuahmen und ihre Opfer dazu zu bringen, Geld zu überweisen oder sensible Informationen preiszugeben. Die Landeskriminalämter in Norddeutschland haben auf Nachfrage des NDR bislang keine Hinweise vorliegen, ob diese Masche bereits in Norddeutschland eingesetzt wird. Nur aus den USA gibt es bereits erste Berichte, nach denen die Technologie auch bei Telefon- oder Whats-App-Betrug eingesetzt worden sein könnte.

Politische Manipulation: Audio-Deepfakes können dazu verwendet werden, gefälschte Aussagen oder Botschaften politischer Persönlichkeiten zu erstellen, um Wähler zu beeinflussen oder Stimmung zu machen. Dies ist in der Vergangenheit bereits vielfach geschehen, wurde aber in der Regel schnell enttarnt, sodass keine Schäden entstanden.

Europol geht in einem Bericht von zusätzlichen Gefahren für Ermittlerinnen und Ermittler aus, wenn zum Beispiel Zeugenaussagen oder Geständnisse nicht mehr als authentisch eingestuft werden können.

Wie funktioniert der Enkeltrick mit Audio-Deepfakes?

Im Internet gibt es inzwischen zahlreiche kostenlose und kostenpflichtige Dienste, mit deren Hilfe Audio-Deepfakes erstellt werden können oder bei denen bereits fertige Stimmen „gebucht“ werden können. Dazu benötigen die Anbieter einige wenige hochqualitative Sprachaufnahmen der Person, deren Stimme nachgeahmt werden soll. Je besser diese Aufnahmen sind, desto genauer kann die Künstliche Intelligenz die Stimme imitieren.

Verantwortlich für den „Lernprozess“ im Computer sind sogenannte künstliche neuronale Netze, die mit Hilfe von maschinellem Lernen sich die Stimme antrainieren. Ist die Stimme vorhanden, reicht es, per Texteingabe die Sätze oder Wörter vorzugeben, die der Computer dann modulieren kann. Oft gibt es noch zusätzliche Regler oder Instrumente, um die Stimme anzupassen. Zum Beispiel Sprechpausen zu vergrößern, die Stimmfarbe etwas zu erhöhen oder zu verdunkeln.

Wie erkennt man die Betrugsmasche und kann sich schützen?

Ein gut gemachter Audio-Deepfake ist vor allem über das Telefon kaum oder nur schwer zu erkennen. Generell gilt, bei aufgeregten Anrufen Ruhe zu bewahren, eine zweite Person hinzuzuziehen und das vermeintliche Enkelkind oder den angeblichen Vorgesetzten schnell über die bekannte Nummer zurückzurufen. Helfen können auch Codewörter oder die Frage nach bestimmten Orten oder Gegebenheiten, die nur die betroffene Person kennt. Auch die Verbraucherzentralen geben Tipps.

Zudem treibt die Entwicklung von Audio-Deepfakes auch die Entwicklung von Technologien zur Erkennung und Verifikation gefälschter Audiodateien voran. Forscher und Entwickler arbeiten daran, Algorithmen zu verbessern, die solche Deepfakes identifizieren können, um die Integrität von Audioaufnahmen zu schützen.