Betrüger nutzen künstliche Intelligenz zur Identitätsfälschung
Ein neuer Fall aus den USA zeigt, wie gefährlich KI-basierte Stimmklon-Technologien geworden sind: Ein Betrüger gab sich erfolgreich als US-Außenminister Marco Rubio aus und kontaktierte über verschlüsselte Nachrichtenapps hochrangige Politiker – darunter drei Außenminister, einen US-Gouverneur und ein Kongressmitglied. Ziel: Zugang zu sensiblen Informationen oder Systemen.
Die US-Behörden wissen laut Washington Post bislang nicht, wer hinter der Aktion steckt, gehen aber von einem gezielten Täuschungsversuch aus. Der Vorfall verdeutlicht, wie real die Bedrohung durch KI-Betrug bereits ist – auch außerhalb der politischen Elite.
Was ist Stimmklon-Betrug?
KI kann aus wenigen Sekunden Audiomaterial eine täuschend echte Imitation einer Stimme erstellen. Diese „Voice Cloning“-Technologie analysiert Sprechmuster, Akzent, Tonhöhe und Atempausen – und liest anschließend beliebige Texte in dieser Stimme vor.
Solche Audio-Snippets stammen oft von Social Media, etwa TikTok-Videos, Instagram-Storys oder YouTube-Beiträgen. Die Fälschung klingt dabei so realistisch, dass selbst enge Angehörige den Unterschied nicht sofort bemerken.
Beispielhafte Betrugsmasche: Der „Hilferuf“ von Freunden
Laut Forschern der Charles Sturt University (Australien) nutzen Betrüger die Stimmklone häufig, um unter dem Vorwand eines Notfalls Geld zu erschleichen. Typischer Ablauf: Die manipulierte Stimme bittet per Sprachnachricht um sofortige Überweisung – angeblich wegen eines Unfalls oder Diebstahls.
Ergänzt wird die Masche durch „Smishing“ (SMS-Phishing) und „Vishing“ (Voice-Phishing), bei denen gefälschte Links verschickt oder Gespräche auf andere Plattformen verlagert werden, um die Zielperson weiter zu täuschen.
So schützen Sie sich vor KI-Stimmklon-Betrug
1. Misstrauen bei unerwarteten Anrufen – selbst von Bekannten
Kontaktieren Sie vermeintliche Anrufer per SMS oder E-Mail vorab oder rufen Sie über eine bekannte Nummer zurück. Verlassen Sie sich nicht auf die angezeigte Nummer (Caller ID) – diese kann gefälscht sein.
2. Sicherheitswort mit Familie vereinbaren
Legen Sie ein gemeinsames Codewort fest, das in echten Notfällen zur Verifizierung dient – besonders hilfreich bei Kindern oder älteren Angehörigen.
3. Wortwahl und Tonfall prüfen
Hören Sie genau hin: Klingt die Stimme untypisch? Sind Formulierungen ungewohnt? Wirkt der Inhalt übertrieben emotional? Das können Hinweise auf Betrug sein.
4. Persönliche Informationen nicht öffentlich teilen
Vermeiden Sie es, Geburtsdaten, Telefonnummern, Haustiernamen oder andere biografische Details offen ins Netz zu stellen – sie erleichtern Stimmklon- und Identitätsbetrug erheblich.
5. Verdächtige Nachrichten ignorieren oder melden
Reagieren Sie nicht auf Nachrichten mit Aufforderungen zu schnellen Überweisungen oder mit Link-Weiterleitungen. Leiten Sie verdächtige Inhalte an die zuständigen Behörden oder Anbieter weiter.
Fazit: Wachsamkeit und Technik kombinieren
Der Einsatz von KI zur Stimmfälschung ist kein Zukunftsszenario mehr – er ist Gegenwart. Besonders gefährdet sind Menschen mit viel Online-Präsenz. Doch mit klugen Sicherheitsvorkehrungen, kritischem Denken und klaren Absprachen im Familien- oder Kollegenkreis lässt sich das Risiko deutlich senken.
Schützen Sie Ihre Stimme, als wäre sie Ihr Passwort – denn sie ist es inzwischen.