Betrugsmaschen entwickeln sich ständig weiter und eine der ältesten, der sogenannte Enkeltrick, erlebt gerade eine gefährliche Modernisierung. Früher versuchten Betrüger am Telefon, sich noch durch das Verstellen ihrer Stimme, als Enkel oder andere Verwandte auszugeben, um ältere Menschen unter Druck zu setzen und nach Geld zu bitten. Heute können Kriminelle (Sie) mit Hilfe von Künstlicher Intelligenz (KI) Stimmen einfacher und deutlich realistischer nachahmen. Hierfür genügt schon eine kurze Sprachaufnahme einer Person, etwa aus sozialen Netzwerken, Sprachnachrichten oder sogar nur ein Einfaches „Hallo, Vor- und Nachname, mit wem spreche ich?“ am Telefon, um eine täuschend echte Nachbildung der Stimme zu erstellen. Das macht es für viele Menschen nahezu unmöglich, zwischen echten und gefälschten Anrufen zu unterscheiden.
Die meist emotional aufgeladenen Situationen setzen die Opfer am Telefon unter Druck. Es wird oft behauptet, ein Unfall sei passiert oder eine dringende Notlage liege vor, die schnelles Handeln und hohe Geldsummen erfordern. Gerade ältere Menschen, die nicht mit diesen neuen technischen Möglichkeiten vertraut sind, können die Echtheit der Anrufe kaum hinterfragen.
Vorkehrungen treffen, kritisch bleiben
Umso wichtiger ist gezielte Aufklärung. Angehörige sollten mit älteren Familienmitgliedern offen über diese Betrugsmaschen sprechen und sie davor warnen. Es ist ratsam, beispielsweise einen Rückruf zu verlangen oder ein persönliches Codewort zu vereinbaren das bzw. der im Ernstfall abgefragt werden kann.
Grundsätzlich gilt: Bei ungewöhnlichen Forderungen immer innehalten, die Situation hinterfragen und im Zweifel bei der bekannten Telefonnummer des Verwandten zurückrufen oder bei Betrugsverdacht, umgehen die Polizei informieren. Niemals sollte auf Aufforderung hin sofort Geld übergeben oder überwiesen werden. Wachsamkeit und Misstrauen gegenüber ungewöhnlichen Anrufen oder Nachrichten sind der beste Schutz.
Stimmenklonen mit RealTime TTS im Test

Für meinen kleinen Test, habe ich RealTime TTS verwendet, ein kostenfreie Webseite, die Stimmen auf Englisch und Chinesisch klonen kann. Man lädt einfach eine kurze Aufnahme seiner Stimme hoch, gibt den gewünschten Text ein und bekommt dann eine Audiodatei zurück, in der die eigene geklonte Stimme den Text spricht. Dieser Test soll aufzeigen, wie leicht und zugänglich KI heute für Betrugsmaschen wie den Enkeltrick genutzt werden kann. Ich habe für den Test meine eigene Stimme genutzt und dafür folgenden Beispielsatz auf Deutsch eingesprochen:
„Hallo, hier spricht Max Mustermann. Ich teste gerade das Stimmenklonen, um zu zeigen, wie einfach es ist, eine Stimme nachzubilden.“
Originale Audiodatei (Vorlage für die KI):
Die KI brauchte etwa fünf Minuten zur Verarbeitung. Anschließend ließ ich einen englischen Text erstellen, ähnlich dem, was ein Enkeltrickbetrüger sagen würde. Damit möchte ich zeigen, wie gefährlich das Klonen von Stimmen mit KI auch über Sprachgrenzen hinweg ist. Der generierte Text bzw. die Audio lautete:
„Hello, Grandma, this is Max, your grandson. I urgently need money.“
Generierte Audiodatei mit RealTime TTS:
PR-Fachleute sollten gewarnt sein
Nicht nur ältere Leute sind gefährdet. Jeder kann auf den Trick hereinfallen aber auch jeder kann zum ungewollten Lockvogel werden. Auch ihre Stimme kann gefälscht werden. Wenn Sie in Podcasts zu hören sind oder auch nur Ihre Mailboxansage besprochen haben, besteht stets die Gefahr, dass Sie einem Fake zum Opfer fallen. Das ist die Kehrseite dieser neuen Technologie.
Über den Autor
Matthias Dada studiert Onlinekommunikation im 6. Semester (SoSe 2025). Der Beitrag wurde im Rahmen des Moduls „Content Creation mit Künstlicher Intelligenz“ beim Dozenten Rafael Bujotzek verfasst und behandelt die Risiken von KI im Kontext moderner Betrugsmaschen.