Geklonte Stimmen, gefälschte Videos, perfekte Phishing-Texte – Künstliche Intelligenz macht Betrug so überzeugend wie nie zuvor. So erkennst du die Maschen.
Vor wenigen Jahren waren Deepfakes eine technische Spielerei. Heute sind sie eine ernste Bedrohung. Kriminelle nutzen KI, um Stimmen zu klonen, Gesichter in Videos zu fälschen und Phishing-Nachrichten zu erstellen, die sprachlich perfekt und psychologisch präzise sind. Laut dem Identity Fraud Report 2025 – 2026 stiegen Deepfake-Angriffe auf deutsche Unternehmen im vergangenen Jahr um über 53 Prozent. Laut einer McAfee-Studie war bereits jede vierte Person Ziel eines Voice-Cloning-Angriffs oder kennt ein Opfer. Das BSI warnt vor einer fundamental veränderten Bedrohungslage – und diese betrifft nicht nur Unternehmen, sondern auch Privatpersonen.
Wie KI-Betrug funktioniert
Die Grundlage für KI-gestützten Betrug sind öffentlich zugängliche Daten. Für das Klonen einer Stimme reichen Angreifern oft nur wenige Sekunden Audiomaterial – ein Sprachnachricht auf WhatsApp, ein Social-Media-Video oder ein Podcast-Auftritt genügen. Die KI analysiert Tonfall, Sprechrhythmus und Melodie und kann anschließend beliebige Sätze in dieser Stimme generieren. Das Ergebnis klingt für das menschliche Ohr kaum vom Original unterscheidbar.
Für Video-Deepfakes trainieren Kriminelle KI-Modelle mit öffentlich zugänglichen Fotos und Videos. Das künstliche Gesicht wird über ein fremdes Video gelegt und mit der geklonten Stimme synchronisiert. Was früher Expertenwissen und teure Hardware erforderte, ist heute mit frei verfügbaren Tools möglich. Im Darknet werden komplette Betrugs-Kits als Dienstleistung angeboten – die Einstiegshürde für Kriminelle sinkt rapide.
Auch Texte profitieren von KI. Sprachmodelle generieren Phishing-E-Mails und Smishing-SMS ohne Rechtschreibfehler, in perfektem Deutsch und im Kommunikationsstil des imitierten Absenders. Das alte Erkennungsmerkmal „schlechte Grammatik = Betrug“ funktioniert nicht mehr.
Die häufigsten KI-Betrugsmaschen
Enkeltrick 2.0 – der Schockanruf mit KI-Stimme: Die klassische Masche in neuer Dimension. Betrüger rufen an – häufig spät abends oder am Wochenende – und imitieren mit geklonter Stimme ein Familienmitglied. Die Stimme schildert einen dramatischen Notfall: einen Unfall, eine Verhaftung, einen Krankenhausaufenthalt. Unter emotionalem Druck werden die Angerufenen zur sofortigen Überweisung gedrängt. Die Polizei warnt ausdrücklich vor dieser Masche, die insbesondere ältere Menschen trifft.
CEO-Fraud mit Deepfake: Kriminelle imitieren per Telefon oder Video die Stimme oder das Gesicht einer Führungskraft und ordnen dringende Überweisungen an. Das britische Ingenieurbüro Arup verlor durch einen solchen Angriff 25 Millionen US-Dollar. In der Schweiz überwies ein Unternehmer mehrere Millionen Franken, nachdem er die geklonte Stimme seines Geschäftspartners gehört hatte. Diese hybride Attacke – KI-generierte E-Mail plus Deepfake-Anruf zur Bestätigung – macht klassische Verifikationsmethoden wirkungslos.
Deepfake-Werbung mit Prominenten: Betrüger erstellen gefälschte Videos, in denen bekannte Persönlichkeiten für Geldanlagen, Kryptowährungen oder dubiose Produkte werben. Ein aktuelles Beispiel: Ein Deepfake-Video des Unternehmers Reinhold Würth, der angeblich für betrügerische Geldanlagen wirbt, wurde über soziale Medien verbreitet. Die Würth-Gruppe bestätigte die Fälschung und leitete rechtliche Schritte ein.
KI-optimiertes Phishing und Smishing: Statt massenhaft identische Nachrichten zu versenden, erstellen Kriminelle mit KI individualisierte Texte, die auf den Empfänger zugeschnitten sind – basierend auf öffentlich verfügbaren Informationen aus sozialen Netzwerken, beruflichen Profilen oder früheren Datenlecks. Die Nachrichten wirken dadurch persönlich und glaubwürdig.
Warnsignale für KI-Betrug erkennen
Auch wenn KI-generierte Inhalte immer besser werden, gibt es Muster, die Betrugsversuche verraten.
Bei Anrufen: Misstraue jedem unerwarteten Anruf, bei dem eine bekannte Stimme Geld fordert oder unter Zeitdruck setzt. Achte auf ungewöhnliche Gesprächspausen, leichte Verzögerungen in der Antwort oder eine unnatürlich gleichmäßige Sprechweise. Stelle eine persönliche Kontrollfrage, die nur die echte Person beantworten kann – etwa nach einem gemeinsamen Erlebnis, das nicht öffentlich bekannt ist. Lege auf und rufe die Person über die dir bekannte Nummer zurück.
Bei Videos: Achte auf unnatürliche Lippenbewegungen, inkonsistente Beleuchtung, fehlende Augenbewegungen oder seltsame Übergänge am Haaransatz und an den Ohren. Deepfake-Videos können bei schnellen Kopfbewegungen Artefakte zeigen. Hinterfrage grundsätzlich Videos, in denen bekannte Persönlichkeiten für Investments oder Produkte werben – vor allem, wenn sie nur über soziale Medien geteilt werden.
Bei Texten: Achte auf den Kontext statt auf die Sprache. Die Nachricht mag grammatisch perfekt sein, aber passt der Inhalt zur Person? Fordert der Absender etwas Ungewöhnliches? Erzeugt die Nachricht Zeitdruck? Werden sensible Daten verlangt? Wenn ja, handelt es sich höchstwahrscheinlich um einen Betrugsversuch – unabhängig davon, wie gut der Text formuliert ist.
So schützt du dich und deine Familie
Vereinbart ein Familien-Codewort. Legt in der Familie oder im engen Freundeskreis ein geheimes Codewort fest, das bei verdächtigen Anrufen abgefragt wird. Wer das Wort nicht kennt, ist nicht die Person, die er vorgibt zu sein – egal wie überzeugend die Stimme klingt. Dieses einfache Prinzip ist aktuell der wirksamste Schutz gegen Voice-Cloning.
Begrenzt öffentlich verfügbares Audiomaterial. Je weniger Sprachaufnahmen von dir öffentlich zugänglich sind, desto schwieriger ist es, deine Stimme zu klonen. Überprüfe, welche Videos und Sprachnachrichten du in sozialen Netzwerken teilst. Setze Instagram, TikTok und Facebook-Profile auf privat, wenn möglich.
Überweist niemals Geld aufgrund eines einzigen Anrufs. Egal wie dringend die Situation klingt – eine seriöse Bitte um Geld kann immer verifiziert werden. Rufe die Person über eine dir bekannte Nummer zurück, kontaktiere andere Familienmitglieder oder bitte um ein persönliches Treffen.
Aktiviert die Zwei-Faktor-Authentifizierung. Selbst wenn Betrüger durch KI-optimiertes Phishing an ein Passwort gelangen, schützt 2FA deine Konten. Wie du das einrichtest, zeigt unser Artikel Sicheres Passwort erstellen & verwalten.
Nutzt die Anruffilter deines iPhones. iOS 26 bietet mit Call Screening eine Funktion, die unbekannte Anrufer automatisch nach Name und Anliegen fragt, bevor dein iPhone klingelt. Robocalls und automatisierte Betrugsanrufe werden so effektiv abgefangen. Alle Details findest du in unserem Artikel iPhone richtig einstellen: Anrufe prüfen, blockieren und filtern.
Die neue Realität der digitalen Täuschung
KI-Betrug wird nicht weniger werden – im Gegenteil: Die Werkzeuge werden besser, günstiger und leichter zugänglich. Die wichtigste Verteidigung bleibt deshalb menschlich: gesundes Misstrauen gegenüber unerwarteten Kontaktaufnahmen, Verifizierung über einen zweiten Kanal und die Bereitschaft, innezuhalten, bevor man unter Druck handelt. Technik wie Anruffilter, Zwei-Faktor-Authentifizierung und starke Passwörter bilden das Sicherheitsnetz – aber den Unterschied macht am Ende dein Verhalten. Die besten Produkte für dich: Unsere Amazon Storefront bietet eine breite Auswahl an Zubehörteilen, auch für HomeKit. (Bild: Shutterstock / FAMILY STOCK)
Häufige Fragen: KI-Betrug erkennen
Ein Deepfake ist ein durch Künstliche Intelligenz erzeugtes Audio- oder Videomaterial, das eine reale Person täuschend echt imitiert. Kriminelle nutzen Deepfakes, um sich als jemand anderes auszugeben und Betrug zu begehen – etwa durch geklonte Stimmen am Telefon oder gefälschte Videos in sozialen Medien.
Für das Klonen einer Stimme reichen Angreifern oft nur wenige Sekunden Audiomaterial aus einem Social-Media-Video, einer Sprachnachricht oder einem Podcast. Die KI analysiert Tonfall, Sprechrhythmus und Melodie und kann anschließend beliebige Sätze in dieser Stimme generieren. Das Ergebnis ist für das menschliche Ohr kaum vom Original zu unterscheiden.
Achte auf unerwartete Anrufe, bei denen eine bekannte Stimme unter Zeitdruck Geld fordert. Warnsignale sind ungewöhnliche Gesprächspausen, leichte Verzögerungen in der Antwort oder eine unnatürlich gleichmäßige Sprechweise. Stelle eine persönliche Kontrollfrage, die nur die echte Person beantworten kann, und rufe im Zweifel über die dir bekannte Nummer zurück.
Ein Familien-Codewort ist ein geheimes Wort, das nur die Familie oder enge Freunde kennen. Bei einem verdächtigen Anruf fragst du nach dem Codewort – kann der Anrufer es nicht nennen, handelt es sich um einen Betrugsversuch. Dieses einfache Prinzip ist aktuell der wirksamste Schutz gegen Voice-Cloning-Angriffe.
iOS 26 bietet mit Call Screening eine Funktion, die unbekannte Anrufer automatisch nach Name und Anliegen fragt, bevor dein iPhone klingelt. Automatisierte Betrugsanrufe werden so abgefangen. Gegen gezielte Angriffe mit geklonter Stimme einer bekannten Person bleibt jedoch das menschliche Urteil – etwa ein Rückruf oder das Familien-Codewort – die wichtigste Verteidigung.
Begrenze öffentlich zugängliche Sprachaufnahmen. Überprüfe, welche Videos und Sprachnachrichten du in sozialen Netzwerken teilst, und setze Profile auf privat, wenn möglich. Je weniger Audiomaterial von dir öffentlich verfügbar ist, desto schwieriger ist es für Angreifer, deine Stimme zu klonen.
Achte auf unnatürliche Lippenbewegungen, inkonsistente Beleuchtung, fehlende oder starre Augenbewegungen, seltsame Übergänge am Haaransatz und Artefakte bei schnellen Kopfbewegungen. Grundsätzlich gilt: Hinterfrage Videos, in denen bekannte Persönlichkeiten für Investments oder Produkte werben, vor allem wenn sie nur über soziale Medien verbreitet werden.



