Betrug mit KI und Avataren
Wie Kriminelle Deep Fake-Techniken einsetzen
Auch Betrüger nutzen Avatare für ihre Zwecke
© Shutterstock/Rifrazione_foto
Dank künstlicher Intelligenz kann jeder die Stimme einer anderen Person ziemlich perfekt imitieren und sie Sätze nach seinem Willen sprechen lassen. Das nennt man ein „Deep Fake“-Audio. So etwas funktioniert auch mit Videos. Man benötigt nur die geeigneten Programme und genügend Video- oder Audio-Originalmaterial. Je preiswerter die Programme werden, desto interessanter werden sie auch für Kriminelle.
Die ersten Deep Fake-Videos wurden im Jahr 2017 auf der Socialmedia-Plattform Reddit gezeigt. Dort präsentierte ein Nutzer verfälschte Videosequenzen berühmter Schauspielerinnen. Den von ihm selbst programmierten Algorithmus stellte er als Open-Source-Code zur Verfügung. Das ermöglichte es Anderen, mit dieser Anleitung eigene Deep Fakes zu erstellen. Seitdem hat sich die Technik enorm weiterentwickelt. Heute werben virtuelle Influencer, die auf dem Bildschirm wie echte Menschen agieren, im Internet für Marken und generieren Follower. Und die Band ABBA ging bei ihrer virtuellen Wiedervereinigung nicht mehr persönlich, sondern nur noch mit ihren Avataren auf Tournee. Doch diese KI-Technik beflügelt nicht nur die Unterhaltungsindustrie, sondern sie ruft auch Betrüger auf den Plan.
Avatar berät zu Fake-Reiseangeboten
Zwei Beispiele für den Betrug mit Audio- und Video-Deep Fakes wurden in letzter Zeit publik. Der erste Fall kam aus der Reisebranche: Kriminelle hatten eine Internet-Seite der Fake-Firma „Kofi Reisen“ online gestellt. Zur Kontaktanbahnung schickten die Betrüger den Kunden unaufgeforderte WhatsApp, in denen dann auf das Angebot preiswerter Reisen verwiesen wurde. Auf der Startseite beriet eine sympathisch aussehende junge Frau interessierte Kundinnen und Kunden im Videochat zu den Schnäppchenangeboten. Sie war ein täuschend echter Avatar, der von den Betrügern in Echtzeit wie eine Handpuppe gesteuert wurde. So verschleierten die Täter ihre wahre Identität. Die Nutzungsrechte für den Avatar „Emma“ hatten die Kriminellen für wenig Geld bei einem britischen Start-Up eingekauft. Solche Avatare werden normalerweise dafür eingesetzt, um etwa Schulungsprogramme oder Erklärvideos interessanter zu gestalten. Die digitalen Zwillinge basieren auf dem Aussehen echter Menschen und sprechen zahlreich Sprachen. Die betrügerische Reisewebsite ist längst offline. Aber viele Menschen haben nicht zuletzt wegen des sympathischen Avatars Emma und ihrer „persönlichen Beratung“ zu den angeblichen Schnäppchen-Reisen Geld an „Kofi Reisen“ überwiesen, für das sie nie eine Gegenleistung erhalten. Zum zweiten Anwendungsfall sind offensichtlich noch keine Opfer bekannt, aber das dürfte nur eine Frage der Zeit sein. Er betrifft den Enkeltrick: Beim herkömmlichen Enkeltrick rufen Kriminelle bei älteren Menschen an und geben sich als ein Enkelkind aus, das in einer Notlage ist und dringend Geld benötigt. Bislang müssen die Täter darauf hoffen, dass die Opfer die Stimmen ihrer Enkel nicht besonders genau in Erinnerung haben. „Bei KI-basierten Stimmen fällt es dem Bürger sehr, sehr schwer, diesen Unterschied überhaupt noch zu erkennen“, sagte Hans Hülsbeck vom LKA NRW kürzlich bei „WDR Aktuell“: „Das kann also ganz einfach sein im Bereich des Enkeltricks, den wir kennen, dass jetzt die Stimme der Enkelin oder des Enkels KI-basiert nachgemacht wird.“ Die Voraussetzung ist natürlich, dass die Betrüger über Audio-Aufzeichnungen von der Stimme des Enkels oder der Enkelin verfügen, mit denen sie die KI füttern können.
Artificial Intelligence (Künstlichen Intelligenz) stellt unser Vertrauen in die eigene Wahrnehmung in Frage
© Shutterstock/SuPatMaN
Mit der Fake-Stimme die Hausbank ausgetrickst
Die passenden Programme, um eine Stimme täuschend echt nachzumachen, sind über das Internet inzwischen preiswert erhältlich. Und sie führen zum Erfolg. Die „Wall Street Journal“-Reporterin Joanna Stern probierte zunächst aus, ob ihre Kollegen und ihre Familie auf ihre Fake-Stimme hereinfallen würden, berichtet das Magazin „Capital“. Ihr Fazit: Je kürzer die Fake-Stimme zu hören war, desto eher gelang es ihr, die Menschen aus ihrem Umfeld zu täuschen. Mulmig wurde ihr, als es ihr gelang, mit ihrer eigenen Deep-Fake-Stimme die automatische Stimmenerkennung bei der Kreditkartenverifizierung ihrer Bank auszutricksen. Sie verband die Reporterin direkt mit einer Service-Mitarbeiterin, ohne weitere Fragen zu stellen. Audio-Deepfakes sind also aktuell noch eine größere Bedrohung als Video-Deepfakes wie im Fall des fiktiven Reiseunternehmens „Kofi Reisen“. Denn die Video-Deep Fakes sind noch nicht perfekt. Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake-Video handelt. Besonders bei den Übergängen wie zum Beispiel zwischen Gesicht und Haaren oder Gesicht und Hals sind Deep Fakes heute noch oftmals unscharf. Außerdem blinzeln Menschen ganz automatisch alle paar Sekunden. Fällt dies weg, kann es sich um ein Deep Fake-Video handeln.
WL (25.08.2023)
Kurztipps
So schützen Sie sich vor falschen Handwerkern:
So sollten Sie sich in Bezug auf Vorsorge- oder Bankvollmachten...
Darauf sollten Sie achten, wenn Sie Ihren nächsten Urlaub mit dem...
Das sollten Sie beachten, um bei der Wohnungssuche im Internet...
So schützen Sie sich im Urlaub vor Trickbetrügern und anderen Ganoven.
Darauf sollten Sie achten, um am Telefon nicht auf Betrüger...
Darauf sollten Sie achten, wenn Sie ein dauerhaftes...
Ob Karneval, Fasching oder Fastnacht – darauf sollten Sie achten.
So können Sie sich vor Taschendiebstahl schützen.
So verhindern Sie, dass der Einkauf nicht mit Frust endet.
So können Sie das Risiko für einen Pkw-Diebstahl deutlich reduzieren.
So erschweren Sie Fahrraddieben ihr Vorhaben.
Taschendiebe sind flink und einfallsreich – und meist schon längst...
Weitere Infos zum Thema Diebstahl / Betrug
Geschäfte mit der Armut
Gerade in Krisenzeiten versuchen Kriminelle immer wieder, die...[mehr erfahren]
Präventionstheater für Seniorinnen und Senioren
Ob der klassische Enkeltrick oder der falsche Handwerker: Seniorinnen...[mehr erfahren]
Per Einbruch zum Pkw-Schlüssel
Mit Beginn der dunklen Jahreszeit steigen erfahrungsgemäß auch wieder...[mehr erfahren]
Polizei und Verbraucherschutz warnen vor Fake-Shops
Angesichts der extrem gestiegenen Preise für Öl und Gas setzen viele...[mehr erfahren]
Die Online-Datenbank Securius des BKA
Wenn die Polizei eine Diebesbande fasst oder Hausdurchsuchungen bei...[mehr erfahren]
Aktivitäten
Service
Präventionsvideos
"Ein Bild sagt mehr als tausend Worte". Und gerade mit bewegten Bildern werden wir alle viel leichter erreicht als mit nüchternen Informationsmaterialien, die nur den Verstand ansprechen. Hier finden Sie die Präventionsvideos.
Schützen Sie Ihre Immobilie gegen Einbruch!
Erklärung einschlägiger Präventions-Begriffe
Beliebte Artikel zum Thema Diebstahl / Betrug
Vertrauen ist gut, Kontrolle ist besser
Wer viel im Internet einkauft, kann bei seinen Zahlungen und...[mehr erfahren]
Hilfe bei gestohlenen Fahrrädern
Laut der Polizeilichen Kriminalstatistik sind die Fahrraddiebstähle...[mehr erfahren]
Lassen Sie sich nicht erpressen!
Nicht mehr ganz neu, aber immer noch aktuell: Als „Sextortion“ wird...[mehr erfahren]