Wie KI uns betrügt – und wir es nicht merken

Klartext digital

Autor: Michael Bätscher

Vertraute Stimmen, gefälschte Absichten

“Mama, ich habe ein neues Handy. Kannst du mir schnell Geld überweisen?” – eine WhatsApp-Nachricht, die vielen vertraut vorkommt. Doch die Stimme auf der Sprachnachricht, so echt sie klingt, gehört nicht dem eigenen Kind. Sie stammt aus einem KI-System, das gezielt betrügt. Willkommen in der nächsten Evolutionsstufe des Social Engineering.

KI-Betrug ist nicht Zukunftsmusik. Er ist Gegenwart. Immer mehr Menschen berichten von Fällen, in denen Kriminelle sich mit Hilfe künstlicher Intelligenz das Vertrauen ihrer Opfer erschleichen: mit gefälschten Stimmen, Texten oder Bildern. Die Masche ist perfide, weil sie unsere menschlichen Stärken ausnutzt: Vertrauen, Hilfsbereitschaft, Routine.

Wie KI täuscht – subtil und präzise

Moderne Sprachmodelle können Stimmen mit wenigen Sekunden Originalton imitieren. Deepfake-Videos lassen Politiker scheinbar Dinge sagen, die sie nie gesagt haben. Texte, Mails und Chatverläufe sind kaum noch als Fälschung zu erkennen. Der Unterschied zum “alten Phishing”: Die Inhalte sind emotional, individuell, glaubwürdig.

Die Täter nutzen öffentlich verfügbare Informationen aus sozialen Netzwerken, öffentlichen Registern oder Datenleaks, um ihre KI-Modelle zu füttern. Wer oft online ist, lässt – meist unbewusst – genug Spuren für eine glaubhafte Simulation.

Wer ist betroffen?

Kurz gesagt: jeder.

Privatpersonen erhalten Anrufe von vermeintlichen Verwandten in Not. Unternehmen werden durch gefälschte Chefstimmen zur Geldüberweisung verleitet. Kundenservicechats werden durch KI-Bots simuliert, die Passwörter oder Kontodaten abgreifen. Und in sozialen Netzwerken erscheinen Kommentare oder Accounts, die nur noch schwer von echten Menschen zu unterscheiden sind.

Die Kombination aus Schnelligkeit, technischer Präzision und menschlicher Überforderung macht KI-Betrug so gefährlich. Viele merken nicht einmal, dass sie Opfer wurden – bis das Geld weg ist oder ihre Identität kompromittiert wurde.

Warum wir es nicht merken wollen

Ein Teil des Problems liegt in uns selbst: Wir wollen glauben. Wir vertrauen auf Stimmen, Gesichter, bekannte Schreibweisen. In Stresssituationen reagieren wir automatisch. Genau hier setzt KI an: Sie erzeugt bekannte Muster, auf die wir instinktiv reagieren. Die Täuschung geschieht nicht nur äußerlich, sondern auch psychologisch.

Hinzu kommt: Die Technik ist faszinierend. Viele nutzen Sprach-KI und Bildgeneratoren selbst, oft spielerisch. Dass dieselbe Technologie missbraucht werden kann, verdrängen wir gern. Doch mit jeder Verbesserung steigt auch das Missbrauchspotenzial.

Digitale Intuition entwickeln

Was hilft, ist kein Generalverdacht gegen alles Digitale – sondern eine neue Form von Aufmerksamkeit: digitale Intuition. Wir müssen lernen, auch das Echte zu hinterfragen. Stimmen rückverifizieren. Texte querlesen. Links kontrollieren. Und: Misstrauen zulassen, wo vorher Vertrauen war.

Unternehmen brauchen klare Prozesse, um Anweisungen über digitale Kanäle abzusichern. Privatpersonen müssen sich trauen, im Zweifel “nein” zu sagen oder nachzufragen – selbst, wenn es das eigene Kind zu sein scheint.

Die größte Gefahr ist nicht die KI. Es ist unser Glaube, dass wir sie erkennen würden.


Ratgeber

Was ist KI-Betrug?

  • Missbrauch künstlicher Intelligenz, um Stimmen, Bilder oder Texte zu fälschen
  • Ziel: Vertrauen erschleichen, Geld erbeuten, Identitäten kapern

Beispiele für KI-Betrug

  • WhatsApp mit gefälschter Stimme von Kind oder Enkel
  • Deepfake-Videos von Politikern, Prominenten oder Vorgesetzten
  • Falsche Kundenservice-Chats, um Passwörter zu stehlen
  • Mails oder Sprachnachrichten mit gefälschtem Absender

Woran erkenne ich KI-Täuschung?

  • Ungewöhnliche Wortwahl oder Satzstellung
  • Zeitdruck oder emotionale Dringlichkeit
  • Starke Ähnlichkeit, aber kleine Unstimmigkeiten in Stimme oder Bild
  • Absenderadresse oder Telefonnummer unbekannt oder leicht abgewandelt

Was kann ich tun?

  • Bei Zweifeln: immer rückfragen über bekannten Kanal
  • Keine sensiblen Daten per Chat, Mail oder Telefon übermitteln
  • Zwei-Faktor-Authentifizierung aktivieren
  • Zahlungsanweisungen intern immer gegenprüfen
  • Gespräche dokumentieren und auffällige Inhalte melden

Wie kann ich mich schützen?

  • Weniger öffentlich preisgeben: Social-Media-Profile überprüfen
  • Über KI-Technologie aufklären (in Familie & Unternehmen)
  • Technik nicht blind vertrauen, sondern bewusst einsetzen
  • Eigene “digitale Intuition” schulen

Quellen

  • BSI-Lagebericht 2024/25: “Deepfakes und KI-basierter Betrug im Aufwind”
  • Heise online, Februar 2025: “CEO-Fraud mit KI: Die Stimme des Chefs kam aus der Cloud”
  • Verbraucherzentrale.de: Artikelserie zu KI-Betrug und Fake-Shops
  • ENISA Threat Landscape 2025: “AI-driven social engineering on the rise”

Hinweis: Dieser Artikel ersetzt keine rechtliche Beratung. Bei Betrugsverdacht wenden Sie sich an Polizei oder Verbraucherzentrale.