Zum Hauptinhalt springen

Deepfakes erkennen: Wenn KI Gesichter und Stimmen fälscht

Im digitalen Alltag verschwimmen die Grenzen zwischen Echtem und Künstlichem immer stärker. Was früher nur große Filmstudios leisten konnten, ist heute mit wenigen Klicks möglich: Deepfakes lassen Menschen Dinge sagen oder tun, die sie nie gesagt oder getan haben. Die dafür genutzte künstliche Intelligenz (KI) kann Gesichter austauschen, Lippen synchron zu einem anderen Text bewegen oder Stimmen so realistisch nachbilden, dass selbst automatisierte Sprechererkennungen getäuscht werden. Wir zeigen, wie Deepfakes funktionieren, warum Stimmreplika gefährlich sind und wie gefälschte Videos und Audios entlarvt werden können, um ein sicheres Surferlebnis in Oberösterreich und darüber hinaus zu ermöglichen.

Was ist ein Deepfake?

Der Begriff setzt sich aus „deep learning“ (tiefes Lernen) und „fake“ (Fälschung) zusammen. Dabei werden neuronale Netze mit vielen Fotos, Videos oder Audioaufnahmen trainiert, um täuschend echte Manipulationen zu erzeugen.

  • Bei Face‑Swapping‑Videos wird das Gesicht einer Person in das einer anderen eingesetzt. Dabei versucht das Modell, Mimik, Beleuchtung und Blickrichtung originalgetreu zu übertragen.
  • Face Reenactment geht noch einen Schritt weiter: Hier werden Kopf- und Lippenbewegungen einer Zielperson komplett kontrolliert, sodass sie scheinbar neue Aussagen macht.
  • Auch synthetische Identitäten entstehen, wenn die KI völlig neue Gesichter generiert, die in der Realität nicht existieren.
  • Im Audiobereich unterscheidet man zwischen Text‑to‑Speech (TTS), bei dem aus einem vorgegebenen Text eine Stimme mit den Eigenschaften einer Zielperson generiert wird, und Voice Conversion, bei der ein vorliegendes Audiosignal in die Stimme einer anderen Person umgewandelt wird. Beide Verfahren benötigen qualitativ hochwertige Tonaufnahmen als Trainingsmaterial.
  • Darüber hinaus können KI‑Modelle heute auch ganze Texte im Stil einer Person erzeugen. Ein Trend, der Social Bots noch raffinierter machen könnte.

Deepfake-Pornografie und Deep Nudes

Deepfake-Pornografie ist ein problematischer Sonderfall von Deepfakes. Hierbei werden künstlich erstellte Videos verwendet, um Personen ohne deren Zustimmung in pornografische Szenarien zu setzen. Dazu zählen auch Face Swaps, bei denen die Gesichter von Menschen auf Körper von Darsteller*innen pornografischer Inhalte montiert werden. 

Bei sogenannten Deep Nudes wiederum handelt es sich um digital manipulierte Fotos, bei denen die betroffene Person so verändert wird, dass sie nackt erscheint, obwohl das Originalbild nichts dergleichen zeigt.

Das Ziel der Methoden ist es, das Vertrauen der Opfer zu missbrauchen und ihre Privatsphäre zu verletzen. Diese Praktiken gehen häufig mit Erpressungsversuchen und Bloßstellungen in den sozialen Medien einher. Neben der massiven Verletzung der Privatsphäre kann dieses Vorgehen psychische und gesellschaftliche Schäden für die Opfer nach sich ziehen.

Was sind Social Bots?

Social Bots sind automatisierte Programme, die sich in sozialen Netzwerken als echte Menschen ausgeben. Sie können Nachrichten posten, kommentieren, liken oder sogar ganze Diskussionen steuern, oft so glaubwürdig, dass sie für reale Nutzer*innen nicht sofort erkennbar sind.

Moderne Bots nutzen KIs, um Texte im Stil einer bestimmten Person zu formulieren, Emotionen zu imitieren oder Fake-Profile mit Bildern und Biografien zu erstellen. Dadurch wirken sie authentisch und vertrauenswürdig.

Gefahren, die von Social Bots ausgehen

Problematisch werden automatisierte Programme in sozialen Netzwerken, die sich als echte Menschen ausgeben, wenn sie:

  • Falschinformationen verbreiten.
  • Deepfakes verstärken und teilen.
  • Menschen manipulieren oder zu Handlungen verleiten.
  • Vertrauen in öffentliche Debatten oder Institutionen untergraben.
  • auf Dating-Plattformen, Marketplace-Seiten oder in Communities als „echte Personen“ auftreten.

In Kombination mit Deepfakes und KI-Stimmreplika entsteht ein Mix, der besonders schwer zu entlarven ist. Deshalb ist es wichtig, Online-Profile kritisch zu hinterfragen, etwa auf unrealistische Aktivitäten, unnatürlich viele Beiträge in kurzer Zeit oder fehlende persönliche Interaktionen.

Wie entstehen Deepfakes, Voice Clones und AI Voices?

Um einen überzeugenden Deepfake zu erzeugen, braucht es vor allem Daten und Rechenleistung. Die KI analysiert hunderte oder tausende Beispiele einer Person, um deren individuelle Merkmale zu lernen:

  1. Training: Die Algorithmen werden mit vielen Videos oder Audios der Zielperson gefüttert. Bei Face‑Swapping‑Modellen reichen inzwischen wenige Minuten Videomaterial, sofern verschiedene Blickwinkel und Mimik vorhanden sind. Für hochwertige Voice Clones, die auch Stimmreplika oder AI Voices genannt werden, sind mehrere Stunden Audio‑Material ideal. Es gibt jedoch neuere Modelle, die bereits nach wenigen Minuten täuschend echte Ergebnisse liefern.
  2. Synthese: Nach dem Training können die Modelle Gesichter oder Stimmen mit neuen Inhalten kombinieren. Beim Face‑Swapping wird das Gesicht über das von „Darsteller*innen“ gelegt. Hingegen werden bei Voice Conversions Sätze, die jemand spricht, in der Stimme einer anderen Person wiedergegeben.
  3. Post‑Processing: Um die Fälschungen glaubwürdig zu machen, werden Übergänge geglättet und Tonspuren angepasst. Bei realzeitfähigen Tools funktioniert das mittlerweile sogar live.
     

Die benötigte Technik wird immer zugänglicher: Es gibt Apps, mit denen Laien Gesichter in Videos austauschen können, sowie Online‑Plattformen, die aus kurzen Sprachproben täuschend echte Stimmen erzeugen. Gleichzeitig arbeiten Forscher*innen an Tools, mit denen auch Texte im Stil einer Person erstellt werden können – eine Weiterentwicklung, die Social‑Bot‑Profile noch schwerer erkennbar macht.

Warum sind Deepfakes und Voice Clones gefährlich?

Fälschungen dieser Art können erhebliche Schäden anrichten, weil sie Vertrauen ausnutzen. Gemäß Meldungen des Bundesministeriums für Inneres wird vor einer neuen Deepfake-Masche gewarnt, während in einem Artikel von itwelt.at allgemein darauf aufmerksam gemacht wird, dass Deepfake-Inhalte im Jahr 2025 zwar stark zugenommen haben, jedoch auch das Bewusstsein dafür mitwächst. Um das zu verdeutlichen, sind nachfolgend einige Bedrohungsszenarien aufgelistet:

  • Social Engineering und Betrug: Kriminelle nutzen Stimmenimitate, um am Telefon Geld zu ergaunern. In einem Fall erstellten Betrüger*innen 2024 eine Stimmreplikat des CEO des Werberiesen WPP, verwendeten öffentlich verfügbares Videomaterial und baten in einem virtuellen Meeting um finanzielle und personenbezogene Informationen. Die Masche wurde rechtzeitig erkannt, doch sie zeigt, wie raffinierte Angriffe heute aussehen.
  • CEO‑Fraud und Finanzbetrug: Bei sogenannten „Vishing“-Angriffen (bezeichnet Betrugsversuche über Telefonanrufe, bei denen Kriminelle versuchen, sensible Daten wie Passwörter, Kreditkarteninformationen oder persönliche Angaben zu erschleichen.) rufen vermeintliche Führungskräfte oder Familienmitglieder mit perfekter Stimmkopie an, um hohe Geldsummen zu erbeuten. Schon 2019 erzeugte ein Deepfake‑Anruf mehrere hunderttausend Euro Schaden in einem Unternehmen.
  • Politische Desinformation: Gefälschte Videos oder Audios können das Meinungsbild beeinflussen, Wahlen manipulieren oder öffentliche Debatten verzerren. Laut dem Bundesministerium für Inneres (BMI) können Deepfakes gezielt zur Verbreitung von Desinformation eingesetzt werden und dadurch demokratische Prozesse gefährden.
  • Identitätsdiebstahl und Rufschädigung: Personen werden in kompromittierenden Situationen dargestellt oder in fiktive Skandale verwickelt. Auch Deepfake‑Pornografie ist ein wachsendes Problem.
  • Biometrische Systeme umgehen: Echtzeitfähige Deepfakes können Sicherheitskontrollen austricksen, etwa bei Stimmerkennung am Telefon.

Deepfakes frühzeitig erkennen

So überzeugend viele Deepfakes wirken: Es gibt Anzeichen, die misstrauisch machen sollten. Wichtig ist vor allem, Inhalte kritisch zu hinterfragen und Quellen zu überprüfen. Folgende Hinweise und Tool-Tipps können beim Erkennen von Deepfakes helfen:

Tipps zum Erkennen von Deepfake-Videos

  • Übergänge und Konturen: Unnatürliche Übergänge am Gesicht, doppelte Augenbrauen oder verwaschene Zähne können Hinweise sein.
  • Beleuchtung und Mimik: Bewegungen wirken manchmal hölzern, Kopf- oder Augenbewegungen passen nicht zum Kontext.
  • Blinzeln: Forscher*innen haben herausgefunden, dass in Deepfakes dargestellte Personen oft zu selten blinzeln.
  • Lippensynchronität: Lippenbewegungen und gesprochener Text stimmen nicht exakt überein.

Tool-Tipp: Beim Deepfake-O-Meter handelt es sich um ein Open-Source-Tool, welches dabei hilft, unterschiedliche Deepfake-Inhalte aufzudecken.

Tipps zum Erkennen von Voice Clones und AI Voices

  • Metallischer Klang: Viele künstliche Stimmen klingen leicht metallisch.
  • Betonung und Aussprache: Falsche Betonungen, monotone Sprachmelodie oder Fehler bei Fremdwörtern deuten auf einen TTS‑Prozess hin.
  • Verzögerungen und Stille: Manche Tools benötigen Zeit für die Verarbeitung der Informationen, weshalb ungewöhnlich lange Pausen ein Indiz sein können.

Tool-Tipp: Das vom Frauenhofer-Institut bereitgestellte Tool hilft beim Entlarven von Audio-Fakes.

Allgemeine Sicherheitsmaßnahmen

  • Quellen vergleichen: Wenn ein Video oder eine Audioaufnahme spektakulär wirkt, ist die Suche nach unabhängigen Quellen empfehlenswert. Renommierte Medien berichten meist schnell über echte Skandale.
  • Gesunden Menschenverstand nutzen: Immer Logik und Kontext hinterfragen. Warum sollte eine bekannte Persönlichkeit eine bestimmte Aussage machen?
  • KI‑Detektoren einsetzen: Es gibt Programme, die Deepfakes erkennen können. Diese liefern jedoch keine hundertprozentige Sicherheit.

Tool-Tipp: Auf der Webseite Originality.ai lassen sich Texte überprüfen, inwieweit diese mithilfe von künstlicher Intelligenz geschrieben wurden.

Fiktives Deepfake-Beispiel: Gefälschte Aussage einer Politikerin vor einer Wahl

Ein Deepfake-Video zeigt eine österreichische Politikerin, wie sie kurz vor einer Wahl angeblich drastische Maßnahmen ankündigt, etwa neue Gebühren oder die Kürzung von Förderungen. Das manipulierte Video verbreitet sich in sozialen Netzwerken rasant, weil es emotionalisiert und professionell aussieht. Viele Nutzer*innen erkennen nicht, dass

  • die Lippenbewegungen minimal unnatürlich wirken,
  • die Beleuchtung nicht zur Szene passt,
  • und das Video von keiner seriösen Quelle geteilt wird.

Solche Fälschungen können die öffentliche Meinung beeinflussen oder Unsicherheit erzeugen, genau vor solchen Szenarien warnt das österreichische Bundesministerium für Inneres (BMI).

  • Sensibilisieren und schulen: Unternehmen sollten Mitarbeitende im Umgang mit KI‑Manipulationen schulen. Dies gilt ebenso für Jugendliche, denen im Rahmen ihrer Medienkompetenz die Fähigkeit vermittelt werden sollte, mit Deepfakes umzugehen. Mehr Medienkompetenz gibt es bei G’scheit digital
     

Anleitung: Das richtige Verhalten bei Deepfakes

Wer das Gefühl hat, mit schadhaften Deepfakes konfrontiert zu sein, sollte zunächst Ruhe bewahren. Die nachfolgende Anleitung hilft beim Umgang mit solchen Inhalten.

  1. Keine voreiligen Schlüsse ziehen: Die Inhalte sollten nicht sofort geteilt oder kommentiert werden.
  2. Nachfragen: Die vermeintliche Person sollte über einen alternativen Kanal darüber informiert werden. Bei Firmenanrufen den Rückruf über bekannte Nummern wählen.
  3. Dokumentieren: Screenshots oder Notizen können später dabei helfen, die genaue Sachlage zu ermitteln, falls es sich um Betrug handelt und eine Anzeige erstattet wird.
  4. Melden: Verdächtige Inhalte sollten bei der jeweiligen Plattform oder, im Falle von Straftaten, bei Behörden gemeldet werden.

Fazit: Wachsam bleiben und KI verantwortungsvoll nutzen

Deepfakes und Stimmreplika zeigen eindrucksvoll, was KI heute leisten kann – und das im Positiven wie im Negativen. Sie ermöglichen kreative Anwendungen in Film, Werbung und Unterhaltung, bergen aber auch erhebliche Risiken für unsere digitale Sicherheit.

Damit digitale Manipulationen eingedämmt werden, braucht es neue Regelungen: Einige Länder gehen bereits voran. Laut eines Artikels im Standard diskutiert Dänemark derzeit beispielsweise ein „Copyright auf das eigene Aussehen, die eigene Stimme und den eigenen Körper“, damit Betroffene bei Deepfake-Missbrauch Schadenersatz geltend machen können. Auch auf europäischer Ebene wird verstärkt über Kennzeichnungspflichten für KI-generiertes Material gesprochen. Dabei handelt es sich um einen wichtigen Schritt, um Transparenz zu schaffen und Desinformation zu reduzieren.

Indem wir Inhalte kritisch prüfen, auf Warnsignale achten und uns über aktuelle Angriffsstrategien informieren, können wir uns schützen. Gleichzeitig sind Unternehmen und Politik gefordert, rechtliche Rahmenbedingungen zu schaffen und Techniken zur Fälschungserkennung zu fördern.

Bei LIWEST setzen wir uns für ein sicheres und souveränes Internet in Österreich ein. Mit unseren Glasfaser‑Produkten surfen Sie nicht nur schnell und zuverlässig, sondern dank laufender Sicherheits‑Updates auch auf dem neuesten Stand der Technik. Bleiben Sie wachsam und lassen Sie sich nicht täuschen!

Häufig gestellte Fragen zu Deepfakes

Warum werden Deepfakes gemacht?

Oftmals dienen sie der Unterhaltung, etwa durch die Erstellung humorvoller Videos. In anderen Fällen werden sie für betrügerische Zwecke eingesetzt wie beim Phishing oder zur Verbreitung von Falschinformationen. Besonders problematisch sind Deepfakes, die ohne Einwilligung der betroffenen Personen erstellt werden, wie etwa Deepfake-Pornografie oder Deep Nudes. Im kriminellen Kontext ist es meist das Ziel, die Opfer zu erpressen, öffentlich bloßzustellen oder politische Meinungen zu manipulieren.

Welche typischen Merkmale weisen auf ein Deepfake hin?

Da die Ergebnisse immer besser werden, ist mittlerweile ein sehr geschultes Auge erforderlich, um einen Deepfake zu identifizieren. Typische Merkmale sind unnatürliche Bewegungen im Gesicht, insbesondere auf Höhe der Augen- und Mundpartie. Ein weiterer Anhaltspunkt können unscharfe Bereiche bei Übergängen sein. Darüber hinaus können ungleichmäßige Lichtverhältnisse oder Schatten im Gesicht sowie eine unnatürliche Hauttextur Hinweise auf ein Deepfake sein.

Was kann ich persönlich tun, um mich vor Deepfakes zu schützen?

Der erste Schritt sollte immer sein, die Herkunft von Inhalten zu hinterfragen – und das nicht nur bei eventuellen Deepfakes. Eine gesunde Skepsis ist bereits ein guter Filter, um sich vor möglichen gefälschten Videos, Bildern oder Texten zu schützen. Darüber hinaus können Sie Tools oder Software zur Deepfake-Erkennung nutzen. Zudem ist es ratsam, regelmäßig die eigenen Privatsphäre-Einstellungen in sozialen Medien zu überprüfen, um zu verhindern, dass unerwünschte Bilder oder Videos erstellt werden können.

Zukunftssicheres Glasfaser-Internet sichern! 

Mehr erfahren!


Das könnte Sie auch interessieren:

Erstellt am 18.12.2025

Sicheres Passwort erstellen: 4 Tipps für den Alltag

Ein sicheres Passwort ist heute wichtiger denn je, denn Cyberangriffe verlaufen heutzutage zunehmend automatisiert und greifen dabei auf KI-Technologien zurück. Passwörter sind dabei oft die letzte Barriere zwischen persönlichen Daten und möglichen Betrugsversuchen. In diesem Blogbeitrag geht es um die Frage, warum starke Passwörter unverzichtbar sind, um Tipps zum Erstellen und um Tools zur…

Erstellt am 18.12.2025

Phishing-Attacken: 4 Tipps für einen wirksamen Schutz

Cyberkriminelle versuchen häufiger denn je, mithilfe von Phishing-Methoden an persönliche Informationen wie Passwörter oder Bankdaten zu gelangen. Ihre Arbeitsweisen werden dabei immer raffinierter: Neben klassischen E-Mail-Betrugsversuchen kommen heutzutage auch gefälschte QR-Codes, SMS-Nachrichten oder sogar KI-erstellte Stimmen und Videos zum Einsatz. Mit den nachfolgenden Tipps schützen Sie…

Aktualisiert am 29.04.2022

Doomscrolling: Bad News in Endlosschleife

Pandemie, Krieg, Naturkatastrophen und Klimakrise – wenn schlechte Nachrichten kein Ende mehr nehmen und wir uns den Schreckensberichten nicht mehr entziehen können, spricht man von Doomscrolling. Oft hat das negative Auswirkungen auf unsere Psyche.