Zum Inhalt springen
Prototyp pruefen

Deepfakes & Informationskompetenz

Deepfakes sind Foto-, Video- oder Audio-Inhalte, die mithilfe von KI absichtlich manipuliert werden, sodass Personen scheinbar Dinge tun oder sagen, die nie passiert sind. Die Technologie wird zunehmend zugänglich und die Ergebnisse immer schwerer zu erkennen.

  • Social Engineering: Gefälschte Sprach- oder Videonachrichten von vermeintlich bekannten Personen (z. B. “CEO Fraud”)
  • Identitätsbetrug: Deepfakes zur Umgehung von Video-Identifikation oder Sprachauthentifizierung
  • Desinformation: Manipulierte Medien zur Verbreitung von Falschinformationen
  • Persönlichkeitsrechtsverletzungen: Nicht-einvernehmliche Deepfake-Inhalte

Wenn etwas “zu krass” oder “zu gut” wirkt: innehalten und prüfen.

Wer ist der Absender oder die Website? Ist die Quelle seriös und bekannt?

Berichten mehrere unabhängige, seriöse Quellen darüber?

Suche mit Textausschnitten zusammen mit dem Stichwort “Faktencheck” (z. B. APA-Faktencheck, Mimikama, Correctiv).

Reverse Image Search nutzen (z. B. Google Bilder, TinEye). Wurde das Bild in einem anderen Kontext verwendet?

IndikatorWorauf achten
GesichtUnnatürliche Übergänge an Haaransatz, Ohren, Kinn
AugenUnregelmäßiges Blinzeln, unterschiedliche Pupillengröße
BeleuchtungInkonsistente Schatten oder Lichtreflexionen
AudioUnnatürliche Pausen, metallischer Klang, fehlende Umgebungsgeräusche
BewegungRuckartige Übergänge, insbesondere bei Kopfdrehungen
KontextPasst der Inhalt zur bekannten Position/Stimme der Person?

Superheld erkennt potenzielle Deepfakes durch Metadaten-Heuristik — nicht durch Analyse des Audio- oder Videoinhalts selbst:

  • Keine Aufnahme oder Transkription: Superheld greift nicht auf Gesprächsaudio zu
  • Metadaten-Analyse: Anruf-Metadaten (Rufnummern-Hash, Dauer, Häufigkeit, Tageszeit) und OS-Signale (z. B. gleichzeitige Remote-Access-Installation)
  • Kontext-Korrelation: Verdächtige Kombinationen (z. B. unbekannter Anruf + Banking-App + dringliche Aktion) erhöhen den Risiko-Score
  • Transparenz: Warnungen enthalten den Hinweis “KI-basierte Erkennung” mit Angabe der Erkennungsbasis

Der EU AI Act (Artikel 50) sieht vor, dass AI-generierte oder wesentlich manipulierte Bild-, Audio- oder Video-Inhalte als solche gekennzeichnet werden müssen. Superheld unterstützt dieses Ziel durch:

  • Transparente Kennzeichnung von KI-basierten Erkennungen
  • Hinweis auf die Möglichkeit von Falsch-Positiven und Falsch-Negativen
  • Empfehlung zur zusätzlichen manuellen Prüfung
  • Saferinternet.at: Materialien zu Informationskompetenz und Deepfakes
  • Mimikama: Faktencheck und Aufklärung zu Online-Betrug
  • APA-Faktencheck: Verifizierung von Nachrichten und Medieninhalten