Zum Inhalt springen
Prototyp pruefen

Erkennungsgrenzen und Risiken

Jedes Erkennungssystem hat inhärente Grenzen. Superheld verfolgt einen transparenten Ansatz: Dieses Dokument beschreibt die technischen Limitierungen der Erkennungsarchitektur, deren Ursachen und die implementierten Mitigationen.


Jede heuristische Erkennung produziert False Positives — legitime Aktionen, die fälschlicherweise als Bedrohung klassifiziert werden.

SzenarioUrsacheAuswirkung
IT-Support-Anruf + AnyDesk-InstallationCompound-Signal interpretiert legitimen Remote-Support als BetrugBlockierte Fernwartung
Unbekannte App-InstallationNeue App ohne Store-Eintrag oder Cloud-ReputationFalsche Warnung bei Sideload
Homoglyph-ähnliche DomainLegitime Domain wird als Phishing-Domain klassifiziertBlockierter Zugriff auf echte Website
Langer Anruf + Banking-AppZeitliche Korrelation ohne kausale VerbindungUnnötige Warnung
  • Mehrstufige Erkennung — Ein einzelnes Signal löst keinen Block aus. Die Context Risk Engine korreliert mindestens zwei unabhängige Signale, bevor eine kritische Aktion ausgelöst wird.
  • Confidence-Schwellenwerte — Jede Erkennungsstufe hat konfigurierbare Schwellenwerte. Nur Signale oberhalb des Schwellenwerts werden an die nächste Stufe weitergeleitet.
  • Whitelist-Mechanismen — Administratoren können autorisierte Remote-Access-Tools, vertrauenswürdige Domains und bekannte Anwendungen auf eine Whitelist setzen.
  • Profil-basierte Policies — Experten-Profile erlauben mehr Handlungsspielraum, während Kind/Senior-Profile restriktiver sind.
  • Feedback-Schleife — Nutzer können False Positives melden. Diese Meldungen fließen in die Verbesserung der Erkennungsmodelle ein.

Current workspace note: Konkrete False-Positive-Raten werden hier bewusst nicht als bestaetigter oeffentlicher Runtime-Wert ausgewiesen.


2 · Datenschutz-Einschränkungen (Privacy Constraints)

Abschnitt betitelt „2 · Datenschutz-Einschränkungen (Privacy Constraints)“

Datenschutz limitiert die Erkennungsfähigkeit fundamental. Superheld verarbeitet so viel wie möglich lokal auf dem Gerät, was den Zugang zu globaler Bedrohungsintelligenz einschränkt.

EinschränkungUrsacheKonsequenz
Kein Zugriff auf Nachrichteninhalte (Klartext)Ende-zu-Ende-Verschlüsselung + DatenschutzPhishing-Erkennung in verschlüsselten Messengern eingeschränkt
Kein Zugriff auf AnrufinhalteKein Audio-MonitoringManipulation nur über Metadaten (Dauer, Muster) erkennbar
Eingeschränkte Cloud-DatenNur SHA-256-Hashes und anonymisierte Feature-Vektoren verlassen das GerätCloud kann nur bekannte Bedrohungen abgleichen
Kein Cross-Device-ProfilingKeine geräteübergreifende Korrelation ohne EinwilligungAngriffe über mehrere Geräte werden isoliert betrachtet
  • Lokale ML-Modelle — Stufe-1-Erkennung läuft vollständig on-device mit leichtgewichtigen ML-Modellen, die Muster in Metadaten erkennen, ohne Inhalte zu lesen.
  • Privacy-Preserving Cloud Enrichment — Nur kryptografische Hashes und anonymisierte Feature-Vektoren werden an die Cloud gesendet. Die Cloud sieht keine Klartextdaten. Siehe Datenflüsse.
  • Differential Privacy — Feature-Vektoren werden mit kalibrierten Rauschfunktionen versehen, bevor sie das Gerät verlassen.
  • Opt-in für erweiterte Erkennung — Nutzer können optional zusätzliche Datenfreigaben aktivieren, um die Erkennungsgenauigkeit zu erhöhen.

Current workspace note: Exakte Feature-Vektor-Transformationen und eventuelle Differential-Privacy-Parameter gehoeren aktuell nicht zum bestaetigten oeffentlichen Runtime-Vertrag.


3 · Plattform-Einschränkungen (Platform Limitations)

Abschnitt betitelt „3 · Plattform-Einschränkungen (Platform Limitations)“

Mobile Betriebssysteme (insbesondere iOS) beschränken den Zugriff auf System-APIs, die für eine vollständige Erkennung erforderlich wären.

PlattformEinschränkungAuswirkung
iOSKein Zugriff auf installierte Apps, keine Hintergrund-ProzessüberwachungApp-Monitoring stark eingeschränkt
iOSKeine Sideload-Erkennung (bis iOS 17.4 EU)Sideload-basierte Angriffe nicht erkennbar
iOSCallKit-API liefert nur eingehende Anrufer-ID, keine Anrufdauer in EchtzeitCompound-Signale mit Anruf-Kontext eingeschränkt
AndroidAb Android 14: eingeschränkter Zugriff auf nicht-eigene App-InstallationenApp-Monitoring teilweise eingeschränkt
WindowsUAC-Prompts können nicht programmatisch blockiert werdenMalware mit Admin-Rechten kann Schutz umgehen
macOSTCC (Transparency, Consent, and Control) erfordert explizite Benutzer-GenehmigungMonitoring erfordert manuelle Freigabe
LinuxFragmentierung (Distributionen, DE, Paketmanager)Konsistente Erkennung schwierig
  • Plattformspezifische Erkennungsstrategien — Jede Plattform nutzt die bestmöglichen verfügbaren APIs. Siehe Plattform-Fähigkeiten.
  • Kompensation durch Netzwerk-Analyse — Wo App-Monitoring eingeschränkt ist, kompensiert DNS-basierte Erkennung und Netzwerk-Metadaten-Analyse.
  • Transparente Fähigkeitsmatrix — Nutzer und Administratoren sehen, welche Schutzfunktionen auf welcher Plattform verfügbar sind.
  • OS-Update-Empfehlungen — Superheld empfiehlt aktiv, das Betriebssystem aktuell zu halten, da neuere Versionen oft erweiterte Sicherheits-APIs bieten.

Angreifer passen ihre Methoden kontinuierlich an Erkennungssysteme an.

Evasion-TechnikBeschreibungBetroffene Erkennung
Langsame EskalationAngreifer baut über Tage Vertrauen auf, statt sofort zu eskalierenZeitliche Korrelation (Compound-Signale)
Legitime ToolsNutzung von Standard-Software (z. B. PowerShell, curl) statt bekannter MalwareApp-Signatur-basierte Erkennung
Domain-RotationSchneller Wechsel von Phishing-Domains (< 24h Lebensdauer)Cloud-basierte Domain-Reputation
Deepfake-StimmenKI-generierte Stimmimitation von VertrauenspersonenAnrufer-ID und Rufnummer-basierte Erkennung
Offline-AngriffeSocial Engineering persönlich oder telefonisch ohne digitale SpurenAlle digitalen Erkennungsmechanismen
Verschlüsselte KanäleAngriff über verschlüsselte Messenger ohne MetadatenInhaltsbasierte Erkennung
  • Verhaltensbasierte Erkennung — Die Context Risk Engine analysiert Verhaltensmuster statt einzelner Indikatoren. Langsame Eskalation erhöht den Risk-Score über die Zeit.
  • Regelmäßige Modell-Updates — ML-Modelle werden kontinuierlich mit neuen Angriffsmustern trainiert und per OTA-Update ausgeliefert.
  • Community-Threat-Intelligence — Anonymisierte Bedrohungsdaten werden plattformweit aggregiert, um neue Angriffsmuster schneller zu erkennen.
  • Guardian-Netzwerk — Selbst wenn technische Erkennung versagt, bieten Vertrauenspersonen eine menschliche Schutzschicht. Siehe Guardian-Netzwerk.
  • Deepfake-Erkennung — Die aktuelle oeffentliche Dokumentation behandelt erweiterte audiobasierte Deepfake-Erkennung als Zielarchitektur. Der bestaetigte Workspace-Pfad bleibt metadaten- und verhaltensbasiert. Siehe Bedrohungsmodell.

Lokale Erkennung muss auf ressourcenbeschränkten Geräten laufen, ohne Akkulaufzeit und Nutzererfahrung zu beeinträchtigen.

ConstraintAuswirkung
Batterie-BudgetML-Inferenz und kontinuierliches Monitoring verbrauchen Energie
Speicher-LimitOn-Device-Modelle müssen kompakt bleiben (< 50 MB)
CPU-BudgetErkennung darf maximal 2–5 % CPU-Last im Hintergrund verursachen
Netzwerk-BandbreiteCloud Enrichment muss minimale Bandbreite nutzen
Cloud-SkalierungEnrichment-API muss Millionen gleichzeitiger Anfragen verarbeiten
  • Stufenweise Eskalation — Stufe 1 (lokale Heuristiken) ist extrem leichtgewichtig. Nur bei positivem Ergebnis wird das schwerere ML-Modell (Stufe 2) aktiviert. Nur bei weiterem positivem Ergebnis wird Cloud Enrichment (Stufe 3) kontaktiert. Siehe Erkennungspipeline.
  • Batch-Processing — Nicht-kritische Signale werden gebündelt verarbeitet, um CPU- und Netzwerk-Spitzen zu vermeiden.
  • Modell-Quantisierung — On-Device-ML-Modelle werden quantisiert (INT8/FP16), um Speicher und Rechenleistung zu reduzieren.
  • Adaptives Monitoring — Bei niedrigem Akkustand wird die Monitoring-Frequenz reduziert, wobei kritische Erkennungen (Compound-Signale) priorisiert werden.
  • Edge-Caching — Häufig abgefragte Cloud-Enrichment-Ergebnisse (z. B. Domain-Reputation) werden lokal gecacht, um redundante Anfragen zu vermeiden.

Current workspace note: Konkrete Batterieauswirkungen und Modellgroessen werden hier bewusst nicht als bestaetigte oeffentliche Runtime-Kennzahlen ausgewiesen.


LimitationSchweregradWahrscheinlichkeitMitigation-EffektivitätRestrisiko
False PositivesMittelHochHoch (Compound-Signale, Whitelists)Niedrig
Privacy ConstraintsHochSicher (by design)Mittel (lokale ML kompensiert teilweise)Mittel
iOS-EinschränkungenHochSicher (Plattform-Limit)Mittel (Netzwerk-Kompensation)Mittel
Android-EinschränkungenMittelMittelHoch (breiter API-Zugang)Niedrig
Desktop-EinschränkungenMittelMittelHoch (voller System-Zugang)Niedrig
Angreifer-EvasionHochHochMittel (Wettrüsten)Mittel–Hoch
Deepfake-StimmenHochSteigendNiedrig (in Entwicklung)Hoch
SkalierbarkeitMittelMittelHoch (stufenweise Erkennung)Niedrig

Superheld verfolgt das Prinzip der ehrlichen Erkennung:

  1. Keine übertriebenen Schutzversprechen — Die Dokumentation benennt explizit, was Superheld nicht erkennt
  2. Klare Abgrenzung — Superheld ist kein Virenscanner und kein EDR. Für diese Aufgaben werden dedizierte Lösungen empfohlen
  3. Offene Limitierungen — Plattform-Einschränkungen und Erkennungsgrenzen werden transparent kommuniziert
  4. Messbarer Schutz — Erkennungsraten und False-Positive-Raten werden intern fortlaufend evaluiert; oeffentliche Kennzahlen werden erst dann verlinkt, wenn dafuer eine stabile externe Referenz besteht.