Todesursache Datenvergiftung: Auch KI kann vergiftet werden (Allgemein)

H. Lamarr @, München, Samstag, 15.02.2025, 22:58 (vor 4 Tagen)

Mit einem 13-seitigen Dokument setzt eine Mobilfunk-Branchenorganisation den Fokus auf Herausforderungen und Lösungsansätze KI-gestützter Telekommunikation. Eines der Stichworte lautet Datenvergiftung.

Anomalieerkennung, automatisierte Bedrohungsabwehr und intelligentes Netzwerkmanagement zeigen die wachsende Rolle von KI in Mobilfunknetzen. Der Lohn der Mühe ist ein Plus an Effizienz. Mit KI in Netzwerken ergeben sich jedoch auch neue Angriffspunkte, z.B. durch Datenvergiftung. Was zum Teufel ist das nun wieder?! Schlaumeier ChatGPT weiß, worum es geht.

Datenvergiftung (engl. Data Poisoning) bezeichnet eine Art von Angriff auf maschinelles Lernen oder KI-Modelle, bei dem absichtlich manipulierte oder falsche Daten in den Trainingsdatensatz eingefügt werden. Dadurch soll das Modell fehlerhafte oder verzerrte Ergebnisse liefern.

Arten der Datenvergiftung

1. Backdoor-Angriff
- Das Modell wird so manipuliert, dass es bestimmte Eingaben mit einer gewünschten (falschen) Ausgabe verknüpft.
- Beispiel: Ein Bilderkennungsmodell wird darauf trainiert, ein bestimmtes Symbol (z.B. ein kleines Zeichen in einer Ecke) immer als „harmlos“ zu klassifizieren, selbst wenn das Bild eigentlich eine Bedrohung zeigt.

2. Label Poisoning (Etiketten-Manipulation)
- Trainingsdaten werden mit falschen Labels versehen.
- Beispiel: In einem Spam-Filter werden echte Spam-Mails als „nicht Spam“ gelabelt, wodurch der Filter unwirksam wird.

3. Feature Poisoning
- Einzelne Merkmale (Features) der Trainingsdaten werden so verändert, dass sie das Modell in eine falsche Richtung lenken.
- Beispiel: Ein Modell für Kreditwürdigkeitsprüfung wird mit gefälschten Daten so trainiert, dass es risikoreiche Kunden als kreditwürdig einstuft.

4. Availability-Angriff
- Ziel ist es, das Modell komplett unbrauchbar zu machen, indem extrem viele fehlerhafte Daten eingefügt werden.
- Beispiel: Eine Gesichtserkennungs-KI wird mit tausenden falsch gelabelten Bildern gefüttert, sodass sie keine sinnvollen Vorhersagen mehr treffen kann.

Folgen von Datenvergiftung

- Verzerrte oder falsche Vorhersagen
- Sicherheitsrisiken, z. B. bei autonomen Fahrzeugen oder Medizinsystemen
- Vertrauensverlust in KI-Modelle
- Manipulation durch Kriminelle oder konkurrierende Akteure

Schutzmaßnahmen gegen Datenvergiftung

- Strenge Datenvalidierung und Überprüfung der Quellen
- Erkennung von Anomalien in den Trainingsdaten
- Robuste Lernalgorithmen, die weniger anfällig für vergiftete Daten sind
- Nutzung von adversarial Training (Schulung des Modells gegen solche Angriffe)

Datenvergiftung ist besonders problematisch in sensiblen Bereichen wie Cybersicherheit, Gesundheitswesen und Finanzwesen, da dort fehlerhafte Vorhersagen große Schäden verursachen können.

--
Jedes komplexe Problem hat eine Lösung, die einfach, naheliegend, plausibel – und falsch ist.
– Frei nach Henry Louis Mencken (1880–1956) –

RSS-Feed dieser Diskussion

powered by my little forum