Avast Kommentar
Wie inside-it.ch dazu berichtete kommentierte Ondrej Vlcek, CTO & EVP bei Avast:
"Die wachsende Anzahl von Open Source Frameworks für maschinelles Lernen, in Verbindung mit sinkenden Preisen für leistungsstarke Hardware, eröffnen Cyberkriminellen neue Möglichkeiten. Sie können jetzt auch maschinelle Lerntechnologien nutzen, um die ebenfalls auf selbstlernender Software basierenden Algorithmen der Sicherheitsfirmen zu überlisten"
"Wir gehen davon aus, dass Internetkriminelle künstliche Intelligenz so einsetzen werden, dass sie damit nicht nur Malware-Attacken, sondern auch ausgeklügelte Phishing-Kampagnen durchführen können."
Die Nutzungsvarianten von Machine Learning
Es sind zwei Varianten des Machine Learning, welche die Cyberkriminellen nutzen:
- Einerseits könnten sie die Technologie benützen, um die Effizienz von klassischen Angriffsvektoren wie Phishing-Mails, -Tweets usw. zu erhöhen.
- Andererseits könnten sie Machine Learning benützen, um ihrerseits gezielt Schwachstellen in Systemen zu finden, die selbst ebenfalls auf Machine Learning basieren.
Besonderheiten der Machine-Learning-Plattformen sind dabei sind:
- Sie haben ähnliche Schwächen wie menschliche Hirne: Sie haben "blinde Flecken" – sprich Muster, die sie schlicht nicht sehen können.
- Sie können "halluzinieren" – also Dinge sehen, die nicht vorhanden sind.
Attacken auf Malware-Erkennungssysteme
Ein logisches erstes Angriffsziel wären die heutzutage immer mehr auf Machine Learning basierenden Malware-Erkennungssysteme der Security-Anbieter.
Wenn Cyberkriminelle ein solches System in die Hände bekommen, so Avast, dann könnten sie es gezielt mit Malware-Mustern füttern um herauszufinden, wie hoch die Wahrscheinlichkeit ist, dass ein bestimmtes Muster erkannt wird. Darauf basierend könnten sie wiederum weitere Muster testen, um gezielt blinde Flecken zu finden.
Halluzinationen erzeugen
Machine Learning ist auch die Methode der Wahl, um Muster zu finden, die insbesondere Bilderkennungssysteme zum Halluzinieren zu bringen können. Security-Forscher haben dies in den letzten Monaten einige Male geschafft. Avast präsentiert ein Beispiel: Das Bild eines Pandas kann mit einem ganz spezifischen, dem normalen Bildrauschen ähnelnden Muster ergänzt werden, und wird dann vom Bilderkennungssystem fast immer als Gibbon identifiziert
Das „Vergiften“ der Daten
Eine weitere Methode um KI-Systeme anzugreifen, über die in letzter Zeit viel diskutiert wird, ist das "Vergiften" der Daten, mit denen die Systeme trainiert werden.
Man könnte einem System zur Malware-Erkennung beispielsweise zuerst viele saubere Files präsentieren, um es zu trainieren, diese als harmlos zu identifizieren. Danach wird es mit nur ganz leicht abgeänderten, aber nun bösartigen Files gefüttert, so dass auch diese als gutartig eingestuft werden. Avast glaubt, dass auch diese Methode des "Vergiftens" von KI-Systemen von Kriminellen schon dieses Jahr angewandt werden wird.
Weiterführende Links:
Avast Threat Landscape Report:2018 Predictions
inside-it.ch: Bald kommen KI-basierte Attacken