Verschlüsselung & Datensicherheit

KI-basierte Attacken werden schon für 2018 prognostiziert

KI-basierte Attacken werden schon für 2018 prognostiziert
Machine-Learning-Systeme werden eingesetzt, um Machine-Learning-Systeme zu knacken.

Der Security-Anbieter Avast hat seinen „Threat Landscape Report 2018“ erstellt. Unter anderem wird darin prophezeit, dass noch in diesem Jahr mit den ersten KI-basierten Attacken gerechnet werden muss. Das zeigt, dass Cyberkriminelle immer auf der Höhe ihrer Aufgaben sind, um mittels neuester Technologien Angriffe durchzuführen.

Avast Kommentar

Wie inside-it.ch dazu berichtete kommentierte Ondrej Vlcek, CTO & EVP bei Avast:

"Die wachsende Anzahl von Open Source Frameworks für maschinelles Lernen, in Verbindung mit sinkenden Preisen für leistungsstarke Hardware, eröffnen Cyberkriminellen neue Möglichkeiten. Sie können jetzt auch maschinelle Lerntechnologien nutzen, um die ebenfalls auf selbstlernender Software basierenden Algorithmen der Sicherheitsfirmen zu überlisten"

"Wir gehen davon aus, dass Internetkriminelle künstliche Intelligenz so einsetzen werden, dass sie damit nicht nur Malware-Attacken, sondern auch ausgeklügelte Phishing-Kampagnen durchführen können."

Die Nutzungsvarianten von Machine Learning

Es sind zwei Varianten des Machine Learning, welche die Cyberkriminellen nutzen:

  • Einerseits könnten sie die Technologie benützen, um die Effizienz von klassischen Angriffsvektoren wie Phishing-Mails, -Tweets usw. zu erhöhen.
  • Andererseits könnten sie Machine Learning benützen, um ihrerseits gezielt Schwachstellen in Systemen zu finden, die selbst ebenfalls auf Machine Learning basieren.

Besonderheiten der Machine-Learning-Plattformen sind dabei sind:

  • Sie haben ähnliche Schwächen wie menschliche Hirne: Sie haben "blinde Flecken" – sprich Muster, die sie schlicht nicht sehen können.
  • Sie können "halluzinieren" – also Dinge sehen, die nicht vorhanden sind.

Attacken auf Malware-Erkennungssysteme

Ein logisches erstes Angriffsziel wären die heutzutage immer mehr auf Machine Learning basierenden Malware-Erkennungssysteme der Security-Anbieter.

Wenn Cyberkriminelle ein solches System in die Hände bekommen, so Avast, dann könnten sie es gezielt mit Malware-Mustern füttern um herauszufinden, wie hoch die Wahrscheinlichkeit ist, dass ein bestimmtes Muster erkannt wird. Darauf basierend könnten sie wiederum weitere Muster testen, um gezielt blinde Flecken zu finden.

Halluzinationen erzeugen

Machine Learning ist auch die Methode der Wahl, um Muster zu finden, die insbesondere Bilderkennungssysteme zum Halluzinieren zu bringen können. Security-Forscher haben dies in den letzten Monaten einige Male geschafft. Avast präsentiert ein Beispiel: Das Bild eines Pandas kann mit einem ganz spezifischen, dem normalen Bildrauschen ähnelnden Muster ergänzt werden, und wird dann vom Bilderkennungssystem fast immer als Gibbon identifiziert

Das „Vergiften“ der Daten

Eine weitere Methode um KI-Systeme anzugreifen, über die in letzter Zeit viel diskutiert wird, ist das "Vergiften" der Daten, mit denen die Systeme trainiert werden.

Man könnte einem System zur Malware-Erkennung beispielsweise zuerst viele saubere Files präsentieren, um es zu trainieren, diese als harmlos zu identifizieren. Danach wird es mit nur ganz leicht abgeänderten, aber nun bösartigen Files gefüttert, so dass auch diese als gutartig eingestuft werden. Avast glaubt, dass auch diese Methode des "Vergiftens" von KI-Systemen von Kriminellen schon dieses Jahr angewandt werden wird.

Zurück

Diesen Beitrag teilen
oben