Business Security, Verschlüsselung & Datensicherheit

Künstliche Intelligenz und IT-Sicherheit

Künstliche Intelligenz und IT-Sicherheit
Die künstliche intelligenz birgt Chancen und Risiken.

Die vom Bundesministerium für Bildung und Forschung (BMBF) initiierte Plattform Lernende Systeme (PLS) hat das Ziel, Künstliche Intelligenz und Maschinelles Lernen im Sinne der Gesellschaft zu gestalten. Im aktuellen Whitepaper „Künstliche Intelligenz und IT-Sicherheit ” analysiert die Arbeitsgruppe „IT-Security, Privacy, Recht und Ethik“ der PLS eines der Spannungsfelder der KI. Beigetragen haben dazu auch Experten des Karlsruher Instituts für Technologie (KIT), wie infopoint-security dazu ausführte.

KI birgt Chancen aber auch Herausforderungen

Dazu sagt der Präsident des KIT, Professor Holger Hanselka, der Mitglied im Lenkungskreis der PLS und Pate der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“:

„Künstliche Intelligenz bietet gewaltige Möglichkeiten für die Gestaltung unserer Wirtschaft und unserer Informationsgesellschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst aber auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe"

„Daher müssen wir auch die Risiken für die Cyber Security und den Datenschutz in den Blick nehmen. So kann KI die Sicherheit von IT-Systemen verbessern. Gleichzeitig nutzen aber auch potenzielle Angreifer KI“

 „Am KIT arbeiten wir daran, die Chancen von KI und deren Herausforderungen für die IT-Sicherheit in Einklang zu bringen.“

KI erzeugt neue Dynamik für die IT-Security

„Zwischen Angreifern und Verteidigern der IT-Sicherheit entfacht die KI einen neuen Wettlauf. Unternehmen und Behörden müssen deshalb rasch entsprechende Kompetenzen aufbauen und in neue Technologien investieren. Auch die Ausbildung von IT-Fachkräften muss angepasst werden, um den Angreifern weiterhin einen Schritt voraus zu bleiben“,

fordert Professor Jörn Müller-Quade, einer der Autoren des Whitepapers „Künstliche Intelligenz und IT-Sicherheit – Bestandaufnahme und Lösungsansätze“ und Leiter der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der PLS.

Der Einsatz von KI erzeugt eine neue Dynamik für die IT-Security. Daraus ergeben sich aus Sicht der Autorinnen und Autoren akute Handlungsfelder für Politik, Forschung, Behörden und Unternehmen. Beispielsweise sollten KI-Systeme mit einer technischen Rückfallebene ausgestattet sein, um den Minimalbetrieb des Gesamtsystems stets zu gewährleisten. Für kleinere und mittlere Unternehmen sollten Beratungsangebote geschaffen werden, um Kompetenzen im Bereich der IT-Sicherheit im Hinblick auf den Einsatz von KI-Systemen zu erweitern. Internationale Initiativen sollten eine möglichst globale, kohärente IT-Sicherheitspolitik fördern, die grenzüberschreitende Hackerangriffe auch grenzüberschreitend verfolgt und ahndet.

KI-Methoden könnten zwar helfen, IT-Systeme sicherer zu machen, erwartet Müller-Quade, der am KIT die Forschungsgruppe Kryptographie und Sicherheit leitet und Initiator des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT ist. „Aber es wird auch derzeit noch unbekannte Angriffe mit KI geben“, sagt er. Auch das Zerstörungspotenzial klassischerer Angriffswaffen von Cyberkriminellen werde sich durch KI vervielfachen, warnt er: „Angriffe werden in Zukunft vermutlich erfolgreicher sein, weil Kriminelle mittels KI automatisiert aus vergangenen Angriffen lernen können.“ Auch Social Engineering könnte zum Massenphänomen werden, also Angriffe, bei denen Menschen so getäuscht werden, dass sie dem Angreifer im falschen Vertrauen freiwillig Passwörter oder Bankdaten verraten. KI-Systeme könnten künftig hocheffizient online verfügbare Informationen sammeln, um etwa eine E-Mail auf die Zielperson einer Attacke zuzuschneiden.

Auch KI-Systeme selbst können künftig Ziel von Hackern sein. Sensible Daten, beispielsweise in der Gesundheitsversorgung, gilt es vor Missbrauch zu schützen. Datenschutzerhaltende Lernalgorithmen und die Resilienz von KI-Systemen gegen Manipulation müssen deshalb noch intensiver erforscht werden. Eine Möglichkeit, Angriffe auf KI-Systeme einzudämmen, sieht Müller-Quade darin, diese mit klassischen Systemen zu überwachen, die eine Art Schutzreflex auslösen könnten: „Wenn man auf eine heiße Herdplatte fasst, entscheidet auch nicht die Intelligenz darüber, ob man die Hand auf der Herdplatte lässt oder wegzieht.“

Zurück

Diesen Beitrag teilen
Weitere Meldungen zum Thema
oben