Sicher & Anonym

Cyber-Security-Experten warnen Unternehmen: Bei KI-Diensten bestehen Risiken durch Datenlecks, Hacks und unbedachtes Nutzer-Verhalten

Auch nach dem Abklingen des ersten großen Hypes um ChatGPT & Co. erfreuen sich KI-Dienste und generative Übersetzungstools großer Beliebtheit. So nutzt laut einer repräsentativen Umfrage fast die Hälfte der Berufstätigen in Deutschland ChatGPT im Arbeitsalltag.

Auch nach dem Abklingen des ersten großen Hypes um ChatGPT & Co. erfreuen sich KI-Dienste und generative Übersetzungstools großer Beliebtheit. So nutzt laut einer repräsentativen Umfrage fast die Hälfte der Berufstätigen in Deutschland ChatGPT im Arbeitsalltag. [1] Viele Unternehmen stehen daher vor der schwierigen Frage, ob sie solchen generativen Modellen relevante Unternehmensdaten anvertrauen können. Ein Cyber-Sicherheitsanbieter will Unternehmen eine Einschätzung an die Hand geben und für Datenschutzrisiken bei der beruflichen Nutzung von ChatGPT und verwandten Modellen sensibilisieren.

Obwohl die auf Large Language Models (LLM) basierenden Chatbots von großen Tech-Konzernen betrieben werden, mahnen Experten des Sicherheitsanbieters Kaspersky, dass auch diese Unternehmen nicht immun gegenüber Hacker-Angriffen oder Datenlecks sind. Laut der Kaspersky-Experten gab es bereits Zwischenfälle, bei denen ChatGPT-Nutzer ohne Umstände die Eingaben aus dem Nachrichtenverlauf anderer Nutzer einsehen konnten. Da alle Daten, die von Nutzern in den Trainingskorpus eingegeben, bewusst oder en passant von anderen Anwendern desselben Sprachmodells aufgerufen werden können, ist große Vorsicht geboten, damit man nicht unabsichtlich Daten eingibt, die die eigene Privatsphäre gefährden oder auch sensible Informationen über dritte enthalten. [2] Zudem können Cyber-Kriminelle per Phishing-Angriff in Chatbot‑Accounts von Angestellten eindringen und auf dort abgelegte fremde Daten zugreifen. Die Kaspersky Digital Footprint Intelligence hat bereits Darknet-Beiträge identifiziert, in denen Chatbot‑Accounts zum Verkauf angeboten wurden, die sich Unternehmen zuordnen lassen. [3]

„Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden“, kommentiert Anna Larkina, Sicherheits- und Datenschutzexpertin bei Kaspersky die aktuelle Situation. Die Nutzungsbedingungen für die Erfassung, Speicherung, und Verarbeitung von Daten durch KI-Tools sei im B2B-Bereich stärker auf Schutz ausgelegt als im B2C-Sektor. Optimal implementiert speicherten B2B-Lösungen inzwischen keine Chatverläufe mehr. „Unternehmen sollten ihr Hauptaugenmerk darauflegen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren. Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste – wenn sie überhaupt zugelassen werden – aufstellen.“

 [1] https://www.digitalbusiness-cloud.de/chatgpt-wie-das-ki-tool-unternehmen-vor-ein-management-dilemma-stellt/

[2] https://securelist.com/llm-based-chatbots-privacy/110733/

[3] Kaspersky Digital Footprint Intelligence: https://dfi.kaspersky.com/de

Zurück

Diesen Beitrag teilen
Weitere Meldungen zum Thema
oben