Business Security

Social Robots-Experiment

Untersuchung zeigt blindes Vertrauensrisiken – 40 Prozent gewähren Roboter unautorisierten Zutritt

Neue und unerwartete Risikodimensionen im Bereich Robotik: In einer aktuellen Untersuchung von Kaspersky und der Universität Gent zeigt sich, wie Soziale Roboter, die autonom mit Menschen interagieren, das Verhalten von Menschen effektiv beeinflussen können. Auf diesem Wege können sensible Informationen erhalten werden, sobald eine Vertrauensbasis besteht. In dem Experiment erhielt der Roboter von Testpersonen Zugang sowohl zu gesicherten Räumlichkeiten als auch zu persönlichen Informationen.

Automatisierung und Roboter sind längst keine Zukunftsvisionen mehr. Sowohl private Haushalte als auch Unternehmen setzen auf die Digitalisierung. Schätzungen zufolge sind in Deutschland im Jahr 2023 rund 12,5 Millionen Haushalte Smart Homes. Und auch die deutsche Industrie automatisiert sich stetig: allein im vergangenen Jahr stieg die Anzahl an Industrierobotern um 26 Prozent an. Doch da die meisten Robotersysteme noch in Testphasen stecken, wird die Cybersicherheit noch nicht zum Thema gemacht.

Zugang zu sicheren Bereichen und sensiblen Informationen

Die durchgeführten Untersuchung konzentrierte sich auf die Auswirkungen eines sozialen Roboters auf rund 50 Teilnehmer. Der Roboter wurde so konzipiert, dass er mit Menschen interagieren und menschenähnliche Kommunikationskanäle wie Sprache oder nonverbale Kommunikation verwenden konnte. So wurden potenzielle Sicherheitsrisiken ermittelt, die sich aus der aktiven Beeinflussung der Nutzer durch den Roboter ergeben können, wenn der Roboter gehackt wird. Dazu zählen:

 

Physischer Zugang zu nicht autorisierten Räumlichkeiten: Der Roboter wurde in der Nähe eines Eingangs zu einem Mehrzweckgebäudes in der Innenstadt von Gent in Belgien aufgestellt und fragte die Mitarbeiter, ob er ihnen durch die Tür folgen dürfe. Hierfür ist eigentlich ein Sicherheitsausweis nötig, der auf von der jeweiligen Person auf einen Kartenleser gelegt werden muss. Während des Experiments haben 40 Prozent der Mitarbeiter die Tür geöffnet, um den Roboter in den gesicherten Bereich zu lassen. Als der Roboter als Pizzalieferant positioniert wurde und eine Schachtel einer international bekannten Take-away-Marke in der Hand hielt, akzeptierten die Mitarbeiter die Rolle des Roboters und schienen noch weniger geneigt zu sein, seine Anwesenheit oder seine Gründe für den Zugriff auf den gesicherten Bereich in Frage zu stellen.

 

Sensible Informationen abgreifen: Der zweite Teil der Untersuchung konzentrierte sich auf den Zugang zu persönlichen Informationen, die oft zum Zurücksetzen von Passwörtern verwendet werden, wie Geburtsdatum, Fabrikat des ersten Autos oder Lieblingsfarbe. Dazu verwickelte der Roboter die Leute in freundschaftliche Gespräche. Mit Ausnahme eines einzigen Teilnehmers gelang es den Forschern, personenbezogene Daten mit einer Geschwindigkeit von etwa einer Information pro Minute von jedem der Teilnehmer zu erhalten.

„Zu Beginn der Forschung haben wir die Software untersucht, die bei der Entwicklung von Robotersystemen verwendet wird. Interessanterweise haben wir festgestellt, dass Entwickler bewusst Sicherheitsmechanismen ausschließen und sich stattdessen auf die Entwicklung von Komfort und Effizienz konzentrieren. Wie unser Experiments jedoch zeigt, sollten Entwickler die Sicherheit nicht vergessen, wenn die Forschungsphase abgeschlossen ist. Neben den technischen Überlegungen gibt es wichtige Aspekte, die bei der Sicherheit von Robotern zu berücksichtigen sind. Wir hoffen, dass unser gemeinsames Projekt und unser Streifzug mit Kollegen von der Universität Gent auf dem Gebiet der Cybersicherheitsrobotik andere dazu ermutigen wird, unserem Beispiel zu folgen und das Bewusstsein der Öffentlichkeit und der Forschungsgemeinschaft für das Thema zu schärfen“, kommentiert Dmitry Galov, Sicherheitsforscher bei Kaspersky.

„Aus der wissenschaftlichen Literatur geht hervor, dass das Vertrauen in Roboter und insbesondere in soziale Roboter vorhanden ist und dazu verwendet werden kann, Menschen zu bestimmten Handlungen zu überreden, oder Informationen preiszugeben. Je menschlicher der Roboter ist, desto größer ist im Allgemeinen seine Überredungs- und Überzeugungskraft. Unser Experiment hat gezeigt, dass dies erhebliche Sicherheitsrisiken mit sich bringen kann: Menschen neigen dazu, diese nicht zu berücksichtigen; sie gehen davon aus, dass der Roboter gutmütig und vertrauenswürdig ist. Dies ist ein Angriffsweg, und die behandelten Fallstudien machen nur einen Bruchteil der Sicherheitsrisiken aus, die mit sozialen Robotern verbunden sind. Aus diesem Grund ist es wichtig, zum jetzigen Zeitpunkt zusammenzuarbeiten, um entstehende Risiken und Schwachstellen zu verstehen und zu beheben – dies wird sich in Zukunft auszahlen“, fügt Tony Belpaeme, Professor für KI und Robotik an der Universität Gent, hinzu.

Weitere Informationen

Den vollständigen Report „The potential of social robots for persuasion and manipulation: a proof of concept study” finden Sie hier

Business Sicherheit

Daten verschlüsseln und sichern

Zurück

Diesen Beitrag teilen
Weitere Meldungen zum Thema
oben