Mobile Security

Kinderporno-Scanner im iPhone: Bereits Hash-Kollisionen erzeugt

Der NeuralHash-Algorithmus steckt teilweise in iOS 14.3, berichten Hacker – die das System bereits einem Reengineering unterzogen haben. Apple wies das zurück.

Hackern ist es gelungen, Apples umstrittene iPhone-Scanning-Funktion auf Missbrauchsbilder ersten Tests zu unterziehen. Dabei soll es gelungen sein, auch schon sogenannte Hash-Kollisionen zu erzeugen – also Aufnahmen, die zwar zu Einträgen in der sogenannten CSAM-Datenbank (Child Sexual Abuse Materials) passen, aber eigentlich harmlos sind.

Entwickler Asuhariet Yvgar hatte zuvor Code des von Apple NeuralHash getauften Systems in iOS 14.3 und späteren Versionen entdeckt und Details dazu auf Reddit geteilt sowie erste, nachgebaute Routinen auf GitHub veröffentlicht. Es gibt auch eine Anleitung, wie man NeuralHash-Daten aus Apples Beriebssystem exportiert.

Alles nochmal neu in iOS 15?

Apple selbst reagierte auf die Vorwürfe und teilte mit, die von Yvgar und Co. analysierte NeuralHash-Funktion sei nicht die Version, die man für die CSAM-Erkennung tatsächlich verwenden will. Gegenüber dem IT-Blog Motherboard sagte der Konzern in einem Statement, es handele sich nicht um die Finalversion. Diese werde Teil des Codes des signierten Betriebssystems – Apple kündigte die Funktion für iOS 15 und iPadOS 15 an, die im Herbst erscheinen – und werde dann von Sicherheitsforschern überprüfbar sein, "ob es so funktioniert, wie beschrieben". Das, was auf GitHub veröffentlicht wurde, sei "eine generische Version". Man wolle den Algorithmus öffentlich machen.

Der Sicherheitsforscher und Kryptologe Matthew Green von der Johns Hopkins University, der Apples umstrittenen lokalen Kinderporno-Scanner im iPhone als erster publik gemacht hatte, kommentierte gegenüber Motherboard er nehme an, dass Kollisionen auch für Apples Finalversion von NeuralHash existieren werden, "wenn sie jetzt schon für diese Funktion vorhanden sind". Natürlich könne die Hash-Funktion erneuert werden ("re-spin"). Doch als Proof-of-Concept sei der veröffentlicht Code "definitiv valide".

Algorithmus nicht perfekt

Perfekt ist der Algorithmus sowieso nicht: Das ab iOS 14.3 enthaltene Verfahren kann laut Ygvar zwar Kompression und Größenänderungen von Bildern tolerieren, nicht jedoch das Zuschneiden oder Drehen von Bildern. Unklar bleibt noch, wie sehr Hash-Kollisionen Apples Ansatz stören könnten. Der Konzern will erst alarmiert werden, wenn rund 30 Missbrauchsbilder vor dem Upload zu iCloud auf iPhones und iPads entdeckt werden. Dann sollen sich Mitarbeiter die Aufnahmen entschlüsseln können, um diese dann zu kontrollieren. Erst dann sollen Kinderschutz und Behörden eingeschaltet werden.

Mit Kollisionen wäre es denkbar, dass dieses Team überlastet wird – dann könnte Apple aber eigene Filter für diese "Müllaufnahmen" implementieren, sagte der Sicherheitsforscher Nicholas Weaver. Weiterhin müsste Angreifer über Zugriff auf die von Apple verwendeten CSAM-Datenbanken haben. Dennoch zeigt das Reengineering nun, dass Apples Technik keineswegs unfehlbar ist – was wiederum die massive weltweite Kritik an deren Einsatz untermauert.

Quelle: heise online Redaktion

Zurück

Diesen Beitrag teilen
Weitere Meldungen zum Thema
oben