Die CSAM-Tracking-Technologie von Apple ist wieder auf Kurs – TechCrunch

Estimated read time 4 min read

Apple hat einen großen Rückschlag gegen eine neue Technologie zur Erkennung von sexuellem Missbrauch von Kindern (CSAM) erlebt, die Anfang dieses Monats angekündigt wurde. Das System, das Apple NeuralHash nennt, muss noch für seine über eine Milliarde Benutzer aktiviert werden, aber die Technologie erfährt bereits Hitze von Sicherheitsforschern, die sagen, dass der Algorithmus falsche Ergebnisse liefert.

NeuralHash wurde entwickelt, um bekannte CSAM auf dem Gerät eines Benutzers zu identifizieren, ohne das Bild zu besitzen oder den Inhalt des Bildes zu kennen. Da die in iCloud gespeicherten Fotos eines Benutzers Ende-zu-Ende-verschlüsselt sind, sodass selbst Apple nicht auf die Daten zugreifen kann, sucht NeuralHash stattdessen nach bekannten CSAM auf dem Gerät eines Benutzers, was laut Apple datenschutzfreundlicher ist, da es die Scannen Sie nur Fotos, anstatt die gesamte Datei eines Benutzers von anderen Unternehmen zu scannen.

Apple tut dies, indem es auf dem Gerät eines Benutzers nach Bildern mit demselben Hash sucht – einer Reihe von Buchstaben und Zahlen, die ein Bild eindeutig identifizieren können –, die von Kinderschutzorganisationen wie z NCMEC. Wenn NeuralHash 30 oder mehr übereinstimmende Codes findet, werden die Bilder zur manuellen Überprüfung an Apple getaggt, bevor der Kontoinhaber den Strafverfolgungsbehörden gemeldet wird. Apple sagt, dass die Wahrscheinlichkeit eines Fehlalarms bei etwa einem von einer Milliarde Konten liegt.

Sicherheitsexperten und Datenschutzbeauftragte haben jedoch Bedenken geäußert, dass das System könnte missbraucht werden durch Akteure mit großen Ressourcen, wie Regierungen, um unschuldige Opfer einzubeziehen oder das System zu manipulieren, um anderes Material zu finden, das beleidigende autoritäre Nationalstaaten beleidigend finden. Laut einem durchgesickerten Memorandum, das intern an Apple-Mitarbeiter verteilt wurde, bezeichnet NCMEC Kritiker als „schreiende Stimmen der Minderheit“.

Letzte Nacht hat Asuhariet Ygvar Apples NeuralHash in ein Python-Skript umgewandelt und veröffentlichter Code auf GitHubSo kann jeder die Technologie testen, egal ob er ein Apple-Gerät zum Testen hat oder nicht. In Ein Reddit-Post, Ygvar sagte, NeuralHash existiert bereits in iOS 14.3 als obskurer Code, konnte aber die Technologie rekonstruieren, um anderen Sicherheitsforschern zu helfen, den Algorithmus besser zu verstehen, bevor er später in diesem Jahr auf iOS- und macOS-Geräten implementiert wird.

Es dauerte nicht lange, bis andere den veröffentlichten Code manipulierten und bald die ersten gemeldet im Fall einer ‚Hash-Kollision‘, was im Fall von NeuralHash der Fall ist, wo zwei völlig unterschiedliche Bilder denselben Hash erzeugen. Cory Huntersville, ein bekannter Forscher bei Intel Labs, entdecken die Hash-Kollision. Ygvar bestätigte kurz darauf die Kollision.

Hash-Kollisionen können ein Todesstoß für Systeme sein, die auf Kryptographie angewiesen sind, um sie zu schützen, wie z. B. Verschlüsselung. Im Laufe der Jahre wurden mehrere bekannte Passwort-Hashing-Algorithmen wie MD5 und SHA-1 eingestellt, nachdem Kollisionsangriffe sie wirkungslos gemacht hatten.

Kenneth White, Kryptographie-Experte und Gründer des Open Crypto Audit Project, sagte in einem Tweet: „Ich glaube, einige Leute verstehen nicht, dass die Zeit zwischen dem iOS NeuralHash-Code und [the] Die erste Kollision dauerte nicht Monate oder Tage, sondern mehrere Stunden. ”

Ein Apple-Sprecher wollte sich zu dem Rekord nicht äußern. Aber in einem Hintergrundanruf, in dem Reporter weder Regisseure noch namentlich nennen dürfen, spielte Apple den Hash-Clash herunter und argumentierte, dass der Schutz, den es bietet – wie eine manuelle Überprüfung von Fotos vor der Meldung an die Strafverfolgungsbehörden – darauf abzielt, Missbrauch zu verhindern. Apple sagte auch, dass die umgekehrte Version von NeuralHash eine generische Version ist und nicht die Vollversion, die später in diesem Jahr veröffentlicht wird.

Es sind nicht nur Gruppen von Bürgerrechtlern und Sicherheitsexperten, die ihre Besorgnis über die Technologie äußern. Ein hochrangiger Abgeordneter im Deutschen Bundestag einen Brief geschickt an Apple-CEO Tim Cook diese Woche, dass das Unternehmen einen „gefährlichen Weg“ einschlägt und Apple auffordert, das System nicht zu implementieren.

Jochen Fabel

Hardcore-Musikfanatiker. Food-Evangelist. Freiberuflicher Spieler. Wannabe-Schriftsteller. Wegbereiter der Popkultur. Lebenslanger Unternehmer. Reise-Guru.

You May Also Like

More From Author

+ There are no comments

Add yours