Le développeur Asuhariet Yvgar a déclaré ce matin qu’il avait procédé à l’ingénierie inverse de l’algorithme NeuralHash qu’Apple utilise pour détecter les contenus pédopornographiques (CSAM) dans iCloud Photos, en publiant des preuves sur GitHub et des détails sur Reddit.
Yvgar a déclaré qu’il avait procédé à la rétro-ingénierie de l’algorithme NeuralHash à partir d’iOS 14.3, où le code était caché, et qu’il l’avait reconstruit en Python. Après avoir téléchargé ses résultats, un autre utilisateur a pu créer une collision, un problème où deux images non correspondantes partagent le même hachage. Les chercheurs en sécurité ont mis en garde contre cette possibilité car le potentiel de collisions pourrait permettre d’exploiter le système CSAM.
Dans une déclaration à Carte mère, Apple a déclaré que la version du NeuralHash qu’Yvgar a rétro-conçu n’est pas la même que l’implémentation finale qui sera utilisée avec le système CSAM. Apple a également déclaré avoir rendu l’algorithme accessible au public pour que les chercheurs en sécurité puissent le vérifier, mais il existe un deuxième algorithme privé côté serveur qui vérifie une correspondance CSAM une fois le seuil dépassé, ainsi qu’une vérification humaine.
Apple a cependant indiqué à Motherboard dans un e-mail que cette version analysée par les utilisateurs sur GitHub est une version générique, et non la seule version finale qui sera utilisée pour la détection iCloud Photos CSAM. Apple a déclaré avoir également rendu l’algorithme public.
“L’algorithme NeuralHash [… is] inclus dans le code du système d’exploitation signé [and] les chercheurs en sécurité peuvent vérifier qu’il se comporte comme décrit », lit-on dans l’un des documents d’Apple. Apple a également déclaré qu’une fois qu’un utilisateur a dépassé le seuil de 30 correspondances, un deuxième algorithme non public qui s’exécute sur les serveurs d’Apple vérifiera les résultats.
Matthew Green, qui enseigne la cryptographie à l’Université Johns Hopkins et qui a vivement critiqué le système CSAM d’Apple, a déclaré Carte mère que si des collisions “existent pour cette fonction”, alors il s’attend à ce qu'”elles existent dans le système qu’Apple active finalement”.
“Bien sûr, il est possible qu’ils relancent la fonction de hachage avant de se déployer”, a-t-il déclaré. “Mais en tant que preuve de concept, c’est définitivement valable”, a-t-il déclaré à propos des informations partagées sur GitHub.
En raison de l’élément humain, cependant, un autre chercheur, Nicholas Weaver, a déclaré Carte mère que tout ce que les gens peuvent faire en manipulant des hachages non-CSAM dans CSAM est “d’ennuyer l’équipe de réponse d’Apple avec des images parasites jusqu’à ce qu’ils implémentent un filtre” pour se débarrasser des faux positifs. En fait, tromper le système d’Apple nécessiterait également l’accès aux hachages fournis par le NCMEC et nécessiterait la production de plus de 30 images en collision, sans pour autant tromper la surveillance humaine.
Apple utilise son système NeuralHash pour faire correspondre une base de données de hachages d’images fournie par des agences comme le National Center for Missing Children (NCMEC) à des images sur les appareils des utilisateurs pour rechercher CSAM. Le système est conçu pour produire des correspondances exactes et Apple dit qu’il y a une chance sur mille milliards qu’un compte iCloud puisse être signalé accidentellement.
Apple prévoit d’implémenter le système NeuralHash CSAM dans iOS et iPadOS 15 dans le cadre d’une suite de fonctionnalités de sécurité pour les enfants, et cela a été une décision extrêmement controversée, Apple recevant les critiques des clients et des défenseurs de la vie privée. Apple a tenté de rassurer les clients et les chercheurs en sécurité sur la mise en œuvre du système avec une documentation supplémentaire et des entretiens avec des dirigeants.
SharePlay, vidéo ProRes, basculement automatique des macros, audio spatial sans perte et Dolby Atmos pour 孒omePod ? et plus.
SharePlay vous permet de partager votre écran avec d’autres. Voici comment partager votre écran via FaceTime.
Le nouveau modèle haut de gamme passera du silicium d’Intel au silicium d’Apple.
Les lunettes de réalité augmentée Apple devraient arriver dans les deux prochaines années. Voici ce que nous savons jusqu’à présent.