Apple publie une nouvelle FAQ concernant la numérisation de photos dans ses protections étendues pour les enfants

Tôt dans la journée, Apple a publié un document dédié aux questions fréquemment posées (FAQ) concernant les protections étendues pour les enfants. Il s’agit de la nouvelle initiative de l’entreprise pour aider à protéger les enfants contre l’exploitation et les abus. Bien que les intentions soient bonnes, cela a ébouriffé beaucoup de plumes. Surtout concernant une caractéristique des nouvelles protections.

Les nouvelles protections pour les enfants sont un triple effort, avec la numérisation de photos, de nouveaux conseils pour la recherche et Siri, et la détection de photos potentiellement explicites envoyées et/ou reçues via iMessage. C’est la numérisation de photos, qui n’est disponible que lorsque les photos sont téléchargées dans les bibliothèques de photos iCloud, qui a soulevé la plupart des préoccupations.

Depuis le dévoilement des nouvelles fonctionnalités, Apple a exprimé son soutien à la nouvelle initiative et a tenté d’éteindre une partie du feu qui l’entoure. Un vice-président du logiciel a envoyé une note interne essayant de faire exactement cela, doublant les efforts de l’entreprise en matière de confidentialité et de sécurité des utilisateurs, tout en disant qu’essayer de protéger les enfants de la manière dont l’entreprise essaie est bien intentionné.

Cependant, ce n’est pas tant la mise en œuvre de ces fonctionnalités par Apple qui inquiète les gens. La plupart des gens, en tout cas. Ce sont les implications de ces caractéristiques et le potentiel d’une « pente glissante » qui peut se produire par la suite. Nombreux sont ceux qui pensent que ces systèmes peuvent être abusés par des individus et des groupes, en particulier les gouvernements visant à réprimer les citoyens d’une manière ou d’une autre.

Apple a déclaré que la fonction de détection de photos, qui recherche du matériel d’abus sexuel d’enfants (CSAM) connu, ne sera disponible aux États-Unis que lorsque la fonction sera lancée dans iOS 15 plus tard cette année. La société affirme qu’une expansion mondiale est possible, mais elle procédera à un examen pays par pays avant de déployer la fonctionnalité dans d’autres régions.

Et maintenant, la société est de retour, publiant une FAQ dédiée concernant la sécurité des communications dans iMessages et la détection de CSAM dans les photothèques iCloud. Apple répond en quoi ces fonctionnalités sont différentes, et bien plus encore. Il plonge profondément avec la détection CSAM, tout en gardant les choses assez simples pour être analysées assez rapidement.

Par exemple, Apple répond à la question si cette numérisation de photos va numériser toutes les photos de votre iPhone :

Non. De par sa conception, cette fonctionnalité ne s’applique qu’aux photos que l’utilisateur choisit de télécharger sur iCloud Photos, et même dans ce cas, Apple n’apprend que les comptes qui stockent des collections d’images CSAM connues, et uniquement les images qui correspondent à des CSAM connus. Le système ne fonctionne pas pour les utilisateurs dont les photos iCloud sont désactivées. Cette fonctionnalité ne fonctionne pas sur votre bibliothèque de photos iPhone privée sur l’appareil.

Apple note également dans la FAQ que l’implémentation d’Apple pour CSAM est conçue pour ne pas découvrir d’autre contenu, autre que CSAM. Le système ne fonctionne qu’avec les hachages CSAM qui ont été fournis par le National Center for Missing and Exploited Children. Cela signifie que le système n’est pas conçu pour détecter quoi que ce soit d’autre que ce matériau.

Quant aux gouvernements forçant Apple à ajouter des hachages non CSAM qui peuvent être découverts ? Apple dit que cela n’arrivera pas :

Apple refusera de telles demandes. La capacité de détection de CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir. Soyons clairs, cette technologie se limite à détecter les contenus CSAM stockés dans iCloud et nous n’accéderons à aucune demande gouvernementale pour l’étendre. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signalerait des photos qui ne correspondent pas à des images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé auprès du NCMEC.

Apple affirme également que les hachages non CSAM ne devraient pas non plus pouvoir être «injectés» dans le système pour être détectés.

Notre processus est conçu pour empêcher que cela se produise. L’ensemble de hachages d’images utilisé pour la correspondance provient d’images existantes connues de CSAM qui ont été acquises et validées par des organisations de sécurité des enfants. Apple n’ajoute rien à l’ensemble des hachages d’images CSAM connus. Le même ensemble de hachages est stocké dans le système d’exploitation de chaque utilisateur d’iPhone et d’iPad, de sorte que les attaques ciblées contre des individus spécifiques ne sont pas possibles dans notre conception. Enfin, il n’y a pas de signalement automatisé aux forces de l’ordre, et Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas peu probable où le système signalerait des images qui ne correspondent pas à des images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait envoyé au NCMEC.

Reste à savoir si cela amène ou non les gens à être plus à l’aise avec ces fonctionnalités. Comment vous sentez-vous à propos de tout cela ?

Leave a Comment

Your email address will not be published. Required fields are marked *