Expliqué : comment Apple recherchera les images d'exploitation d'enfants sur les appareils et pourquoi cela fait sourciller
Prévues pour être mises en ligne aux États-Unis dans un premier temps, les fonctionnalités incluent l'utilisation de nouvelles technologies pour limiter la propagation de CSAM en ligne, en particulier via la plate-forme Apple.

Apple a annoncé que les mises à jour logicielles plus tard cette année apporteront de nouvelles fonctionnalités qui contribuera à protéger les enfants des prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la diffusion de matériel pédopornographique (CSAM).
Prévues pour être mises en ligne aux États-Unis dans un premier temps, les fonctionnalités incluent l'utilisation de nouvelles technologies pour limiter la propagation de CSAM en ligne, en particulier via la plate-forme Apple.
Ensuite, il y aura une protection sur l'appareil pour les enfants contre l'envoi ou la réception de contenu sensible, avec des mécanismes pour alerter les parents au cas où l'utilisateur a moins de 13 ans. Apple interviendra également lorsque Siri ou Search est utilisé pour rechercher des sujets liés à CSAM .
Quelle technologie Apple utilise-t-elle pour empêcher la propagation du CSAM en ligne ?
Dans un article de blog, Apple a expliqué qu'il utilisera des applications de cryptographie via iOS et iPadOS pour faire correspondre les images CSAM connues stockées sur iCloud Photo. La technologie fera correspondre les images sur l'iCloud d'un utilisateur avec des images connues fournies par des organisations de sécurité de l'enfance. Et cela se fait sans réellement voir l'image et uniquement en recherchant ce qui ressemble à une correspondance d'empreinte digitale. Si des correspondances dépassent un seuil, Apple signalera ces cas au National Center for Missing and Exploited Children (NCMEC).
Apple a précisé que sa technologie tient compte de la confidentialité des utilisateurs et que, par conséquent, la base de données est transformée en un ensemble de hachages illisible qui est stocké en toute sécurité sur les appareils des utilisateurs. Il a ajouté qu'avant qu'une image ne soit téléchargée sur iCloud, le système d'exploitation la comparera aux hachages CSAM connus à l'aide d'une technologie cryptographique appelée intersection d'ensembles privés. Cette technologie déterminera également un match sans révéler le résultat.
À ce stade, l'appareil crée un bon de sécurité cryptographique avec le résultat de la correspondance et des données cryptées supplémentaires et l'enregistre sur iClouds avec l'image. La technologie de partage de secret à seuil garantit que ces bons ne peuvent pas être interprétés par Apple à moins que le compte iCloud Photos ne dépasse un seuil de contenu CSAM connu. Ce seuil, a affirmé le blog, a été mis en place pour fournir un niveau de précision extrêmement élevé et garantit moins d'une chance sur un billion par an de signaler de manière incorrecte un compte donné. Il est donc peu probable qu'une seule image déclenche une alerte.
Mais si le seuil est dépassé, Apple peut interpréter le contenu des bons de sécurité et examiner manuellement chaque rapport pour un match, désactiver le compte de l'utilisateur et envoyer un rapport au NCMEC. Apple a déclaré que les utilisateurs pourront faire appel s'ils pensent avoir été signalés à tort.
valeur nette de jack elam
Comment fonctionnent les autres fonctionnalités ?
La nouvelle sécurité de communication d'Apple pour les messages brouillera une image sensible et avertira un enfant de la nature du contenu. S'il est activé depuis le backend, l'enfant peut également être informé que ses parents ont été alertés du message qu'ils ont consulté. Il en sera de même si l'enfant décide d'envoyer un message sensible. Apple a déclaré que Messages utiliserait l'apprentissage automatique sur l'appareil pour analyser les pièces jointes aux images et déterminer si une photo est sexuellement explicite et qu'Apple n'aura pas accès aux messages. La fonctionnalité viendra sous forme de mise à jour sur les comptes configurés en tant que familles dans iCloud pour les dernières versions du système d'exploitation.
De plus, avec la mise à jour, lorsqu'un utilisateur essaie de rechercher des sujets CSAM potentiels, Siri et Search expliqueront pourquoi cela pourrait être nuisible et problématique. Les utilisateurs recevront également des conseils sur la façon de déposer un rapport sur l'exploitation des enfants s'ils le demandent.
| Expliqué : Comment et pourquoi Google offrira plus de protection aux enfants en ligne
Pourquoi Apple fait-il cela et quelles sont les préoccupations soulevées ?
Les grandes entreprises technologiques subissent depuis des années des pressions pour réprimer l'utilisation de leur plate-forme pour l'exploitation des enfants. Au fil des ans, de nombreux rapports ont souligné à quel point on n'a pas fait assez pour empêcher la technologie de rendre le contenu CSAM disponible plus largement.
Cependant, l'annonce d'Apple a suscité des critiques, beaucoup soulignant à quel point il s'agit exactement du type de technologie de surveillance que de nombreux gouvernements voudraient avoir et aimeraient en abuser. Le fait que cela vienne d'Apple, qui a longtemps été le fervent de la vie privée, en a surpris plus d'un.
En outre, des experts en cryptographie comme Matthew Green de l'Université Johns Hopkins ont exprimé leurs craintes que le système puisse être utilisé pour piéger des personnes innocentes en leur envoyant des images destinées à déclencher les matchs pour CSAM. Les chercheurs ont pu le faire assez facilement, a-t-il déclaré à NPR, ajoutant qu'il est possible de tromper de tels algorithmes.
Mais le New York Times a cité le responsable de la protection de la vie privée d'Apple, Erik Neuenschwander, disant que ces fonctionnalités ne signifieraient rien de différent pour les utilisateurs réguliers.
combien vaut Henry Rollins
Si vous stockez une collection de matériel CSAM, oui, c'est mauvais pour vous, a-t-il déclaré à la publication.
Bulletin| Cliquez pour obtenir les meilleurs explicateurs de la journée dans votre boîte de réception
D'autres grandes entreprises technologiques ont-elles des technologies similaires ?
Oui. En fait, Apple est un entrant relativement tardif sur la scène car Microsoft, Google et Facebook ont alerté les organismes chargés de l'application de la loi sur les images CSAM. Apple a pris du retard car une telle technologie aurait été contraire à son engagement tant vanté en matière de confidentialité des utilisateurs. En conséquence, en 2020, lorsque Facebook a signalé 20,3 millions de violations de CSAM au NCMEC, Apple n'a pu signaler que 265 cas, a rapporté le New York Times.
Ce n'est que maintenant qu'il a pu trouver la technologie idéale pour le faire sans impacter les utilisateurs réguliers, ou au moins les effrayer. Cependant, comme le contrecoup initial l'a montré, il s'agit toujours d'une marche sur la corde raide.
Partage Avec Tes Amis: