Apple va scanner les iPhones américains à la recherche d’images d’abus sexuels sur des enfants

Apple a dévoilé son intention d’analyser les iPhones américains à la recherche d’images d’abus sexuels sur des enfants, suscitant les applaudissements des groupes de protection de l’enfance, mais suscitant l’inquiétude de certains chercheurs en sécurité que le système pourrait être utilisé à mauvais escient, y compris par des gouvernements cherchant à surveiller leurs citoyens. L’outil conçu pour détecter les images connues des abus sexuels sur enfants, appelé « neuralMatch », numérisera les images avant qu’elles ne soient téléchargées sur iCloud. S’il trouve une correspondance, l’image sera examinée par un humain. Si la pédopornographie est confirmée, le compte de l’utilisateur sera désactivé et le National Center for Missing and Exploited Children notifié. Séparément, Apple prévoit d’analyser les messages cryptés des utilisateurs à la recherche de contenu sexuellement explicite en tant que mesure de sécurité pour les enfants, ce qui a également alarmé les défenseurs de la vie privée. Le système de détection ne signalera que les images déjà présentes dans la base de données de pornographie juvénile connue du centre. Les parents qui prennent des photos innocentes d’un enfant dans le bain n’ont probablement pas à s’inquiéter. Mais les chercheurs disent que l’outil de correspondance – qui ne « voit » pas de telles images, juste des « empreintes digitales » mathématiques qui les représentent – pourrait être utilisé à des fins plus néfastes. Matthew Green, un chercheur de haut niveau en cryptographie à l’Université Johns Hopkins, a averti que le système pourrait être utilisé pour piéger des personnes innocentes en leur envoyant des images apparemment inoffensives conçues pour déclencher des correspondances pour de la pornographie enfantine. Cela pourrait tromper l’algorithme d’Apple et alerter les forces de l’ordre. « Les chercheurs ont pu le faire assez facilement », a-t-il déclaré à propos de la capacité de tromper de tels systèmes. Potentiel d’abus D’autres abus pourraient inclure la surveillance gouvernementale des dissidents ou des manifestants. « Que se passe-t-il lorsque le gouvernement chinois dit : « Voici une liste de fichiers que nous voulons que vous recherchiez » », a demandé Green. « Apple dit non ? J’espère qu’ils disent non, mais leur technologie ne dira pas non ». Des entreprises technologiques telles que Microsoft, Google, Facebook et d’autres partagent depuis des années les empreintes digitales d’images connues d’abus sexuels sur des enfants. Apple les a utilisés pour analyser les fichiers utilisateur stockés dans son service iCloud, qui ne sont pas cryptés de manière aussi sécurisée que ses données sur l’appareil, à des fins de pornographie juvénile. Apple subit depuis des années des pressions gouvernementales pour permettre une surveillance accrue des données cryptées. À venir avec les nouvelles mesures de sécurité, Apple devait effectuer un équilibre délicat entre la répression de l’exploitation des enfants tout en gardant son engagement de premier plan à protéger la vie privée de ses utilisateurs. Mais une Electronic Frontier Foundation, le pionnier des libertés civiles en ligne, a appelé Le compromis d’Apple sur la protection de la vie privée « une volte-face choquante pour les utilisateurs qui se sont appuyés sur le leadership de l’entreprise en matière de confidentialité et de sécurité ». en ligne, a reconnu le potentiel d’abus du système d’Apple, mais a déclaré qu’il était de loin compensé par l’impératif de lutter contre la sexualité des enfants J’abuse. » Est-ce possible ? Bien sûr. Mais est-ce quelque chose qui me préoccupe ? Non », a déclaré Hany Farid, chercheur à l’Université de Californie à Berkeley, qui soutient que de nombreux autres programmes conçus pour protéger les appareils contre diverses menaces n’ont pas vu « ce type de dérive de mission ». Par exemple, WhatsApp fournit aux utilisateurs chiffrement de bout en bout pour protéger leur vie privée, mais utilise également un système pour détecter les logiciels malveillants et avertir les utilisateurs de ne pas cliquer sur des liens nuisibles.’Gamechanger’Apple a été l’une des premières grandes entreprises à adopter le « chiffrement de bout en bout, dans lequel les messages sont brouillés afin que seuls leurs expéditeurs et destinataires puissent les lire. Cependant, les forces de l’ordre font depuis longtemps pression sur l’entreprise pour qu’elle accède à ces informations afin d’enquêter sur des crimes tels que le terrorisme ou l’exploitation sexuelle des enfants. Apple a déclaré que les derniers changements seraient déployés cette année dans le cadre des mises à jour de son logiciel d’exploitation pour iPhones, Mac et Apple Watches. « La protection étendue d’Apple pour les enfants change la donne », a déclaré John Clark, président et PDG du National Center for Missing and Exploited Children, dans un communiqué. « Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants ». Julia Cordua, PDG de Thorn, a déclaré que la technologie d’Apple équilibre « le besoin de confidentialité avec la sécurité numérique des enfants ». par Demi Moore et Ashton Kutcher, utilise la technologie pour aider à protéger les enfants contre les abus sexuels en identifiant les victimes et en travaillant avec des plateformes technologiques. Briser la sécuritéMais dans une critique fulgurante, le Center for Democracy and Technology de Washington a appelé Apple à abandonner les changements, qui, selon elle, détruit effectivement la garantie de « chiffrement de bout en bout » de l’entreprise. L’analyse des messages à la recherche de contenu sexuellement explicite sur des téléphones ou des ordinateurs brise effectivement la sécurité, a-t-elle déclaré. L’organisation a également remis en question la technologie d’Apple pour différencier un contenu dangereux de quelque chose. aussi apprivoisé que l’art ou un mème. De telles technologies sont notoirement sujettes aux erreurs, a déclaré CDT dans un communiqué envoyé par courrier électronique. t les changements équivalent à une porte dérobée qui dégrade son cryptage. Il indique qu’il s’agit d’innovations soigneusement étudiées qui ne perturbent pas la vie privée des utilisateurs mais la protègent plutôt fortement. Séparément, Apple a déclaré que son application de messagerie utilisera l’apprentissage automatique sur l’appareil pour identifier et brouiller les photos sexuellement explicites sur les téléphones des enfants et peut également avertir les parents de les plus jeunes par SMS. Il a également déclaré que son logiciel « interviendrait » lorsque les utilisateurs essaieraient de rechercher des sujets liés à l’abus sexuel d’enfants. Afin de recevoir des avertissements concernant des images sexuellement explicites sur les appareils de leurs enfants, les parents devront inscrire le téléphone de leur enfant. Les enfants de plus de 13 ans peuvent se désinscrire, ce qui signifie que les parents d’adolescents ne recevront pas de notifications. Apple a déclaré qu’aucune de ces fonctionnalités ne compromettrait la sécurité des communications privées ou n’informerait la police.

Traduit de : https://www.euronews.com/next/2021/08/06/apple-to-scan-us-iphones-for-images-of-child-sexual-abuse