Apple va scanner les iPhones américains à la recherche d’images d’abus sexuels sur des enfants

Apple a dévoilé son intention d’analyser les iPhones américains à la recherche d’images d’abus sexuels sur des enfants, suscitant les applaudissements des groupes de protection de l’enfance, mais suscitant l’inquiétude de certains chercheurs en sécurité que le système pourrait être utilisé à mauvais escient, y compris par des gouvernements cherchant à surveiller leurs citoyens. L’outil conçu pour détecter les images connues des abus sexuels sur enfants, appelé « neuralMatch », numérisera les images avant qu’elles ne soient téléchargées sur iCloud. S’il trouve une correspondance, l’image sera examinée par un humain. Si la pédopornographie est confirmée, le compte de l’utilisateur sera désactivé et le National Center for Missing and Exploited Children notifié. Séparément, Apple prévoit d’analyser les messages cryptés des utilisateurs à la recherche de contenu sexuellement explicite en tant que mesure de sécurité pour les enfants, ce qui a également alarmé les défenseurs de la vie privée. système de détection ne signalera que les images qui sont déjà dans la base de données du centre sur la pornographie enfantine connue. Les parents prenant des photos innocentes d’un enfant dans le bain n’ont probablement pas à s’inquiéter. Mais les chercheurs disent que l’outil de correspondance – qui ne « voit » pas de telles images, juste des « empreintes digitales » mathématiques qui les représentent – ​​pourraient être utilisées à des fins plus néfastes. Matthew Green, un chercheur de premier plan en cryptographie à l’Université Johns Hopkins, a averti que le système pourrait être utilisé pour piéger des personnes innocentes en leur envoyant des images apparemment inoffensives conçues pour déclencher des matchs. pour la pornographie enfantine. Cela pourrait tromper l’algorithme d’Apple et alerter les forces de l’ordre. « Les chercheurs ont pu le faire assez facilement », il a dit de la capacité de tromper de tels systèmes. D’autres abus pourraient inclure la surveillance gouvernementale des dissidents ou des manifestants. « Que se passe-t-il lorsque le gouvernement chinois dit : « Voici une liste de fichiers que nous voulons que vous recherchiez » », a demandé Green. « Apple dit-il non ? J’espère qu’ils diront non, mais leur technologie ne dira pas non. »Des entreprises technologiques telles que Microsoft, Google, Facebook et d’autres partagent depuis des années les empreintes digitales d’images connues d’abus sexuels sur des enfants. Apple les a utilisés pour analyser les fichiers utilisateur stockés dans son service iCloud, qui n’est pas aussi crypté que ses données sur l’appareil, à des fins de pornographie enfantine. Apple subit depuis des années la pression du gouvernement pour permettre une surveillance accrue des données cryptées. La mise en place des nouvelles mesures de sécurité a obligé Apple à effectuer un équilibre délicat entre la répression de l’exploitation des enfants tout en gardant son engagement de premier plan à protéger la vie privée de ses utilisateurs. Mais une Electronic Frontier Foundation, le pionnier des libertés civiles en ligne , a qualifié le compromis d’Apple sur la protection de la vie privée de « volonté choquant pour les utilisateurs qui se sont appuyés sur le leadership de l’entreprise en matière de confidentialité et de sécurité ». pédopornographie en ligne, a reconnu le potentiel d’abus du système d’Apple, mais a déclaré qu’il était de loin compensé par l’impératif de lutter contre les abus sexuels sur les enfants. « Est-ce possible ? Bien sûr. Mais est-ce quelque chose qui me préoccupe ? Non », a déclaré Hany Farid, chercheur à l’Université de Californie à Berkeley, qui affirme que de nombreux autres programmes conçus pour protéger les appareils contre diverses menaces n’ont pas vu « ce type de mission rampante ». Par exemple, WhatsApp fournit aux utilisateurs un cryptage de bout en bout pour protéger leur vie privée, mais utilise également un système pour détecter les logiciels malveillants et avertir les utilisateurs de ne pas cliquer sur des liens nuisibles. Apple a été l’une des premières grandes entreprises à adopter -end », dans lequel les messages sont brouillés afin que seuls leurs expéditeurs et destinataires puissent les lire. Cependant, les forces de l’ordre font depuis longtemps pression sur l’entreprise pour qu’elle accède à ces informations afin d’enquêter sur des crimes tels que le terrorisme ou l’exploitation sexuelle des enfants. Apple a déclaré que les derniers changements seraient déployés cette année dans le cadre des mises à jour de son logiciel d’exploitation pour iPhones, Mac et les montres Apple. « La protection étendue d’Apple pour les enfants change la donne », a déclaré John Clark, président-directeur général du National Center for Missing and Exploited Children. « Avec autant de personnes utilisant des produits Apple, ces nouveaux les mesures de sécurité ont un potentiel de sauvetage pour les enfants. » Julia Cordua, PDG de Thorn, a déclaré que la technologie d’Apple équilibre « le besoin de confidentialité avec la sécurité numérique pour les enfants. » Thorn, une organisation à but non lucratif fondée par Demi Moore et Ashton Kutcher, utilise la technologie pour aider protéger les enfants contre les abus sexuels en identifiant les victimes et en travaillant avec des plateformes technologiques. Mais dans une critique fulgurante, le Center for Democracy and Technology de Washington a appelé Apple d’abandonner les modifications, qui, selon lui, détruisent effectivement la garantie de «chiffrement de bout en bout» de la société. L’analyse des messages à la recherche de contenu sexuellement explicite sur des téléphones ou des ordinateurs brise efficacement la sécurité, a-t-il déclaré. dans une déclaration envoyée par courrier électronique. Apple nie que les changements constituent une porte dérobée qui dégrade son cryptage. Il dit qu’il s’agit d’innovations soigneusement considérées qui ne perturbent pas la confidentialité des utilisateurs mais la protègent plutôt fortement. Séparément, Apple a déclaré que son application de messagerie utiliserait sur l’appareil l’apprentissage automatique pour identifier et brouiller les photos sexuellement explicites sur les téléphones des enfants et peut également avertir les parents des jeunes enfants par SMS. Il a également déclaré que son logiciel « interviendrait » lorsque les utilisateurs essaieraient de rechercher des sujets liés aux abus sexuels sur les enfants. pour recevoir des avertissements concernant les images sexuellement explicites sur les appareils de leurs enfants, les parents devront enregistrer le téléphone de leur enfant. La version 13 peut se désinscrire, ce qui signifie que les parents d’adolescents ne recevront pas de notifications. Apple a déclaré qu’aucune de ces fonctionnalités ne compromettrait la sécurité des communications privées ou n’informerait la police.

Traduit de : https://www.euronews.com/2021/08/06/apple-to-scan-us-iphones-for-images-of-child-sexual-abuse