September 24, 2021

Confidentialité de l’iPhone : comment la décision d’Apple d’exposer davantage d’abuseurs d’enfants pourrait vous affecter

Apple soulève des problèmes de confidentialité avec ses appareils.

Andrew Hoyle/CNET

Apple s’est longtemps présenté comme un bastion de la sécurité, et comme l’une des seules entreprises technologiques qui se soucie vraiment de la confidentialité des utilisateurs. Mais une nouvelle technologie conçue pour aider un ordinateur iPhone, iPad ou Mac détecter les images et vidéos d’exploitation d’enfants stockées sur ces appareils a déclenché un débat acharné sur la vérité derrière les promesses d’Apple.

Le 5 août, Apple a annoncé une nouvelle fonctionnalité intégrée dans le prochain iOS 15, iPad OS 15, WatchOS 8 et MacOS Monterey mises à jour logicielles, conçues pour détecter si des personnes ont des images ou des vidéos d’exploitation d’enfants stockées sur leur appareil. Pour ce faire, il convertit les images en bits de code uniques, appelés hachages, en fonction de ce qu’ils représentent. Les hachages sont ensuite vérifiés par rapport à une base de données de contenu connu d’exploitation d’enfants qui est gérée par le Centre national pour les enfants disparus et exploités. Si un certain nombre de correspondances sont trouvées, Apple est alors alerté et peut poursuivre l’enquête.

Apple a déclaré avoir développé ce système pour protéger la vie privée des personnes, en effectuant des analyses sur le téléphone et en ne déclenchant des alarmes que si un certain nombre de correspondances sont trouvées. Mais les experts en protection de la vie privée, qui conviennent que lutter contre l’exploitation des enfants est une bonne chose, craignent que les mesures d’Apple n’ouvrent la porte à des utilisations plus larges qui pourraient, par exemple, mettre en danger des dissidents politiques et d’autres personnes innocentes.

“Même si vous pensez qu’Apple ne permettra pas que ces outils soient mal utilisés, il y a encore beaucoup à craindre”, a tweeté Matthew Green, professeur à l’Université Johns Hopkins, qui a travaillé sur les technologies cryptographiques.

La nouvelle fonctionnalité d’Apple et les inquiétudes qui en découlent représentent un débat important sur l’engagement de l’entreprise en matière de confidentialité. Apple promet depuis longtemps que ses appareils et logiciels sont conçus pour protéger la vie privée des utilisateurs. La société a même dramatisé cela avec une publicité accrochée juste à l’extérieur de la salle des congrès du Consumer Electronics Show 2019, qui disait: “Ce qui se passe sur votre iPhone reste sur votre iPhone.”

« Chez Apple, nous pensons que la confidentialité est un droit humain fondamental », a souvent déclaré Tim Cook, PDG d’Apple.

La technologie de numérisation d’Apple fait partie d’un trio de nouvelles fonctionnalités que la société prévoit pour cet automne. Apple permet également à son assistant vocal Siri d’offrir des liens et des ressources aux personnes qui, selon lui, pourraient se trouver dans une situation grave, comme un enfant en danger. Les avocats réclamaient ce type de fonctionnalité depuis un certain temps.

Il ajoute également une fonctionnalité à son application de messagerie pour protéger de manière proactive les enfants contre le contenu explicite, que ce soit dans une conversation SMS à bulle verte ou dans un chat crypté iMessage à bulle bleue. Cette nouvelle fonctionnalité est spécialement conçue pour les appareils enregistrés sous le compte iCloud d’un enfant et avertira s’il détecte une image explicite envoyée ou reçue. Comme avec Siri, l’application proposera également des liens et des ressources si nécessaire.

apple-child-safety-mocks.png

Le système d’Apple alertera également les enfants des images explicites envoyées ou reçues sur son application de messagerie.

Pomme

Il y a beaucoup de nuances impliquées ici, ce qui explique en partie pourquoi Apple a pris la décision inhabituelle de publier des documents de recherche, des questions fréquemment posées et d’autres informations avant le lancement prévu.

Voici tout ce que vous devez savoir :

Pourquoi Apple fait-il cela maintenant ?

La fonction de synchronisation de la bibliothèque de photos iCloud d’Apple synchronise les images et les vidéos entre les appareils d’une personne et les serveurs de l’entreprise.

Pomme

Le géant de la technologie a déclaré qu’il essayait depuis un certain temps de trouver un moyen d’aider à mettre fin à l’exploitation des enfants. Le Centre national pour les enfants disparus et exploités a reçu plus de 65 millions de rapports de matériel l’année dernière. Apple a déclaré que c’était loin des 401 rapports d’il y a 20 ans.

“Nous savons également que les 65 millions de fichiers signalés ne représentent qu’une petite fraction de ce qui est en circulation”, a déclaré Julie Cordua, directrice de Thorn, une organisation à but non lucratif luttant contre l’exploitation des enfants qui soutient les efforts d’Apple. Elle a ajouté que la loi américaine oblige les entreprises technologiques à signaler le matériel d’exploitation s’ils le trouvent, mais cela ne les oblige pas à le rechercher.

D’autres entreprises recherchent activement de telles photos et vidéos. Facebook, Microsoft, Twitter et Google (et sa filiale YouTube) utilisent tous diverses technologies pour analyser leurs systèmes à la recherche de téléchargements potentiellement illégaux.

Ce qui rend le système d’Apple unique, c’est qu’il est conçu pour analyser nos appareils, plutôt que les informations stockées sur les serveurs de l’entreprise.

Le système de numérisation de hachage ne sera appliqué qu’aux photos stockées dans la bibliothèque de photos iCloud, qui est un système de synchronisation de photos intégré aux appareils Apple. Il ne hachera pas les images et les vidéos stockées dans l’application Photos d’un téléphone, d’une tablette ou d’un ordinateur qui n’utilise pas la bibliothèque de photos iCloud. Ainsi, d’une certaine manière, les gens peuvent se retirer s’ils choisissent de ne pas utiliser les services de synchronisation de photos iCloud d’Apple.

Lire la suite: Le responsable du logiciel Apple déclare que le projet de scanner les iPhones à la recherche d’images d’abus d’enfants est “mal compris”

Ce système pourrait-il être abusé ?

France-1203788550

La Chine censure agressivement les discours et les images politiques.

Getty Images

La question n’est pas de savoir si Apple doit faire ce qu’il peut pour lutter contre l’exploitation des enfants. Il s’agit de savoir si l’entreprise doit utiliser cette méthode.

La question de la pente glissante que les experts en matière de protection de la vie privée ont soulevée est de savoir si les outils d’Apple pourraient être transformés en technologie de surveillance contre les dissidents. Imaginez si le gouvernement chinois était en mesure d’ajouter secrètement des données correspondant à la célèbre photo de Tank Man lors des manifestations pro-démocratie de 1989 sur la place Tiananmen au système de contenu d’Apple sur l’exploitation des enfants.

Apple a déclaré avoir conçu des fonctionnalités pour empêcher que cela ne se produise. Le système ne numérise pas les photos, par exemple, il vérifie les correspondances entre les codes de hachage. La base de données de hachage est également stockée sur le téléphone, pas une base de données sur Internet. Apple a noté qu’étant donné que les analyses ont lieu sur l’appareil, les chercheurs en sécurité peuvent plus facilement vérifier son fonctionnement.

“Si vous regardez n’importe quel autre service cloud, ils numérisent actuellement des photos en regardant chaque photo dans le cloud et en l’analysant ; nous voulions pouvoir repérer ces photos dans le cloud sans regarder les photos des gens”, a déclaré le responsable d’Apple. du génie logiciel, Craig Federighi, dans une interview du 13 août avec le Wall Street Journal. « Ceci ne fait pas une analyse pour : « Aviez-vous une photo de votre enfant dans la baignoire ? » Ou, d’ailleurs, « Aviez-vous une photo d’une autre sorte de pornographie ? » Cela ne correspond littéralement qu’aux empreintes digitales exactes d’images pédopornographiques connues.”

La société a également déclaré qu’il existe « plusieurs niveaux d’auditabilité ». L’un des moyens est qu’Apple prévoit de publier un hachage, ou un code unique identifiable, pour sa base de données en ligne chaque fois qu’elle est mise à jour par le National Center for Missing and Exploited Children. Apple a déclaré que le hachage ne peut être généré qu’avec l’aide d’au moins deux organisations distinctes de sécurité des enfants, et les experts en sécurité seront en mesure d’identifier tout changement s’il se produit. Les organisations de sécurité des enfants pourront également auditer les systèmes d’Apple, a déclaré la société.

Apple fouille-t-il dans mes photos ?

Nous en avons tous vu une version : la photo du bébé dans la baignoire. Mes parents avaient certains de moi, j’ai certains de mes enfants, et c’était même un gag courant dans la comédie animée Dreamworks 2017 The Boss Baby.

Apple dit que ces images ne devraient pas faire trébucher son système. Étant donné que le système d’Apple convertit nos photos en ces codes de hachage, puis les compare à une base de données connue de vidéos et de photos d’exploitation d’enfants, la société ne scanne pas réellement nos affaires. La société a déclaré que la probabilité d’un faux positif est inférieure à un sur mille milliards par an.

“De plus, chaque fois qu’un compte est signalé par le système, Apple procède à un examen humain avant de faire un rapport au National Center for Missing and Exploited Children”, a écrit Apple sur son site. “En conséquence, les erreurs système ou les attaques n’entraîneront pas le signalement de personnes innocentes au NCMEC.”

Apple lit-il mes textes ?

Apple n’applique pas son système de détection de maltraitance d’enfants à nos messages texte. Il s’agit effectivement d’un système distinct.

Sur les iPhones connectés à comptes iCloud pour enfants, l’application de messagerie – qui gère les SMS et iMessage – ” analysera les pièces jointes d’images ” des messages envoyés ou reçus ” pour déterminer si une photo est sexuellement explicite “. Si c’est le cas, Apple alertera alors les enfants qu’ils sont sur le point d’envoyer ou de visualiser une image explicite. À ce moment-là, l’image sera floue et l’enfant se verra proposer un lien vers des ressources sur la rencontre avec ce type d’imagerie. Les enfants peuvent toujours voir l’image, et si cela se produit, les parents seront alertés.

“La fonctionnalité est conçue pour qu’Apple n’ait pas accès aux messages”, a déclaré Apple.

Étant donné que ce système recherche simplement des images sexuellement explicites, contrairement à la configuration iCloud Photos, qui vérifie une base de données connue d’images d’abus d’enfants, il est probable que le système lié au texte d’Apple signalerait quelque chose comme vos photos légales de vos enfants dans une baignoire. Mais Apple a déclaré que ce système ne sera en place qu’avec les téléphones connectés sous le compte iCloud d’un enfant et qu’il est destiné à protéger ces utilisateurs d’iPhone contre une exposition inattendue à des images explicites.

Que dit Apple ?

Apple maintient que son système est conçu dans un souci de confidentialité, avec des garanties pour empêcher l’entreprise de connaître le contenu de nos bibliothèques de photos et pour minimiser le risque d’utilisation abusive.

Dans une interview avec le Wall Street Journal publiée le 13 août, Federighi d’Apple, a attribué une grande partie de la confusion à une mauvaise communication.

“Il est vraiment clair que beaucoup de messages se sont mélangés assez mal en termes de compréhension des choses”, a déclaré Federighi dans son interview. “Nous souhaitons que cela ressorte un peu plus clairement pour tout le monde parce que nous nous sentons très positifs et fortement à propos de ce que nous faisons.”

Il a également cherché à faire valoir que la fonction de numérisation est distincte des autres plans d’Apple pour alerter les enfants lorsqu’ils envoient ou reçoivent des images explicites dans l’application Messages de l’entreprise pour SMS ou iMessage. Dans ce cas, a déclaré Apple, il se concentre sur l’éducation des parents et des enfants et n’analyse pas ces images par rapport à sa base de données d’images d’abus d’enfants.