La lutte contre la pédophilie se mène aussi sur iCloud

Florian Innocente |

Durant la conférence du CES sur la gestion des données personnelles, Jane Horvath, Senior Director of Global Privacy chez Apple, a brièvement dit qu'Apple avait mis en place un système pour débusquer d'éventuels images pédophiles ou pouvant laisser supposer des faits de maltraitance sur enfants, qui sont stockées sur iCloud.

C'était à la suite de ses propos fustigeant l'idée de chercher à installer des portes dérobées dans les systèmes de chiffrement en espérant résoudre certains grands maux de ce monde. Comme le rapporte The Telegraph, elle a ajouté : « Nous employons certaines technologies pour aider à dépister des cas d'abus sexuel sur des enfants. »

Sans plus de détails de sa part sur ces outils en question, un porte-parole d'Apple a renvoyé vers une page du site contenant un peu plus d'informations. Celles-ci ont été publiées pour la première fois à l'automne dernier, comme le relevait MacObserver à l'époque.

Apple utilise la technologie de correspondance d'images pour rechercher et signaler l'exploitation d'enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter des abus présumés sur des enfants. Nous validons chaque correspondance par un examen individuel. Les comptes avec un contenu relatif à l'exploitation d'enfants enfreignent nos conditions d'utilisation et tous les comptes que nous trouvons avec ce type de contenus seront désactivés.

Dans son article sur MacObserver, Andrew Orr supposait qu'Apple se repose sur PhotoDNA, inventé par Microsoft et mis à disposition du National Center for Missing & Exploited Children (NCMEC). Ce système créée une signature électronique (une suite de chiffres) à partir d'une photo et la compare avec les signatures générées à partir d'images connues pour contenir de telles scènes.

Apple ne dit pas comment elle analyse ces images sur iCloud où elles sont stockées chiffrées, et si elle utilise PhotoDNA. Cela semble plausible puisqu'il faut une base conséquente et spécialisée, comme celle du NCMEC (45 millions d'entrées), avec laquelle comparer ses propres signatures.

avatar switch | 

On savait déjà que toutes les photos déposées sur les clouds étaient lues pour nourrir les algos de reconnaissance de formes et faire progresser le Deep Learning dans ce domaine. On sait à présent que les images sont comparées à des types d'images pédo/porn existantes (pour en traquer et attaquer les auteurs ?). Nos images n'ont aucun secret pour les GAFA, mais ce n'est pas nouveau.
Il est tellement plus facile de stocker en vrac des milliers de photos dans des photothèques et sur ces clouds (qui se chargent de les afficher plus sou moins correctement) au lieu de d'avoir à les stocker et organiser soi-même (même s'il existe d'excellents logiciels pour automatiser ces opérations (Exif Photoworker par exemple (hélas pour macOS seulement).

avatar Depret Lucas | 

@switch

Machine learning fait uniquement sur l’iPhone pas sur le cloud ;)

avatar SyMich | 

Non! C’est nécessairement fait sur les serveurs d’Apple! Comparer chaque photo avec une base de données de 45 millions de photos (si on prend la base PhotoDNA de Microsoft), vous imaginez le volume de data que ça consommerait sur votre forfait 4G??? Sans parler du temps de calcul...

avatar Depret Lucas | 

@SyMich

Je parle du machine learning!!! C’est l’iPhone qui crée des souvenirs,... l’inverse de Google avec Google photo. Et on ne sait pas comment Apple procède pour déterminer la pedophilie donc on s’abstient de dire n’importe quoi

avatar ClownWorld 🤡 | 

Matzneff avait donc un Android ?

avatar Oracle | 

C’est un algorithme qui cherche des photos déjà connues (saisies par la police à chaque inculpation ?) et donc ce n’est pas un algorithme qui cherche à deviner si l’une de vos photos pourrait éventuellement contenir du contenu équivalent.

Si iCloid est effectivement chiffré ça veux dire qu’ils comparent les empreintes avant chiffrement, ou que cette empreinte est transmise avant l’impose, ou alors qu’ils utilisent la clef privée ? Dans les 3 cas ça me semble étrange.

avatar SyMich | 

Les données iCloud sont stockées chiffrées (a l’exception notable des emails et de leurs pièces jointes), mais Apple dispose des clés de déchiffrement.
Les seules données pour lesquelles Apple ne s’est pas donné la possibilité de les déchiffrer sont listées dans ce document: https://support.apple.com/fr-fr/HT202303
Il s’agit de:
Données de l’app Maison
Données de l’app Santé (requiert iOS 12 ou version ultérieure)
Trousseau iCloud (inclut tous vos comptes et mots de passe enregistrés)
Informations de paiement
Vocabulaire mémorisé par le clavier QuickType (requiert iOS 11 ou version ultérieure)
Temps d’écran
Informations associées à Siri
Mots de passe Wi-Fi

Tout le reste de ce qui passe par iCloud (dont les photos de l’app Photos, ou celles jointes à des emails, jointes à des iMessages...) peut être décrypté pour analyse pat les automates d’Apple (dont Siri qui a besoin d’accéder à nos données pour être plus pertinent dans ses réponses)

avatar Oracle | 

@SyMich

Merci pour cet éclaircissement.

avatar jjrikly | 

Cela apporte la preuve que sur iCloud, rien n'est confidentiel !

PS: Je condamne la pédophilie !

avatar Depret Lucas | 

@jjrikly

Sauf ce qui est chiffré de bout en bout et on ne sait pas comment ils procèdent donc merci de ne pas crier scandale

avatar lmouillart | 

Chiffré de bout en bout veux dire que les échanges sont effectués de manière totalement chiffrés donc non lisible lors de la communication. Cela ne présuppose rien sur l'état de chiffrement du message sur les appareils de chaque côté de la chaine.

avatar Depret Lucas | 

Chiffrement de bout en bout signifie qu’appart celui qui envoie un message et celui qui le reçoit, personne ne sait le voir

avatar Felixba | 

Compte uniquement désactivé ? J’espère que l’alerte est quand même donnée ?!

avatar fousfous | 

Et donc parce que ça parle de pedophilie ça choque personne qu'Apple regarde nos photos? Je croyais qu'on était à fond niveau confidentialité mais là ça jette un froid.
Ce système me semble bien inquiétant, au début c'est pour les pedophiles et les terroristes mais après ça fini contre les opposants politiques.

avatar SyMich | 

C’est clair qu’en mettant ainsi sous surveillance la totalité des utilisateurs d’iCloud (1,2 milliards d’individus...), Apple s’autorise quelque chose que même la police ne peut faire (sauf dans certains Pays peu démocratiques)
Et comme vous le relevez, on parle de pedophilie parce que c’est l’exemple cité spontanément par Apple, mais qu’est-ce qui nous dit qu’il n’y a pas d’autres critères de recherche sans que personne ne soit au courant?

avatar Depret Lucas | 

@fousfous

On ne sait pas comment ils procèdent donc attendons

avatar fousfous | 

@Depret Lucas

On s'en fiche de comment c'est fait, le problème c'est que c'est fait.

avatar Depret Lucas | 

@fousfous

À voir si ils voient nos photos ou pas. Là on ne s’en fou pas

avatar fousfous | 

@Depret Lucas

Bah une comparaison même si ce n'est qu'un robot c'est voir les photos, il suffit juste que ce soit appliqué pour les opposants politiques et c'est parfait comme outil pour les dictatures.

avatar Depret Lucas | 

Il faut voir comment ils analysent cela 🤷‍♂️

avatar Depret Lucas | 

@fousfous

PhotoDNA creates a unique digital signature (known as a “hash”) of an image which is then compared against signatures (hashes) of other photos to find copies of the same image. When matched with a database containing hashes of previously identified illegal images, PhotoDNA is an incredible tool to help detect, disrupt and report the distribution of child exploitation material. PhotoDNA is not facial recognition software and cannot be used to identify a person or object in an image. A PhotoDNA hash is not reversible, and therefore cannot be used to recreate an image.

avatar fousfous | 

@Depret Lucas

Et il suffit d'appliquer cette signature pour traquer les opposants politiques, c'est très grave je trouve.
Par exemple en Chine avec les photos de Winnie l'ourson.

avatar Depret Lucas | 

@fousfous

Cela ne permet pas de savoir quel est la personne

avatar fousfous | 

@Depret Lucas

Bah si justement, il suffit juste de marquer l'image comme interdite et des qu'une personne a l'image hop petit interrogatoire et fouille de la vie de cette personne.

avatar Depret Lucas | 

Sauf qu’on ne sait quelle personne à l’image

Pages

CONNEXION UTILISATEUR