La lutte contre la pédophilie se mène aussi sur iCloud

Florian Innocente |

Durant la conférence du CES sur la gestion des données personnelles, Jane Horvath, Senior Director of Global Privacy chez Apple, a brièvement dit qu'Apple avait mis en place un système pour débusquer d'éventuels images pédophiles ou pouvant laisser supposer des faits de maltraitance sur enfants, qui sont stockées sur iCloud.

C'était à la suite de ses propos fustigeant l'idée de chercher à installer des portes dérobées dans les systèmes de chiffrement en espérant résoudre certains grands maux de ce monde. Comme le rapporte The Telegraph, elle a ajouté : « Nous employons certaines technologies pour aider à dépister des cas d'abus sexuel sur des enfants. »

Sans plus de détails de sa part sur ces outils en question, un porte-parole d'Apple a renvoyé vers une page du site contenant un peu plus d'informations. Celles-ci ont été publiées pour la première fois à l'automne dernier, comme le relevait MacObserver à l'époque.

Apple utilise la technologie de correspondance d'images pour rechercher et signaler l'exploitation d'enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour détecter des abus présumés sur des enfants. Nous validons chaque correspondance par un examen individuel. Les comptes avec un contenu relatif à l'exploitation d'enfants enfreignent nos conditions d'utilisation et tous les comptes que nous trouvons avec ce type de contenus seront désactivés.

Dans son article sur MacObserver, Andrew Orr supposait qu'Apple se repose sur PhotoDNA, inventé par Microsoft et mis à disposition du National Center for Missing & Exploited Children (NCMEC). Ce système créée une signature électronique (une suite de chiffres) à partir d'une photo et la compare avec les signatures générées à partir d'images connues pour contenir de telles scènes.

Apple ne dit pas comment elle analyse ces images sur iCloud où elles sont stockées chiffrées, et si elle utilise PhotoDNA. Cela semble plausible puisqu'il faut une base conséquente et spécialisée, comme celle du NCMEC (45 millions d'entrées), avec laquelle comparer ses propres signatures.

avatar switch (non vérifié) | 

On savait déjà que toutes les photos déposées sur les clouds étaient lues pour nourrir les algos de reconnaissance de formes et faire progresser le Deep Learning dans ce domaine. On sait à présent que les images sont comparées à des types d'images pédo/porn existantes (pour en traquer et attaquer les auteurs ?). Nos images n'ont aucun secret pour les GAFA, mais ce n'est pas nouveau.
Il est tellement plus facile de stocker en vrac des milliers de photos dans des photothèques et sur ces clouds (qui se chargent de les afficher plus sou moins correctement) au lieu de d'avoir à les stocker et organiser soi-même (même s'il existe d'excellents logiciels pour automatiser ces opérations (Exif Photoworker par exemple (hélas pour macOS seulement).

avatar Krysten2001 | 

@switch

Machine learning fait uniquement sur l’iPhone pas sur le cloud ;)

avatar SyMich | 

Non! C’est nécessairement fait sur les serveurs d’Apple! Comparer chaque photo avec une base de données de 45 millions de photos (si on prend la base PhotoDNA de Microsoft), vous imaginez le volume de data que ça consommerait sur votre forfait 4G??? Sans parler du temps de calcul...

avatar Krysten2001 | 

@SyMich

Je parle du machine learning!!! C’est l’iPhone qui crée des souvenirs,... l’inverse de Google avec Google photo. Et on ne sait pas comment Apple procède pour déterminer la pedophilie donc on s’abstient de dire n’importe quoi

avatar ClownWorld 🤡 | 

Matzneff avait donc un Android ?

avatar Oracle | 

C’est un algorithme qui cherche des photos déjà connues (saisies par la police à chaque inculpation ?) et donc ce n’est pas un algorithme qui cherche à deviner si l’une de vos photos pourrait éventuellement contenir du contenu équivalent.

Si iCloid est effectivement chiffré ça veux dire qu’ils comparent les empreintes avant chiffrement, ou que cette empreinte est transmise avant l’impose, ou alors qu’ils utilisent la clef privée ? Dans les 3 cas ça me semble étrange.

avatar SyMich | 

Les données iCloud sont stockées chiffrées (a l’exception notable des emails et de leurs pièces jointes), mais Apple dispose des clés de déchiffrement.
Les seules données pour lesquelles Apple ne s’est pas donné la possibilité de les déchiffrer sont listées dans ce document: https://support.apple.com/fr-fr/HT202303
Il s’agit de:
Données de l’app Maison
Données de l’app Santé (requiert iOS 12 ou version ultérieure)
Trousseau iCloud (inclut tous vos comptes et mots de passe enregistrés)
Informations de paiement
Vocabulaire mémorisé par le clavier QuickType (requiert iOS 11 ou version ultérieure)
Temps d’écran
Informations associées à Siri
Mots de passe Wi-Fi

Tout le reste de ce qui passe par iCloud (dont les photos de l’app Photos, ou celles jointes à des emails, jointes à des iMessages...) peut être décrypté pour analyse pat les automates d’Apple (dont Siri qui a besoin d’accéder à nos données pour être plus pertinent dans ses réponses)

avatar Oracle | 

@SyMich

Merci pour cet éclaircissement.

avatar jjrikly | 

Cela apporte la preuve que sur iCloud, rien n'est confidentiel !

PS: Je condamne la pédophilie !

avatar Krysten2001 | 

@jjrikly

Sauf ce qui est chiffré de bout en bout et on ne sait pas comment ils procèdent donc merci de ne pas crier scandale

avatar lmouillart | 

Chiffré de bout en bout veux dire que les échanges sont effectués de manière totalement chiffrés donc non lisible lors de la communication. Cela ne présuppose rien sur l'état de chiffrement du message sur les appareils de chaque côté de la chaine.

avatar Krysten2001 | 

Chiffrement de bout en bout signifie qu’appart celui qui envoie un message et celui qui le reçoit, personne ne sait le voir

avatar Felixba | 

Compte uniquement désactivé ? J’espère que l’alerte est quand même donnée ?!

avatar fousfous | 

Et donc parce que ça parle de pedophilie ça choque personne qu'Apple regarde nos photos? Je croyais qu'on était à fond niveau confidentialité mais là ça jette un froid.
Ce système me semble bien inquiétant, au début c'est pour les pedophiles et les terroristes mais après ça fini contre les opposants politiques.

avatar SyMich | 

C’est clair qu’en mettant ainsi sous surveillance la totalité des utilisateurs d’iCloud (1,2 milliards d’individus...), Apple s’autorise quelque chose que même la police ne peut faire (sauf dans certains Pays peu démocratiques)
Et comme vous le relevez, on parle de pedophilie parce que c’est l’exemple cité spontanément par Apple, mais qu’est-ce qui nous dit qu’il n’y a pas d’autres critères de recherche sans que personne ne soit au courant?

avatar Krysten2001 | 

@fousfous

On ne sait pas comment ils procèdent donc attendons

avatar fousfous | 

@Depret Lucas

On s'en fiche de comment c'est fait, le problème c'est que c'est fait.

avatar Krysten2001 | 

@fousfous

À voir si ils voient nos photos ou pas. Là on ne s’en fou pas

avatar fousfous | 

@Depret Lucas

Bah une comparaison même si ce n'est qu'un robot c'est voir les photos, il suffit juste que ce soit appliqué pour les opposants politiques et c'est parfait comme outil pour les dictatures.

avatar Krysten2001 | 

Il faut voir comment ils analysent cela 🤷‍♂️

avatar Krysten2001 | 

@fousfous

PhotoDNA creates a unique digital signature (known as a “hash”) of an image which is then compared against signatures (hashes) of other photos to find copies of the same image. When matched with a database containing hashes of previously identified illegal images, PhotoDNA is an incredible tool to help detect, disrupt and report the distribution of child exploitation material. PhotoDNA is not facial recognition software and cannot be used to identify a person or object in an image. A PhotoDNA hash is not reversible, and therefore cannot be used to recreate an image.

avatar fousfous | 

@Depret Lucas

Et il suffit d'appliquer cette signature pour traquer les opposants politiques, c'est très grave je trouve.
Par exemple en Chine avec les photos de Winnie l'ourson.

avatar Krysten2001 | 

@fousfous

Cela ne permet pas de savoir quel est la personne

avatar fousfous | 

@Depret Lucas

Bah si justement, il suffit juste de marquer l'image comme interdite et des qu'une personne a l'image hop petit interrogatoire et fouille de la vie de cette personne.

avatar Krysten2001 | 

Sauf qu’on ne sait quelle personne à l’image

avatar SyMich | 

Super utile alors pour détecter les pedophiles et clôturer leur compte iCloud... 🤦‍♂️

avatar Krysten2001 | 

@SyMich

Non je veux dire dans ce que tu m’avais dit sinon oui ils savent d’où vient la photo

avatar Krysten2001 | 

@SyMich

Mais ils ne voient il y’a quoi sur la photo mais d’où ça vient 🤷‍♂️

avatar fousfous | 

@Depret Lucas

Bah son sait qu'il y a une photo "illégal", c'est suffisant pour enquêter.
Et ensuite on pourrait élargir avec toutes les images qui passent dans la mémoire des appareils, toujours pour détecter les grands méchants.

avatar Krysten2001 | 

@fousfous

Ah oui je pense, normalement

avatar CorbeilleNews | 

@fousfous

C'est bien connu que tout ceux qui utilisent le cloud, Facebook et autres n'ont rien à cacher...

C'est souvent le discours des utilisateurs.

Ca tombe bien, ils ne devraient donc pas être surpris...

Enfin là c'est quand même pour une bonne cause, mais jusqu'où cela peut aller en coulisse ???

avatar fousfous | 

@CorbeilleNews

Enfin moi quand on justifie un truc par pedophilie ou terrorisme généralement c'est que c'est pas très clair et qu'il faut utiliser le joker pour que ça soit accepté.

avatar chriseg | 

C'est une bonne chose mais je croyais que les photos dans iCloud étaient chiffrés ?

avatar SyMich | 

Elles sont stockées chiffrées... mais Apple à la clé de déchiffrement.
Quant aux photos en pièce jointe d’emails, elles sont stockées, comme les emails, en clair.

avatar hirtrey | 

@SyMich

D’après le site d’Apple, tu es le seul à pouvoir déchiffrer tes données qui sont sur iCloud.

avatar SyMich | 

Non... C’est uniquement le cas pour les données chiffrées de bout en bout (et qu’Apple liste plus bas dans la page https://support.apple.com/fr-fr/HT202303 )

Apple écrit: « Pour certaines informations sensibles, Apple utilise un système de chiffrement de bout en bout. Cela signifie que vous êtes la seule personne à avoir accès à vos informations, et ce uniquement sur les appareils connectés à votre compte iCloud. Personne d’autre, pas même Apple, ne peut accéder aux informations chiffrées de bout en bout »
Donc si personne d’autre, pas même Apple, ne peut accéder aux info chiffrées de bout en bout, pour les autres données (chiffrées mais PAS de bout en bout), d’autres personnes, et notamment Apple, peuvent y accéder. (Il « suffit » d’avoir la clé de déchiffrement)

avatar hirtrey | 

@SyMich

Tu vois on lis la même doc et nous ne comprenons pas la même chose. Pour moi les données stockées sont chiffré ainsi que le transfert par une clé que seul l’utilisateur possède.

avatar lmouillart | 

Apple pourrait très bien chiffrer les messages avec votre clé publique et la sienne et donc déchiffrer ces mêmes messages avec sa clé privé, sans avoir jamais besoin de la votre.

En dehors de la confiance que vous avez dans les entreprises régies par le patriot act (https://www.epic.org/privacy/terrorism/usapatriot/#Analysis : c.-à-d. aucune puisque l'inverse leur est expressément imposé), rien ne dit qu'Apple, ou n'importe qui utilisant ou produisant des technologies de it-telco US/passant par les US/infra US ne peut pas permettre d'une manière ou d'une autre un accès non chiffré aux informations de vos appareils.

avatar hirtrey | 

@lmouillart

Donc en résumé faire un sauvegarde chiffré en local et n’utiliser iCloud que pour la sauvegarde de celle ci.

avatar Krysten2001 | 

@lmouillart

Les informations chiffrées sont chiffrées voilà pourquoi on a dû à les ouvrir si il y avait un back door tout le monde le saurait et la réputation d’Apple volerait en éclat

avatar SyMich | 

Relisez bien le doc publié par Apple. Ils font bien la distinction entre « vos données personnelles chiffrées »  et « quelques données sensibles chiffrées de bout en bout ».
Ils listent ensuite les quelques données bénéficiant de ce chiffrage de bout en bout en précisant que dans ce cas, lorsqu’il y a chiffrage de bout en bout, vous êtes le seul à pouvoir les déchiffrer.
(Et le chiffrage de bout en bout suppose avoir activé la sécurisation à 2 facteurs ce que 75% des utilisateurs ont fait. Pour les 25% restants, aucune données n’est chiffrées de bout en bout. Elles sont simplement chiffrées mais Apple dispose de la clé de déchiffrement)

Si Apple ne pouvait rien déchiffrer, d’une part Siri aurait bien du mal à consulter nos mails, nos agendas, nos contacts, nos photos... pour faire son boulot quand on le sollicite, et d’autre part, Apple n’aurait rien à fournir au FBI quand ils sont sollicités or ils indiquent bien collaborer en fournissant tout ce dont ils disposent sur iCloud (seul l’accès aux iPhones reste verrouillé car là, Apple ne dispose pas du code enregistré dans l’enclave sécurisée)

avatar Krysten2001 | 

@chriseg

C’est une histoire de signature électronique, ils ne voient c’est quoi comme photo

avatar Krysten2001 | 

@chriseg

PhotoDNA creates a unique digital signature (known as a “hash”) of an image which is then compared against signatures (hashes) of other photos to find copies of the same image. When matched with a database containing hashes of previously identified illegal images, PhotoDNA is an incredible tool to help detect, disrupt and report the distribution of child exploitation material. PhotoDNA is not facial recognition software and cannot be used to identify a person or object in an image. A PhotoDNA hash is not reversible, and therefore cannot be used to recreate an image.

avatar AirForceThree | 

@Zara2stra

Les "OK boomer" de pré adolescent, ça décrédibilise tout un propos. Dommage.

avatar macinoe | 

A ce que j'ai compris, ce serait une manière de traiter quelqu'un de vieux con.
Genre t'es plus dans le coup et tu ne comprends rien vieux débris de baby boomer.

Enfin bon, rien de neuf sous le soleil.

"Notre jeunesse aime le luxe, est grossière et mal élevée, ne se soucie pas de l'autorité et n'a aucun respect pour les anciens, les personnes âgées. Les enfants d'aujourd'hui sont des tyrans. Ils ne se lèvent pas quand un aîné entre dans une pièce, répondent mal à leurs parents ... "

Socrate il y a 2450 ans.

avatar denisbook (non vérifié) | 

Comme tu le dis si bien, l'histoire se répète :) perso je me fous du 'ok boomer' qui m'était adressé, ce qui me dérange beaucoup plus c'est la violence du discours anti-social et la haine gratuite qui n'est pas sans rappeler les black bloc qui cassent tout à la moindre manif.
A la limite on aurait pu penser que le sujet lui était particulièrement sensible (faut reconnaitre que j'ai un petit peu mis le feu dans la poudrière :)), mais pas du tout ... le zara2stra est coutumié du fait, et ne se gêne pas sur macg pour régulièrement traiter les gens de con et les prendre de haut.
Amusant de constater qu'il a balancé le ok boomer a plusieurs personnes déjà, il a peut-être un père qui l'a tabassé, qui sait ...

Pages

CONNEXION UTILISATEUR