En 2021, Apple a annoncé la création d’une nouvelle série de fonctions qui seraient incluses dans iCloud, afin de lutter contre les échanges de photos et vidéos à caractère pédopornographique. Peu de temps après, devant la levée de boucliers créée par la nouvelle, Apple a dû faire marche arrière. C’est ce retournement de veste, ainsi que le chiffrement de bout en bout d’iCloud, que le procureur général de Virginie de l’Ouest reproche dans une plainte ouverte contre le constructeur, comme le rapporte MacRumors.

Ce n’est pas la première plainte déposée à ce sujet : déjà en 2024, un collectif composé de 2 680 victimes d’abus sur mineurs avaient décidé de porter plainte contre Apple concernant sa volte-face sur la possibilité d’implémenter des systèmes contrôlant le contenu partagé sur ses plateformes. Si cette plainte est en cours, elle est de longue haleine : la procédure n’en est qu’à sa phase initiale, la plainte ayant été officiellement enregistrée, mais aucun jugement n’ayant encore été remis pour le moment.
Apple abandonne l'idée de scanner les photos pour détecter des images pédopornographiques
En ce début 2026, c’est une procédure beaucoup plus directe qui s’ouvre, la plainte étant déposée directement par le procureur général d’un État, permettant à ce dernier de directement poursuivre Apple si la cour de justice valide l’affaire, sans passer par la certification de class action très longue habituellement. Et l’Attorney General JB McCuskey ne mâche pas ses mots dans sa plainte :
Préserver la vie privée des prédateurs d’enfants est absolument inexcusable. Et, plus important encore, cela viole la loi de Virginie‑Occidentale. Puisqu’Apple a jusqu’à présent refusé de s’autoréguler et de faire ce qui est moralement juste, j’intente cette action en justice pour exiger qu’Apple respecte la loi, signale ces images et cesse de revictimiser les enfants en permettant que ces images soient conservées et partagées.
Lutte contre la pédopornographie : un utilisateur d'Android sous le coup d'une enquête policière après un faux positif de l'IA de Google
Pour appuyer ses lourdes accusations, le procureur général s’appuie, malheureusement pour Apple, sur rien moins que la conversation privée entre Eric Friedman, responsable FEAR (Fraud Engineering Algorithms and Risk, Ingénierie de la fraude, algorithmes et risques) et Herve Silbert, Security and Fraud Engineering Manager (Responsable ingénierie sécurité et fraude), révélée dans les documents récupérés durant le procès entre Apple et Epic Games :
[C’est pour ça que] nous sommes la plus grande plateforme de distribution de contenus pédopornographiques [...]

Apple a, bien entendu, déjà exprimé sa position sur le sujet dès l’annonce de l’annulation de son système de contrôle des contenus pédopornographiques, indiquant que « les enfants peuvent être protégés sans que les entreprises fouillent dans les données personnelles des utilisateurs », et que Cupertino continuerait « de travailler avec les gouvernements, les avocats pour mineurs et les autres entreprises pour protéger les enfants, leur droit à la vie privée, et pour faire d’Internet un endroit plus sûr pour les enfants », mais il semble que tout le monde n’en avait pas la certitude en interne, au vu de cette conversation.
La procédure lancée par le procureur général pourrait aboutir à un versement de dommages et intérêts, ainsi qu’à une injonction d’implémenter la fonction de contrôle des contenus pédopornographiques dans les serveurs d’iCloud et sur les appareils Apple de millions d’utilisateurs.















