La CNIL met en demeure Clearview AI de cesser la collecte de photos de visages en France

Florian Innocente |

10 milliards d'images de visages collectées à travers le monde et fouillées au moyen d'un logiciel de reconnaissance faciale par des forces de police américaines. Ce trésor constitué par l'entreprise américaine Clearview AI fait l'objet d'enquêtes de plusieurs organismes de protection de la vie privée et de défense des libertés.

La CNIL vient d'ordonner à Clearview AI de mettre un terme à la collecte d'images de personnes en France, avant de décider de sanctions financières si cette injonction n'est pas suivie d'effets.

Établie depuis 2017, Clearview AI n'opère qu'aux États-Unis et ses clients sont des forces de police ou des agences fédérales. Une enquête de Buzzfeed révélait toutefois des démarchages à l'étranger (Europe, Amérique du Sud, Asie, Moyen-Orient) et auprès de clients dans le commerce de détail, la banque ou le jeu vidéo.

La base de visages constituée ratisse en effet partout dans le monde. L'entreprise amasse toutes les images de visages — et l'adresse des pages ou métadonnées associées — qu'elle peut trouver en libre accès sur des sites web et réseaux sociaux (Facebook, Instagram, Linkedin, YouTube, etc).

Un visage photographié durant un larcin est utilisé comme base de recherche dans le système de Clearview AI
L'une des correspondances trouvées
Le récapitulatif des correspondances avec la source des images

Clearview AI revendique aujourd'hui une base de 10 milliards de visages — des photos mais aussi des extraits de vidéos — que ses clients peuvent ensuite fouiller à la recherche d'une correspondance avec un suspect. Dans ses exemples d'utilisation, Clearview AI cite le cas d'un individu dont la photo avait été signalée sur une page Facebook, par un passeur de drogue qui avait été recruté par ce biais, et dont d'autres images, accompagnées de son nom, avaient été trouvées sur la page d'un Country Club.

Clearview AI défend le recours à une imposante base de données pour éviter les erreurs et maximiser les chances de trouver la bonne personne. Dans un article de Wired, Hoan Ton-That, le co-fondateur de cette entreprise de reconnaissance faciale, expliquait qu'il travaillait à des algorithmes capables de déflouter un visage ou de retirer un masque avant d'essayer de recomposer la partie manquante. Avec les risques que cela suppose en termes d'erreurs possibles. Mais là encore, Clearview AI oppose le principe d'un contrôle systématique des résultats par un humain.

Après avoir été alertée en mai dernier, la CNIL a mis en demeure Clearview AI de cesser, dans un délai de deux mois, la collecte et l'usage d'images de personnes se trouvant sur le territoire français et de supprimer celles déjà aspirées.

Ces personnes, dont les photographies ou vidéos sont accessibles sur divers sites web et des réseaux sociaux, ne s’attendent raisonnablement pas à ce que leurs images soient traitées par la société pour alimenter un système de reconnaissance faciale pouvant être utilisé par des Etats à des fins policières.

La procédure pour demander et obtenir une suppression de ses images devra être aussi considérablement améliorée. Des actions et demandes similaires ont été faites en Australie ou au Canada. Dans certains cas, Clearview AI a fait valoir qu'il lui était impossible de savoir si la personne était dans tel ou tel pays ou de connaître sa nationalité.

Il est également du ressort des plateformes de proscrire cette aspiration de leur contenu, puisqu'elles se situent en amont de la chaîne. Facebook, YouTube ou Twitter ont sommé Clearview AI de cesser ces extractions sur leurs plateformes, sans résultat pour le moment.

avatar marenostrum | 

ceux qui encore analysent des photos (mais aussi ceux qui sont méfiants de ça) sont en retard d'une époque. notre époque c'est une géolocalisation numérique en permanence (comme n'importe quel appareil connecté à un réseau), même derrière les murs et masques. apparement ils ont déjà réussi connecter l'être humain (et t'infiltrant des composants, ils te donnent une adresse mac), comme une ampoule quelconque.

avatar marc_os | 

@ marenostrum

> ils ont déjà réussi connecter l'être humain (et t'infiltrant des composants, ils te donnent une adresse mac), comme une ampoule quelconque.

Tiens, je ne l'attendais pas celle là.
"Ils" te l'ont infiltré avec le vaccin contre le COVID dans des nano-particules je suppose ? 😀😀😁😂
Y en a qui ont regardé trop de films de science-fiction on dirait. Ou de vidéos complotistes de sectes YouTube.

avatar marenostrum | 

tu peux faire l'essai et le voir par toi même. il te faut juste une app de réseaux, t'en as sur App Store, blue sniff par ex.
moi j'attends le premier jailbreak de l'être humain, lol.
on rentre dans l'époque sy-fy maintenant pour de vrai.

avatar marc_os | 

On nage en plein délire.
Bref.

Je vais quand même faire vérifier mes plombages aux dents, on ne sait jamais. Et me faire scanner, vu que je viens d'être opéré. 🤕 Qui sait ce que mon chirurgien a pu mettre dans mon corps pendant mon anesthésie générale ? Peut-être que le truc qui merdait et qu'il a retiré, il l'a remplacé par une puce ? 👽

avatar marenostrum | 

La plupart ont déjà une adresse mac. On peut faire le test tout seul, télécharger une app de réseaux, aller dans un champ où on capte rien, et faire une recherche réseaux, si l’appareil montre un c’est le votre. Copiez la et si vous la trouvez partout où vous êtes c’est la preuve que c’est votre adresse unique mac.

avatar purepix | 

@marenostrum

Pardon ?

avatar marenostrum | 

Va sur wiki pour comprendre d’abord ce que est une adresse mac.

avatar cherbourg | 

Je me suis dit : « ouf, je ne montre pas mon vidage sur mon Twitter ni mon Insta »…et puis je me suis souvenu de mon blog désactivé il y a seulement 2 ans.
Je ne vais bien sûr pas faire le test parce que ça voudrait dire leur envoyer une photo…#CercleVicieux

avatar byte_order | 

RGPD non respectée : pas d'accord préalable à l'exploitation de données personnelles ni de moyen aux individus de contrôler cet accord.

Hop, faut taper là où cela fera mal à ClearView : amende de 10% sur son CA.

avatar mapiolca | 

Comment peut on identifier 10 milliards de visages sachant qu’on est même pas ce nombre sur terre, d’autant plus que je ne suis pas sûr que leur logiciel couvre la Tanzanie ou l’intégralité des Philippines… il doit y’avoir beaucoup de doublon dans leur base…

Pages

CONNEXION UTILISATEUR