ChatGPT : la France ne bloque pas mais plusieurs plaintes ont été déposées

Florian Innocente |

La France et ses autorités n'ont pas encore manifesté d'opposition à l'exploitation de données d'utilisateurs par OpenAI pour entrainer ChatGPT. Des initiatives ont été toutefois lancées pour répondre à cette nouvelle problématique et des plaintes individuelles ont été déposées contre la startup américaine.

OpenAI

Fin mars, le régulateur italien a demandé à OpenAI de cesser de traiter les données des internautes italiens et ordonné le blocage du service dans la péninsule. À cela, OpenAI a répondu qu'il allait s'efforcer de vérifier l'âge des utilisateurs dont il récupère des données publiques ; d'offrir plus de transparence sur ses méthodes de traitement des informations personnelles et qu'il répondrait plus en détail aux inquiétudes de la cousine italienne de la CNIL.

Le gouvernement italien demande le blocage de ChatGPT

D'une manière plus générale, OpenAI insiste sur le fait qu'il n'essaie pas de constituer des profils d'individus, mais d'assembler des jeux de données sur le monde en général.

Dans une interview à La Tribune la semaine dernière, Jean-Noël Barrot, le ministre délégué chargé de la Transition du numérique, excluait de suivre l'exemple italien. Pas de « En même temps », mais plutôt un « Ni Ni » : Ni idolâtrie devant ces prouesses techniques, ni bannissement. L'objectif est, d'une part, de voir davantage de chercheurs français travailler dans ce domaine, quitte à le faire au sein de groupes américains :

La France a une carte à jouer. Parmi les géants numériques qui ont lancé certains des modèles d'IA, on retrouve souvent des Français à leur tête. Meta a installé en France un de ses principaux laboratoires de recherche en IA en Europe. Ce sont nos doctorants qui peuplent aujourd'hui les laboratoires de Meta. Il n'y a aucune raison que nous ne puissions pas développer à notre tour des modèles en France, avec des startups comme Dust.

D'autre part, de poser un cadre autour de ces nouvelles intelligences artificielles. Le ministre dit avoir saisi le Comité national d'éthique du numérique pour qu'il actualise ses analyses, après avoir déjà étudié le cas des chatbots il y a trois ans. Il y a ensuite le cadre européen qui doit jouer son rôle, dans la droite ligne de ce qui a été déjà fait avec le RGPD :

Je ne vais pas rentrer dans le détail, mais l'UE va fixer les usages pour lesquels l'IA va être interdite, par exemple la surveillance. Ensuite, les usages critiques comme la santé ou les transports pour lesquels des vies humaines sont engagées. Les fabricants d'IA devront alors subir un contrôle et un audit de leurs produits avant la mise sur le marché. Et enfin, les usages récréatifs.

Plaintes individuelles

À titre individuel, trois plaintes ont été déposées en France contre OpenAI. L'une émane de l'association Janus International, pour la sensibilisation aux enjeux du numérique. L'avocate Zoë Vilain notait l'absence de conditions générales d’utilisation proposées aux utilisateurs de ChatGPT sur le site d'OpenAI et l'absence de réponse de la startup dans les délais impartis pour sa demande d'accès à ses données personnelles.

L'autre est du développeur David Libeau qui a également porté plainte auprès de la CNIL et s'en explique sur son blog : « Manque de transparence, défaut de loyauté et absence apparente de base légale ». Trois points qu'il détaille :

  • Les utilisateurs de ChatGPT ne sont pas informés que leur nom peut être enregistré dans le modèle de langage ;
  • Les informations générées par ChatGPT peuvent être incorrectes, ce qui peut avoir des conséquences négatives pour les personnes concernées (il peut arriver qu'en interrogeant ChatGPT sur soi-même des faits farfelus soient retournés, ndlr) ;
  • ChatGPT doit justifier la collecte, le traitement et l’utilisation des données personnelles des utilisateurs en conformité avec les lois et règlements applicables.

La dernière en date est du député Eric Bothorel (groupe Renaissance) qui a porté plainte aujourd'hui. Parmi ses griefs il y a les erreurs que peut commettre ChatGPT lorsqu'il répond à des questions sur des personnes et l'impossibilité de les faire rectifier, comme l'impose le RGPD.

En interrogeant ChatGPT sur sa biographie, l'outil a retourné une série de faits erronés sur le parcours professionnel du député — il n'a pas travaillé chez Orange ni chez Havas — et sur la circonscription qui l'a élu ou sur de prétendues fonctions de maire.

Accédez aux commentaires de l'article