Cela fait plusieurs années que l'Europe planche sur un projet de loi strict visant à encadrer les intelligences artificielles. Baptisé « AI Act », celui-ci concerne autant les IA génératives comme ChatGPT que celles pouvant potentiellement être utilisées pour de la surveillance de masse ou dans le domaine médical.
Le texte a pour ambition de réguler l'intelligence artificielle en fonction de ses usages, classant ses utilisations par ordre de dangerosité. Différentes techniques seraient ainsi interdites : le système de « crédit social » mis en place par la Chine, les techniques de manipulation visant à exploiter les personnes les plus faibles ou encore l'identification biométrique à distance « en temps réel » dans les espaces publics. Le texte précise cependant que certaines exceptions pourront être appliquées sur ce dernier point.
Certaines manipulations ont été classées comme « à haut risque » : c'est le cas de l'IA pour la médecine, dans les transports, pour la justice… Certains voudraient que les IA génératives du style ChatGPT ou DALL-E rejoignent cette liste. Or, la question est complexe : les négociateurs doivent juger si tous les bots sont potentiellement dangereux, ce qui est compliqué sur ce type de technologie ayant différents cas d'utilisation.
Le texte prévoit que les bots soient obligatoirement désignés clairement comme des robots afin d'éviter toute confusion chez l'utilisateur. Les IA générant du contenu réaliste pouvant laisser penser qu'ils sont authentiques (sons, photos) devront clairement préciser qu'il s'agit de faux. L'idée serait de faire en sorte que les développeurs d'IA fassent preuve de plus de transparence.
Le texte est encore loin d'être adopté, et certains éléments sont toujours en discussions. Selon des personnes proches du dossier entendues par le Financial Times, le Parlement européen voudrait obliger les développeurs de chatbots à révéler s'ils utilisent du matériel protégé par le droit d'auteur pour entraîner leurs IA. Le but de cette manœuvre serait de déployer une mesure pour que les fabricants puissent dédommager les créateurs des contenus utilisés. Cette régulation tomberait à pic, car les premières batailles légales se préparent. Universal Music prépare ses avocats face à l'arrivée des musiques générées par IA tandis que Getty Images a attaqué Stable Diffusion en justice aux États-Unis.
Universal Music s'inquiète de l'arrivée des musiques générées par IA et met en garde Apple
Le négociateur Brando Benifei a affirmé au Financial Times que les députés européens espéraient pouvoir finaliser leurs positions la semaine prochaine. Les propositions du Parlement européen devraient être ratifiées d'ici le mois prochain, même s'il est encore trop tôt pour savoir avec précision ce qui sera présent dans le texte. L'idée d'interdire totalement l'utilisation de la reconnaissance faciale dans les lieux publics devrait être un point particulièrement sulfureux selon les personnes proches des négociations.
Ce texte serait lié à d'autres textes comme la RGPD, qui vise à la protection des données personnelles. Les contrevenants s'exposeraient à des amendes pouvant monter jusqu'à 30 millions d'euros ou 6 % des revenus mondiaux de l'entreprise. Comme pour la DMA et la DSA, les règles ne devraient pas entrer en vigueur tout de suite : on s'attend à ce qu'une période de plusieurs mois soit mise en place pour laisser aux différentes entreprises le temps de s'adapter.