Apple, Microsoft, Meta et OpenAI ont rejoint un consortium du gouvernement américain visant à élaborer des normes autour du développement de l’intelligence artificielle. Ce nouvel institut baptisé AI Safety Institute compte un total de 200 membres, avec entre autres Amazon, Hugging Face, Anthropic ou encore IBM. Selon un porte-parole du gouvernement, le but est de s’assurer que la technologie est déployée « de manière sûre et responsable ».
Les grandes boîtes du domaine vont travailler main dans la main avec l’Institut national des normes et de la technologie américain, un organisme relevant du ministère du Commerce. Ils seront épaulés par des groupes de la société civile, des universitaires ainsi que par des représentants du gouvernement. Les actions visent à suivre la ligne définie dans le décret du président Biden sur l'IA : gestion des risques, de la sûreté et de la sécurité, filigrane des contenus générés…
« Le gouvernement américain a un rôle important à jouer dans la définition des normes et le développement des outils dont nous avons besoin pour atténuer les risques et exploiter l'immense potentiel de l'intelligence artificielle », a déclaré la secrétaire du Commerce Gina Raimondo. Le rôle de l’administration Biden est délicat : il s’agit de maintenir la place sur le podium des États-Unis tout en définissant des règles pour éviter les dérives. Si les IA génératives peuvent aider dans bien des secteurs, elles apportent aussi leurs lots de problème (désinformation, deepfake, confidentialité, etc.).
Apple n’est pas un petit acteur dans le domaine de l’IA. Elle a racheté de nombreuses startups du secteur et dépenserait des milliards chaque année. Elle disposerait en interne d’un équivalent à ChatGPT (surnommé Ajax), et publie régulièrement des avancées dans le domaine. On s’attend à ce que l’IA soit au cœur des futures grosses mises à jour de son écosystème, infusant à travers différents aspects du système (apps, Siri, suite iWork).
Source : NIST