Meta veut clairement identifier toutes les photos générées par IA sur ses services

Félix Cattafesta |

Meta veut montrer qu’elle sait être responsable par rapport au développement des IA génératives et vient d’annoncer qu’elle allait prochainement identifier clairement certaines fausses images partagées sur ses services. L’entreprise accole déjà un badge aux images créées grâce à son service Imagine AI, qui est indisponible en France pour le moment. Elle le fera bientôt pour les réalisations de Midjourney, DALL-E 3 ou Adobe Firefly. Un nouveau logo indiquant qu’une image a été faite par IA devrait apparaître sur Threads, Facebook et Instagram.

« Nous avons travaillé avec des partenaires de l'industrie pour définir des normes techniques communes qui indiquent qu'un contenu a été créé à l'aide de l'IA », a déclaré Nick Clegg, responsable des affaires internationales et de la communication de Meta. L’entreprise intègre d’ores et déjà des métadonnées invisibles dans ses images générées qui permettent à certains outils de facilement les identifier comme telles. Elle n’est pas la seule à développer ses propres marqueurs : Adobe a ses Content Credentials là où Google a mis sur pied un filigrane maison. Meta va donc prendre en charge ces différents indices au fur et à mesure qu’ils sont implémentés. C’est un pas en avant, qui ne devrait cependant pas changer grand chose pour les images générées sur des moteurs open source comme Stable Diffusion.

Meta travaille également sur un système de détection de fausses images même si les métadonnées ont été modifiées, a indiqué Nick Clegg. La démarche n’est pas sans rappeler celle d’OpenAI, qui planche sur des outils similaires. L’entreprise avait tenté une expérience semblable avec un détecteur de texte, qui avait rapidement été enterré faute de résultats probants.

Alors que DALL-E 3 arrive dans ChatGPT Plus, OpenAI annonce un outil de détection de fausses images

Dans son communiqué, Meta annonce l’arrivée d’une nouvelle fonction destinée à l’utilisateur lui permettant de clairement indiquer « une vidéo photoréaliste ou un son réaliste créé ou modifié numériquement ». Celle-ci vise à combler l’absence de marqueurs invisible pour les contenus autres que les photos (vidéos, son). Des pénalités pourront être appliquées en cas de non-signalement allant de l'avertissement au bannissement. L’entreprise se réserve le droit d’ajouter des avertissements supplémentaires pour les publications particulièrement trompeuses sur certains sujets.

Le calendrier de déploiement de ces mesures n’a pas été communiqué, Meta se contentant d’évoquer « les mois à venir ». On peut s’attendre à une arrivée avant les prochaines élections américaines, qui auront lieu le 5 novembre 2024.

Accédez aux commentaires de l'article