Meta a plus d'un tour dans son sac en matière d'IA. En début de semaine, l'entreprise a dévoilé un nouveau modèle de génération d'images qui a la particularité de ne pas fonctionner de la même manière que StableDiffusion, MidJourney ou d’autres services similaires ayant fait grand bruit ces derniers mois. L'idée est de proposer une intelligence artificielle raisonnant d'une manière « semblable aux humains » afin d'obtenir de meilleurs résultats.
Meta est parti du constat que les humains absorbent énormément d'informations passivement juste en observant le monde qui les entoure. Ce nouveau modèle I-JEPA (pour Image Joint Embedding Predictive Architecture) va s'inspirer de cela : il utilise ses connaissances du monde extérieur pour compléter les parties manquantes des images. Ce fonctionnement diffère des IA génératives que l'on connait qui vont comparer les pixels pour compléter un cliché. Ici, l'IA va plutôt raisonner et se concentrer sur des représentations abstraites, à la manière des humains.
L'entreprise promet que I-JEPA offre « d'excellentes performances » dans de multiples tâches de vision par ordinateur, et que son modèle est beaucoup plus efficace que les technologies massivement utilisées actuellement. Cette nouvelle approche permet d'éviter certaines erreurs communes sur les IA actuelles, comme les doigts en trop. « Les modèles génératifs appartiennent au passé, nous allons les abandonner pour des architectures prédictives », a expliqué le chercheur Yann LeCun lors d'un événement à Paris auquel à assisté Le Figaro. I-JEPA a également l'avantage d'être plus léger que les larges modèles de langages, et moins coûteux à mettre sur pied.
Le modèle va être partagé de manière open source via un laboratoire de recherche maison. Contrairement à OpenAI, Meta semble parier sur le partage libre de ses technologies et de leur code. Le but avoué est de laisser l'industrie se développer en utilisant ses outils pour ainsi bénéficier des améliorations apportées par la communauté.
Dans la foulée, Meta a également présenté MusicGen, son modèle permettant de créer des musiques à partir de mots. Le concept est semblable au MusicLM de Google, disponible en bêta fermé depuis le mois dernier. Une démo a été mise en ligne, et le code a été mis en ligne sur GitHub.