Ouvrir le menu principal

MacGeneration

Recherche

Meta : la deuxième version de LLaMA est open source et utilisable dans un cadre commercial

Félix Cattafesta

mercredi 19 juillet 2023 à 11:15 • 14

Ailleurs

Meta vient de présenter la deuxième grande version de LLaMA, son modèle de langage s'opposant au GPT-4 d'OpenAI. L'entreprise a annoncé la nouvelle à l'occasion d'un événement de Microsoft, précisant que cette dernière était son « partenaire privilégié » pour LLaMA 2. Bonne nouvelle : le modèle sera distribué gratuitement sous une licence permettant une utilisation commerciale.

La stratégie de l'open source est diamétralement opposée à celle d'OpenAI et de Google, qui gardent leurs algorithmes sous clefs. La diffusion d'un LLaMA 2 accessible à tous devrait multiplier les projets basés sur l'IA, et en faire une solution de choix pour les entreprises ne désirant pas payer pour les API de la concurrence.

LLaMA 2 est disponible en trois déclinaisons plus ou moins gourmandes (7B, 13B et 70B) et a été entraîné avec 40% de données en plus par rapport à la première version. Selon Meta, LLaMA 2 est légèrement moins performant que GPT-4 ou PaLM 2, et loin derrière OpenAI en termes de programmation. Un partenariat avec Qualcomm va permettre d'optimiser le modèle pour les téléphones et autres appareils embarquant un SoC de l'entreprise à partir de 2024.

« Nous pensons qu'une approche ouverte est la bonne pour le développement des modèles d'IA d'aujourd'hui, en particulier ceux du secteur génératif où la technologie progresse rapidement », a déclaré Meta. L'entreprise ajoute vouloir mettre le modèle entre les mains de tous, que ce soit celles des grandes boîtes, des entrepreneurs ou des chercheurs. Les « poids » des modèles (les fichiers contenant les valeurs des paramètres des réseaux neuronaux formés) sont téléchargeables, tout comme le code pour le modèle préentraîné ainsi que les versions affinées pour les conversations.

Nous pensons que [l'open source] est plus sûr. Ouvrir l'accès aux modèles d'IA actuels signifie qu'une génération de développeurs et de chercheurs peut les tester en profondeur, identifier et résoudre les problèmes rapidement, en tant que communauté. En voyant comment ces outils sont utilisés par d'autres, nos propres équipes peuvent en tirer des enseignements, améliorer ces outils et corriger les vulnérabilités.

La mise à disposition de ce nouveau modèle a été faite à l'occasion d'un évènement Microsoft. Les deux entreprises disposent d'un partenariat, ce qui fait que Llama 2 est disponible dans le catalogue de modèles Azure AI. Il est également « optimisé » pour fonctionner localement sur Windows. Ce rapprochement avec Meta fait sens pour la firme de Redmond : elle gagne ainsi une longueur d'avance sur son principal rival Google, et peut proposer à ses clients un modèle personnalisable.

Meta mise sur l'open source pour gagner la course à l'IA, ce qui est loin d'être idiot : LLaMA va être à la base de nombreux projets open source et s'imposer dans la communauté libre. L'entreprise pourra regarder comment est optimisée sa création et réutiliser les trouvailles par la suite. De plus, les conditions d'utilisations impliquent que les entreprises dépassant la barre des 700 millions d'utilisateurs actifs devront demander une licence à Meta. Un chiffre très haut qui empêche son utilisation par Amazon ou Google.

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

Le modèle peut dès à présent être téléchargé via AWS, Hugging Face et d'autres fournisseurs. Cette approche change de la technique utilisée pour la première version de LLaMA : le modèle était accessible sur liste d'attente uniquement pour les chercheurs… mais a fuité sur 4chan en quelques heures.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Nouveautés d’iOS 26, macOS Tahoe, Liquid Glass… Tous nos articles pour tout savoir sur la WWDC 2025

14/06/2025 à 15:00

• 9


Aperçu de Spotlight dans macOS Tahoe : le lanceur idéal pour débuter ?

14/06/2025 à 11:00

• 29


Sortie de veille : une WWDC 2025 réussie ? Notre débrief d’iOS 26, Liquid Glass…

14/06/2025 à 08:00

• 11


SAV : Apple lance un programme de réparation pour des Mac mini M2 qui ne s'allument plus

14/06/2025 à 07:38

• 41


Avec Tahoe, les applications macOS pourront s’afficher sur le Vision Pro

13/06/2025 à 21:57

• 17


Les Youtubeurs de Linus Tech Tips voulaient se moquer des Mac pendant un mois, mais décident finalement de rester chez Apple

13/06/2025 à 18:56

• 95


watchOS 26 : découverte de la nouvelle interface de l'app Exercice

13/06/2025 à 18:27

• 4


Découvrez le tout nouveau UPDF 2.0 – l’éditeur PDF ultime pour Mac et iOS !

13/06/2025 à 15:18

• 0


macOS 26 peut faire le ménage dans les icônes de la barre des menus

13/06/2025 à 14:52

• 11


Avec EnergyKit, Apple veut charger votre watture au moment le plus opportun

13/06/2025 à 13:45

• 12


3DMark, une référence pour comparer les performances des GPU, débarque sur Mac

13/06/2025 à 13:02

• 31


Promo : des MacBook Air M3 16 Go à partir de 850 €

13/06/2025 à 12:50

• 13


Des nouvelles de Cyberpunk 2077 sur Mac, qui tourne visiblement bien sur un MacBook Pro M4 Max

13/06/2025 à 11:56

• 36


Les vélos arrivent dans Plans sur le web et les apps tierces pour watchOS

13/06/2025 à 11:30

• 22


TSMC est toujours le plus gros fondeur, mais SMIC rattrape Samsung pour la gravure

13/06/2025 à 11:10

• 10


iOS et macOS 26 améliorent le remplissage automatique des codes de sécurité

13/06/2025 à 09:36

• 13