Ouvrir le menu principal

MacGeneration

Recherche

Meta : la deuxième version de LLaMA est open source et utilisable dans un cadre commercial

Félix Cattafesta

mercredi 19 juillet 2023 à 11:15 • 14

Ailleurs

Meta vient de présenter la deuxième grande version de LLaMA, son modèle de langage s'opposant au GPT-4 d'OpenAI. L'entreprise a annoncé la nouvelle à l'occasion d'un événement de Microsoft, précisant que cette dernière était son « partenaire privilégié » pour LLaMA 2. Bonne nouvelle : le modèle sera distribué gratuitement sous une licence permettant une utilisation commerciale.

La stratégie de l'open source est diamétralement opposée à celle d'OpenAI et de Google, qui gardent leurs algorithmes sous clefs. La diffusion d'un LLaMA 2 accessible à tous devrait multiplier les projets basés sur l'IA, et en faire une solution de choix pour les entreprises ne désirant pas payer pour les API de la concurrence.

LLaMA 2 est disponible en trois déclinaisons plus ou moins gourmandes (7B, 13B et 70B) et a été entraîné avec 40% de données en plus par rapport à la première version. Selon Meta, LLaMA 2 est légèrement moins performant que GPT-4 ou PaLM 2, et loin derrière OpenAI en termes de programmation. Un partenariat avec Qualcomm va permettre d'optimiser le modèle pour les téléphones et autres appareils embarquant un SoC de l'entreprise à partir de 2024.

« Nous pensons qu'une approche ouverte est la bonne pour le développement des modèles d'IA d'aujourd'hui, en particulier ceux du secteur génératif où la technologie progresse rapidement », a déclaré Meta. L'entreprise ajoute vouloir mettre le modèle entre les mains de tous, que ce soit celles des grandes boîtes, des entrepreneurs ou des chercheurs. Les « poids » des modèles (les fichiers contenant les valeurs des paramètres des réseaux neuronaux formés) sont téléchargeables, tout comme le code pour le modèle préentraîné ainsi que les versions affinées pour les conversations.

Nous pensons que [l'open source] est plus sûr. Ouvrir l'accès aux modèles d'IA actuels signifie qu'une génération de développeurs et de chercheurs peut les tester en profondeur, identifier et résoudre les problèmes rapidement, en tant que communauté. En voyant comment ces outils sont utilisés par d'autres, nos propres équipes peuvent en tirer des enseignements, améliorer ces outils et corriger les vulnérabilités.

La mise à disposition de ce nouveau modèle a été faite à l'occasion d'un évènement Microsoft. Les deux entreprises disposent d'un partenariat, ce qui fait que Llama 2 est disponible dans le catalogue de modèles Azure AI. Il est également « optimisé » pour fonctionner localement sur Windows. Ce rapprochement avec Meta fait sens pour la firme de Redmond : elle gagne ainsi une longueur d'avance sur son principal rival Google, et peut proposer à ses clients un modèle personnalisable.

Meta mise sur l'open source pour gagner la course à l'IA, ce qui est loin d'être idiot : LLaMA va être à la base de nombreux projets open source et s'imposer dans la communauté libre. L'entreprise pourra regarder comment est optimisée sa création et réutiliser les trouvailles par la suite. De plus, les conditions d'utilisations impliquent que les entreprises dépassant la barre des 700 millions d'utilisateurs actifs devront demander une licence à Meta. Un chiffre très haut qui empêche son utilisation par Amazon ou Google.

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

IA : Google et OpenAI risquent de rapidement se faire dépasser par la communauté open source, estime un chercheur

Le modèle peut dès à présent être téléchargé via AWS, Hugging Face et d'autres fournisseurs. Cette approche change de la technique utilisée pour la première version de LLaMA : le modèle était accessible sur liste d'attente uniquement pour les chercheurs… mais a fuité sur 4chan en quelques heures.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

MacGeneration fête ses 26 ans !

14:56

• 70


L'A19 et l'A19 Pro des iPhone 17 accélèrent largement l'IA et c'est une avancée majeure

13/09/2025 à 19:54

• 49


Des serveurs maison au nuage : 25 ans d’hébergement de MacGeneration

13/09/2025 à 11:00

• 52


Sortie de veille : notre premier avis sur les iPhone 17 et les autres nouveautés du keynote

13/09/2025 à 08:00

• 10


Robby Walker, ancien responsable de Siri, claquerait la porte à la fin du mois

12/09/2025 à 22:00

• 59


iPhone 17 (Pro) : verres trempés, coques et chargeurs déjà en promo dès 10 €

12/09/2025 à 18:34

• 34


Chargeur mural MagSafe : le PowerBug arrive en Europe, le Zens revient en promo

12/09/2025 à 17:18

• 4


iPhone Air, iPhone 17 et iPhone 17 Pro : où les commander au meilleur prix 🆕

12/09/2025 à 14:16

• 217


Des trackballs et des souris verticales Logitech en promotion, jusqu'à 45 % de réduction

12/09/2025 à 13:05

• 7


Protéger son iPhone 17 sans le dénaturer ? Une marque française a trouvé la solution 📍

12/09/2025 à 13:04

• 0


Orque, trombone (😔), coffre au trésor, bigfoot : voici les nouveaux emojis d'Unicode 17

12/09/2025 à 11:16

• 44


Le MacBook Air original s’est discrètement invité dans la présentation de l’iPhone Air

12/09/2025 à 09:49

• 26


L’Apple Store ferme ses portes avant les précommandes iPhone 17 prévues pour 14 heures

12/09/2025 à 09:31

• 36


Tesla : le MultiPass simplifie la charge sur des bornes tierces grâce à la carte-clé maison

12/09/2025 à 08:31

• 32


Apple cache du RISC-V dans les iPhone 17 et l'iPhone Air

12/09/2025 à 07:56

• 21


L’iPhone Air n’est pas fragile : Greg Joswiak n’hésite pas à le soumettre à la torture

12/09/2025 à 07:49

• 55