Ouvrir le menu principal

MacGeneration

Recherche

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Stéphane Moussie

mercredi 29 janvier 2025 à 17:23 • 17

Logiciels

Depuis son lancement il y a quelques jours, DeepSeek-R1 secoue l’univers de l’intelligence artificielle. Non seulement ce grand modèle de langage (LLM) rivalise avec les meilleures technologies d’OpenAI ou de Google pour une fraction de leur prix, mais en plus il est ouvert. Cela signifie que d’autres acteurs vont pouvoir s’en inspirer pour améliorer leurs propres modèles… et que vous pouvez le faire tourner sur votre Mac et même votre iPhone.

Pourquoi faire tourner DeepSeek-R1 en local

Plusieurs raisons peuvent vous inciter à installer DeepSeek-R1 sur votre ordinateur plutôt que de l’utiliser via les serveurs de son créateur. La première est très terre à terre : il est compliqué, voire impossible, de se créer un compte sur l’application ou le site officiel à l’heure actuelle. La start-up chinoise dit subir des attaques malveillantes à grande échelle depuis qu’elle est sous le feu des projecteurs.

Si vous aviez déjà un compte, vous pouvez normalement utiliser le site ou l’application, mais gare à deux choses. D’une part, vos données d’utilisation (tous les messages envoyés, adresse IP, type d’appareil utilisé…) seront collectées par l’entreprise. S’inquiétant du traitement qui peut être fait de ces données personnelles, la CNIL italienne a d’ores et déjà demandé des explications à DeepSeek. Si vous utilisez l’app ou le site officiel, évitez donc d’entrer des données personnelles ou sensibles, un conseil qui vaut d’ailleurs pour n’importe quel service de ce type. En faisant tourner le modèle sur votre ordinateur, la confidentialité est assurée.

D’autre part, la version de DeepSeek-R1 hébergée chez son créateur est soumise à la censure et à la propagande chinoise. Que s’est-il passé en 1989 à Tian'anmen ? Le robot conversationnel évite soigneusement de répondre à cette question tabou dans le pays, par exemple. Le modèle ouvert qui tourne en local n’est pas autant contrôlé. Cela ne veut pas dire qu’il a la vérité absolue : aussi poussé soit-il, il est sujet à des erreurs et des hallucinations, comme tous les LLM.

Installation avec Ollama

Pour installer DeepSeek-R1 sur votre Mac, il y a plusieurs solutions. On vous propose l’une des plus simples, qui fonctionne d’ailleurs avec beaucoup d’autres LLM. Pour commencer, installez Ollama. Ce logiciel facilite grandement l’installation et l’utilisation de modèles de langage en préparant un serveur local et en récupérant des modèles optimisés pour les ordinateurs ordinaires.

Vous pouvez l’installer en téléchargeant le fichier depuis le site officiel et en ouvrant l’app téléchargée. Vous devriez alors voir une icône de lama dans votre barre des menus. Puisque la suite se fait dans un terminal, vous pouvez aussi l’installer avec le gestionnaire de paquets Homebrew et la ligne de commande brew install ollama. Avantage de cette approche : vous n’aurez aucune interface visible en permanence. Dans les deux cas, ouvrez ensuite le Terminal de macOS. Pour installer DeepSeek-R1, une seule commande suffit, mais vous allez devoir choisir la bonne variante du modèle.

Soutenez MacGeneration sur Tipeee

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

La fin de Windows 10 donne un coup de fouet aux ventes de Mac

09:05

• 13


OpenAI achète Sky, l’outil d’automatisation basé sur IA des créateurs de Raccourcis

08:30

• 7


Amplify : les chaussures électriques signées Nike

08:13

• 47


Apple : la fin annoncée du panneau “Autoriser le suivi” (ATT) en Europe ?

07:29

• 46


Apple sauterait l’iPhone 19, pour atteindre l’iPhone 20 à temps pour le vingtième anniversaire

06:39

• 43


Apple ferait partie des entreprises intéressées par le catalogue de films et séries de Warner Bros. Discovery

06:39

• 38


Orange a testé la prochaine norme fibre en conditions réelles, avec 40 Gb/s entre Lyon et Marseille

23/10/2025 à 22:00

• 25


Elon Musk veut connecter directement les smartphones à Starlink pour en faire un opérateur mobile mondial

23/10/2025 à 20:30

• 71


Prise en main de Radiccio, un nouveau lecteur musical polyvalent et intéressant pour le Mac

23/10/2025 à 15:03

• 8


La boîte du MacBook Pro M5 est plus fine, car Apple a retiré le chargeur et son emplacement

23/10/2025 à 11:30

• 46


MacBook Pro M5 : quel chargeur choisir maintenant qu’Apple ne le fournit plus ?

23/10/2025 à 11:01

• 41


Pas de pénurie en vue : les nouveaux iPad Pro et MacBook Pro M5 sont bien en stock

23/10/2025 à 10:19

• 12


L'écran pour Mac qui coche toutes les cases : 32”, 4K, 144 Hz et Thunderbolt 4 !

23/10/2025 à 10:00

• 0


Le 2 nm s’annonce salé : Apple pourrait payer (beaucoup) plus cher ses puces A20 pour l'iPhone 18 Pro

23/10/2025 à 08:31

• 32


Sam Sung, l’employé d’Apple devenu célèbre malgré lui, raconte son histoire douze ans plus tard

23/10/2025 à 07:27

• 8


GM va supprimer CarPlay de toutes ses voitures, y compris les véhicules thermiques

22/10/2025 à 23:30

• 118