Ouvrir le menu principal

MacGeneration

Recherche

L'utilitaire pour faire tourner des LLM en local Ollama devient une application native

Félix Cattafesta

jeudi 03 juillet 2025 à 14:27 • 29

Logiciels

Grosse mise à jour pour l’application Ollama, qui permet de faire tourner un modèle de langage en local. Celle-ci s’occupe de préparer un serveur local avant de récupérer des modèles optimisés pour les ordinateurs grand public. Elle vient de passer en version 0.9.5, qui lui apporte une cure minceur en plus d’une connectivité réseau.

Installation d’Ollama, avec la fenêtre de réglages en arrière-plan.

Ollama est désormais une application native pour macOS, et ça se sent : on passe de 452 Mo à 115 Mo, et les temps de chargements sont réduits. L’app a également gagné une petite interface graphique pour les réglages, permettant de changer le dossier dans lequel sont sauvegardés les modèles. Pratique pour les garder sur un disque dur externe, ou simplement dans un autre endroit que le répertoire par défaut. Attention toutefois, car le gros de l’utilisation continue de passer par le terminal, comme nous l’avions expliqué dans notre guide :

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Enfin, l’app s’ouvre à Internet et permet désormais d’exécuter un modèle sur un Mac avant d’y accéder depuis un autre appareil. On pourra par exemple faire tourner un LLM sur son Mac Studio constamment allumé, puis l’interroger depuis un simple MacBook Air en déplacement. Ollama est disponible sur macOS, Windows et Linux. Vous pouvez trouver plus d’informations sur son fonctionnement sur la page Github du projet.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Promo : les AirPods Pro 3 s'affichent à 219 €

18/01/2026 à 20:25

• 24


L’Instrument Anti-Coercition de l’Union européenne, quels risques pour les prix en France ?

18/01/2026 à 20:00

• 154


Offrez-vous un Mac mini M2 pour 350 € (code SOLDES30)

18/01/2026 à 11:15

• 0


E-sport : l’incroyable ascension des virtuoses du tableur

18/01/2026 à 11:15

• 22


Allez-vous vous abonner à l’Apple Creator Studio ?

18/01/2026 à 10:00

• 72


Dix ans après sa sortie, l'Apple TV HD est toujours vaillante et a reçu la mise à jour vers tvOS 26

18/01/2026 à 08:25

• 36


Promo : l'iPad Pro M2 de 2 To à 850 € en 11” et à 1230 € en 13” 🆕

17/01/2026 à 16:19

• 36


Netgear brade son Orbi Wi-Fi 7 : le pack routeur + satellite à 210 €

17/01/2026 à 11:17

• 29


OLED : la fin du tunnel (et du LCD) pour 2028 ?

17/01/2026 à 08:31

• 31


Sortie de veille : la nouvelle offre Apple Creator Studio vaut-elle le coup ?

17/01/2026 à 08:00

• 53


Apple Sainte-Catherine : le nouveau vaisseau amiral de Montréal a ouvert ses portes

17/01/2026 à 07:30

• 23


Les Shokz OpenFit à conduction aérienne : la gamme complète en promotion ! 📍

17/01/2026 à 06:35

• 0


Apple et TSMC : l’âge d’or touche à sa fin, l’ère du rapport de force commence

16/01/2026 à 23:55

• 26


OpenAI lance les essais de pub sur les formules gratuites et Go de ChatGPT

16/01/2026 à 20:45

• 83


iPhone 17 et Livebox 4/5 : Orange confirme un problème de débits, une solution provisoire identifiée

16/01/2026 à 17:52

• 20


La production de l’écran OLED du futur MacBook Pro M6 aurait commencé chez Samsung

16/01/2026 à 15:57

• 23