Ouvrir le menu principal

MacGeneration

Recherche

L'utilitaire pour faire tourner des LLM en local Ollama devient une application native

Félix Cattafesta

jeudi 03 juillet 2025 à 14:27 • 29

Logiciels

Grosse mise à jour pour l’application Ollama, qui permet de faire tourner un modèle de langage en local. Celle-ci s’occupe de préparer un serveur local avant de récupérer des modèles optimisés pour les ordinateurs grand public. Elle vient de passer en version 0.9.5, qui lui apporte une cure minceur en plus d’une connectivité réseau.

Installation d’Ollama, avec la fenêtre de réglages en arrière-plan.

Ollama est désormais une application native pour macOS, et ça se sent : on passe de 452 Mo à 115 Mo, et les temps de chargements sont réduits. L’app a également gagné une petite interface graphique pour les réglages, permettant de changer le dossier dans lequel sont sauvegardés les modèles. Pratique pour les garder sur un disque dur externe, ou simplement dans un autre endroit que le répertoire par défaut. Attention toutefois, car le gros de l’utilisation continue de passer par le terminal, comme nous l’avions expliqué dans notre guide :

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Enfin, l’app s’ouvre à Internet et permet désormais d’exécuter un modèle sur un Mac avant d’y accéder depuis un autre appareil. On pourra par exemple faire tourner un LLM sur son Mac Studio constamment allumé, puis l’interroger depuis un simple MacBook Air en déplacement. Ollama est disponible sur macOS, Windows et Linux. Vous pouvez trouver plus d’informations sur son fonctionnement sur la page Github du projet.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Comment regarder les chaînes de télé sur l’Apple TV : toutes les apps et offres disponibles

31/08/2025 à 18:41

• 64


Ces articles du Club iGen passent en accès libre : découvrez nos contenus premium

31/08/2025 à 11:58

• 3


Le grand tapis de souris de Logitech en promo à 8 €

31/08/2025 à 08:34

• 0


« Digital detox » : le bilan de mes vacances (presque) sans iPhone

31/08/2025 à 08:00

• 30


Panne majeure en cours sur les moyens de paiement de nombreuses banques françaises

30/08/2025 à 20:17

• 93


« Le premier iPad protégé contre les liquides » : la déclaration d’Apple qui intrigue

30/08/2025 à 10:24

• 15


L’appel à la grève de la CB (et d’Apple Pay), un risque majeur pour les banques ?

30/08/2025 à 08:06

• 178


iOS 18.6.2 bouche une faille zéro day utilisant WhatsApp pour piéger les utilisateurs

30/08/2025 à 08:04

• 8


À contre-courant : pourquoi Florian n’abandonne pas WhatsApp

30/08/2025 à 08:00

• 78


Gemini lance un mode incognito, pour des conversations jetables

29/08/2025 à 21:00

• 12


my kSuite : une alternative gratuite, souveraine et suisse à Google et Microsoft (et à -80 % si besoin de plus) 📍

29/08/2025 à 20:07

• 0


Agenda, Path Finder, Unite… De bonnes apps Mac à prix cassé

29/08/2025 à 17:05

• 11


Fibre Power S : SFR baisse son offre triple-play à 26,99 €/mois

29/08/2025 à 16:22

• 15


Lenovo cogite sur un portable à écran paysage et portrait

29/08/2025 à 15:49

• 17


MacBook Air M4 en promo à partir de 949 € et 90 € en bons d'achat

29/08/2025 à 14:43

• 6


Guide d'achat : quels accessoires pour accompagner son nouvel iPad à la rentrée

29/08/2025 à 14:42

• 16