Ouvrir le menu principal

MacGeneration

Recherche

L'utilitaire pour faire tourner des LLM en local Ollama devient une application native

Félix Cattafesta

jeudi 03 juillet 2025 à 14:27 • 20

Logiciels

Grosse mise à jour pour l’application Ollama, qui permet de faire tourner un modèle de langage en local. Celle-ci s’occupe de préparer un serveur local avant de récupérer des modèles optimisés pour les ordinateurs grand public. Elle vient de passer en version 0.9.5, qui lui apporte une cure minceur en plus d’une connectivité réseau.

Installation d’Ollama, avec la fenêtre de réglages en arrière-plan.

Ollama est désormais une application native pour macOS, et ça se sent : on passe de 452 Mo à 115 Mo, et les temps de chargements sont réduits. L’app a également gagné une petite interface graphique pour les réglages, permettant de changer le dossier dans lequel sont sauvegardés les modèles. Pratique pour les garder sur un disque dur externe, ou simplement dans un autre endroit que le répertoire par défaut. Attention toutefois, car le gros de l’utilisation continue de passer par le terminal, comme nous l’avions expliqué dans notre guide :

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Enfin, l’app s’ouvre à Internet et permet désormais d’exécuter un modèle sur un Mac avant d’y accéder depuis un autre appareil. On pourra par exemple faire tourner un LLM sur son Mac Studio constamment allumé, puis l’interroger depuis un simple MacBook Air en déplacement. Ollama est disponible sur macOS, Windows et Linux. Vous pouvez trouver plus d’informations sur son fonctionnement sur la page Github du projet.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner