Ouvrir le menu principal

MacGeneration

Recherche

L'utilitaire pour faire tourner des LLM en local Ollama devient une application native

Félix Cattafesta

jeudi 03 juillet 2025 à 14:27 • 29

Logiciels

Grosse mise à jour pour l’application Ollama, qui permet de faire tourner un modèle de langage en local. Celle-ci s’occupe de préparer un serveur local avant de récupérer des modèles optimisés pour les ordinateurs grand public. Elle vient de passer en version 0.9.5, qui lui apporte une cure minceur en plus d’une connectivité réseau.

Installation d’Ollama, avec la fenêtre de réglages en arrière-plan.

Ollama est désormais une application native pour macOS, et ça se sent : on passe de 452 Mo à 115 Mo, et les temps de chargements sont réduits. L’app a également gagné une petite interface graphique pour les réglages, permettant de changer le dossier dans lequel sont sauvegardés les modèles. Pratique pour les garder sur un disque dur externe, ou simplement dans un autre endroit que le répertoire par défaut. Attention toutefois, car le gros de l’utilisation continue de passer par le terminal, comme nous l’avions expliqué dans notre guide :

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Comment faire tourner DeepSeek-R1 (ou un autre LLM) sur votre Mac

Enfin, l’app s’ouvre à Internet et permet désormais d’exécuter un modèle sur un Mac avant d’y accéder depuis un autre appareil. On pourra par exemple faire tourner un LLM sur son Mac Studio constamment allumé, puis l’interroger depuis un simple MacBook Air en déplacement. Ollama est disponible sur macOS, Windows et Linux. Vous pouvez trouver plus d’informations sur son fonctionnement sur la page Github du projet.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Entre dérives, intégration dans les Tesla et nouvelle version, la semaine agitée de Grok et xAI

12/07/2025 à 16:30

• 35


Vos fichiers à l’abri pour toujours : l’offre pCloud qui tombe à pic 📍

12/07/2025 à 10:30

• 0


Sortie de veille : après le départ du n°2 d’Apple, Tim Cook est-il le prochain sur la liste ?

12/07/2025 à 08:00

• 44


Notre top 5 des accessoires à avoir pendant les vacances (et en promo) !

11/07/2025 à 23:52

• 26


Dernières heures du Prime Day - les offres à ne pas rater : AirPods, serrures HomeKit, Microsoft 365… 🆕

11/07/2025 à 23:40

• 29


Prime Day : les promos Apple (et high-tech) les plus populaires

11/07/2025 à 23:30

• 5


Prime Day : nouveaux prix record sur les MacBook Air et Mac mini M4

11/07/2025 à 20:51

• 5


La Chine s'attaque aux batteries externes de mauvaise qualité, ce qui cause des remous chez les fabricants

11/07/2025 à 20:48

• 36


L’abonnement Google AI Ultra disponible en France pour 274,99 € par mois

11/07/2025 à 20:30

• 19


Le Mac Pro 2013 devient Vintage, ainsi que d’autres produits Apple

11/07/2025 à 20:00

• 14


Aura Aspen : un nouveau cadre photo numérique qui ressemble plus à un cadre traditionnel

11/07/2025 à 18:00

• 8


Le Royaume-Uni et la France investissent dans Eutelsat pour contrer Starlink

11/07/2025 à 17:35

• 112


Prime Day : les meilleurs écrans 4K, portables et ultralarges

11/07/2025 à 15:02

• 1


Prime Day : les derniers bons plans pour équiper sa maison en domotique

11/07/2025 à 15:01

• 14


Test du SSD externe Crucial X10, qui peut atteindre 8 To

11/07/2025 à 13:00

• 0


Prime Day : les meilleurs SSD externes en promotion, de 1 à 8 To !

11/07/2025 à 11:14

• 11