Ouvrir le menu principal

MacGeneration

Recherche

Actualités

Les Mac perdent le réseau après 49 jours, à cause d'une erreur dans le noyau

Pierre Dandumont

mardi 07 avril à 17:05

macOS

Les chercheurs de Photon viennent de mettre en avant un bug assez étonnant de la part d'Apple : après 49 jours, 17 heures, 2 minutes et 47 secondes, les Mac peuvent perdre accès au réseau ou — plus exactement — ne peuvent plus ouvrir de connexions en TCP. Les plus aguerris auront reconnu cette durée : c'est le nombre de millisecondes dans un entier de 32 bits non signé.

49 jours.

Le problème vient de la valeur TIME_WAIT. De façon très schématique (il y a plus de détails dans le post), quand une connexion TCP est terminée (par exemple, si vous fermez le navigateur), elle est fermée par le système après 30 secondes sur les systèmes Apple. La valeur TIME_WAIT est un compteur, incrémenté chaque milliseconde, qui sert de base pour ce mécanisme, et les données sont stockées dans un entier de 32 bits non signé. C'est une zone mémoire qui peut contenir 232 -1 valeurs, soit 4 294 967 295. Il démarre à 0 en même temps que le système d'exploitation… et est donc rempli après un peu de 49 jours. Ensuite, il doit revenir à 0.

Le problème, c'est que quand il revient à zéro, la vérification des sessions TCP ouverte ne fonctionne plus. Les sessions ne sont pas fermées correctement, ce qui empêche, après un certain temps, la création de nouvelles sessions. La seule solution est basique : redémarrer pour passer le compteur à zéro.

Le résultat va dépendre de votre Mac : s'il effectue peu de connexions au réseau, il va prendre un peu plus de temps pour être bloqué qu'un autre Mac qui synchronise beaucoup de données, par exemple. Mais dans les faits, les chercheurs indiquent que le résultat, après quelques heures, est le même : il devient impossible d'ouvrir une session. Le bug n'a pas été découvert alors qu'il est visiblement assez ancien (il date au moins de macOS Catalina) pour une raison simple : un uptime de plus de 49 jours reste assez rare, étant donné qu'Apple pousse des mises à jour de façon régulière. Reste à voir comment Apple va corriger le problème.

Source :

Avec Apfel, le modèle local d’Apple devient plus accessible sur macOS Tahoe

Nicolas Furno

mardi 07 avril à 16:36

Intelligence artificielle

Apfel est un nouvel outil qui facilite l’accès au modèle de langage inclus par Apple dans macOS Tahoe. Alors que ce modèle est présent sur tous les Mac où Apple Intelligence a été activé, il demeure paradoxalement peu exploitable au quotidien. Sauf erreur de ma part, la seule manière consiste toujours à créer une automatisation dans l’app Raccourcis, ce qui est bien loin de convenir à tous les usages.

Aperçu des nouveautés de Raccourcis dans iOS 26 et macOS 26 : Apple intègre (presque) un chatbot

Aperçu des nouveautés de Raccourcis dans iOS 26 et macOS 26 : Apple intègre (presque) un chatbot

Avec Apfel, on peut faire appel au modèle de multiples manières, même s’il faut mettre les mains dans le cambouis virtuel. L’outil s’installe depuis le terminal, de préférence avec le gestionnaire de paquets Homebrew, puis cette ligne de commande :

brew install Arthur-Ficial/tap/apfel

Une fois que c’est fait, vous pourrez utiliser Apfel en ligne de commande. Posez une question après le nom de l’outil et le modèle d’Apple générera une réponse dans la foulée. Plus utile peut-être, on peut aussi employer le « pipeline » (|) pour faire travailler le modèle sur la sortie d’une commande ou alors en entrée d’un autre outil, ce qui laisse envisager quelques usages plus avancés. En ajoutant le paramètre --chat, il est aussi possible de l’exploiter de manière interactive, comme un chatbot, mais toujours dans le terminal.

Apfel en action depuis le terminal (qui propose une recette de frangipane très originale). Image MacGeneration.

Pour une utilisation plus confortable, Apfel peut activer un mode serveur qui expose le modèle d’Apple à bien d’autres apps : c’est alors la commande apfel --serve qu’il faut saisir. Son développeur a repris la structure popularisée par OpenAI et utilisée par de nombreuses apps qui savent se brancher à plusieurs modèles de langage. À titre d’exemple, on peut configurer l’app Macai, qui a l’avantage d’offrir une interface macOS native, pour accéder par son biais au modèle d’Apple.

Ajoutez un service API en choisissant l’option « Generic Completions API », puis en collant l’endpoint POST donné par Apfel dans le terminal. Par défaut, ce sera http://127.0.0.1:11434/v1/chat/completions, mais si vous avez besoin de changer le port (il était utilisé par Ollama dans mon cas), alors il faudra l’ajuster ici aussi. Il n’est pas nécessaire de saisir une clé d’API et si tout va bien, vous pouvez cliquer sur le bouton « Update » en dessous pour récupérer le nom du modèle, qui devrait être apple-foundationmodel. J’ai choisi une taille de contexte de 100 et l’assistant par défaut dans les autres options et j’ai pu vérifier que cela fonctionnait correctement.

La configuration d’Apfel dans les réglages de Macai, avec une discussion en cours à l’arrière-plan. Image MacGeneration.

Exploiter le modèle déjà fourni par Apple est intéressant pour bien des raisons évidentes. Déjà, il est installé dès lors qu’on active Apple Intelligence et c’est dommage de ne pas l’exploiter davantage. Au lieu d’installer un modèle tiers, on peut utiliser celui que l’on a déjà sur le Mac. Malgré tout, il faut garder en tête qu’il s’agit d’un tout petit modèle, avec environ trois milliards de paramètres (3B) et un contexte limité à 4 096 jetons. C’est nettement moins que le plus petit modèle fourni par OpenAI, Google ou Anthropic et ses limites sont vite visibles. En dépit de cette fiche technique modeste, il est aussi plutôt lent sur mon Mac Studio de première génération, mais vous aurez peut-être de meilleurs résultats avec les puces plus récentes.

Au fond, c’est peut-être aussi pour cette raison qu’Apple ne le met pas davantage en avant… même si cela ne signifie pas qu’il soit inutile aujourd’hui. Pour de petites tâches du quotidien, le modèle de macOS Tahoe peut suffire et Apfel est alors utile pour le mettre en avant dans plus de contextes. Ce programme est gratuit et open-source. Il nécessite macOS 26.4 et un Mac Apple Silicon au minimum.

100 € de réduction sur les MacBook Air M5, en 13 pouces ou 15 pouces

Pierre Dandumont

mardi 07 avril à 13:00

Mac

Amazon propose une réduction sur la majorité des modèles de MacBook Air M5, très récents. Ils sont en effet 100 € moins chers que chez Apple (soit dès 1 100 €), dans (presque) toutes les variantes… et que ce soit en 13 pouces ou 15 pouces.

Le 13 pouces argent. Image Apple.

En 13 pouces, vous aurez donc 512 Go de stockage (soit le double de la génération précédente) et 16 Go de RAM, en argent, bleu ciel, lumière stellaire (un doré léger) et minuit. Ces dernières semaines, Amazon ne proposait des promotions que sur certaines couleurs.

Le 15 pouces noir. Image Apple.

Pour la version 15 pouces, avec la même configuration, il est donc à 1 400 € au lieu de 1 500 € en minuit, argent et bleu ciel. Seule la version dorée est au prix public.

Test du MacBook Air M5 : meilleur que le M4, mais jusqu

Test du MacBook Air M5 : meilleur que le M4, mais jusqu'à quel point ?

Le MacBook Air M5 ne révolutionne pas le marché, mais c'est un ordinateur très efficace, performant, silencieux et complet. Et le passage à 512 Go de SSD en standard corrige le principal défaut de son prédécesseur.

Dell lance un clavier et une souris avec un supercondensateur, pour une charge en quelques secondes

Pierre Dandumont

mardi 07 avril à 11:15

Matériel

Les claviers et les souris sans fil utilisent habituellement deux technologies pour l'alimentation : une batterie lithium-ion ou de simples piles AA ou AAA. Dell, avec son nouveau kit Pro 7 Rechargeable Compact Keyboard and Mouse, a choisi une voie originale : un supercondensateur. Cette technologie ne nécessite pas de lithium et permet une recharge (très) rapide, sans que l'autonomie globale en pâtisse réellement.

Un supercondensateur est un composant qui peut stocker plus d'énergie qu'un condensateur standard, mais avec une tension plus faible. Les supercondensateurs ont une densité énergétique bien plus faible qu'une batterie lithium-ion (ils stockent moins d'énergie à volume identique) mais se remplissent en quelques dizaines de secondes. C'est donc une solution parfaite pour un appareil qui consomme (très) peu comme un clavier ou une souris. Ce sont des appareils qui ont un volume suffisant pour un supercondensateur de bonne taille — ils utilisent habituellement des piles AA — et consomment très peu d'énergie. Dell annonce une autonomie de trois mois pour le clavier et six semaines pour la souris, dans la norme pour ce genre de périphériques. Mais le point intéressant, en dehors de l'absence de lithium, est la possibilité de récupérer une journée d'autonomie en cinq secondes, selon Dell1.

Le clavier et la souris. Image Dell.

Des périphériques assez classiques

Le kit n'a pas encore de prix officiel, et il sort le 16 avril. La version actuelle, proche mais équipée de piles, vaut 90 $. Le clavier est un modèle hybride : ce n'est pas un modèle sans pavé numérique, mais il n'intègre pas non plus le bloc intermédiaire pour les flèches (un peu à la manière du clavier du premier iMac). Il a un double marquage PC/Apple et les touches de raccourcis classiques.

La souris est aussi assez classique, elle aussi : elle est ambidextre mais propose deux boutons sur la gauche (pour les droitiers), avec une molette et une esthétique parfaitement standard. Dans les deux cas, la liaison s'effectue en Bluetooth ou avec un dongle propriétaire. Dell n'indique pas si ses accessoires acceptent une liaison USB une fois branchés en USB-C, pour la recharge.

Une souris assez classique. Image Dell.

Espérons que d'autres fabricants suivront : la technologie semble avoir de nombreux avantages pour des accessoires de ce type, sans les risques du lithium-ion, comme les batteries qui gonflent.


  1. Imaginez : dans une Magic Mouse, il ne faudrait retourner la souris que quelques secondes.  ↩︎

Anthropic serre encore la vis et bloque l’usage de Claude avec OpenClaw

Nicolas Furno

mardi 07 avril à 10:51

Intelligence artificielle

Anthropic continue de modifier la politique d’utilisation de son service pour faire face à l’explosion du nombre d’utilisateurs et certainement des coûts associés. Après avoir réduit les quotas sur les heures de pointe, c’est le célèbre OpenClaw (un outil basé sur de grands modèles de langage pour piloter un ordinateur) qui a été explicitement visé dans une annonce publiée en fin de semaine dernière sur X. Boris Cherney, responsable de Claude Code, a indiqué que depuis le samedi 4 avril 2026, les abonnements payants à Claude ne pourront plus être utilisés dans les outils tiers. Il faudra dorénavant obligatoirement passer par l’API, à payer en plus de son abonnement mensuel.

OpenClaw bientôt écrasé dans la main de Claude, allégorie. Image Anthropic/OpenClaw/MacGeneration.

Si les offres payantes proposées par Anthropic sont d’abord prévues pour les apps et outils de l’entreprise, elles pouvaient jusque-là servir dans d’autres contextes. C’est une pratique courante dans l’industrie qui permet de rentabiliser au mieux son abonnement, mais c’est justement ce que le créateur de Claude interdit maintenant. OpenClaw est directement nommé dans le message du développeur, certainement en raison de sa popularité. Néanmoins, la mesure concerne tous les outils qui ne sont pas proposés par les concepteurs des modèles.

La raison du changement n’est pas mystérieuse et Boris Cherney ne s’en cache pas. Il s’agit de limiter la demande en ressources et de réduire les coûts de fonctionnement de Claude, notamment en favorisant les usages internes.

Nous avons redoublé d’efforts pour répondre à l’augmentation de la demande pour Claude, et nos abonnements n’ont pas été conçus pour les schémas d’utilisation associés à ces outils tiers. La capacité est une ressource que nous gérons avec prudence et nous accordons la priorité aux clients qui utilisent nos produits et notre API.

Nous voulons gérer notre croissance avec discernement afin de continuer à servir nos clients de manière durable sur le long terme. Ce changement constitue une étape dans cette direction.

Sans trop de surprise, la nouvelle politique n’est pas populaire, surtout auprès de la communauté OpenClaw, pas forcément très grande en termes d’utilisateurs, mais très vocale. Peter Steinberger, le développeur original de l’outil désormais chez OpenAI, a ainsi indiqué avoir essayé de convaincre Anthropic de ne pas mettre en œuvre le changement, sans succès. Tout en relevant au passage que Claude s’est inspiré d’OpenClaw sur certaines fonctionnalités récentes, ce qui est indéniable, même si son accusation d’abandonner l’open-source est moins évidente.

Claude peut désormais piloter votre Mac en langage naturel, y compris depuis un smartphone

Claude peut désormais piloter votre Mac en langage naturel, y compris depuis un smartphone

Les utilisateurs d’OpenClaw peuvent toujours utiliser les modèles d’Anthropic, ils devront toutefois utiliser l’API et payer en fonction de leur utilisation. Les tarifs varient fortement selon le modèle choisi, entre 0,6 $ par million de tokens en entrée et 3 $ par million en sortie pour le petit Haiku et respectivement 3 et 15 $ par million de tokens pour le grand Opus. Si ce paiement à la carte est le plus logique du point de vue de l’entreprise, il est aussi plus difficile à anticiper pour les utilisateurs qui ne connaissent pas forcément le nombre de jetons consommés par chaque requête.

La grille tarifaire pour l’API d’Anthropic. Capture site Anthropic, image MacGeneration.

Pour réduire les coûts, Anthropic a introduit en même temps le concept de traitement par lots, avec 50 % de réduction pour les demandes les plus lourdes qui ne nécessitent pas de réponse immédiate. C’est là aussi une idée commune dans le monde des intelligences artificielles génératives et qui peut avoir sa place avec OpenClaw, puisque l’outil peut réaliser des tâches en arrière-plan. Malgré tout, ses utilisateurs devront certainement payer plus cher qu’avant et c’est pour cette raison qu’une partie d’entre eux ont publiquement annulé leur abonnement pendant le week-end.

Il faut dire qu’Anthropic impose des limites de plus en plus strictes, qui tranchent fortement avec celles de ses concurrents. Je l’ai constaté en comparant Claude Pro à ChatGPT Plus pendant un mois, deux offres facturées autour de 20 €. OpenAI est pour le moment bien plus généreux à tarif équivalent et l’écart semble se creuser de jour en jour.

De ChatGPT Plus à Claude Pro : l’herbe est-elle vraiment plus orange ailleurs ?

De ChatGPT Plus à Claude Pro : l’herbe est-elle vraiment plus orange ailleurs ?