Mac M1 : les ordinateurs qui ne dorment jamais

Florian Innocente |

Dans les grands changements apportés par les Mac M1, il y a ce qui se voit d'emblée, comme la vitesse de ces machines et leur autonomie impressionnante sur les portables. Et puis il y a des évolutions plus discrètes mais pratiques au quotidien. C'est le cas pour la manière dont ces machines s'affranchissent de l'option « Power Nap » et d'une autre relative à la santé de la batterie.

On l'a détaillé dans notre long test du Mac mini M1 mais cela mérite d'être doublement souligné pour les MacBook Air/Pro M1 : l'option « Power Nap » n'existe plus dans le panneau de préférences « Batterie ». Seuls les Mac Intel conservent cette case à cocher.

MacBook Pro Intel
MacBook Pro M1, sans option « Power Nap » (idem dans le panneau « Adaptateur secteur »)

Bref rappel : Power Nap a été popularisé par les Mac dotés d'un SSD, plus rapides à se mettre en branle. Même si la machine a son activité suspendue, macOS exécute à intervalles réguliers quelques tâches d'actualisation : pour Mail, pour Calendrier, pour iCloud et, si une alimentation secteur est présente, pour récupérer des mises à jour d'application et lancer Time Machine. Ainsi, lorsqu'on sort sa machine de veille, on a des chances de trouver son environnement de travail fin prêt, au lieu d'attendre que chaque logiciel récupère les dernières infos.

On a pu le constater sur l'un de nos portables M1, celui-ci est beaucoup plus prompt que ses prédécesseurs Intel à rapatrier les dernières données. À peine détecte-t-il la connexion Wi-Fi en rentrant au domicile, et alors qu'il est encore dans le sac, qu'il lance l'actualisation. Avec l'appui d'une sortie de veille quasi immédiate, cela contribue à avoir une machine immédiatement opérationnelle et constamment à jour.

En retirant la case « Power Nap », Apple a intégré cette fonction au comportement naturel du système, par conséquent aussi on ne peut plus la désactiver. Mais le chipset M1 est justement prévu pour assurer cette tâche sans impact notable sur l'autonomie (ou sur la consommation électrique, s'agissant d'une machine de bureau comme le mini). L'ordinateur peut fonctionner en permanence en ultra-basse consommation, comme on a pu le constater en observant l'activité nocturne du Mac mini.

Le processeur de l’Apple M1 ne s’éteint jamais totalement, ce qui permet à la fonction Power Nap de perdre son statut d'option

Les portables M1 disposant d'une autonomie hors du commun, ce Power Nap permanent n'est pas une source de préoccupation lorsqu'il opère sur batterie. Autre signe qu'à capacité de batterie égale, les Mac M1 se comportent beaucoup mieux que les Mac Intel, il y a la disparition aussi de l'option « Gérer la durée de vie de la batterie » dans « Etat de santé de la batterie ».

MacBook Pro Intel
MacBook Pro M1

Lorsqu'on cochait cette case, macOS pouvait empêcher que la batterie ne se charge systématiquement à son maximum, pour en prévenir un vieillissement prématuré. La contre-partie était qu'on pouvait se retrouver avec une batterie qui n'était pas à 100 %, pile lorsqu'on avait besoin de s'en servir sur une longue durée.

Désormais, la page d'explications de cette fonction diverge selon qu'elle traite des Mac à puce Intel ou des Mac à puce Apple. Dans la seconde il n'est plus fait mention de ce risque d'avoir moins d'autonomie à sa disposition. Probablement parce qu'Apple considère que l'autonomie de ses portables M1 étant ce qu'elle est, ce n'est plus un motif d'inquiétude.

On n'a plus à choisir entre soigner la longévité de sa batterie et s'assurer une bonne autonomie, macOS et le processeur M1 s'attachent à garantir les deux en même temps.

avatar YetOneOtherGit | 

@totoguile

"pour savoir comment ils pensent répondre au M1"

Ce n’est pas tant une réponse au M1 mais au changement de paradigme qu’il représente.

Le poids des Mac dans l’industrie est loin d’être suffisamment conséquent (Même en imaginant une belle croissance suite à la migration) pour mettre en péril le business des acteurs dominants.

Par contre Apple a clairement démontré qu’il était possible de penser différemment un micro-ordinateur après des décennies de domination de l’héritage du compatible PC.

Qui sera l’acteur capable de suivre cette approche pour des usages bien plus large que ceux du Mac ?

Là est pour moi la question.

Le rachat d’ARM part Nvidia n’est clairement pas le fruit du hasard.

avatar Un Type Vrai | 

Oui, c'est exactement ça.
Face à l'iPhone, Nokia a dit "Ben on a déjà des écrans tactiles", Sony Ericson a dit "Boarf, nos téléphones lisent déjà du MP3", Blackberry a dit "Boarf, un clavier non mécanique, ça ne servira jamais à rien"...

Personne n'a vu la proposition d'ensemble.
Et là, même si ça semble super bien parti, je ne sais pas ce qu'Apple va faire de cette "avance", ni si finalement Google va arriver avec de super Chromebook ou si une marque en sous marin va surgir de nulle part pour challenger le PC traditionnel.
Impossible à comprendre le nouveau paradigme dans son ensemble pour moi. Et après coup, on dira quand même "Ben c'était évident que ... [Nokia allait mourir, Sony Ericson disparaître, Blackberry devenir un acteur ultra mineur]"

En tout cas, ça ouvre des possibilités et donc c'est interessant à suivre.

avatar YetOneOtherGit | 

@Un Type Vrai

"En tout cas, ça ouvre des possibilités et donc c'est interessant à suivre."

Exactement ça : l’ouverture d’un champ des possibles dans un secteur sclérosé depuis des décennies (On progressé les choses certes mais pas le paradigme)

avatar raoolito | 

@YetOneOtherGit
@Un Type Vrai

faut arreter les gars.
Apple ne vient pas de reinventer l’informatique, mais de concevoir un soc arm avec tout dessus et permettant des resultats.. que les autres devaient sans doute deja connaitre mais que personne n’a osé commercialisé car j’imagine deja la reaction d'une ou deux personnes devant un ordi ou ram/ssd/GPU et tutti quanti sont fusionnés dans le proc.

bref, apple a osé et prob que l’informatique va s’y diriger. Alors oui Arm va balayer le x86 (j’ai pas dit intel) pour des raisons dont on parle depuis 30ans qui sont des soucis fondamentaux à ce format. Mais l’inertie est longue, et microsoft comme intel ou amd et d’autres ont tout sauf envie de passer sous arm (meme si AMd, finalement, serait moins embeté que intel)

voilà, tout est dit. Dans une petite dizaines d’année on a 2 possibilités: un marche plutot arm en portable (si apple continue de montrer des perfs à faire blanchir un albinos) ou pas (si finalement on a deja assez de puissance pour monsieur tout le monde et que finalement google sait offrir vos films de vacances en un clic avec ses fermes de rendu)

avatar YetOneOtherGit | 

@raoolito

"Apple ne vient pas de reinventer l’informatique, mais de concevoir un soc arm avec tout dessus et permettant des resultats.. que les autres devaient sans doute deja connaitre mais que personne n’a osé commercialisé car j’imagine deja la reaction d'une ou deux personnes devant un ordi ou ram/ssd/GPU et tutti quanti sont fusionnés dans le proc."

On pouvait dire ça de l’iPhone aussi

Je parle d’un changement de paradigme qui est dans l’ère du temps depuis un moment et dont Apple vient de démontrer la pertinence.

Il ne faut pas sous-estimer la portée de ce que vient de faire Apple et les difficultés que cela représente.

C’est, pour moi, un réel moment de rupture 😎

Et peut-être le début d’une distribution.

Croire que l’innovation n’est qu’une affaire de technique de base est une erreur courante. 😉

avatar raoolito | 

@YetOneOtherGit

mmhh je dirais ok alors.
Dans le sens ou l’iphone avec son ecran full tactile etait ce qui se tramait et ici aussi. la domination d’intel s’est effondrée quand il a ete evident que la puissance proposée ne suivait pas.
cela peut faire penser à la sortie de l’iphone, mais (pour l’instant) cela ne change rien hormis de jolies perfs.
encore une fois, pour monsieur tout le monde l’ancien macmini ou le nouveau, je doute que la difference se sente. A part l’autonomie des portables, et encore, et une certaine reactivité qui va s’oublier vite, on va en rester là.
A la limite c’est (et l’iphone etait la rupture aussi de ce coté là) en terme de design qu’on sentira la vrai difference. (on imagine des options)

(pour moi, la rupture informatique existe deja, elle s’appelle ipad)

avatar YetOneOtherGit | 

@raoolito

"la domination d’intel s’est effondrée"

C’est toujours et de loin le n°1 mondial, ne nous emballons pas 😉

avatar raoolito | 

@YetOneOtherGit

Je pensais effectivement à la domination psychologique 😁

avatar YetOneOtherGit | 

@raoolito

"A la limite c’est (et l’iphone etait la rupture aussi de ce coté là) en terme de design qu’on sentira la vrai difference. (on imagine des options)"

En terme de produits, en terme d’expériences, en terme de propositions

Toutes les technologies étaient là mais personne n’avait une vraie vision produit attractive.

C’est exactement la même chose que l’échec des incroyables innovations technologiques du Xerox PARC.

La technologie n’est qu’une part de l’innovation

avatar raoolito | 

@YetOneOtherGit
Votre dernière phrase est à prononcer avec un petit peu de réverbération sur un soleil couchant

🥲

avatar byte_order | 

@YetOneOtherGit
> On pouvait dire ça de l’iPhone aussi

Côté iOS, oui.

Côté architecture de l'iPhone, il ne révolutionnait en rien ce qui existait à l'époque dans d'autres smartphones. C'était déjà des puces ARM, c'était déjà des SoC intégrant plus ou moins de trucs. Le seul truc distinctif, c'est l'abandon d'un clavier pour un écran capacitif, un abandon qui était permis par iOS et sa gestion d'intéraction tactile intuitive. Si iOS n'avait proposer qu'un clavier virtuel à la place du clavier physique et rien d'autre, je ne pense pas que l'iPhone aurait rencontré réellement le succès.

La rupture initié par l'iPhone vient des interactions tactiles et leurs feedback visuelles, qui reposent surtout sur le soft.

D'un point de vu matos, la concurrence a très rapidement su mettre un écran tactile, et pourtant ce n'est qu'avec Android 4 que la concurrence à l'iPhone est devenu réelle, c.a.d. quand la partie soft a su offrir une expérience utilisateur alternative crédible.

Ici, le Mac M1 apporte un changement d'architecture matérielle avec comme plus grosse conséquence une enveloppe thermique nettement meilleure, et donc une autonomie meilleure. Coté usage, il n'apporte rien de bien nouveau, à part la possibilité d'exécuter des apps iOS, une fonction que vous considérez vous-même anecdotique et, donc, ne pas avoir besoin de le brancher en milieu / fin de journée, une fonction qui n'a aucune importance pour des ordinateurs fixes au passage.

> Il ne faut pas sous-estimer la portée de ce que vient de faire Apple et les difficultés
> que cela représente.

Elle a mis un iPad dans des macs. Et mis un transcompilateur ahead / jit.
Fondamentalement, y'a rien de difficile, elle avait déjà régler les pbs les plus difficiles durant les années précédents, pendant laquelle elle a bosser pour faire fortement progresser les performances de ses puces Axx et lors de Rosetta 1.
Et retirer quelques ventilateurs.

> C’est, pour moi, un réel moment de rupture 😎

Vous disiez ça aussi du Mac Pro 2013.
;-)

avatar YetOneOtherGit | 

@byte_order

" il ne révolutionnait en rien ce qui existait à l'époque dans d'autres smartphones. "

c’est exactement mon propos : les disruptions business sont très rarement une affaire de technologie 😎

avatar YetOneOtherGit | 

@byte_order

"Fondamentalement, y'a rien de difficile"

Et pourtant personne ne l’avait fait avant, comme pour l’iPhone; tu touches ce qui est pour moi ton habituelle limite : une vision purement technique qui ignore les enjeux produits et business ;-)

J’ai beaucoup de respect pour toi, mais tu es l’incarnation des limites de la pure pensée ingénieure si française.

Une incapacité à avoir une pensée produit, UX, business... (pour le business tu es même carrément dans le déni de ses fondements)

Un produit ce n’est pas une somme de technologies 😉

Ton analyse de l’arrivée de l’iPhone est un cas d’école et tu reproduis les même jugement biaisé en ne voulant farouchement pas sortir de ton mindset. 🖖

avatar byte_order | 

@YetOneOtherGit
> Une incapacité à avoir une pensée produit,

Pour un utilisateur, l'aspect "produit" il s'en fout. Sauf si c'est pour s'afficher avec plus que pour l'utiliser, mais je croyais qu'on parlait d'ordinateur...

Linux n'est pas un produit par exemple, et pourtant il a largement trouver sa place dans tout un tas de secteurs d'utilisation.

> UX,

J'ai explicitiment dit que la rupture de l'iPhone venait de l'UX, via le support d'interactions tactiles dans iOS !
Je soulignais juste que la rupture apportée par l'iPhone n'est pas venu par une rupture d'architecture matérielle.

> business... (pour le business tu es même carrément dans le déni de ses fondements)

Le business n'est pas une fonction pour l'utilisateur d'un ordinateur.
Je sais que l'aspect profit, chiffre d'affaire, rentabilité vous importe, mais je ne vois pas en quoi les finances incroyables d'une seule entreprise au détriment d'une libre concurrence autour d'une architecture matérielle fermée d'ordinateur est un progrès pour les utilisateurs. Ou même les développeurs.

avatar YetOneOtherGit | 

@byte_order

"Pour un utilisateur, l'aspect "produit" il s'en fout."

Ne ramène pas le débat à des questions consuméristes , tu n’étais pas sur ça, moi nous plus. 😉

Nous sommes clairement toi et moi sur des considérations d’un tout autre ordre 😎

avatar YetOneOtherGit | 

@byte_order

"Le business n'est pas une fonction pour l'utilisateur d'un ordinateur.
Je sais que l'aspect profit, chiffre d'affaire, rentabilité vous importe, mais je ne vois pas en quoi les finances incroyables d'une seule entreprise au détriment d'une libre concurrence autour d'une architecture matérielle fermée d'ordinateur est un progrès pour les utilisateurs. Ou même les développeurs."

Complément hors sujet, je ne parle nullement d’une future domination d’Apple sur le marché 😉

avatar YetOneOtherGit | 

@byte_order

"Linux n'est pas un produit "

GNU\Linux est clairement un produit ayant créé un impressionnant business 🤑

Le fait que les produit financiers soient indirects ne change rien à l’affaire, ce n’est pas pour rien que tant de majors de l’industrie ont fortement contribué à financer son développement.

Et ce n’est pas pour rien que Stallman est en désaccord profond avec Torvald 😀

avatar YetOneOtherGit | 

@byte_order

"Vous disiez ça aussi du Mac Pro 2013."

Pas dans les mêmes termes très loin s’en faut 😉

Wait & See 👀

avatar byte_order | 

@YetOneOtherGit
> Pas dans les mêmes termes très loin s’en faut 😉

Le Mac Pro 2013 montrait la voie, le paradigme de la station de travail construite autour de Thunderbolt, vous disiez.

> Wait & See 👀

7 ans déjà. Que vois-t-on ?
Que non, la station de travail n'a pas massivement migrer dans le monde autour de modules externes en Thunderbolt.

Le Mac Pro 2019 lui même fait un virage a 180 degrés sur ce point.

avatar YetOneOtherGit | 

@byte_order

Comparaison n’est pas raison 😉

avatar byte_order | 

@YetOneOtherGit
> Par contre Apple a clairement démontré qu’il était possible de penser différemment
> un micro-ordinateur après des décennies de domination de l’héritage du compatible PC.

Sur ce point, je ne vois pas en quoi c'est une première.
Les ordinateurs Amiga, Atari, Apple et même les compatibles MSX l'on déjà fait y'a très longtemps de ça. Ou même Raspberry, tiens.

Penser un ordinateur autrement qu'un ordinateur compatible PC, cela n'a rien ni de nouveau ni de si extraordinaire.

Le problème n'est pas là.
Le problème c'est l’hétérogénéité, l'interopérabilité.
Parce que si le standard PC vit depuis si longtemps, c'est clairement pas parce que c'est le plus optimisé, le plus innovant, mais bien plus parce que c'est celui qui réduit le plus les soucis d'interopérabilité, d'hétérogénéité (les gestionnaires de parc de machine aiment bien avoir un parc homogène par exemple), tout en conservant une flexibilité côté fournisseurs (dépendre d'un seul fournisseur n'est jamais une bonne idée...) que côté modularité (pouvoir personnaliser les capacités (et son prix) d'un ordinateur plutôt que devoir composer avec une gamme peu large aux prix imposés, et éventuellement volontairement segmentée pour inciter a accepter des prix excessifs).

avatar YetOneOtherGit | 

@byte_order

"Les ordinateurs Amiga, Atari, Apple et même les compatibles MSX l'on déjà fait y'a très longtemps de ça. Ou même Raspberry, tiens."

Oui et ce n’était pas arrivé depuis l’extinction de la grande époque des stations de travail qui étaient les dernières à résister à l’uniformisation.

Mais plus encore, c’est peut-être la première fois que le paradigme de la norme de fait imposé par les compatible PC peut être envisagé comme touchant ses limites et ne pas être l’absolu code de compréhension du futur.

Toute les tentative depuis les années 80 n’avaient jamais ébranlé l’édifice.

Là il y a les prémisse d’un potentiel new deal qui n’est en rien comparable avec tout ce que tu peux évoquer.

Comme toujours : Comparaison n’est pas raison 😉

avatar byte_order | 

@YetOneOtherGit
> Mais plus encore, c’est peut-être la première fois que le paradigme de la norme de fait
> imposé par les compatible PC peut être envisagé comme touchant ses limites et
> ne pas être l’absolu code de compréhension du futur.

Le jeu d'instruction PC est loin d'être le point le plus important de ce que vous appelez "la norme de fait imposé par les compatibles PC". L'architecture PC repose bien plus sur des standards d'interfaces entre composants que sur le jeu d'instruction du CPU.

Hors je doute fort que Apple rende publique les interfaces des composants de son SoC.
Si elle le fait, là on pourrait envisager l'émergence d'une nouvelle architecture concurrente du standard "compatible PC".

On assiste plutôt à la disparition de l'importance du natif côté logicielle, et ça c'est depuis près de 20 ans que c'est le cas. JVM, JIT, Transcompilation, emulation, virtualisation, sandboxing, dockerisation (aka virtualisation du runtime), de facto le fonctionnel est de moins en moins natif, et l'OS a désormais pour boulot de non seulement fournir des fonctionnalités évoluées mais également une abstraction encore plus forte de l'architecture matérielle native.

Je vois mal, en conséquence, pourquoi mettre un SoC inspiré de celui d'un iPad dans un macbook ou un mac mini change grand chose sur le plan de la norme "ordinateur".

Les gens utilisent déjà des architectures matérielles très différentes pour faire des usages parfaitement identiques. Le multiplateforme ou la virtualisation de la plateforme est nettement plus prégnant que y'a 20 ans, justement parce que le natif n'est plus un absolu.

> Toute les tentative depuis les années 80 n’avaient jamais ébranlé l’édifice.

Pas plus celles d'Apple, d'ailleurs.

avatar YetOneOtherGit | 

@byte_order

"Le jeu d'instruction PC est loin d'être le point le plus important de ce que vous appelez "la norme de fait imposé par les compatibles PC". L'architecture PC repose bien plus sur des standards d'interfaces entre composants que sur le jeu d'instruction du CPU."

Mais je ne réduis nullement le standard à l’ISA x32/x64

Je suis absolument conscient que c’est un ensemble bien plus conséquent.

avatar YetOneOtherGit | 

@byte_order

"Hors je doute fort que Apple rende publique les interfaces des composants de son SoC.
Si elle le fait, là on pourrait envisager l'émergence d'une nouvelle architecture concurrente du standard "compatible PC"."

Où diable ai-je dis qu’Apple aller définir une nouvelle norme ?

Je dis qu’Apple à prouvé qu’un changement de paradigme est possible nullement qu’ils seront en position de poser un nouveau standard.

Cela ne me semble clairement pas être Apple qui fera éventuellement cela.

avatar YetOneOtherGit | 

@byte_order

"Pas plus celles d'Apple, d'ailleurs."

Bien évidemment et la encore tel n’est pas mon propos, je ne suis nullement en train d’annoncer une domination future d’Apple. 🙄

avatar YetOneOtherGit | 

@byte_order

"Je vois mal, en conséquence, pourquoi mettre un SoC inspiré de celui d'un iPad dans un macbook ou un mac mini change grand chose sur le plan de la norme "ordinateur". "

C’est ta limite 😄😉

Je reste sur ce clin d’œil car j’ai largement expliqué les choses dans d’autres contributions 😎

avatar YetOneOtherGit | 

@byte_order

"Le problème c'est l’hétérogénéité, l'interopérabilité."

C’était.

Nous sommes en 2020 est la chose informatique n’est plus aussi dépendante des enjeux matériels sous-jacent.

l'interopérabilité repose aujourd’hui sur des normes et standards indépendants du matériel, elle est devenue une évidence dans bien des domaines où l’execution ne s’effectue que sur des VM.

On ne développe quasiment plus pour du hardware mais à travers des couches d’abstraction, des API, des formats normalisés

Nous sommes dans un monde informatique interconnecté au plus haut point et l’interoperbilité est aujourd’hui le fruit des approches logiciels plus du matériel.

Une fantastique bascule conséquente vers l’ARM ne produirait que des effets marginaux sur se front.

Là, je trouve que tu regardes l’avenir dans un rétroviseur 😉

avatar byte_order | 

@YetOneOtherGit
> C’était.
> Nous sommes en 2020 est la chose informatique n’est plus aussi dépendante
> des enjeux matériels sous-jacent.

Depuis quand l'intéropérabilité et l'hétérogénéité s'applique qu'au seul plan matériel ?

> Une fantastique bascule conséquente vers l’ARM ne produirait que des effets marginaux
> sur se front.

Toutafé.
Du coup, puisque cela ne change pas grand chose, pourquoi y'aurait massivement une migration du parc mondial d'ordinateur vers une nouvelle architecture, qui plus est nettement moins standardisée et donc liée à un seul fournisseur !?

Le gain en autonomie ne concerne que les besoins en mobilité, qui est loin, très loin d'être la majorité des besoins en ordinateur (bon, encore plus en ce moment avec la Covid...).
Le gain en efficacité énergétique, là, ok. Les ventillos qui s'encrasent et font du bruit, les salles serveurs qui consomment (et produisent) des watts (et des dB) coutent cher en effet. Mais, là, y'a un besoin de modularité, de flexibilité, et de sourcing auprès de plusieurs fournisseurs.

Je vois mal AWS, Azure, Google, migrer leur datacenters sur des macs M1, mettant tous leurs oeufs (et dollars) dans le panier d'Apple, par exemple.
Je vois mal des milliers de grandes entreprises migrer leur parc d'ordinateurs portables sur des Mac M1. Elles pouvaient déjà migrer massivement sur macOS depuis des années, et cette migration n'est pas si massive, l'essentiel du parc de mac reste côté grand public ou indépendants.

avatar YetOneOtherGit | 

@byte_order

"Depuis quand l'intéropérabilité et l'hétérogénéité s'applique qu'au seul plan matériel ?"

C’est ce que tu semble dire en te focalisant précédemment sur des enjeux d’architecture matérielle 😎

avatar YetOneOtherGit | 

@byte_order

"Du coup, puisque cela ne change pas grand chose, pourquoi y'aurait massivement une migration du parc mondial d'ordinateur vers une nouvelle architecture, qui plus est nettement moins standardisée et donc liée à un seul fournisseur !?"

C’est là où l’on touche les limite de ton pragmatisme 😉

Le paradigme actuel touche ses limites sur bien des points et c’est un constat assez largement partagéˋ;

Apple à montrait qu’il y avait moyen d’une sortie par le haut, MS commence à explorer cela, d’autres suivront

avatar armandgz123 | 

@zorg008

J’ai jamais eu de soucis avec cette option sur mon Mac mini

avatar ssssteffff | 

@zorg008

C’est dommage parce que justement l’article dit qu’elle est désormais activée d’office, et plus désactivable 😅

avatar Steve Molle | 

Après tout, c’est ce qu’on attend des machines...

avatar tdarde | 

un peu HS mais j'ai l'impression que la fonction "utiliser l'ipad en écran secondaire" marche aussi bcp mieux ? (couleurs bcp moins délavées sur l'ipad)

avatar 406 | 

Ce qui me gonfle, c est de ne pas pouvoir contrôler le niveau de charge. Dommage de ne pas pouvoir le faire sans ouvrir le mac, en contrôlant de son iPhone par ex...

avatar huexley | 

C'est clair que le petit jeu de led sur le côté me manque énormément !

avatar corben | 

Combien consomment les Mac M1 au repos ?

avatar DamienLT | 

@corben

Moins de 1w d’après le test du Mac Mini

avatar corben | 

@DamienLT

Merci

avatar Maxstyle | 

Est ce que le partage de connexion se connecte instantanément sur les M1? (Mon ipad est toujours connecté à mon partage de co de l’iPhone par contre pour le mac je suis obligé d’activer réactiver le partage aller dans les paramètres wifi à chaque fois que j’utilise mon mac)
Ipad pro 2020 et MBP 2018

avatar raoolito | 

@Maxstyle

chez moi ca reste tres tres longtemps activé depuis mac ou ipad

avatar mryonce | 

3 mois offerts d’Apple arcade pour mon achat d’iPhone 12 pro , j’avais déjà bénéficié des 1 an Apple TV ✨

avatar macbookpro2016 | 

Idéa pour l'espionnage des masses

avatar abalem | 

Mon expérience est sans appel :
J’ai conservé un peu plus de 15 jours le dernier mac Intel avant d’acheter le M1, les deux sont branchés sur secteur :
Mac Intel - 7 cycles
Mac M1 - toujours 1
Et même durée à quelques jours près

avatar corben | 

@abalem

j’avais été surpris également avec mon MBP13 Intel que j’ai gardé un an et demi

Utilisé quasiment à 95% en poste fixe donc toujours branché au secteur et donc débranché quelques heures par semaine pour la mobilité au sein de la maison

Le nombre de cycles était assez impressionnant sur secteur

avatar abalem | 

@corben

Oui ça m’a paru dingue aussi ! En a peine 15 jours 😲😳

avatar corben | 

@abalem

Pourtant sur secteur il n’est pas censé faire appel à la batterie
Mais surtout ça fait sûrement des micro recharges qui plombent le comptage de cycles, ce qui fausse complètement le nombre de cycles

avatar byte_order | 

Ouais, cela en dit plus sur l'absence d'effort à gérer correctement la politique de recharge sur les Mac Intel qu'autre chose.
Pour info, ce n'est pas le CPU Intel qui s'occupe de gérer la batterie et sa recharge.

7 cycles sur 15 (donc 1 recharge complète tous les 2 jours, parce qu'un cycle c'est ça normalement) alors que c'est branché en permanence au secteur, y'a clairement un blem dans le contrôleur d'énergie...

Apple avait pourtant communiqu& à la sortie de sa puce T2 que c'était elle désormais qui s'occupait de cette gestion de la batterie dans ses macbooks...

avatar DamienLT | 

@byte_order

Je vais passer pour un débile mais si je comprends bien quand on laisse son mac (portable) constamment sur secteur, la puce T2 et MacOS ne rechargent pas la batterie et donc évite les cycles inutiles ?

Pages

CONNEXION UTILISATEUR