MacBook Pro : surprises dans la bascule des cartes graphiques

Florian Innocente |
On en découvre un peu plus sur le système de bascule entre les cartes graphiques apparu avec les MacBook Pro Core i5/7. De prime abord, impossible de savoir quelle carte travaille à l'instant T. On coche une case dans Préférences Système, et l'affaire est entendue. En coulisse, le système fait ses petites affaires avec la promesse de préserver l'autonomie. On sait simplement que le système se base sur les API utilisées par les applications (lire : Comment les MacBook Pro font la bascule graphique).

Lors du test du MacBook Pro Core i5, on disait toutefois espérer la sortie d'un utilitaire capable de dire qui fait quoi à quel moment (maj : depuis il est arrivé, lire gfxCardStatus gère mieux les "anciens" MacBook Pro).

changementautomatique


En fait, cet utilitaire existe, il s'agit tout simplement d’Informations Système… Un lecteur de MacRumors a remarqué que les infos relatives aux deux solutions graphiques changeaient lorsque l'une ou l'autre était en service. Ainsi, avec iMovie c'est la GeForce qui est désignée comme étant celle qui gère l'écran. Avec Calculette, c'est l'Intel HD qui lève la main. Il suffit d'un Cmd + R pour rafraîchir ces données.

basculeintelHD
La carte active


basculeautooff
La carte non active


Du coup, nous avons refait quelques essais sur notre Core i5, avec à la clef des constats parfois surprenants.

Parmi les applications qui déclenchent l'utilisation de la GeForce on trouve iMovie, iPhoto, Pixelmator - jusque-là rien que de très normal - mais également Tweetie et Nambu… deux clients Twitter ! C'est à dire des applications qui n'ont d'autre fonction que d'échanger des bribes de textes en réseau (Twitterrifc, lui, s'en tient à l'Intel HD).

À l'inverse, parmi les applications qui se satisfont de la puce Intel, on trouve Lecteur DVD, Word 2008, Safari, Mail, Adium, iTunes, Firefox, Chrome… ou Lightroom. Le logiciel de traitement d'image d'Adobe se montre donc moins gourmand que le petit Tweetie.

Autre singularité, la lecture d'une même séquence YouTube va lancer la GeForce dans Chrome alors que Safari et Firefox se contenteront de l'Intel (que la séquence soit HD ou pas). Et il faudra quitter Chrome pour qu'il revienne sur l'Intel, le fait de fermer la page YouTube ne suffit pas.

Ailleurs, avec un film DivX ou un film HD (.mkv), VLC va utiliser la GeForce alors que pour ces fichiers QuickTime Player utilise l'Intel HD.

Mais le scénario le plus surprenant reste celui de ces clients Twitter. Exemple : vous regardez un DVD, c'est donc l'Intel HD qui travaille, mais s'il vous prend l'envie de laisser Nambu ou Tweetie en tâche de fond, ceux-ci forceront l'utilisation de la GeForce, rongeant votre autonomie. Même chose si vous ne faites que taper un texte dans Word (ou même dans TextEdit), pour peu que l'un de ces deux logiciels soit ouvert, l'Intel HD passera la main…

switchcartetweetie
Tweetie est ouvert, la GeForce est en action


Dès lors, le système d'Apple peut être assez facilement pris en défaut. Une application (relativement) sommaire, sera néanmoins considérée comme exigeante sur la foi de certaines API utilisées. Est-ce qu'Apple doit optimiser son mécanisme, ou est-ce aux développeurs de reconsidérer certaines instructions dans leurs logiciels ? Aux deux ? La question est posée. L'utilisateur, lui, devant s'en tenir à un poste d'observation.

Conclusion (temporaire), le système d'Apple est élégant par sa simplicité, mais en cuisine, les choses sont nettement plus corsées…

Tags
avatar Elcos | 
j'ai toujours dis que ce système Optimus ne valait rien, pourquoi s'entêter avec ça, qu'il mettre une bonne CG dans les Mac avec un contrôle d'utilisation basique, une HD 5xxx ne consomera rien si la 3D n'est pas solicité et deviendra plus groumande sous FinalCut ou Diablo 3.....
avatar E-Play | 
Esperons que le système soit amelioré avec le temps, voir qu'il soit un jour possible de configurer soit même quelles applis déclenchent le basculement de CG ;-)
avatar Almux | 
@Elcos Il semble qu'Apple n'utilise pas Optimus. Les portables ont un problème d'autonomie. Ce qui est proposé, là, est la meilleure solution du moment.
avatar Thalantas | 
"À l'inverse, parmi les applications qui se satisfont de la puce Intel, on trouve Lecteur DVD, Word 2008, Safari, Mail, Adium, iTunes, Firefox, Chrome… ou Lightroom. Le logiciel de traitement d'image d'Adobe se montre donc moins gourmand que le petit Tweetie." Et si je lance toute ces applications en même temps....toujours intel HD?
avatar pseudo714 | 
@Elcos j'avais compris que intel imposait sa carte graphique.
avatar Florian Innocente | 
@ Elcos : Apple n'utilise pas Optimus mais sa propre méthode.
avatar AuGie | 
Bof, franchement sur mon MBPU acheté octobre 2009, ça me dérange pas vraiment de fermer la session pour change de carte graphique. Quand il est connecte au Cinema display je le bascule en 9600 puis quand il est en mode portable, j'ai besoin d'autonomie donc 9400. Mais au moins j'ai la carte graphique idéal quand je veux. Je trouve vraiment pas contraignant et j'aime bien avoir le contrôle sur le truc :)
avatar Florian Innocente | 
[b] @ Thalantas "Et si je lance toute ces applications en même temps....toujours intel HD?"[/b] Oui, je viens d'essayer. Par contre si, dans la foulée, tu vas sur YouTube avec Chrome, la GeForce est activée. Mais ca ne le fera pas avec Firefox à l'inverse.
avatar rick75 | 
Bonjour, Je pensais que ce genre de complication logicielle était réservée à Microsoft ! Bonne journée à tous.
avatar Mektoub | 
C'est exactement ce que je craignais... D'où l'intérêt d'une option supplémentaire pouvant forcer la carte HD à 100% L'autre défaut est que si une application exigeant le GPU nvidia est ouverte mais n'est pas utilisée, elle force néanmoins la bascule permanente vers nvidia...
avatar Macmmouth | 
oh là là le bricolage.. Autrement dit, les applications utilisant des API graphiques modernes bouffent la batterie et les applications utilisant de vieilles API rament.. C'est consternant de bétise.
avatar Amonchakai | 
Ben faut avouer que cette solution d'Apple n'a pas trop une vision vers l'avenir... Rien que les navigateurs Web se mettent a utiliser l'API OpenGL (Direct 2D sous windows) pour faire le rendu du texte... (Cf le développement d'IE, et je ne sais plus si c'est Firefox qui prévoit aussi de faire cela.) Et même pour des softs qui utilisent de la 3D légère (quelques cubes, spheres texturés). ça n'a pas de sens d'utiliser la GeForce pour ça... Du coup, une solution uniquement basé sur l'API utilisé va irrémédiablement conduire à des mauvais choix... La solution de NVidia via optimus me paraissait le mieux... car l'Intel HD répond aussi à l'API OpenGL. Et donc en fonction des application, il serai normal d'avoir le choix de CG.
avatar DarkDestiny | 
@Elcos tu te trompe. La raison de ces systèmes (que ce soit celui ci ou celui qui équipe des PC depuis quelque temps) et simplement dut au fait que les CG consomme pas mal même en idle et qu'on ne peut réguler leurs fréquences aussi facilement que sur les processeurs. Si bonne régulation il y avait il n'y aurait pas besoin de deux cartes, je ne comprends d'ailleurs pas qu'à l'heure ce genre de problème soit résolu. En attendant ceci démontre pour moi la totale inutilité du système.
avatar youpla77 | 
Donc pour résumer, si j'ai mon petit client twitter qui tourne en tache de fond sous SL, ben en fait c'est comme sous bootcamp quand Windows n'utilise que la carte la plus puissante ? Donc, le flash c'est nul ca prend des ressources sous SL, les clients légers (twitter and co) c'est nul ca utilise la carte la plus puissante. En fait je peux faire quoi sur mon mac qui bouffe pas trop la batterie ? c'est ironique, quoique...
avatar spacetito | 
Ce système est génial ! Je surfe, écran 100% wifi et BT, je regarde de la video HD, et j'ai 6h18 d'autonomie... Idem sous VLC meme si c'est la 330M qui prends le relai il y a une raison, elle sait decoder la HD sous mac contrairement a la intel apparement donc autonomie superieure avec la 330M sous Vlc sur du film HD ( test effectué d'ailleur par Mac4ever ), il y a peut etre un ou deux petit problème comme ces client twitters mais c'est une techno qui a quelques jours ! C'est un systeme extra pas de chauffe, passage en toute transparence ( le coup des 9400/9600 a devoir tout fermé c'était trés trés chiant )... Loin d'etre inutile ce systeme est genial et marche parfaitement.
avatar Amonchakai | 
Ben oui, mais ce qui est con c'est que l'intel HD était aussi capable de décoder de la HD 1080p (je le fais sur mon laptop et le CPU reste à ~5-10%) Donc tu aurai pus avoir plus d'autonomie si bon choix avait été fait. Et pas juste 330M parce qu'un décodage hard est demandé :/
avatar Fil de Brume | 
Soyons un peu patient. Comme le dit spacetito, ce système est récent. Il pourra être amélioré via des patchs successifs. Et peut-être que ce sont les devs qui utilisent des API dont ils n'auraient pas besoin ? Des API de rendu 3D alors que c'est un logiciel 2D, ce genre de choses ? Ce qui serait bien par contre serait une information à l'écran facile à voir, genre une icône dans le dock, quelque chose comme ça, qui indiquerait quelle est la carte active, ça permettrait à l'utilisateur de se rendre compte des applications gourmandes, et d'en tirer les conséquences. Tiens c'est à se dire que ça va être un nouveau cheval de bataille pour les applis "tweetmachin, le client twitter qui économise l'énergie" ;)
avatar Anonyme (non vérifié) | 
Que ce passe t'il si par exemple j'utlise Firefox et donc le chipset Intel et que je souhaite me faire une petite partie de Quake Live? Je reste contraint d'utiliser le chipset? ce serai un peu dédile non, surtout que la 330M serait bien plus puissante. Quelqu'un a fait ce genre de test?
avatar DarkMoineau | 
Pour une technologie naissante c'est pas mal je trouve, qu'elle fasse déjà du bon boulot. ça montre aussi qu'adobe n'utilise toujours pas de technologie Apple pour optimiser le traitement d'image (Lightroom se contente du proc et de l'Intel HD quand un simple iPhoto utilise la Geforce, ce qui signifie que le processeur doit faire le boulot de la CG).
avatar françois bayrou | 
@DarkMoineau "Lightroom se contente du proc et de l'Intel HD quand un simple iPhoto utilise la Geforce" J'arrive pas à voir ce que tu reproches à Lightroom, du coup. Parce qu'au final, si ce que tu dis est vrai, Lightroom consomme sûrement moins de watts qu'iPhoto, pour des performances et des possibilités supérieures :\
avatar youpla77 | 
@françois bayrou : oui mais il n'utilise pas le GPU pour faire du traitement ce qui pourrait accelerer les calculs. Après si c'est pour gagner 1/2 secondes...
avatar françois bayrou | 
@DarkMoineau Tu auras aussi remarqué que lire de la vidéo dans Safari ne requiert pas la Geforce. Faut il en conclure que le proc doit faire le boulot de la CG, et que Safari n'utilise toujours pas de technologie Apple ? :)
avatar Ad0 | 
N'empêche que Lightroom est beaucoup plus fluide sur les ordinateurs ayant quelques années, que ce soit la version 2 ou la beta 3, qu'un aperture fraichement sorti... Alors utiliser la carte graphique c'est très bien mais dans les faits adobe fait mieux avec le processeur. "le système d'Apple est élégant par sa simplicité, mais en cuisine, les choses sont nettement plus compliquées" Pour moi c'est une façon polie de dire que c'est une sacrée usine à gaz qui fait un peu n'importe quoi ^^
avatar eden-eden | 
2 choses : 1 - On suppose donc que les tests d'autonomie que vous avez faits sur le MacBook Pro i5 pourraient être meilleurs en éliminant certains logiciels de messagerie par exemple. Notamment dans le test "journée de travail à la MacGé" où ce type de logiciel est utilisé. Je crois que vous étiez arrivés à 6h11 d'utilisation, ce qui semble peu comparé à la "productivité sans fil" de 8-9 heures promise par Apple. 2- On apprécierait un utilitaire avec une petite "diode" qui passerait du vert au rouge dans la barre des menus pour nous indiquer le type de consommation dans lequel on se trouve (économe ou intense). Et un clic sur la diode pour dérouler un menu où serait listées les applications utilisant la première ou la deuxième solution. Ou mieux, un utilitaire qui remplacerait l'indicateur d'énergie d'Apple et changerait simplement de couleur quand un logiciel provoque la bascule vers la carte NVidia.
avatar oomu | 
ce n'est pas du "optimus" et oui, c'est un travail que doit faire apple ET l'auteur du logiciel. oui, certaines API consomment beaucoup sans que cela soit forcément justifié dans le logiciel alors maintenant on a cette "nouveauté" de bascule dans un composant ou l'autre (qui est forcé par le changement de licence de intel envers nvidia) - mais le même genre de problème se posent avec le processeur. Certaines fonctions sont déconseillées aux auteurs de logiciels, à eux de l'utiliser avec parcimonie ou non. Le système doit limiter ou négocier leur usage, mais au final, c'est l'application qui est maître l'ipad / iphone impose beaucoup plus de rigueur à l'auteur de développeur. un nombre effarant de recommandations visent à ce que les app utilisent le moins possible de la machine. - à propos de la consommation. Il vaut mieux utiliser un composant très consommateur qui va résoudre le problème en 2s plutôt qu'un composant qui consomme peu mais qui va mettre 10s pour la même tâche. Il faut balancer entre le temps de calcul et la consommation par cycle. Il est plus économe de faire travailler un composant exigeant mais très rapide si au final on consomme moins. - >Pour moi c'est une façon polie de dire que c'est une sacrée usine à gaz qui fait un peu n'importe quoi ^^ je vous déconseille de lire comment travaille un cpu, le bus pci, la mémoire virtuelle et le principe de multitache dans un cpu moderne. c'est comme dans un grand restaurant, c'est élégant car on ne voit pas et on a pas besoin de savoir que derrière c'est une organisation implacable.
avatar DarkMoineau | 
Pour les applications photo tel iPhoto ou Pixelmator, ils utilisent CoreGraphic, et toutes les optimisations d'Apple, Lightroom non. Par contre pour la vidéo ça montre autre chose: les API de Firefox & Safari se contentent d'utiliser la puce Intel HD pour décoder une vidéo, chose que la Intel HD sait très bien faire (c'est ptet même sa seule utilité) quandChrome sort l'artillerie lourde. Je vois pas en quoi décoder une vidéo nécessite une Geforce moi, alors que pour bosser sur des photos, je suis content d'avoir un proc graphique qui fasse le boulot à la place du proc.
avatar oomu | 
>2- On apprécierait un utilitaire avec une petite "diode" qui passerait du vert au rouge dans la barre des >menus pour nous indiquer le type de consommation non "on" apprécierait pas. Le mieux est une machine silencieuse quasi invisibile qui fait son boulot de la manière la + efficace SANS prendre la tête avec des diodes. mais vous aurez certaiement une tonne d'utilitaire pour tout savoir très vite , genre Stat Menu. - tweetie est une application de faut jeton ;) elle utilise Core Animation, allez savoir ce que le développeur fait concrètement et si il est possiblement dans os X de basculer core animation d'un proc à un autre selon l'usage. - Enfin, à mon sens, ce n'est que la continuité, à un niveau supérieur, des bascules dans les gpu et cpu entre fonctions économiques et fonctions très rapides. Le système est censé utiliser intelligemment l'une ou l'autre, l'électronique est censée comprendre l'intention du système et basculer sur le + efficace, et le développeur de logiciel est censé utiliser à bon escient les outils qui lui sont donnés. - dans le genre la techno c'est bien mais ça se maitrise : un logiciel qui surveille en permanence quelque chose (demander chaque cycle l'état d'un périphérique, d'un fichier, d'un événement système forcera le processeur a passer son temps sur le logiciel et jamais basculer en économie d'énergie. Ainsi, dans os X, si FSEvent permet de réagir en temps réel à des changements dans les documents de l'utilisateur, le développeur de programme n'est pas censé faire ça n'importe quand et y a des restrictions.
avatar oomu | 
@françois bayrou [22/04/2010 10:31] je sais quele composant intel intégré est jugé comme l'Enfant du Démon par les technophiles parce qu'il est inadapté pour jouer à Crysis mais pour lire du mpeg4 h264, il est tout ce qu'il faut. les ingénieurs raffineront certainement avec le temps et le recul l'usage de tels ou tels composants.
avatar DarkMoineau | 
Bon aparement, MacGé me laisse pas éditer, alors: Je critique pas une application particulière, faudrait que je teste Lightroom et Aperture pour cela mais, ce que je vois avec ce test, c'est que Lightroom utilisera mon processeur et Aperture ou Pixelmator non. Et si le proc tourne à fond comme un malade, il consommera au moins autant que la CG donc est-ce une bonne chose? Ensuite lorsque l'on a du matériel spécialisé et efficace, pourquoi faire bosser le pauvre processeur qui pourrait servir à autre chose? Enfin tout cela c'est des déductions faites en se limitant à l'article.
avatar DarkMoineau | 
Oh tiens, je suis encore d'accord avec oomu? Zut alors! ;) Effectivement un client twitter qui utilise Core Animation, c'est quoi l'intérêt? Ensuite pour lire une vidéo Youtube on est d'accord, l'Intel HD suffit, c'est juste pour le jeux, la 3D et le travail d'images qu'elle est insuffisante/juste, mais comme toutes les puces.
avatar françois bayrou | 
@oomu "à propos de la consommation. Il vaut mieux utiliser un composant très consommateur qui va résoudre le problème en 2s plutôt qu'un composant qui consomme peu mais qui va mettre 10s pour la même tâche. Il faut balancer entre le temps de calcul et la consommation par cycle." Sauf que ton composant qui est sollicité 2s va consommer de la batterie pendant toute la durée d'utilisation du soft Donc quand un soft est ouvert pendant 3 heures, il vaut peut être mieux utiliser un composant qui fait le travail en 10s que celui qui fait le travail en 2s, non ? ( je parle du point de vue de l'autonomie, raison d'être de ce systeme de switch )
avatar françois bayrou | 
"ce que je vois avec ce test, c'est que Lightroom utilisera mon processeur et Aperture ou Pixelmator non." Aperture utilise aussi le CPU, et peut être que Lightroom utilise la carte Intel, qui reste tout de meme un bon GPU, et peut être même qu'il est super bien optimisé et qu'elle lui suffit amplement, va savoir ...
avatar eden-eden | 
@ oomu : Si si "on" apprécierait, mais je veux bien remplacer le "on" par "je" si tu préfères. J'insiste donc que si, ce serait appréciable pour la simple raison que cette news nous fait savoir que le système est peut-être "transparent", mais qu'en fait il pompe sur la batterie avec des opérations qu'on croit légères. Ce serait donc d'une grande utilité quand on est sur batterie de savoir qu'on est en train d'épuiser les ressources bêtement alors qu'on en a besoin pour travailler. Je travaille souvent en extérieur sur du texte et j'ai parfois besoin d'utiliser certains logiciels supplémentaires pour des analyses ou des lectures de documents. Une "diode" (ou autre chose, je m'en fous) permettrait d'alerter l'utilisateur afin qu'il économise sa batterie. De plus, un utilitaire s'utilise que si on le souhaite. Donc, je ne vois pas en quoi son existence ne serait pas appréciable.
avatar PLaiLLeuR | 
La technologie Optimus avait au moins pour elle de faire plus intelligemment la bascule CG/Chispet on the fly. Cette subtilité introduite du jour au lendemain et indépendante de la version de votre OS risque bien de compliqué la tâches aux développeurs qui seront obligés de rajouter du code dans le dur spécifiquement pour les Mac de cette génération. Enfin bon, si je devais désinger quelqu'un du doigt ce serait bien Intel. Le salut viendra quand nous aurons la possibilité de forcer pendant une session l'utilisation de la CG ou du chipset, et il me semble que ce soit la seule chose réalisable rapidement dans l'immédiat (mon 15" core i7 arrivant dans quelques jours, je suis assez déçu de cette nouvelle).
avatar Pierre H | 
L'avantage d'un utilitaire c'est qu'elle permettra aux utilisateurs de repérer les applications qui font mauvais usage des cartes graphiques. Et elle permettra aux développeurs de tester leurs applications sur ce point avant de les sortir.
avatar omega2 | 
oomu > C'est une logique valable quand il est pertinant de gagner du temps. Mais pour des clients twitter ou des vidéos, hum hum. Le jour ou un lecteur DVD me proposera de m'afficher un film d'1h30 et 1h par ce qu'il peut aller plus vite avec la super carte graphique, je prend peur. Finalement pour que ce système soit parfait du point de vue de l'utilisateur, il faudrait que les applis puisse dire "j'utilise de l'OpenGL mais je peux me contenter de la carte de base". La solution d'Apple ne le permet pas ou du moins Apple n'a pas encore publié d'API qui permet de l'indiquer. DarkMoineau > Ta déduction est faite à la va vite. Il faudrait regarder la consomation de la carte graphique et du processeur pour un boulot donné afin de savoir qui consomme le plus. Les grosses cartes graphiques sont d'ailleurs réputer pour consommer beaucoup plus que les gros processeurs (quand elles sont utilisé à fond du moins)
avatar Nesus | 
@Kromozom : tu décoches tout simplement le basculement automatique. Il y a effectivement de la mise à jour à faire pour tout le monde; Mais c'est le prix des nouvelles technologies.
avatar DarkMoineau | 
@omega2 Depuis quand Apple utilise des grosses cartes graphiques? ;) Ensuite une chose est sûre: cette technologie est naissante, et va donc évoluer, probablement par des MAJ logicielles, voir de nouvelles API, mais il faut bien un début, non? Et comme Optimus dépend d'une base de donnée et s'active selon si le logiciel est ou non dans la base de donnée, et que la solution d'Apple se base sur l'API utilisée, je crois que la solution Apple est la plus intéressante pour l'instant, non?
avatar youpla77 | 
@ DarkMoineau : "t comme Optimus dépend d'une base de donnée et s'active selon si le logiciel est ou non dans la base de donnée, et que la solution d'Apple se base sur l'API utilisée, je crois que la solution Apple est la plus intéressante pour l'instant, non?" Oui pour le développeur / editeur faut juste coder, recompiler, valider, et publier son app, bref pas grand chose à changer quoi ;)
avatar françois bayrou | 
"et que la solution d'Apple se base sur l'API utilisée, je crois que la solution Apple est la plus intéressante pour l'instant, non?" Disons la moins pire ! Comment faire alors ? Peut être ne pas se contenter de se baser sur l'API utilisée mais aussi vérifier COMMENT elle est utilisée. Un système vraiment bien foutu pourrait se construire lui même sa base de données, enregistrer pour chaque PID le %age de CPU et GPU utilisé. Ainsi un même soft ( quakelive par exemple ) déclencherait la Geforce chez toto qui met les réglages à fond en fullscreen, mais se contenterait de l'intel chez titi, titi qui lui mettrait les réglages au minimum sans fullscreen. Ca ca serait vraiment sympa et vraiment bien foutu, un vrai truc "adaptatif". Je suis sûr qu'on y viendra. On a des interfaces adaptatives, on a des jeux aussi qui savent doser la difficulté suivant le niveau du joueur. Pourquoi pas faire de même ? En attendant comme tu le dis cette techno est récente, elle vient juste de débarquer, alors attendons de voir ce qu'ils vont nous proposer !
avatar TotOOntHeMooN | 
Un test très intéressant qui montre un système de switch efficace, pour peut que l'application soit bien codée. Le cas "twiter" reflétant ce syndrome des petits programmes codés à l'arrache et sur-consommateur de ressources. Les mauvaises langues diront que si le chipset Intel n'est pas utilisable sous Windows, c'est parce qu'il en fait parti ... ;)
avatar TotOOntHeMooN | 
@ françois bayrou : Qui dit que le système actuel n'est pas capable d'utiliser le bon chip graphique en fonction des paramètres de chaque utilisateurs ? Après tout, c'est au niveau des ressources nécessaires à un instant T, que la bascule est faite.
avatar omega2 | 
TotOOntHeMooN > Tu penses que les clients twitter consomment beaucoup de ressources et ont besoin de la plus grosse cartes pour ne pas ramer? En fait c'est en fonction du type d'instruction utilisé que la bascule est faite, pas des besoins réel de l'application.
avatar françois bayrou | 
@totoonthemoon "Après tout, c'est au niveau des ressources nécessaires à un instant T, que la bascule est faite." J'ai cru comprendre que ce n'est justement pas au niveau des ressources mais plutôt par rapport à l'utilisation d'API, que la bascule est faite ... à moins que Tweetie ou TextEdit n'aient réellement besoin d'une Geforce 330M pour fonctionner, et ne puissent se satisfaire du chip d'intel ^^
avatar TotOOntHeMooN | 
C'est peut-être moi qui ait mal saisi alors ... Mais TextEdit ... :D
avatar Sylvain ALLAIN | 
@ oomu Bien sympathique métaphore que ce restaurant... On y mange quand ? ;-) SA
avatar françois bayrou | 
Si c'est pour risquer d'y attraper une crise de foie et 3g de cholestérol en avalant une demi biscotte allégée sans sel, ca sera sans moi :p
avatar hangon | 
tweetie utilise simplement coreanimation
avatar alex96 | 
@oomu "un logiciel qui surveille en permanence quelque chose (demander chaque cycle l'état d'un périphérique, d'un fichier, d'un événement système forcera le processeur a passer son temps sur le logiciel et jamais basculer en économie d'énergie. " Ca ne se code pas avec une boucle qui vérifie a chaque cycle si il s'est passé qqch, renseigne toi...

Pages

CONNEXION UTILISATEUR