Intel n'autorise pas l'overclocking sur les processeurs Skylake

Stéphane Moussie |

Alors que des utilisateurs ont trouvé qu'il était simple d'augmenter la cadence des processeurs Skylake (dont les derniers iMac sont équipés), Intel a décidé de mettre un terme à cette pratique. Le fondeur a déclaré à PC World que la dernière mise à jour qu'il avait fournie aux fabricants d'ordinateurs empêchait d'overclocker les processeurs qui ne sont pas conçus pour cela.

Intel propose en effet des processeurs « K », vendus plus chers, qui sont « déverrouillés », comprendre que l'on peut modifier. Mais comme le fait remarquer PC World, le fondeur prend soin de se tenir à distance de l'overclocking, même avec les puces « K », en indiquant qu'un processeur qui fonctionne en dehors de ses spécifications n'est pas pris en charge par la garantie.


avatar CNNN | 

Dans quel cas est-il indispensable d'ocerlocker son processeur ?
Excepté pour un kéké qui veut publier un bench ?

avatar oomu | 

dans les cas où on veut maximiser son investissement en sous à soi qu'on a eu par le Travail ! Le Travail L'Essence de L'Hommeuh.

Perso, je suis un sacré kéké, mais je publie pas de bench (je suis donc en terme technique un kéké impuissant).

avatar C1rc3@0rc | 

;) disons qu'a la place de keke tu serais plutot un geek a tendance hacker (dans le bon sens)

Mais ta 1ere reponse a du sens sauf que tu développes pas.

Faut compredre que l'overclocking c'est le graal de l'architecture Intel x86! historiquement, c'est la frequence d'horloge qui determine la puissance du processeur: plus on augmente cette frequence plus le processeur est rapide.

Pendant tres longtemp Intel a simplement augmenté la frequence d'horloge pour que ses x86 soient plus puissants (en fait plus rapides). Cela etait possible grace a la finesse de gravure: plus fin et plus rapide a consommation inferieure ou constante!

Ca a ete la periode mythique de la course au Ghz! Pour vendre un proco, suffisait d'étaler sa fréquence!

Puis Intel s'est pris un premier mur ou la finesse de gravure n'arrivait plus a compenser l'augmentation de dégagement thermique : ça a été le mur des 4 Ghz!

AMD a alors offert au x86 un sursis en transformant l'architecture x86 avec un moteur RISC a la place de son moteur CISC: ça n'a pas permis de relancer la course au Ghz, mais ça a permis d'augmenter le nombre d'instructions par cycles (IPC)... pas très longtemps.
Apres Intel est passé au multicore permettant d'augmenter le nombre d'IPC (2 core = doublement théorique de l'iPC): la aussi le mur des 8 core est vite arrivé.

Reste qu'un x86 bénéficie toujours d'une fréquence plus élevée et les processeurs sont produit avec une marge de sécurité qui est déterminée par leurs classification de qualité: les K sont la qualité surperieure permettant de mieux encaisser la chaleur, donc ils tournent plus vite. Ceux qui sont plus ratés sont réglés sur des fréquences inférieures.

Seulement aujourd'hui le x86 est au point mort (ça fait plus de 5 ans). Intel a donc trouvé l'idée de reduire la marge de securite tout en utilisant l'overclocking dynamique (mode turboboost).

Le hic c'est que l'overclocking risque bien plus de "cramer" le proc pour un tres faible benefice...

avatar CNNN | 

@C1rc3@0rc :
Super tes explications ;) merci

avatar k43l | 

Bravo pour toutes les bêtises raconter sur la fréquence et le mur :
http://www.01net.com/actualites/il-overclocke-son-processeur-intel-skylake-a-plus-de-7-ghz-950454.html

Alors que c'est une question principalement de matériel pour refroidir.

Et merci pour les bêtises raconter sur le nombre de coeur et le mur :
http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E5-2699%20v3.html

Aller en prison, ne passer pas par la case départ, ne toucher pas 20 000$.

PS : Faudra réellement expliquer cette haine envers Intel, je te l'ai déjà dis, et ça en devient maladif ! Puis met à jour tes connaissances... ou ton wikipédia je sais pas

avatar shoyu | 

@k43l

Bonjour,

Je ne comprends pas. Même si le commentaire de C1rc3@0rc est une vulgarisation, ce qu'il écrit est vrai en pratique. Même s'il est possible expérimentalement ou avec un budget de ouf de dépasser les limites, c'est loin d'être accessible pour le grand public et pour la plupart des entreprises.
Pour les développeurs, la gestion des multi-coeurs est une galère et il n'y a pas tant d'applications que ça qui optimisent leur utilisation. En pratique, en dehors de certaines bases de données et d'algorithmes de traitement du signal, il n'y a pas grand chose.
Ceux qui ont travaillé sur les transputeurs savent que l'optimisation du code est particulièrement complexe (et pourquoi).
La gestion des cœurs par le système n'est pas non plus miraculeuse.
Donc, pour moi aussi, il y a bien un mur technique difficile à franchir par tous les constructeurs et il n'y a pas de haine à le constater. Pour les chercheurs, il s'agit de défis qui rendent leur travail intéressant.

avatar k43l | 

@Shoyu

Je ne demande pas de développer son commentaire plutôt bien détailler et dont franchement même moi je n'avais pas connaissance (si tout ce qu'il dit est vrai ou bon), je lui demande d'arrêter de critiquer le x86 et de manière plus précise Intel sur des choses qui ne repose sur rien. (y'a un passif assez important et on peut le voir sur son commentaire plus bas encore)

Je suis d'accord avec toi que la gestion des multi coeur est une galère OS comme software ou programmation. Déjà on exploite même pas les 4 core physique simultanés... Mais je le redis, il y a un passif avec @C1rc3@0rc qui dans chaque commentaire sur Intel dit "indirectement" c'est de la merde.

Dire je cite : "Seulement aujourd'hui le x86 est au point mort (ça fait plus de 5 ans)." alors que ça n'a jamais autant bouger (processeur qui s'approche des conso ARM en ordinateur + processeur mobile qui équipe des smartphones) c'est de la désinformation.
Dire qu'il y a un mur de 4ghz ou de 8 core physique sous prétexte qu'intel a atteint ces limites, c'est de la désinformation.
Il y a un mur oui mais de désintérêt tout simplement.

Et si quelqu'un dit que son histoire intel AMD c'est du mensonge source à l'appuie il faut le dire.

Bien entendu tu es libre de le croire, comme tu es libre de croire que 1+1 = 4, vu que je le dis de la plus belle des manières avec un smile :)

avatar C1rc3@0rc | 

@k43l

Tu peux raconter ce que tu veux, mais les faits sont la et je ne fais que les vulgariser pour ceux qui sont victimes des mensonges marketing d'Intel!
Et ici on parle de PC qu'il soit de bureau ou portable.
Je critique ce qui est critiquable.
Encore récemment Intel a réaffirmé que sa priorité c'est la consommation pas la puissance!

Tu tentes de contester ce que je dis en mentant!
L'article de 01net parle d'un overclock a 7ghz... avec un refroidissement a l'azote liquide!
Dans le monde reel le x86 plafonne a 4ghz!

Tu cites ensuite un Xeon a 18 core a 2,3Ghz,145W a $4000... typiquement dédié aux serveurs: donc c'est strictement inutilisable pour le desktop et encore moins pour les portables!
Dans le monde reel un PC sous x86 peut au mieux tirer partie de 4 core!

Apres tu peux bien vouloir monter un portable avec deux Xeon E7 a 18 core et immergés dans de l'azote liquide, mais j'attend de voir ça!

Depuis Sandy bridge les performances des processeurs c'est +5% en moyenne a chaque generation et en exploitant les instructions dediées.
Et quant tu vois plus de 5% c'est que c'est pas le core qui est utilisé mais un coproceseur dedié a une tache et disposant d'une architecture différente du x86: par exemple de l'unité de chiffrement ou de l'unité AVX: c'est du SIMD!

Dans la realité tu passes un Sandy bridge et un Skylake de meme frequence avec SuperPI (bench monocore ), tu vois pas de difference - le Sandy peut meme etre un peu plus rapide a la limite!

L'efficacité energetique du core x86 n'a progressé que tres marginalement.
Ce qui a fait de tres gros progres c'est la gestion d'alimentation dans le processeur: le processeur sait eteindre tout ce qui n'est pas utilisé et mettre au ralentit ce qui est peu sollicité. La meilleure démonstration c'est le turboboost: un core tourne a fréquence max pendant que les autres sont éteints.
Donc ça consomme moins parce qu'il y a moins de gaspillage!

avatar k43l | 

Ton ignorance me fatigue, ton déni encore plus.
As tu déjà overclocker un processeur. As tu seulement monter un ordinateur seul.
http://www.hardware.fr/myocdb.com/fiche23622.html

Vasy explique moi Tmax 77° donc une température plus qu'acceptable, en watercooling donc faisable par tout le monde.

Un second : http://www.hardware.fr/myocdb.com/fiche23632.html en ventilation stable à 4.5ghz en partant de plus loin encore avec un 6600k !

Si tu aurais fait un peu d'overclocking, tu saurai qu'il s'agit avant tout d'optimisation plutôt que de dégagement thermique. Et le problème est que personne ne vend un tout en un optimiser pour cela. Donc tout le monde fait à sa sauce en cherchant son optimisation en fonction de son matériel.

Enfin à te lire on dirait que des processeurs à 5ghz dans la concurrence c'est légion...

Pour l’efficacité énergétique Ok... parle moi des Core M7 d'intel alors parce que j'ai un peu de mal à comprendre comment sans efficacité énergétique ce processeur rentre dans une machine si fine.
Comment des Core ix (u) rentre dans des air avec une autonomie de 10h sans forcer sans lorgner sur la puissance.

avatar C1rc3@0rc | 

«Si tu aurais fait un peu d'overclocking, tu saurai qu'il s'agit avant tout d'optimisation plutôt que de dégagement thermique. Et le problème est que personne ne vend un tout en un optimiser pour cela. Donc tout le monde fait à sa sauce en cherchant son optimisation en fonction de son matériel.»

Optimisation oui,... du refroidissement ;)

Tu parles d'un ventilateur monstrueux de 12 centimètre et tournant a 1600 tours min avec en plus un "alambic" en contact direct avec de CPU et d'un plus monstrueux encore watercooling. Ca extrait 130m3 d'air a l'heure!
Apres on peut aussi parler du refroidissement a l'azote liquide... Et la on tape sur des AMD aux 4 premières place avec 8,7 Ghz! Intel c'est en 2013 un celeron 352 a 8.5Ghz...

Mais c'est comme parler de dragster face a une grosse berline d'usine...

IBM a mis tout le monde d'accord en faisant tourner un transistor a 500ghz en... Silicium de Germanium avec de l'helium liquide donc -268º pour refroidir la bete !
A l'époque les chercheurs d'IBM évoquaient des processeurs SiGe qui atteindraient le Terahertz, oui monsieur le Terahertz! et c'était en 2006
;)

Dans le monde reel, Intel avait promis le Pentium 4 a 10ghz: ils sont resté sous les 4 Ghz.
Parce que c'est bien beau de lire des top ten de fondus d'overclocking, mais s'il te faut des pales d'helicopter, un refroidissement par caloriporteur liquide ou de l'azote liquide...

Si Intel aujourd'hui interdit l'overclocking, alors que ca flatte un ego qui s'est pris la misere avec Broadwell et Samsung, c'est peut etre qu'il y a une raison...

Bon je vais pas rentrer dans le débat du Core M, on risque de toucher le fond du ridicule. Apres si tu veux croire qu'un Core M c'est un Core avec une super efficacité énergétique, arf, y en a bien qui ont cru(encore?) que l'Atom Medfield aller dominer le mobile... c'était en 2012!

Mais bon si pour toi Intel Inside c'est identitaire, on est dans du dogmatisme, pas dans un debat.

avatar Gueven | 

@k43l :
Dire qu'intel est au point mort, c'est faux. Dire que ça n'a jamais autant bougé c'est tout autant faux.
Depuis 5 ans la progression s'est tassé. On est bien loin des * 2 en puissance / an, qu'Intel nous avait habitué.
Dire qu'Intel se rapproche de la consommation des puces arm, ça ne veut rien dire. Le must en puissance chez Arm ne dépassera pas les 10w, alors que chez Intel ça tourne au delà de 100w.
Actuellement arm dépasse les 40% de gain en puissance par génération tout en restant dans la faible consommation énergétique.

avatar C1rc3@0rc | 

Coté ARM sur les 6 générations précédentes ont a en moyenne un quasi doublement de la puissance par génération alors que la consommation reste stable.

Cote Intel c'est entre -5% et +5% sur le core... A frequence egale un Sandy bridge peut etre legerement plus rapide qu'un Skylake.

Apres Intel a rajouté des unités specialisées qui evitent de faire appel au core pour certains traitements specifiques, mais cela renforce la sensation de stagnation du x86.
D'ailleurs aujourd'hui un processeur Intel c'est plus un SoC qu'autre chose, le core a de moins en moins d'importance.

avatar k43l | 

@ Gueven

Dire qu'Intel se rapproche de la consommation des puces arm, ça ne veut rien dire. Le must en puissance chez Arm ne dépassera pas les 10w, alors que chez Intel ça tourne au delà de 100w.

Ok parle moi des Core M7 d'intel alors parce que j'ai un peu de mal à comprendre comment un proc de 100w rentre dans le macbook 2k15 sans ventilation.
Parle moi du Asus Zenphone 2 un smartphone avec une puce intel
http://www.clubic.com/smartphone/android/article-762204-1-asus-zenfone-2.html#performances-et-autonomie

Merci, au revoir.

PS : la technologie avance mais vos connaissance sont celle d'il y a bien 10ans

avatar C1rc3@0rc | 

@shoyu

«Donc, pour moi aussi, il y a bien un mur technique difficile à franchir par tous les constructeurs et il n'y a pas de haine à le constater. Pour les chercheurs, il s'agit de défis qui rendent leur travail intéressant.»

Le fait est qu'on arrive a la limite des possibilité des processeurs sur silicium, néanmoins le choix de l'architecture offre plus ou moins de marge de progression.

Le problème c'est que l'architecture x86 est obsolète depuis un moment (2000/2003) et ne doit son "succès" et sa "durée" qu'a une stratégie monopolistique concertée avec Microsoft pendant des annees.
Le x86 est inutilement compliqué mais surtout il poursuit une approche néfaste pour tout le monde, même pour Intel aujourd'hui: c'est pas un hasard si Intel est en echec sur le mobile malgré une politique de dumping outrancière.
Par exemple si aujourd'hui on a des Mac avec des performances graphiques lamentables, il y a bien une responsabilité d'Apple mais c'est surtout du a la strategie anti-concurrence de Intel qui a tout fait pour étouffer AMD et NVidia en installant des unités graphiques dans le processeur et en compliquant l'utilisation de GPU externes.

Et ce que le GP ne sait pas c'est qu'Intel fait du dumping systématiquement et rachète pour les faire disparaitre ou étouffe les boites qui font des avancées. Aujourd'hui Intel assure le dumping violent sur les processeurs mobiles (Atom, Core-M) grâce a ses revenus tirés du cloud (serveurs et equipement). Tout comme le serveur a ete financé par le monopole PC...

avatar Gueven | 

@k43l :
Et toi tu as l'air de t'arrêter au titre d'un article.
Le gars il désactive 3 cœurs des 4 présents sur la puce pour atteindre les 7 Ghz. Avec ça tu veux démontrer quoi ? Qu'on peut dépasser les 4Ghz aujourd'hui ? Personne n'a dit le contraire.

avatar k43l | 

Ne t'inquiète pas j'ai bien lu. Mais un mur pour moi désoler ça veut dire qu'on ne peut pas aller plus loin.
Si dans 1km j'ai un mur et que j'ai parcouru 1.2km deux solutions :
- la distance du mur était mauvaise, donc la limite de 4ghz ne l'est pas
- soit j'ai traversé le mur... parce que celui ci n'existe pas.

Pour les processeurs c'est entre les deux. La limite c'est le matériel qui l'entoure, puis le dégagement thermique de l'ensemble ou forcément un moment on ne pourra plus la contenir.

avatar C1rc3@0rc | 

«Si dans 1km j'ai un mur et que j'ai parcouru 1.2km deux solutions :
- la distance du mur était mauvaise, donc la limite de 4ghz ne l'est pas
- soit j'ai traversé le mur... parce que celui ci n'existe pas.»

ou alors tu étais pas sur la bonne route tout simplement!

avatar macinoe | 

"Puis Intel s'est pris un premier mur ou la finesse de gravure n'arrivait plus a compenser l'augmentation de dégagement thermique : ça a été le mur des 4 Ghz!
AMD a alors offert au x86 un sursis en transformant l'architecture x86 avec un moteur RISC a la place de son moteur CISC: ça n'a pas permis de relancer la course au Ghz, mais ça a permis d'augmenter le nombre d'instructions par cycles (IPC)... pas très longtemps."

Euh... petit problème de chronologie.

Le RISC a été introduit sur les intel x86 en 1995 avec les pentium pro, (max 333 Mhz en 1995). Chez AMD, c'était en 1999 avec le K7/Athlon (max 700 Mhz en 1999 )
Pratiquement tous les processeurs x86 à partir de cette date était des pseudo RISC.

La fin de la course à la fréquence date elle de 2004, avec des pentium 4 à 3.8 Ghz
Puis avec l'introduction des coreduo / coresolo en 2006 qui avaient de bien meilleures performances avec des fréquences bien plus faibles.

avatar C1rc3@0rc | 

@macinoe

Moais t'as raison j'ai pas ete assez precis.

Techniquement l'AMD K5 (1996) avait un moteur issu de l'architecture RISC AMD Am29000 (1988) sur lequel se trouvait un "frontend" x86.

Intel de son cote avait une architecture RISC en 1990 avec le i960 et prevoyé de remplacer le x86 avec l'Itanium (architecture EPIC, IA64) en 2001.

Il est vrai qu'Intel a commencé a abandonner le modele CISC pur avec le Pentrium Pro: front end x86 et moteur a micro-instructions s'approchant du RISC, ce qui lui a permis de monter en fréquence rapidement notamment en allongeant le pipeline.

Mais il a fallut attendre l'architecture AMD64 en 1999 (bien que l'Operon soit finalement commercialise qu'en 2003), qui associe vrai RISC et 64bits permettant d'augmenter significativement l'IPS et de debloquer le x86.
A l'epoque Intel comptait sur le réduction de la gravure pour baisser le degagement thermique et le Pentium 4 devait atteindre 10Ghz.

Mais AMD avec son architecture RISC avait deja un meilleur IPS, ce qui augmenta encore avec le RISC 64bits de l'AMD64.
Intel fut contraint de passer a l'AMD64 a la fois pour augmenter l'IPS, bénéficier de tous les avantages du 64bits et stabiliser le dégagement thermique.

avatar oomu | 

Cela me rappelle un manga sur l'overcloacking: "87 CLOCKERS "

Où le protagoniste principal se lance dans l'apprentissage de l'overcloacking pour épater une nana (que voilà une Vraie Raison, snirfl...) qui elle est une kéké de première qui publie ses bench pour gagner les compétitions.

Je ne vous le conseille pas, c'est un très mauvais manga et vous devriez cesser de lire des internautes qui vous parlent subitement de manga.

avatar Sulfate | 

@oomu :
Tu te super-caches derrière un arbre ?

Clock = horloge
Cloak = dissimuler

-> overclocking, pas overcloaking.

avatar oomu | 

vous aurez bien entendu deviné que l'erreur ne provient que de la médiocrité de nos interfaces homme-machine du 21e siècle (boueEERkl) et de mon fantasme inconscient d'avoir enfin les moyens d'espionner tout le monde partout tout le temps.

avatar algounet | 

Oui seul un débile prendra 2 minutes de son temps pour changer 2 paramètres dans le bios qui permettent de passer un proc I7 de 2,6 Ghz à 4,4Ghz (60% en plus).
Un personne saine d'esprit préférera dépenser 900€ pour directement acheter le proco à 3,6 Ghz moins puissant.
Ce forum des fois -_-

avatar C1rc3@0rc | 

C'etait vrai jusqu'a la generation Sandy bridge. Depuis et de maniere de plus en plus grave (avec Broadwell en particulier) la marge de securité est trop faible: tu risques de plus en plus de cramer ton proc si tu le refroidis pas avec du lourd!

Faut savoir que suite aux problemes de production arrivés avec Haswell et qui se sont empirés avec Broadwell Intel semble avoir serieusement baissé ses niveaux de qualité: un Sandy bridge qui etait validé a 2,5 Ghz serait validé aujourd'hui a plus de 3 Ghz!
En plus Intel a bidouillé la notion de TDP, qui est aujourd'hui beaucoup tros bas!

Faut aussi savoir que les x96 actuels sont deja soumis a l'overclocking dynamique: donc si tu overclock en plus tu fais exploser brutalement le dégagement thermique.
Intel utilise l'overclocking pour faire gagner un peu de vitesse sur des courtes periodes (turboboost) et pour fausser les bench.. Mais pour eviter de cramer, la detection de temperature fait passer le x86 en mode de throttling (arret de tout ce qui peut l'etre et division de la frequence selon 8 paliers: le processeur hiberne en donnant l'impression de continuer a fonctionner).

Donc au final la marge d'overclocking est très faible pour un benefice lui aussi faible. Reste la solution de surdimensionner le refroidissement, jusqu'a l'azote, et la tu peux overclocker tant que tu veux.

avatar ddrmysti | 

Indispensable, je dirais jamais, utile, ça peut l'être pour les personnes qui font des trucs très gourmands en ressources du processeur, comme pour l'export de projets vidéo. Après si tu l'augmente de 5%, pas sur que le changement soit notable, si tu l'augmente de 30 ou 50% c'est plus intéressant, après le soucis c'est le risque de cramer sa bécane si tu n'as pas le refroidissement qui va avec.
De mon côté je préfère laisser tourner la machine et faire autre chose pendant ce temps là plutôt que de risquer de griller mon cpu.

Après pour le commun des mortels, je doute que ça ai un réel intérêt si ce n'est celui d'en afficher une plus grosse que le copain.

avatar Dgamax | 

Pour donner une seconde jeunesse à sa machine après avoir changé de GPU, Disque, Ram, le processeur peut être un goulot d'étranglement, c'est dommage de brider de plus en plus l'informatique...

avatar bonnepoire | 

Laisser les gens overclocker et vouloir un retour sous garantie? L'overclocking c'est un truc de cow-boy. La marge ne permet de toute façon pas de ressusciter une machine. Un SSD a plus de sens.
Ceux qui overclockent sont les joueurs qui veulent gagner 2fps.

avatar Sulfate | 

@bonnepoire :
"Certains hommes veulent juste voir le monde brûler"
-- Alfred

(ben oui, un processeur overclocké chauffe nettement plus)

avatar joneskind | 

@Sulfate

Alfred Pennyworth ? (Le majordome de Battou ?)

Ah oui, c'est dans The Dark Knight il me semble, au sujet du Joker, non ?

avatar Dgamax | 

Surtout qu'au final ça ne change rien, avec les proc K la garantie saute..

avatar joneskind | 

C'est quand même un peu plus compliqué que ça.

Il y a actuellement 2 manières d'overclocker une machine. Soit par la fréquence de base, soit par un coefficient multiplicateur (on peut avoir par exemple une fréquence de base de 100 MHz et un coefficient 35 pour un total de 3,5GHz)

En modifiant la fréquence de base, c'est toute la carte mère qui est overclocké : la RAM, les bus PCIe etc... Et c'est donc plus compliqué à réaliser parce qu'il faut que tous les composants supportent l'overclocking.

En modifiant le coefficient on ne change que la fréquence du microprocesseur. C'est beaucoup plus facile à réaliser.

C'est cette dernière modification du coefficient qu'Intel a décidé d'interdire, via une mise à jour du microcode de la carte-mère (?).

Donc overclocking reste réalisable, mais c'est juste devenu beaucoup plus complexe.

Source : Ars Technica

avatar jessy | 

Moi qui es un i5 2,7GHz sur un iMac 27 de 2011 j'utilise que 15% Grand Max. Alors un i5 à 4GHz c'est largement suffisant le plus important c'est Disque dure, RAM, Carte Graphique.

avatar jessy | 

@jessy :
3.5GHz

avatar jessy | 

@jessy :
3.5GHz

avatar C1rc3@0rc | 

@jessy

Heu les Mac sont les plus mauvais candidats a l'overclocking. En cause la trop grande finesse du design et la trop grande optimisation du refroidissement (optimisé pour etre le moins bruyant possible.).
Et comme les processeurs ne peuvent pas se changer sur les Mac, griller le processeur = mettre le Mac a la benne!

avatar joneskind | 

@C1rc3@0rc

Depuis quand on peut overclocker un Mac ?

avatar jessy | 

@C1rc3@0rc :
Je ne cherche pas à modifier un processeur sur un Mac. Je disait en gros que j'utilise Grand maximum 15% de mon processeur i5 2,7Ghz sur un iMac 27 de 2011. Donc avec le nouveau processeur Intel je serait plus que satisfait. La seul chose qui ralenti mon Mac c'est son vieux disque dur.

Au passage vous pensée que sa veut le coup et que je vais voir une grande différence si je met un SSD ?

Mon IMac 27:

I5 2,7GHZ, 12Go de Ram, Carte graphique 512Mo :/

avatar joneskind | 

@jessy

En un mot comme cent : OUI !!!!!!

Allez y, foncez ! Surtout si votre proco vous suffit amplement, vous allez avoir l'impression d'avoir une nouvelle machine ! Et avec 12 Go de RAM vous pouvez être tranquille pour encore quelques années !

avatar C1rc3@0rc | 

@jessy

Si tu utilises que 15% de ton processeur de 2011, tu verras pas de différence avec un Skylake...

Mon conseil c'est de clairement passer au SSD: OS X n'est plus optimisé que pour le SSD!
Et comme dit joneskind de rajouter un maximum de RAM. Tu gagneras plus qu'a passer a un processeur Skylake.

avatar fte | 

Si c'est pour raconter n'importe quoi, vous ne devriez pas perdre votre temps et celui des lecteurs à poster des commentaires. Utilisez votre temps pour vous renseigner plutôt. Tss.

avatar NestorK | 

Ah tient, faudrait peut être que je tente un p'tit OC d'mon 4790K qui équipe mon iMac 5K...

Hum ?

Comment ça s'est pas pas possible ?

avatar LeSedna | 

C'est drole les commentaires.

Dans Le cas d'une machine gaming, un Intel K est fait pour etre overclocké. Il est standard de nos jours que les Intel atteignent 4.6 de façon saine, 4.8 pour les chanceux.

Exemple concret : j'utilise beaucoup Flight Simulator. Problème : il est codé en 32 bit et la majorité du goulot d'étranglement réside dans le cœur no1 qui doit calculer la génération du décor. En gros passer de 3.5 à 4.6 permet de passer de disons 30fps à une vingtaine de plus. Rien de kéké, juste un petit tour par l'Utilitaire (meme plus besoin d'aller dans le bios avec certains ordis) pour modifier deux valeurs et hop, vous venez d'économiser 800€.

avatar Moonwalker | 

Ouai, mais bon, les gamers, sur Mac...

CONNEXION UTILISATEUR