Intel lance les Xeon E5 v4, potentiels futurs processeurs du Mac Pro

Stéphane Moussie |

Nous écrivions en septembre 2014 que les Xeon E5 v3 étaient les potentiels processeurs de nouveaux Mac Pro. Le temps passant et le Mac Pro n'étant toujours pas mis à jour, ce sont maintenant les Xeon E5 v4 qui font figure de nouvelle possibilité pour Apple.

Intel vient en effet d'annoncer une nouvelle génération de processeurs pour stations de travail. Ces Xeon E5 v4 sont alléchants sur le papier. Ils profitent notamment de l'architecture Broadwell et de sa gravure en 14 nm. Les deux générations précédentes, Haswell et Ivy Bridge (celle toujours utilisée par le Mac Pro), sont gravées en 22 nm.

Cette gravure plus fine permet à Intel de proposer un processeur avec pas moins de 22 cœurs, contre 18 au maximum pour la génération v3. Pour rester dans le haut du panier, la fréquence de base la plus élevée est de 3,6 GHz.

Les Xeon E5 v4 - Cliquer pour agrandir

Les nouveaux Xeon apportent des optimisations très intéressantes pour la virtualisation, selon AnandTech qui a pu les tester. Tom's Hardware note pour sa part qu'Intel ne joue pas le jeu des performances, celles-ci n'étant que 20 % supérieures à la génération précédente au maximum. Le gain est plutôt à aller chercher du côté du nombre de cœurs disponibles.

Intel met par ailleurs en avant des nouveaux SSD, les DC P3320 et P3520, qui utilisent la technologie NAND 3D la plus dense du marché, et les DC D3700 et D3600, qui sont équipés de deux ports PCI Express et qui exploitent le protocole NVMe.

La balle est maintenant — comme depuis des années — dans le camp d'Apple.

Tags
avatar chezyom | 

Je n'ai pu m'empêcher d'esquisser un sourire à la lecture du titre. On refait la même l'année prochaine avec les v5 ???

avatar heret | 

Oui, parce que "potentiels futurs" ne s'applique pas à "processeurs" mais à "Mac Pro".

avatar John McClane | 

Sérieux, il foutent quoi avec les Mac Pro ? Jamais ils les mettront à jour ?

avatar zoubi2 | 

Euh... $4000 le proc... (enfin, le pluss mieux)... C'est pas ça qui va faire baisser le Mac Pro :-)

avatar C1rc3@0rc | 

22core avec un TDP de 145w... ça rentrera jamais dans un Mac Pro de toute façon, faudrait l'immerger dans l'azote pour qu'il y ait plus de 2 core qui tournent... et suffit de lire l'annonce d'Intel :«La famille de processeurs Intel® Xeon® E5-2600 v4 établit les bases des clouds modernes »

Par definition un MacPro c'est une station de travail, pas un serveur, donc il vaut mieux avoir une haute frequence que beaucoup de core, donc faut oublier tout ce qui est a moins de 2.6ghz pour ce type d'usage.

Si Apple intègre cette génération, ce qui ne serait pas très malin vu que la génération Skylake sera bien plus avancée, les 2623, 2643, 2667 auraient des raisons logique d'être utilisé par Apple.
Surtout le 2643 qui représente un bon compromis nombre de core / fréquence pour une station.
Quant au 2687W s'il parait intéressant sur le papier, son TDP de 160 ferait cramer la corbeille a papier qui semble tailler pour supporter au maximum 135w!

Et puis avant qu'Apple se penche sur les processeurs du modele actuel, qui tiennent encore largement la charge par rapport aux "nouveautés", il faudrait surtout d'Apple permette d'installer des gros GPU NVidia, parce que les softs qui sont amenés a tourner sur ce type de machines, ils sont optimisés pour les cartes NVidia et CUDA!

« Tom's Hardware note pour sa part qu'Intel ne joue pas le jeu des performances, celles-ci n'étant que 20 % supérieures à la génération précédente au maximum»

Ben par rapport aux +/- 5% de gain en moyenne d'une generation a l'autre en Core ix ce serait monstrueux comme progression... mais, il s'agit de maximum sur les calculs flottants (nouveau coprocesseur?) et dans les faits les gains a attendre sont de moins de 10% dans les meilleurs cas, ce qui revient plus proche de l'habitude depuis les 5 dernieres generations...

Bref pas la peine de s'exciter, rien que de l'anecdotique, ce qui est déjà bien pour Broadwell...

avatar Nicolas R. | 

Si tu met un moteur d'Ariane 5 dans une Clio c'est ton problème ;)

avatar rombzg | 

Une machine pas suffisamment rentable surement, Apple préfère mettre en avant ses iMac et MacBook au détriment de machine d'autres gammes comme la Pro et Mini.

avatar C1rc3@0rc | 

Ben en single-core ( soit l'ecrasante majorite des applications tournant sur un Mac) le MacBook Pro 2014 (le plus puissant de la gamme MacBook Pro toutes générations considérées...Intel Core i7-4980HQ) est 20% plus puissant que le MacPro haut de gamme (Intel Xeon E5-2697 v2)!
Eh oui le Core i7-4980HQ du Macbook Pro est plus performant que le Xeon du Mac Pro!

Faut pas se reprendre et penser que le Xeon du Macpro est trop vieux: ses successeurs ont gagné a peine 5% en moyenne. C'est surtout que les Core i7 ont beneficiés de coprocesseurs et d'optimisations ultra poussées pour executer des applications non parallèlisables la ou les Xeon sont focalisés sur le multicore et un regime 24/24 h.
Dans les fait l'architecture x86 autant en Core i qu'en Xeon est a bout de souffle et chaque génération apporte toujours moins.

Certes en multicore le MacPro (12 core) est jusqu'a 120% plus puissant que le Macbook Pro (4 core), mais faut encore avoir des applications qui exploitent a fond les 12 core (serveur SQL, serveur WEB, serveur de calcul non vectoriel, ...) et qui ne nécessitent pas du GPGPU (calcul vectoriel, simulation physique, transformation d'images, animation 3D,...)

Maintenant si on imagine un Mac Mini Pro (dans le style du MacMini serveur de 2012 qui reste au minimum 30% plus puissant que le modele actuel...) avec une Core i7 6700k a 4Ghz, la on a une machine qui est 60% plus puissante qu'un MacPro en mono-core.
En multicore le MacPro ne serait alors que 70% plus puissant au maximum...

On comprend pourquoi Apple a tué le MacMini en lui flanquant un misérable processeur dual core pour portable (4578U pour le "haut" gamme, une honte)...

avatar iGeek07 | 

@C1rc3@0rc :
L'écrasante majorité des applications peut être, mais pas l'écrasante majorité des applications pour lesquelles on achète des Mac Pro : compiler des programmes avec Xcode, encoder des videos, etc. Il faut aussi savoir que le MB Pro ne va pas être à 100% de ses capacités longtemps à cause de son enveloppe thermique limitée. À côté de ça Mr MacPro peut lui tenir beaucoup plus longtemps sans baisser la fréquence.

Bref, si les portables étaient vraiment plus performants que les Desktop en usage réel, ça se saurait.

avatar C1rc3@0rc | 

Ben donnes nous une liste des applications tournant sur Mac qui exploitent les 12 cores a fond et qui ne font pas appel au GPGPU ni aux GPU...

Quand au niveau thermique, j'ai des gros doutes sur la capacité de la corbeille a papier a mieux éliminer la chaleur produite par 12core et les deux plaques chauffantes d'AMD qu'un Macbook Pro avec son quad-core...

Apres, on trouve des stations de travail et des serveurschez les constructeurs PC qui sont effectivement taillés pour faire tourner des plus de 8 core a fond avec des systemes de refroidissement ultra puissants, et eux effectivement ils alignent les portables.
Mais je vois pas que les applications qui tournent sur ces machines puissent tourner sérieusement sur un Mac.

avatar byte_order | 

> Ben en single-core ( soit l'ecrasante majorite des applications tournant sur un Mac)

L'application qui tourne de facto systématiquement sur tout Mac, c'est OS X.
Et elle exploite assez largement les multicores.

Mais bon, si voulez ne regarder que la puissance brute monocore, faites donc.
A une époque ou le GPGPU et les CPU sont tous conçut autour du parallelisme et où des briques logicielles de plus en plus nombreuses implémentent enfin des algorithmes parallèles qui savent en tirer partie, c'est un peu comme regarder uniquement la cylindrée sans regarder combien y'a de cylindres à un moteur...

avatar françois bayrou | 

+1
Sans oublier toutes les applis qui s'appuient sur GCD ! ...

avatar C1rc3@0rc | 

OS X est capable de repartir des processeurs (réel ou virtuel) aux diverses taches, c'est le rôle de l'OS.
Certes on peut avoir 10 applications qui sont lancées en même temps sur les machines grand public et il y a de plus en plus d'API qui tentent d'utiliser les multiprocesseurs.
Les développeurs sont de plus en plus poussés a découper leurs soft en taches indépendantes pour aider l'OS a utiliser les multicores et le GPGPU prend de plus en plus d'importance, au grand désespoir d'Intel.

Mais le problème fondamental c'est que la majorité des applications classiques nécessitent des traitements massivement linéaires, impossibles a parallèliser.
Tres peu de softs qui peuvent exploiter plus de 6 core alors 20…

Bien sur on peut lancer 15 applications en même temps, seulement il n'y en aura 1 seule a un instant T qui sera manipulée par l'utilisateur et active. Et l'utilisateur est lent pour un processeur…
Et très peu d'application tournent sans intervention de l'utilisateur.
Donc la majorité des applications "dorment" alors qu'elles semblent actives: c'est le principe du "multitâche préemptif".

Bien sur on peut avoir un film qui tourne, pendant qu'on s'égosille sur Twitter et qu'on lit les news sur Facebook. Mais ici un seul processeur et un GPU sont capables de gérer ça.

Dans la majorité des cas au plus 2 processeurs seront utilisés et même pas a 100%: c'est le principe du mode turbo!

Dans les faits, la quasi majorité du temps au-delà de 2 core les autres core ne font rien!

Si on fait du calcul lourd sur des images, de la compression video, du calcul matriciel, des simulations physiques,... oui les applications vont exploiter les 12 core CPU et les 2500 core GPU, mais ça c'est une minorité d'applications.

Pour le client typique d'Apple un dual ou un quad core a 4ghz sera bien plus efficace qu'un 12 core a 2Ghz, parce que l'important c'est la vitesse de traitement monotâche pour ces utilisations et donc l'important c'est la puissance monocore!

avatar marc_os | 

@C1rc3@0rc :
Je t'invite à te renseigner sur GCD qui a à mon sens révolutionné la programmation parallèle tellement ça a simplifié la tâche. Le même code va tourner en utilisant de manière optimale le nombre de cœurs disponibles. C'est GCD qui fait la répartission sur les cœurs. Le dev ne s'occupe que de définir les tâches au niveau fonctionnel et logique.
En plus le monde Linux en profite via libdispatch mis à disposition par Apple en open source !

avatar byte_order | 

GCD n'est pas la seule techno facilitant la programmation parallèle, mais sur OS X elle est clairement très utile.

Par ailleurs, j'ai déjà signalé que si libdispatch, mis en open source par Apple, a été effectivement porté sur Linux, cela ne signifie pas pour autant qu'elle est devenue une brique techno indispensable en matière de parallèlisation sous Linux : je ne connais pas d'outils majeures sous Linux qui s'appuyent dessus pour l'instant.
OpenMP et TDB, qui existent depuis plus longtemps, fournissent des modèles d'algo *et* de données optimisées, et sont plus largement répandus..

avatar byte_order | 

> Mais le problème fondamental c'est que la majorité des applications
> classiques nécessitent des traitements massivement linéaires, impossibles a parallèliser.

Je ne connais pas de traitement qu'il soit *impossible* de paralléliser.

Le problème c'est surtout que les applications "classiques" sont vieilles, leur conception a été pensée en mode séquentielle, avec des traitement(s) séquentiels en tâche de fond, et l'organisation des données mise en place n'est pas parallélisable facilement sans modification du code.

> Dans les faits, la quasi majorité du temps au-delà de 2 core les autres core ne font rien!

2 causes possibles à cela :

- la distribution des tâches est mal faite, tant au niveau de l'OS qu'au niveau du code des applications actuellement lancées. Comme dans OS X y'a toujours en permanence une petite dizaine de tâches "système" mais peu gourmandes, je dirais que les applications actuellement actives sont a) pas plus de 2 et b) pas conçues pour tiré parti des CPU multicores qui sont devenus grand public pourtant depuis 10-15 ans désormais.

- les autres coeurs ne font rien car en pratique y'a pas grand chose d'autre a faire. En gros, aucune tâche n'a vraiment de gros besoin, et donc c'est parfaitement logique comme situation.

Ce qui l'est moins, c'est d'avoir 2 sur 4 ou plus coeurs a 100% tandis que les autres se tournent les pouces. Et ça c'est dû à découpage des tâches trop faible, dans l'OS comme dans les applications, ce n'est pas le CPU qui est surdimensionner mais le logiciel dans son ensemble qui est sous-dimensionner.

Hors ce n'est pas le cas de tous les logiciels ni de tous les OS, certains font nettement mieux que d'autres.

Il ne me viendrait pas à l'idée de dire du coup que la puissance disponible mais mal utilisée par le soft est une puissance inutile. Gâchée, certes, mais jusqu'au moment ou un logiciel qui sait s'en servir est lancé. Et là, cela fait tout de suite la différence. Immédiatement.

avatar cv21 | 

C'est comme si l'on comparait des chevaux de courses à des chevaux de trait.

- i3,i5,i7 chevaux de loisirs et de courses...
- xeon cheval de trait...

avatar C1rc3@0rc | 

Avec le recouvrement de gamme chez Intel il n'y a plus beaucoup de différence entre un Core i7 et certains Xeon.
Les Core i7 xxxxk sont capablent de tenir les memes charges que les Xeon pendant les memes durées pour peu que le refroidissement soit bien dimensionné.

La grosse différence va venir des Xeon spécifiquement destiné aux serveurs qui vont eux avoir des instructions et des sécurités pour gerer la virtualisation et etre administré dans ce cadre.
De toute façon les 12 core et plus sont destinés aux serveurs et principalement au domaine du "cloud" il suffit de lire l'annonce original d'Intel.

Aujourd'hui une station de travail avec un Core i7 6700k a 4Ghz, un Core i75930K a 3.5ghz ou Core i7 4960X sera plus pertinente qu'une doté de Xeon 8 ou 10 core a 3Ghz.

avatar cv21 | 

Ok merci pour l'explication.

Etant curieux, encore 2 questions ?
Pourquoi les prix s'envolent entre 1500 et 5000$ pour certains proc ?
Pourquoi le choix dans cette gamme de tarif est autant étendu ?

avatar byte_order | 

Faut voir aussi que la gamme Xeon d'Intel a une dûrée de vie commerciale plus longue que celles des iCore grand public. Pour une entreprise, c'est important de pouvoir avoir la garantie que Intel pourra encore fournir tel Xeon dans 3 ans...

Et, ça, cela se paye.

avatar 0MiguelAnge0 | 

@rombzg :
En gros la méthode habituelle d'Apple pour remercier les Pros ayant misés sur leur matos.... Etonnant?!

avatar moon21 | 

quid de la compatibilité avec les Mac Pro actuels (2013)?

avatar fousfous | 

C'est quoi l'intérêt de mettre un processeur plus récent qui coute une fortune et a peine puissant... Dans tout les cas y a plus rien à attendre d'Intel.

avatar Stardustxxx | 

@fousfous
Facile, tu calcules ce que ca te permet de gagner en productivite, et tu vois si c'est rentable ou pas...

L'important ce n'est pas le prix du CPU, c'est ce qu'il te fait gagner en temps.

avatar fousfous | 

@Stardustxxx :
Oui enfin tant qu'intel se bouge pas tu gagnes rien en productivité...

avatar C1rc3@0rc | 

Ben si y en a un qui gagne beaucoup dans l'histoire: c'est Intel.

avatar Stardustxxx | 

@fousfous
C'est marqué dans l'article, tu gagnes 20% en performance. C'est un gain en productivité.

avatar C1rc3@0rc | 

Lis l'article d'origine: tu gagnes 20% dans les meilleurs cas sur du traitement numérique si les applications sont réécrites pour utiliser les nouvelles instructions spécifique!
Dans la majorité des cas le gain sera en dessous de 10%.

Donc le benefice sera sensible pour les clients qui passeront d'un Xeon d'avant Sandy Bridge a celui-ci et si les applications qu'ils utilisent sont réécrites spécifiquement.
Les autres ne verront pas de difference, donc autant attendre le prochaine generation, voire la suivante, qui elle integrera les changement majeurs qui viennent des Itanium!

avatar Stardustxxx | 

@C1rc3@0rc
Je n'ai pas besoin de lire l'article d'origine, car visiblement tu n'as pas compris mon point.

Si une nouvelle version de processeur te permet un gain de x % en performance. Tu prends en compte le prix de l'upgrade, les gains que tu vas obtenir en productivité, et tu calcules si c'est rentable. Ce n'est pas plus compliqué que ca.

Tu gagnes 20% sur les calculs en virgule flottante, regarde les becnhmarks de Anandtech ou Toms Hardware, ca m'etonnerai qu'ils aient réecrit pour supporter des nouvelles instructions specifiques. D'ailleurs tu parles de quelles instructions specifiques ?

avatar bugman | 

@fousfous :
Sur certaines stations de travail, je ne vois pas par quoi on peut remplacer Intel.
Apres, oui... Doucement mais surement... Sans ces (petites) évolutions, on tournerait toujours sur des DX2.

avatar C1rc3@0rc | 

OpenPower specialisé, et PowerPC par exemple.
Sur serveur, OpenPower, PowerPC et ARM en fonction du type... y a quelques petites boites qui sont en train de s'y mettre: Amazon, Google, et il parait meme qu'Apple voudrait faire de meme...
Et puis il y a encore l'Itanium chez Intel, y a pas que le x86!

avatar Saint-Jey | 

Sérieusement faut quand même être motivé pour monter une station de travail sous Mac... C'est quand même plus simple d'avoir ça sous Windows... Je me demande où va le Mac, ça me dépite cette situation

avatar fredseg | 

Ah oui c'est vrai, Apple fait des Macs. J'avais oublié.

avatar cham | 

Avec peek & pop, Apple a oublié tick & tock...

avatar simnico971 | 

Y'a du boulot pour la WWDC 2016 !

MacBook … 1 an
MacBook Air … 1 an, 1 mois
MacBook Pro … 1 an, 1 mois
Mac mini … 1 an, 9 mois
Mac Pro … 2 ans, 4 mois
Thunderbolt display … j'ai arrêté de compter.
Les TimeCapsule mériteraient plus de stockage, aussi !

En tout cas, ça sera mémorable. Soit par le nombre de nouveautés, soit par l'ampleur de la déception.

avatar Nicolas R. | 

Après faut avoir les moyens et être assez débile pour renouveler sa machine tous les ans en espérant un gain conséquent niveau perf.
Rien ne justifie à part le coté Kévin qui veut s'afficher avec ses amis branleurs.

avatar C1rc3@0rc | 

Allez je parie que si Apple sort un Mac 2x plus puissant que le modele actuel le plus puissant, ça va se vendre comme des petits pains. Il n'y a aucun Mac capable de faire tourner l'Oculus Rift et je connais pas mal de gens qui seraient ravi de diviser par 2 le temps de calcul de leurs soft...

Et le iPhone depuis pres de 8 ans il double sa puissance en moyenne par annee, ça gene personne... Pourquoi on peut pas avoir la meme chose sur Mac?

Et niveau performance graphique, doubler la puissance des Mac c'est pas ce qui serait le plus difficile.

avatar Nicolas R. | 

Tu ne peux pas comparer les avancées des processeurs ARM avec les x86/x64. Pour la partie graphique, oui effectivement en repassant sur du NVidia (avec du 970M/980m/880m).
Je sais bien qu'on a pris l'habitude, mais nous sommes pourtant dépendant de la recherche. On voit bien que les fondeurs trainent la patte pour faire mieux... 14 nm... un moment ça va coincer...

avatar C1rc3@0rc | 

«Tu ne peux pas comparer les avancées des processeurs ARM avec les x86/x64»
Si.
Le core x86 n'a aucun gain signifiant depuis au moins 5 ans sur le ratio puissance/consommation, les seuls gains viennent de la maitrise d'Intel a éteindre tout ce qui n'est pas actif et a faire tourner le plus possible le minimum de composants...
Coté ARM non seulement la puissance double en moyenne par génération mais la performance par watt augmente en même temps et, mécaniquement, l'architecture ARM a plus de marge de progression que le x86!

«On voit bien que les fondeurs trainent la patte pour faire mieux... 14 nm... un moment ça va coincer..»
Ben ça coince déjà dur. Intel n'arrive toujours pas avec le 14 nm a stabiliser sa production et a des taux de déchets toujours supérieurs au 22nm.
Les améliorations "mécaniques" viennent du Finfet et du travail sur l'architecture, pas de la finesse de gravure, qui au contraire a tendance a poser plus de problèmes qu'elle améliore les choses: on le voit même du coté ARM ou la gravure a 16nm est plus performante que celle a 14nm.

Mieux encore avec les GPU ou Nvidia a montré qu'il était possible de doubler la performance énergétique tout en augmentant la puissance rien qu'en travaillant sur l'architecture (et en restant sur du 28nm)!

Le gain principal du a la finesse de gravure depuis le 32 nm, c'est sur le cout de production du composant: moins de matière => plus de marge.
Et cette marge est aujourd'hui largement entamée par le cout des usines a 14nm, l'augmentation de la qualité des matériaux (pureté du silicium) nécessaire pour le 14nm, et l'augmentation du taux de déchets…
Certes sur le long terme le 14nm sera plus rentable que le 22nm, mais ça va prendre beaucoup de temps.

Et pour descendre sous les 14nm, les seules voies actuelles passent par un changement de matériaux, donc explosion des couts.

avatar Nicolas R. | 

Tu parles du graphène ou du nitrure de gallium quand tu dis autre composant ?

avatar C1rc3@0rc | 

@simnico971

+1
Et encore tu ne prends en compte que l'ultime rafraichissement qui n'a, de loin, pas été une progression:
-Macbook Pro 2015 et l'iMac 5k 27 plus lents que leurs prédécesseurs,
-le MacMini actuel totalement a la rue par rapport au modele 2012,
-le Macbook air bénéficiant d'une évolution anecdotique,
et le Macbook recyclant le processeur pour smartphone qu'Intel arrive pas a fourguer dans le monde Android et qui arrive a coup de turbo ultime a atteindre les performances d'un MBA 2011...

Bon niveau matériel cette année y a du lourd a intégrer: Thunderbold 3, USB 3.1 format C, SSD 1To (a prix du marché...), GPU NVidia (surtout au niveau des portables avec les gains énergétiques des dernières puces), trackpad 3d touch, monter le Retina (oui sur le MBA, enfin) plus près de l'ultime 600dpi, le G-Sync pour les écrans, dépasser la limite des 32Go de RAM (et sortir des machines ayant au moins 16Go ce serait bien), dernière génération du DP et du HDMI ce serait pas mal aussi...

Et si Apple officialise l'abandon du Thunderbolt Display qui ira rejoindre les LaserWriter et autres peripheriques abandonnés (heu au fait la souris, se serait bien d'y penser, une petite version toute simple et ergonomique, avec une pomme dessus, ca fait depuis... pfff avant l'iMac original qu'il n'y en a plus), bref, ce serait bien qu'Apple sorte un hub Thunderbolt ergonomique et esthetique - et si possible abordable - vu que les portables remplacent de plus en plus les Mac de bureaux qui sont de plus en plus a la rue eux...

Et niveau logiciel y aussi du lourd a intégrer dans MacOS 12! Tient on peut en profiter pour rappeler a Apple que le chiffrement systématique sur iPhone c'est pas mal, mais sur Mac ce serait aussi bien, en plus de 2 ou 3 trucs de sécurité (comme la création automatiques de 2 comptes utilisateurs, dont l'un avec droits d'administrateurs et pas l'autre),...

avatar oomu | 

en quoi l'abandon de l'écran "thunderbolt" est un problème ? Il est vieux, il est temps de passer à mieux, plus intéressant, plus performant, reposant sur le connecteur usb-C et TB3.

-
Laserwriter... le deuil n'est pas fini depuis le temps?

-
hub ? pourquoi Apple devrait s'emmerder à faire un hub quand l'industrie en pond déjà des biens.

Apple ne complète que des MANQUES graves pour ses mac, jamais +.

La Laserwriter apportait de la différenciation au mac comparé aux PC (le postscript, etc). Une fois que tout cela s'est standardisé et répandu et que tout le monde faisait de chouettes imprimantes PC _ET_ Mac, Apple en a plus rien à fiche de faire elle même l'imprimante. C'est pas son corps de métier. Ce qui rapporte en imprimante ce sont les encres. Demandez plutôt à Xerox et HP.

-
pour Os X, Apple semble savoir ce qu'elle fait. Le chiffrement matériel existe et est performant et pourquoi faire des comptes administrateurs quand manifestement il n'y aura PAS de compte admin à terme. (SIP et autres isolations totales de tout vers tout).

Demain, tout compte pourra installer des apps et éventuellement les partager avec d'autres utilisateurs, ça ne changera rien entre users. Tel iOS, il n'y aura plus de notions de comptes qui aurait le pouvoir sur tout le reste. Si ce n'est une petite section consistant à effacer un compte et gérer les accès distant à l'ordinateur (une liste d'accès permit vers le système, mais pas de ROOT)

Je pense que sincèrement, nombre d'informaticiens ne comprennent pas l'approche d'Apple, se bornant trop à imaginer que l'évolution ça serait de faire pareil mais en "+ mieux". Non, Apple est prête à changer radicalement le fonctionnement d'un système pour arriver à son but : + sécurisé.

avatar C1rc3@0rc | 

«en quoi l'abandon de l'écran "Thunderbolt" est un problème»

C'est un problème si Apple le remplace par rien du tout, encore que si c'est pour avoir un miroir impossible a ajuster comme l'actuel, il vaux mieux qu'Apple abandonne les écrans définitivement.

J'ai fait la comparaison avec les Laserwriter parce que les LaserWriters tiraient en avant le marché, et qu'il a fallut un moment pour que les modèles des autres constructeurs arrivent aux mêmes qualités. Mais il est vrai qu'a part le hub Thunderbolt, l'écran d'Apple n'est en rien une référence et que l'on trouve de meilleure dalle et de meilleures ergonomie pour moins cher!

Il manque aujourd'hui un hub Thunderbolt de référence, et les produits sur le marché sont a la fois très chers et mal conçus. Et justement c'est la ou la créativité et l'ergonomie d'Apple peut faire la différence, si cela existe toujours chez Apple.

«Tel iOS, il n'y aura plus de notions de comptes qui aurait le pouvoir sur tout le reste.»
Sur iOS il y a bien deux comptes, c'est juste que l'utilisateur n'y a pas accès et que la fonction d'administrateur est déporté sur l'App store et iTunes.
Pour autant est il souhaitable que MacOS masque la puissance d'unix et reporte la fonction administrateur sur l'AppStore? A mon sens se serait une grave erreur, et on voit les ratées de l'App Store sur Mac en plus de la levée de bouclier qu'il cumule.
L'idée de bloquer l'accès aux dossiers système même au compte administrateur c'est pas nouveau: on le trouve dans Unix et avec la notion de superutilisateur qui peut être ou pas désactivé.

Sur iOS, malgré ses réticences Apple est en train de céder et donne accès aux sessions utilisateurs. Certes pour l'instant cela passe par une administration déportée, mais ça va pas durer. Imagines qu'Apple veuille faire l'inverse sur MacOS… Apple ne tiendra pas un mois.

Apple a eu du succès en rendant l'informatique plus abordable, ergonomique et fonctionnelles!

avatar cv21 | 

le tableau d'Intel pour les mac pro actuels (E5 v2 je crois) correspond à celui-ci :
http://ark.intel.com/fr/products/family/78582/Intel-Xeon-Processor-E5-v2-Family#@Server
(les 2 avants dernières lignes).

Il s'agit de proc avec TDP130W et tarif catalogue entre 300 et 600$.
300$ pour le 4coeurs à 3,7Ghz et 580$ pour le 6 coeurs 3,5Ghz.

Je ne vois rien qui corresponde dans ce nouveau tableau, donc peu d'espoir ?

avatar cv21 | 

Sinon Apple utilisant des proc de portables pour des ordis fixes, peut-être le choix de configuration va finir par ressembler à la dernière génération de "workstation portable" de chez HP:)) !!!

Le gros modèle xeon : http://store.hp.com/FranceStore/Merch/List.aspx?sel=NTB&ctrl=f&fc_seg_bus=1

video pub :https://www.youtube.com/watch?v=fv7eNo0GTNk

avatar mak972 | 

Le premier avril c'est les 40 ans d'Apple peut été qu'ils feront honeur au mac a ce moment la... Ou pas ?

avatar hmmmr | 

@C1rc3@0rc :
Pas mal d'appli gerent aussi bien opencl que cuda. Mais je serai pour un support nvidia, aucune raison d'etre contre ca.

Apres.. Pour de la preview sur la station c'est bien, en gardant en tete que pas mal d'appli de "transformation d'image" ne calculent pas ca en gpgpu et bien multithread cpu (nuke par ex, a part les convilutions fft et l'optical flow ou l'option gpu est possible mais qu'on évitera de cocher pour éviter que les images ne clignotent une fois rendu en farm. Yay les approximations gpu..)

Hate de voir en tout cas ce qu'Apple nous reserve.. Ou ne nous reserve pas..

avatar hmmmr | 

@hmmmr :
Convolutions*

avatar oomu | 

y a trop trop d'idéologie et condescendance (corbeille à papier, etc. c'est rigolo entre geeks mais bon...) dans les commentaires concernant le mac pro.

oui y a des applications qui profitent des mac pro : moteurs de rendu cpu, calculs mpi, montage vidéo, compression, etc. ha c'est sur, c'est pas Facebook. Mais j'ai pas de compte Facebook...

L'avantage d'un mac pro sur un macbook pro ou iMac, c'est que c'est conçu pour bosser 24/24
(notons que c'est ce que je fais avec un mac pro de 2009 depuis des années, je lui fais calculer des tonnes de choses quasi constamment. Cela s'est ressenti sur mes factures EDF).
Cela sans que pour autant ça fasse le bruit d'un réacteur, sans soucis d'alimentation et avec une bonne conception générale.

Ce sont des machines de travail. Je ne ferais pas la même chose avec un iMac (qui serait obligé de throttler agressivement). et dans le monde PC, je n'aurai pas cherché forcément à faire moi même la machine, j'aurais pris celle d'un intégrateur, pour grosso-modo le même ordre de prix (même monté moi même, je m'orienterais vers la même catégorie de prix pour l'alim, la carte mère, le ssd, la dissipation, etc).

-
Plus concrètement:

je ne changerai de mac pro que quand on sera passé à de nouvelles générations de xeons permettant de gagner en coeurs à fréquence égale ET surtout les générations de GPU en 20nm/finfet etc.

Cependant, il est exact que NVIDIA prend un poids + que considérable (monopolistique ?) dans le calcul 3D. C'est impressionnant. Et un nouveau mac pro idéalement il me faudrait au moins une option nvidia.

Les alternatives à CUDA en OpenCL sont restées finalement limitées. Et rien ne permet d'imaginer que cela change à moyen terme (années). Nvidia tire de tous les cotés avec violence (moteur phys, rendu, gaming, etc) quand AMD n'arrive à se focaliser que sur le seul domaine du jeux vidéo et des projets balbutiants face à ceux de Nvidia.

avatar iGeek07 | 

@oomu :
Je suis d'accord, c'est fou le nombre de personnes qui appliquent la logique "rien n'est optimisé pour le multi cœur" la plupart du temps vraie pour les applications grand public, et la croient vraie en général, mais il y a un paquet d'applications professionnelles qui utilisent toute la puissance qu'on leur met à disposition. Une fois de plus, ce n'est pas parce qu'un produit de correspond pas à vos besoins qu'il ne correspond aux besoins de personne!

Pages

CONNEXION UTILISATEUR