Le planning supposé d'Intel pas très engageant pour le MacBook Pro 15", à moins que...

Stéphane Moussie |

Une feuille de route supposée d'Intel publiée sur un forum interroge sur le devenir du MacBook Pro 15". Actuellement, le portable est proposé en deux modèles : le premier dispose uniquement d'une carte graphique intégrée (modèle haut de gamme Iris Pro Graphics, GT3e), le deuxième d'une carte graphique dédiée supplémentaire.

Cliquer pour agrandir

D'après le planning d'Intel qui a fuité, il n'y aura pas de processeurs de nouvelle génération Kaby Lake avec un GPU équivalent (GT3e) avant le premier trimestre 2017. Mais on parle là de processeurs de la gamme U (15 W / 28 W) utilisée dans le MacBook Pro 13", pas dans le 15", qui va piocher dans la gamme H (45 W).

Les prochaines puces H Kaby Lake qui seraient disponibles à la fin de l'année n'auraient qu'un GPU GT2 bien moins puissant. Autrement dit, si Apple continue de proposer un MacBook Pro 15" sans carte graphique dédiée et le renouvelle dans les prochains mois, il aura probablement un processeur Skylake, et non Kaby Lake, faute de GPU intégré assez puissant.

Cela étant, la Pomme bouleversa peut-être la gamme à l'occasion de la refonte attendue. Si elle tient à Kaby Lake, elle pourrait intégrer une carte graphique dédiée (a priori une AMD Polaris) dans tous les modèles pour pallier le manque de puissance du GPU Intel. À moins qu'elle ne poursuive sa politique actuelle (un modèle sans GPU dédié, un autre avec), ce qui serait synonyme de processeur Skylake.

Bloomberg, généralement bien renseigné, affirme que la carte graphique AMD Polaris sera disponible en option. Mais en option sur quel MacBook Pro ? Le 13" ? Le 15" ? Les deux ? En l'état, difficile de savoir ce qu'Apple compte faire avec le MacBook Pro 15". On espère que la remise à plat de la machine sera favorable à une partie graphique puissante (comprenez avec un GPU dédié) pour tous les modèles, mais la situation est incertaine.


avatar lillegubben | 

À quoi cela sert il de s'inquiéter de l'avenir de MBP?
Il fut un temps où Apple bénéficiait des processeurs en avant-première, aujourd'hui ils (Apple) laisse passer une génération de processeur sans mettre à jour leur gamme.

avatar vrts | 

", aujourd'hui ils (Apple) laisse passer une génération de processeur ET DE CARTE GRAPHIQUE sans mettre à jour leur gamme."

j'ai corrigé...

c'est maintenant leur fond de commerce pour les Macs, décaler d'un an ou deux le hardware pour faire plus de marge, souder tout ça et enlever la connectique en faisant genre "c'est le futuuur". Rajotuer de l'ecran glossy retina pour que ça brille bien et voilààààaaaa. 3000$ mon fils, pas cher, tyavu mon ecran commilébooo ?

avatar Alim | 

@vrts

+1000

C'est exactement ça.

avatar melaure | 

Le joyeux monde de x86. On a quitté le PPC parce que ça coûtait trop cher à Apple en tombant dans une techno de 35 ans, vieille et conçu de travers dès le début ... Intel a fait un petit boost avec les Core, puis après le vide ...

Enfin bon par grave, car Apple va encore affiner les MBP et il faudra de l'ARM pour que ça ne prenne pas feu ... et coté GPU j'y crois de moins en moins ;)

avatar awk | 

@melaure

D'un point de vue conceptuel l'architecture que nous subissons en héritage des CPU Intel x86 est une hérésie qui était abjecte dés sa création.

Il n'empêche que le choix fait par S. Jobs de basculé sur celle-ci était on ne peut plus pertinent et salvateur.

Après ce que réussi a faire Intel pour contourner les limitations conceptuelle de cette architecture est quand même très impressionnant mais aussi très couteux en terme de performance.

Les processeurs actuelle d'Intel ne sont pas des x86 au sens stricte, il émule le fonctionnement de cette vision obsolète dés sa naissance de ce qu'est une belle architecture de CPU.

Pour le reste, je crois qu'Apple explore plus que sérieusement une nouvelle transition vers une architecture moderne sont elle aura la maitrise pour re-dynamiser son offre et trouver de nouveaux potentiels de différentiation, c'est un réel défi, mais pour moi ce n'est qu'une question de temps.

avatar C1rc3@0rc | 

@melaure

Apple a quitté le PowerPC pour une question de cout, mais aussi par manque de compétence et le desinteret d'IBM: parce faire rentrer dans le G5 dans un portable, derivé du processeur surpuissant pour station de travail d'IBM, c'etait pas une simple adaptation mais une reconception complete, ce dont Motorola etait incapable. En fait le seul a en ete capable aurait ete IBM, mais il s'agissait d'engager des couts pour quelques milliers de processeurs par an. Et IBM avait abandonné le marché du PC pour se concentrer sur le serveur, la station de travail et le supercomputer.

Intel a joué l'opportunisme, simplement en sous cadençant son architecture Core. C'etait techniquement un retour en arriere par rapport au PPC, mais ça permettait de produire des portables.

Aujourd'hui, le x86 est toujours aussi depassé et il a demontré qu'Intel etait incapable d'ameliorer sa consommation et sa puissance. Bref on revient a la situation du passage du PPC au x86, mais en pire. La difference c'est qu'on connait l'alternative, ARM, et que tout le monde s'y attende depuis 3 ans. Y a qu'Apple, qui pour des raisons financieres repousse la bascule.

Par contre, il n'y a rien de nouveau dans "l'annonce": tous ceux qui connaissent un peu le secteur savent qu'Intel ne produirait les Kaby lake qu'au premier semestre. Rien de surprenant non plus dans la rumeur de l'absence de GPU ou de GPU optionnel provenant des bouses d'AMD.

La situation est simple: Apple a parmi les meilleurs ecrans HD sur ses portables (hormis le MBA, helas meprisé), et le meilleur GPU se trouve du cote Nvidia. Mais Apple ne va pas concevoir le meilleur portable du marché, ça c'etait du temps de Jobs, Apple va produire le portable le moins fonctionnel: ecran HD "amelioré", mais juste capable d'afficher l'image du bureau en saturant le circuit graphique du processeur. La rentabilité a un cout... pour le client!

avatar awk | 

@C1rc3@0rc

Parfaitement d'accord avec la première partie d'évaluation technique.

Pa contre

"Mais Apple ne va pas concevoir le meilleur portable du marché, ça c'etait du temps de Jobs, Apple va produire le portable le moins fonctionnel: ecran HD "amelioré", mais juste capable d'afficher l'image du bureau en saturant le circuit graphique du processeur."

Déja en quoi les machines serait les moins fonctionnelles ? C'est de l'ordre du procès d'intention et du jugement à l'emporte-pièce.

Les machines correspondent et satisfont les attentes de la plus large partie des cibles, si non elles ne se vendraient pas et encore moins à ces tarifs.

"La rentabilité a un cout... pour le client!"

C'est qui et quoi le client ici ? toi ?

La profitabilité passe par une offre bien ciblée et le choix de ces cibles et ça Apple sait parfaitement le faire. C'est le seule acteurs du secteur dégagent des marges nettes sérieuses de son activité Mac, alors mêmes que tous les concurrents tirent la langue malgré les volumes.

Trés impressionant ce systématiser que tu as à généraliser ton légitime peu d'appétence pour l'offre d'Apple en des vue de portée globale qui elles ne sont absolument pas légitime.

Le monde ne ressemble sans doute pas à tes fantasmes. ;-)

avatar 0MiguelAnge0 | 

@melaure :
Je ne pense pas que le problème principal des Mac soit la partie CPU mais plutôt la partie GPU.

avatar fousfous | 

@lillegubben :
Bah c'est pas très utile de mettre à jour à chaque génération de processeurs alors que le gain est à peine de 5%...
Ah une époque ça bougeait plus, mais Intel et l'innovation...
Par contre au passage à l'ARM ça va bouger ;)

avatar Stardustxxx | 

@fousfous
Pose toi la question de savoir pourquoi cela n'avance plus aussi vite!!

L'innovation c'est bien, mais malheureusement les contraintes physiques imposent des limites.

avatar fousfous | 

@Stardustxxx :
Pourquoi ça n'avance pas plus vite? Architecture x86 complètement à la masse, c'est pas plus compliqué que ça...
Regarde un iPhone 7 qui est plus puissant que des processeurs Intel qui consomment largement plus!

avatar Stardustxxx | 

@fousfous
Non l'architecture x86 n'est pas a la ramasse. Ce n'est pas un probleme d'architecture mais de contraintes physiques.
Un processeur x86 moderne n'a rien a voir avec un x86 des annees 90, et pourtant c'est la meme architecture. Par contre la micro-architecture elle a beaucoup evolue. Cela prouve que l'architecture ne veut pas dire grand chose.

Un benchmark comme Geekbench donne une vue des performances des CPU, mais tu ne peux pas generalise.

Un processeur A10, c'est 3 milliards de transistors, un Skylake quad core i7, c'est 1.75 milliards de transistor. Donc pour 2 fois moins de transistors, tu un processeur i7 qui explose totalement le A10 en terme de performance, il va egalement l'exploser totalement en terme de TDP (5 W contre 65+W). Tout ce que cela prouve, c'est qu'un processeur c'est un compromis entre performance, prix, consommation et degagement thermique.

Il existe des processeurs ARM server qui ont des performances proche des Xeons, mais qui consomment autant voir plus.

Une architecture, ce n'est pas la garantie de performance. La realite est bien plus complexe que cela.

Si tu veux t'informer : http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient

avatar fousfous | 

@Stardustxxx :
Je suis au courant que l'architecture n'est pas une assurance de performances, mais actuellement à consommation égale les processeurs ARM Apple (surtout ceux la) sont supérieurs aux processeurs Intel

avatar C1rc3@0rc | 

Ben si une architecture bien conçu a la base est une garantie de performance face a une architecture vetuste bidouillée dans les derniers retranchements afin de faire illusion.

Mecaniquement, le x86, est une usine a gas qui est affligé d'un etage entier de traitement qui n'existe pas sur ARM ou Power. En plus de ça c'est une architecture hyper rigide, incapable d'adaptation a des situations specifiques. On le voit avec l'echec de l'Atom, qu'Intel a fini par reconnaitre apres des annees et des milliards jetés par la fenetre! On peut aussi le constater avec le traitement vectoriel, ou pourtant Intel, crânement, tentait de faire croire que le x86 pouvait se mesurer aux GPU...

Bref le x86 est une foutaise qui n'a reussi que parce qu'Intel et Microsoft l'ont utilisé dans une politique de sterilisation du marché et avec l'usage d'outils monopolistiques illegaux !

avatar awk | 

@C1rc3@0rc

"Bref le x86 est une foutaise qui n'a reussi que parce qu'Intel et Microsoft "

Remontons à la source et à la responsabilité initiale d'IBM sur la façons dont fût mené le projet qui aboutir à l'IBM PC 5150.

C'est la source qui transforma l'architecture CPU la plus immonde de l'époque et ce semblant d'OS qu'était MS-DOS en norme dont nous portons encore bien des héritages (Même si sur la partie soft ça a fini par s'arranger après des décennies)

avatar awk | 

@@C1rc3@0rc

Il est d'ailleurs toujours amusant d'explorer cette uchronie : que serait le visage de l'informatique si l'arrivée d'IBM ne s'était pas faite avec des conditions de conception n'ayant rien à voir avec ce qu'était alors les normes d'IBM ?

Nous n'aurions certainement pas eu ce monstre de Frankenstein qu'est le bricolage de bric et de broc conduisant à l'IBM PC 5150, ce pont me semble quasi certain.

Mais en corollaire la machine portée par la puissance d'IBM n'aurait pas été aussi facilement copiable et n'aurait pas était la source d'une rapide uniformisation de l'offre autour d'une standard "compatible PC"

Qui sait ce qu'il serait advenue ...

Reste que quelques réunions chez IBM définissant le processus d'entrée sur le marché naissant de l'ordinateur individuel ont eu des conséquences d'une portée incroyable sur des décennies et ont construit des empires hors IBM... quasiment un effet papillon :-)

avatar Stardustxxx | 

@C1rc3@0rc
Et ton étage de translation x86 vers micro architecture, il utilise quel espace du die ?
Pas grand chose, vu la complexité des processeurs actuel, c'est négligeable. Prendre une instruction x86 et cracher 3-6 micro instruction, ce n'est pas très complique, et ça consomme pas grand chose.

Le x86 a aussi des avantages par rapport au RISC, c'est du CISC dont moins d'instructions a gérer, donc plus de bande passante mémoire...

Le coeur de marche d'Intel a toujours été le desktop et les serveurs, ils n'ont pas mis les moyens pour faire un processeur plus adapter pour le mobile. Mais rien de les en empêche, sauf qu'il sera très difficile pour eux de percer. Comme il sera difficile a ARM de percer sur le desktop.

Si Intel n'a pas perce sur le mobile, c'est plutôt que le model Economique d'ARM est plus intéressant, comme l'a prouve Apple avec ses processeur custom.

avatar awk | 

@Stardustxxx

Ce n'est même pas une question de dichotomie CISC / RISC

Même permis les architectures CISC l'approche qui a conduit sur les fond baptismaux les premier avatar des x86 était déjà très loin de l'état de l'art de l'époque.

Il y a de fort belles architecture CISC (68k, VAX entre autre) qui tenaient la route d'un point de vue conceptuel et architectural, le x86 n'en a jamais fait parti.

En suite les CPU Intel actuelle ont du CISC bien plus un héritage qu"une réalité, nous sommes sur une hybridation avec un frontal supportant un jeu d'instruction qui n'est plus celui réellement exécuté par le coeur.

Et c'est fort loin d'être neutre en terme d'efficacité et d'impact sur la conception. Les efforts et les trésors d'invention déployé par Intel pour dépasser les imites de l'héritage sont impressionnante et admirables.

L'inélégance conceptuelle a toujours un prix :-)

avatar awk | 

@Stardustxxx

"Comme il sera difficile a ARM de percer sur le desktop."

Difficile certainement, impossible c'est très discutable.

Le temps où les usages de la plus grande part des cibles du marché des PC seront adressable par des ARM n'est plus très lointain et bien des clients d'Intel ne rêvent que de s'en émanciper.

avatar Stardustxxx | 

@awk
Nous somme d'accord, difficile mais pas impossible. Je suis pour qu'on aie des CPU arm qui fasse un peu de concurrence a Intel pour le desktop, c'est toujours bien a concurrence.

Vu la bibliotheque de soft sur x86, je vois mal les clients d'Intel passer brusquement a ARM, c'est le probleme de supporter l'heritage. A moins qu'un processeur ARM pour desktop eclate les CPU intel, je les vois mal progresser sur le desktop.

avatar awk | 

@Stardustxxx

Au delà du poids de l'héritage logiciel, il y a un autre point qui est moins souvent évoqué.

Le PC n'est plus économiquement le centre de gravité du futur de l'industrie. Ce qui est rentable, en croissance et porteur c'est déplacé ailleurs.

Cela n'incite pas particulièrement à faire une révolution Copernicienne ce type de situation ;-)

avatar Stardustxxx | 

@C1rc3@0rc
Un petit article de Tom's Hardware : ARM Vs. x86: The Secret Behind Intel Atom's Efficiency
http://www.tomshardware.com/reviews/atom-z2760-power-consumption-arm,3387-5.html

Un autre de AnandTech : The x86 Power Myth Busted: In-Depth Clover Trail Power Analysis
http://www.anandtech.com/show/6529/busting-the-x86-power-myth-indepth-clover-trail-power-analysis

2 des plus gros sites de news hardware ont des articles qui montrent que le x86 peut-etre aussi efficace qu'ARM en terme de consommation électrique... CQFD

avatar awk | 

@Stardustxxx

Les deux papiers dates quand même de 2012, il est assez difficile de nier qu'Intel a perdu bien des batailles sur les enjeux de cet ordre et s'il reste des doutes les rapports d'activité annuel de l'entreprise les lèvent sans soucis.

Intel est passé à côté des divers enjeux porteur de cette décennie et ils le savent fort bien, les revenues stagnent depuis cinq ans maintenant.

Ce que met en avant C1rc3@0rc c'est :

"Le coeur de marche d'Intel a toujours été le desktop et les serveurs, ils n'ont pas mis les moyens pour faire un processeur plus adapter pour le mobile. Mais rien de les en empêche, sauf qu'il sera très difficile pour eux de percer. Comme il sera difficile a ARM de percer sur le desktop."

Je ne vois pas ce que les deux papiers démontrent infirmant cette affirmation ;-)

avatar Stardustxxx | 

@awk
Non ce qu'affirme C1rc3@0rc, c'est que l'architecture ARM éclate l'x86 pour ce qui est de la consommation énergétique. Ce n'est pas le premier article sur lequel je débat avec lui. D'ailleurs il cite spécifiquement de l'Atom, qui justement est illustré dans ces articles.

Vu la complexité des processeurs actuels, l'architecture (ISA) n'est pas ce qui influence le plus la consommation électrique (et plusieurs articles ont démontrer que la consommation de l'atom n'avait rien a envier a celle d'ARM pour des performances égales), mais plutôt que c'est une question de design de processeur avec comme paramètres : performance, consommation, process.

Oui Intel n'a pas réussi a percer sur les processeurs mobiles, mais ce l'est pas a cause de l'architecture x86 en particulier. Le modèle économique d'Intel vs celui d'ARM est probablement plus en cause, je suis sur que les fabricant de smartphone ne veulent pas se retrouver dans la meme situation de monopole que pour les CPU desktop ou server. Le fait que le coeur de métier d'Intel a été les CPU pour desktop et servers n'a pas non plus aidé pour leur permettre de comprendre tous les enjeux des cpus pour mobile.

avatar awk | 

@Stardustxxx

Sur les enjeux d'efficiente énergétique je serais effectivement porté à croire en première analyse, que les tares conceptuelles l'architecture x86 ne pèsent pas si lourd dans la balance et n'explique pas tout.

Par contre je suis enclin a penser qu'elles constituent une entrave que doivent continuer à forcer les équipes d'Intel et que l'énergie consacrée à dépasser à déployer des trésors d'imagination pour suppléer à ces tares est un frein au potentiel d'évolution de l'offre.

Se coltiner en héritage des visions qui étaient déjà obsolètes il y a trente ans n'est jamais neutre.

Pour finir sur les ratées d'Intel je te rejoins sur le fait que les questions économiques ont pesée dans l'incapacité d'Intel à s'adapter. Il n'est jamais simple pour une entreprise dominante de changer son modèle et d'accepter d'aller vers une offre créant des marges bien plus faible.

avatar Stardustxxx | 

@awk
Le x86 est transformé en uops RISC, une fois cette translation effectué, l'héritage x86 n'est plus très important, ce sont des instructions optimisées pour la microarchitecture. En nombre de transistors, cette étape est quasi négligeable. Les caches L1, L2 et L3 prennent bien plus de place, et sont nettement plus critiques dans la consommation d'un processeur moderne.

Il faut se méfier de la théorie et de l'élégance conceptuelle. Un petit exemple, en cours d'informatique tu apprends qu'il faut mieux utiliser des listes chainées quand tu as des insertions aléatoires a faire, en terme de complexité c'est nettement plus interessant que d'insérer dans un tableau. O(1) contre O(n). En pratique sur un cpu moderne, le tableau bat la liste chainée a plate couture, il est nettement plus rapide. La cause est justement les caches dans le processeur, avec un tableau les données sont séquentielles, et donc sont très adaptée aux caches, alors qu'avec une liste elles sont ne sont pas séquentielles, et donc pour aller d'un élement a un autre, tu dois parcourir la liste en mémoire. Sachant qu'un hit miss dans le cache L3 se traduit pas la perte de 100 a 300 cycles d'horloge, tu passes ton temps a attendre les données.
Donc conceptuellement ca peut-etre bien mieux, mais souvent ca ne regarde qu'un aspect des choses et la réalité est bien plus complexe.

Disons qu'Intel sorte un CPU pour mobile avec des performances supérieure de 25% au A10, quel interet auraient les constructeurs de smartphone a utiliser de l'Intel et de perdre leur indépendance. Il faudrait qu'Intel sorte un CPU mobile bien plus puissant pour que ca vaille la peine de switcher.
D'ailleurs, pour ce qui est de IoT, je vois mal Intel arriver a percer, a moins de s'ouvrir.

Et puis, la loi de Moore est sur sa fin, encore 5 ans. L'avenir de l'informatique n'est plus dans les architectures actuelles mais dans de nouvelles qui sont encore a inventer. HP avec ses memristors, ordi quantique, ...

avatar awk | 

@Stardustxxx

Je partage une grande part des point que tu mets en avant.

Sur la question de l'élégance, je mettrais un bémol, tu mets en avant la classique opposition entre performance théorique d'un algo et/ou d'une structure de donnée et son efficience réelle une fois implémentée sur tel où tel architecture.

Ce que je mettais en avant sur le du x86 relève plus du design, de l'architecture et de la conceptualisation de haut niveau : modèle de programmation, orthogonalité, jeu d'instruction, adressage ... même si de nos jours plus grand monde ne met, je te l'accorde, les mains dans le cambouis d'une programmation en assembleur et que les compilateurs gèrent assez remarquablement la situation.

De la même façon je t'accorde sans pb que je surestime sans doute l'impact actuelle de cet héritage, même si j'ai du mal à considérer qu'il n'a plus de réel impact :-)

Il me faut reconnaitre que je n'ai plus la connaissance pointue, qui était la mienne il y a quelques années, des détails les plus intimes de l'architecture des CPU Intel.

Pour le reste, j'avais déjà évoqué les freins commerciaux, stratégiques ... qui pour moi pèsent bien plus lourd dans la donne relative à Intel que les considérations techniques effectivement.

avatar Stardustxxx | 

@fousfous
Comparons ce qui est comparable. On parle d'un processeur pour mobile qui consomme moins de 5W.

J'attend encore un ARM de 15, 35 ou 65W, afin de faire une comparaison, parce que pour le moment c'est de la spéculation.

Si c'etait si facile de prendre l'architcture ARM (et laquelle d'aiileurs ?), et de sortit un cpu qui explosent le i7 desktop, je suis sur que certains l'aurait deja fait.
D'ailleurs quand on voit les performance des CPU ARM pour serveur, on voit que ce n'est pas si evident,

avatar awk | 

@Stardustxxx

"Une architecture, ce n'est pas la garantie de performance. La realite est bien plus complexe que cela."

Mais cela y contribue quand même, des sa conception l'architecture des x86 était fort loin de l'état de l'art de l'époque.

C'est inélégant au possible et très loin des références de l'époque en terme de modèle de programmation, d'orthogonalité du jeu d'instruction, de micro-architecture ...

Les équipes d'Intel déploient des trésors d'inventivité pour suppléer à ces défauts conceptuels d'origine de l'architecture et cela a un impact non négligeable sur les performances toute choses égale par ailleurs.

avatar C1rc3@0rc | 

Oui, c'est un peu comme comparer une bougie de suif hyper optimisée avec un fatras de miroirs et de lentilles face a une LED!

avatar Stardustxxx | 

@C1rc3@0rc
Et tu compares quoi entre la bougie de suif et la LED. La pollution dégagé par les 2 ? La LED va perdre...

avatar Alim | 

"Par contre au passage à l'ARM ça va bouger ;)"

En quoi ça va bouger ? Vas-y explique qu'on rigole un bon coup :)

avatar Genay | 

@Alim :
Si on suit la logique du CPU de l'iPhone 7 contre les CPU dernières générations d'intel. À puissance égale le TDP des AX est deux fois inférieurs.

Autrement dit pour un même TDP en augmentant la fréquence de la puce on obtient quelque chose qui avoisinerait le 2 fois plus véloce...

Ca te va?

avatar fousfous | 

@Genay :
Plus même, je doute que le TDP du A10 dépasse 4W

avatar Stardustxxx | 

@Genay
Et tu compares a quel CPU d'Intel ?

Vu la nomenclature totalement pourrie d'Intel, difficile de savoir avec quoi on compare, car un i5 ca peut etre un processeur qui degage 5W ou bien 65W...

avatar C1rc3@0rc | 

Ben le TDP reel des x86 ne descend jamais au dessous de 13 watts, et des que l'on parle de fonctionnement soutenu, on est plus dans les 40 watts!
Pas difficile, le TDP reel du x86 c'est celui atteint par le mode turbo de base!
Lorsqu'Intel parle de TDP de 4 watts il s'agit d'un processeur quasi a l'arret, dans une situation impossible a reproduire. Si Intel avait ete capable de produire un vrai x86 sous les 4 watts, tous les smartphones du marché fonctionneraient avec des x86...

avatar Alim | 

@Genay

Encore un champion ici :)
Tu crois que la science des circuits imprimés est aussi simple ? On prend un A10, un fout un ventirad, on l'overclock et BOOM! c'est fait un quad i7 quad-core 3,8Ghz! Génial on a révolutionné le monde!
Juste hilarant.

Le futur ne se cache pas chez les ARM. Les ARM sont une excellente solution pour un usage mobile, pour le besoin de puissance c'est vers les nouvelles archi qui doivent être développées, nouveau matériaux de conception (autre que le silicium), processeur quantique, etc... qu'il faudra se tourner.

avatar awk | 

@Alim

Au vue de tes contributions je doute fort que tes connaissances sur le sujet sois bien plus pointue que celle de celui que tu traite de champion.

Pour le reste :

" Les ARM sont une excellente solution pour un usage mobile"

Rien que ceci montre l'étroitesse de tes vue, je t'invite à aller voir ce qu'il se passe du côté des serveurs sur les offres basée sur de l'ARM.

"pour le besoin de puissance c'est vers les nouvelles archi qui doivent être développées, nouveau matériaux de conception (autre que le silicium), processeur quantique, etc... qu'il faudra se tourner."

Quant à la valeur de ceci ...

avatar Alim | 

@awk

"Au vue de tes contributions je doute fort que tes connaissances sur le sujet sois bien plus pointue que celle de celui que tu traite de champion."

Je n'ai jamais dis que j'avais des connaissances pointues en la matière. Mais suffisamment pour dire que l'argumentation de Genay n'a aucun sens..

"Rien que ceci montre l'étroitesse de tes vue, je t'invite à aller voir ce qu'il se passe du côté des serveurs sur les offres basée sur de l'ARM."

Et ?
De une, je suis parfaitement au courant qu'il existe des serveurs ARM efficaces. De deux ce n'enlève rien au fait que les ARM sont une excellente solution pour un usage mobile.

"Quant à la valeur de ceci ..."

ok.

avatar awk | 

@Alim

"Je n'ai jamais dis que j'avais des connaissances pointues en la matière. "

Mais tu as une outrance dans tes propos qui porte à croire que tu l'imagines, mets simplement un rien de souplesse dans ce que tu mets en avant ;-)

avatar awk | 

@Alim

"En quoi ça va bouger ?"

Si un jour la transition a lieu, elle permettra à Apple de retrouver un contrôle bien plus large sur sa politique produit et sur sa capacité à proposer des offres différentiantes et exclusives.

Intel est un pis-aller dont Apple est dépendant avec une influence toute relative pour : la road-map, les objectifs, la stratégie, le positionnement, la vision ...

Il est claire que si transition il y a elle libérerait de nombreux degrés de libertés pour Apple.

avatar ovea | 

Intel c'est mort : il ajoute leur processeur iOS AX et c'est plié.

avatar ovea | 

Les GPU ne sont plus un raccourci pour évoquer le graphisme

Un GPU va travailler de la donnée sur quatre axes alors que pour travailler sur le son on en prenait que deux.

Bref : des calcules sur les nombres sont passés
des « complexes » aux « quaternions »

Et puis c'est tout …

avatar ovea | 

Dans les fait,
les besoins utilisateurs plus épineux et difficiles se cachent derrière le terme fumeux d' « intelligence »

Leur résolution est simple comme on peut le voir avec les « boîtes noirs » de Facebook qui offre bien volontiers à des chercheurs triés sur les doigts de la main, des racks multi-GPU.

Si le moteur de l'industrie du processeur doit acquérir un nouveau paradigme à proposer pour se relancer sur un nouveau marcher, c'est bien celui-ci …

avatar awk | 

@ovea

Si tu veux dire que le deep-learning est un des relais de croissance des fabriquants de GPU, il n'est qu'à voir où portent actuellement les efforts de Nvidia pour le confirmer.

Pour le reste, tu marches à quoi comme substance ?

avatar ovea | 

L'idée de l'apprentissage profond et de l'intelligence artificielle
sortant de son hibernation faute de possibilités de calculs autant que de données
apporte la possibilité de concevoir des calculs qui nécessite l' « agglomération » de plusieurs GPU et de grosses quantités de mémoires rapides, en une forme de processeurs plus compacts pour s'intégrer jusque dans les téléphones.

Mais ce qui s'avère également prometteur pour l'utilisateur le serait aussi pour tout une industrie comme celle du jeux video pour concevoir des univers beaucoup plus dynamiques et capables de traiter énormément de données biométriques pour les superposer à un autre flux de données sur l'environnement dans lequel le joueur évolue.

avatar ovea | 

Intel se vu fort aise lorsque du bec du corbeau dégoulina ce prestigieux fromage.
(Quelle aura pour ce fondeur)

Sertes !
Mais ce prestigieux bijou qu'était Apple est en crise depuis que le renard c'est vu domestiqué (si si … en vrai).

Bref :
La demande d'une gouvernance intelligente n'est pas vaine en l'absence obstinée d'ouverture économique du « système Apple » qu'aucune innovation réel ne soutien plus.

Et que dire qu'Untel … alimente il se marasme en se réfugiant derrière
le « fléau de la dimension » ?

Pourtant, la progression est là pour soutenir l'évolution des processeurs et les calculs* qu'ils sous-entendent :

Complexe Quaternion Octonion Sédénion

pour les besoins de calculs en rapport avec la réalité … augmentée, il n'y a plus à reculer pour faire fondre le fromage.

* l'intelligence (… quelle artifice!) serait de faire entrer la « géométrie algébrique » dans une nouvelle génération de processeurs et pas le contraire.

avatar bobytron | 

Ca sent le M1.

avatar romainB84 | 

@bobytron :
La lettre M est déjà utilisée pour les co-processeur des idevices ;-)

avatar patrick86 | 

"Ca sent le M1."

Je dirais plutôt X1 ?

Pages

CONNEXION UTILISATEUR