Apple nourrit l'Imagination d'un GPU maison en recrutant des spécialistes

Stéphane Moussie |

À défaut d'acquérir Imagination Technologies, Apple recrute plusieurs de ses ingénieurs ainsi que son directeur de l'exploitation, John Metcalfe. Un petit tour sur LinkedIn révèle qu'au moins quatre ingénieurs du spécialiste des puces graphiques ont rejoint Apple récemment, sans doute à la faveur de la vague de suppression de postes annoncée en début d'année.

MacRumors s'est laissé entendre dire que la Pomme a mis en place une équipe dédiée au développement d'un GPU maison à Londres, à proximité du siège d'Imagination.

D'après Apple, les performances du GPU de l'iPhone ont été multipliées par 240 depuis le premier modèle, contre 120 fois « seulement » pour le CPU. Cliquer pour agrandir

Il s'agit d'un partenaire de premier ordre pour Cupertino, puisque c'est lui qui conçoit les GPU (PowerVR) des terminaux iOS — qui sont ensuite customisés par les équipes de Johny Srouji. En mars dernier, Apple avait démenti une rumeur d'acquisition de l'entreprise britannique, tout en précisant qu'il y avait bien eu des discussions à ce sujet.

En 2013, Apple avait déjà profité de la restructuration d'une entreprise pour faire grossir ses rangs de spécialistes en GPU. Il s'agissait alors d'AMD.


avatar ovea | 

Ça serait pas trop tôt pour amorcer la génération des calculs « sur une base graphique » quoi qu'il soit plus question d'unités de calculs pointus que d'affichage

avatar C1rc3@0rc | 

Lorsqu'on regarde l'evolution de l'informatique aujourd'hui on se rend compte que niveau CPU on est dans le marasme a cause d'Intel et sa politique de monopole absolu evidemment, mais aussi parce que la technologie sur le silicium a atteint ses limites.

Au niveau des GPU, il y a une plus grande marge de progression, mais le probleme du silicium est le meme.

Et le besoin de puissance autant en CPU qu'en GPU se fait de plus en plus sentir. On est rentré cette annee dans la logique de la 8k, et de la VR. Ces 2 evolutions importantes sont limités et ralenties par le manque de puissance des composants.
Pire, aucun Mac actuel ne peut faire de VR.

L'autre gros morceau c'est le "big data". Le marché est gigantesque, mais la puissance des machines est trop faible. Alors pour l'instant les constructeurs font patienter en bidouillant avec du cloud, mais c'est une vieille fausse solution qui a un avenir tres limité.

Va falloir donc attendre une grosse evolution de principe et d'architecture des machines informatiques. En attendant, faut optimiser l'existant, et comme il est maintenant prouvé que la gravure sous les 20nm n'apporte rien en terme de puissance, il reste que le changement et l'optimisation d'architecture.

Bien évidemment, le GPGPU et le multicore CPU sont des voies a creuser, mais le besoin d'optimisation est tel qu'il va falloir surtout debarrasser tous les scories du passé qui degradent les possibilités d'evolution.
Apple est une rare societé capable d'engager ce processus, et elle semble ici bien le faire. Reste a savoir si Apple va uniquement travailler sur le device et laisser mourir le PC en fonçant dans le cloud ou si la société va revenir a ses fondamentaux et fournir la puissance abordable a l'individu?

avatar awk | 

@C1rc3@0rc :
Je suis tombé parterre c'est la faute à Intel, le nez dans le ruisseau c'est la faute à Jonathan Ive :-)

avatar Moumou92 (non vérifié) | 

@C1rc3@0rc :
Aujourd'hui la puissance de nos machines est suffisante pour le commun des mortels... cela fait bien longtemps sur je ne change plus mes machines pour plus de puissance, mais pour d'autres critères... la "8K" ne sert à rien (''l'image est déjà parfaite en 4K), la vr est un gadget pour nerd... une config s'il y a 2 ans tourne toujours tres bien, au grand dame des fabricants qui ne savent plus quoi inventer pour pousser au renouvellement...

Bref pour moi la course à la puissance est fini, la course à l'armement est terminée car la guerre est finie et nous sommes dans une période de paix assurée par le fait que nos besoins sont plus que satisfait...

avatar awk | 

@Moumou92 :
Oui c'est là la réalité du marché que beaucoup ne veulent pas voir, les enjeux se sont déplacés vers d'autres considérations.

Après je serais bien moins radical que toi sur la potentiel émergence de nouveaux usages à un horizon plus ou moins lointain.

Nous vivons certes une période de relative stagnation, cela ne signifie pas pour autant que l'histoire de l'informatique est finie, loin s'en faut;-)

avatar macfredx | 

@Moumou92 :
1 avec juste peut-être un petit bémol sur ton dernier paragraphe ; on ne sait pas ce que l'avenir nous réserve...

avatar C1rc3@0rc | 

@Moumou92

"Aujourd'hui la puissance de nos machines est suffisante pour le commun des mortels..."

La puissance est suffisante pour faire ce que l'on pouvait faire il y a 5 ans. Il est évident que lire ses email, faire un budget dans excel, lire une video HD,... le besoin de puissance reste le meme. La n'est pas le probleme. Le fait que le CPU stagne implique que l'on doive se satisfaire de ce que l'on faisait.

Mais comme je le dis, bien que l'on parle de decroissance, le flot de données continu a augmenter autant en quantité qu'en complexité. D'ailleurs cette augmentation est souvent une apparence, car il s'agit plus de la prise en compte d'information qu'on négligeait, puisqu'on ne pouvait pas la traiter...
Et pour rappel l'informatique c'est la science et la technologie de gestion des flux d'informations.

Aujourd'hui aucun Mac vendu ne peut gerer la VR. Ok on en est au debut, mais ce n'est qu'un exemple.

Si tu connais un peu un secteur techno ou scientifique, tu vois la vague du big data qui est en train de déferler, qui commence a toucher quasi tous les secteurs, et en face y a que des bricolages d'empilement de vétustés pour essayer de surnager.

On est juste a un moment clé de l'histoire qui est aussi conséquent que celui de l'invention du transistor.
Le besoin etait la depuis longtemps, mais il manquait la technologie. Beaucoup ont dit lorsque le transistor est apparu que cela concernait un tout petit secteur, une petite niche, que les besoins etaient couverts par l'existant. Je ne connais pas de secteurs aujourd'hui qui n'ait pas été transformé par l'informatique... pas que l'informatique ait artificiellement transformer les choses, mais que l'on se soit rendu compte tardivement du besoin et des manques auxquels on s'etait habitué en disant: la puissance est bien suffisante!

Ce qui est navrant c'est que la philosophie du Mac semble morte en 2011.

avatar awk | 

@C1rc3@0rc :
C'était mort en 1984 soyons sérieux

128ko de RAM qu'est-ce que tu ceux faire avec ça :-)

avatar Ginger bread | 

@C1rc3@0rc :
Lol quand tu vois leurs choix de carte graphique ya de quoi se poser des questions.

avatar awk | 

@Ginger bread

Pourquoi ?

avatar NerdForever | 

@awk :
Bah cite une carte graphique performante sur iMac...

avatar awk | 

@NerdForever

C'est comme les Rolls Royce à la grande époque :

Puissance ?
Suffisante :-)

avatar NerdForever | 

@awk :
Puissance pour :
-réalité augmentée = insuffisante
-VR = insuffisante
-jeux 3D = insuffisante
Et pour plein d'autres usages = insuffisant

Après heureusement je suis d'accord pour la plupart des gens cela suffit mais dans ce cas un raspberry pi a 20€ suffit pour beaucoup...

D'ailleurs c'est l'ordinateur que je fais le plus acheter...

avatar awk | 

@NerdForever

Que veux tu Apple ne cible pas les Nerd et ne les a jamais ciblé.

AR, VR sont des marché à peine émergeant sur lequel arrivera certainement un jour au vue des effort déployé en interne mais absolument sans intérêt commercialement actuellement.

Le marché du JV est sur console et sur Wintel depuis très longtemps, Apple a déjà réussi a faire en sorte qu'il y est une honnête offre sur Mac, aucun enjeux à aller plus avant, rien a y gagner

Donc puissance suffisante pour les cible visées et l'état actuelle des marchés ;-)

avatar C1rc3@0rc | 

@NerdForever

Tu as raison.
70 a 80% de ce que l'on peut faire avec un Mac est aujourd'hui faisable avec un Raspberry Pi 3. Et encore, la souplesse du Raspberry permet de faire des choses que le Mac ne peut meme pas envisager.
Un Raspberry c'est 35€, faut lui rajouter clavier, souris, ecran, etc... mais bon on s'en tire pour 100€. Le prix d'un Macbook c'est 15 fois ça, et pourquoi faire?

Apres, on peut se dire: pourquoi vouloir qu'un PC puisse etre bon a tout alors que l'utilisateur ne va avoir besoin que d'une partie de ces possibilité?
Ça a ete l'idée derriere les consoles de jeux, qui sont en train de mourrir face a leur manque de puissance et de possibilité.

C'est aussi l'idée des device, mais la aussi le device est en phase critique: on voit que les smartphones se complexifiant et augmentant leur puissance tentent de répondre a des besoins couverts par des PC. Résultat, il deviennent surpuissants mais dysfonctionnels, car cette puissance est inaccessible, car au fond ce ne sont que des device, fonctionnellement limité, pas des PC universels! On pourra toujours rajouter des accessoires a un velo, multiplier les engrenages, rajouter une batterie,... jamais on en fera un jet ou un camion!

Et si on a besoin d'un camion de 700 chevaux, aucun velo ne le remplacera. Mais on pourra se dire que finalement le velo suffit.

avatar awk | 

@C1rc3@0rc :
Que le monde est mal fait quand même (Je résume à l'essentiel)

avatar heret | 

il est maintenant prouvé que la gravure sous les 20nm n'apporte rien en terme de puissance

Mince, moi qui pensais que la finesse de gravure faisait gagner en terme de consommation électrique, je suis ramené dans le droit chemin par un autre candidat au Nobel des discussions de comptware !

Roger, un muscadet !

avatar C1rc3@0rc | 

@heret

«Mince, moi qui pensais que la finesse de gravure faisait gagner en terme de consommation électrique»

Je te renvoi a la conjecture de Moore, a la thermo-dynamique et aux discours markting d'Intel...

avatar Benitochoco | 

GPU maison, ARM maison, je dis une machine full ARM pour 2018 !

avatar frankm | 

Tout à fait et le tout sous un hybride iOS / macOS

avatar macfredx | 

Beurk !
Chacun son métier et les vaches seront bien gardées... ?

avatar awk | 

@macfredx

Oui, mais non en fait

Déja en suivant cette logique Apple ne devrait pas faire le hard et le soft ce qui est pourtant sa grande force ;-)

avatar macfredx | 

Evidemment vu comme ça... ? Dans le cas présent, je pensais aux hybrides apparemment souhaités par frankm ;-)

avatar awk | 

@macfredx

Toute mes excuses j'avais sauté une marche, je pensais que tu t'adressais à Benitochoco.

Merci pour ton implication dans la sainte croisade contre cette monstruosité conceptuelle abjecte tenant du monstre de Frankenstein qu'est l'inepte hybridation des paradigmes d'IHM fruit d'une détestable paresse intellectuelle nourrie d'opportunisme marketing :-)

avatar Benitochoco | 

@Tous

Pas d'hybride, aucun intérêt. Mais un Mac ARM c'est l'avenir pour Apple. Ils ont déjà prouvé qu'ils sont aussi bon que Intel sur le sujet.

avatar Alim | 

Apple n'a rien prouvé du tout, mis à part qu'elle savait faire des processeurs de téléphone puissant. On est encore extrêmement loin de l'i7...

avatar awk | 

@Alim

Quelle PDM les CPU du niveau de puissance des i7 aujourd'hui ?

avatar Alim | 

@awk

Je répondais à la stupide affirmation de Benitochoco qui disait: "Ils ont déjà prouvé qu'ils sont aussi bon que Intel sur le sujet."

Il faut que t'arrête de tenter de créer des rapports avec les PDM sur toutes questions que l'on se pose...

avatar awk | 

@Alim

Je m'inscrivais bien dans cette problématique et pour liminaire et un rien caricaturale qu'elle fut, la contribution de Benitochoco n'en est pas pour autant stupide tout comme ma référence à la PDM des CPU les plus puissant.

Ton injonction a arrêter de me référer à cette notion est une injonction à s'aveugler.

Quand une très conséquente part des usages et du marché est adressé par les CPU les moins puissantes, la question de la capacité des CPU ARM a y trouver une place est on ne peut plus légitime et logique.

avatar Elmediterraneo | 

Apple aura bientôt les moyens de developper tous les CPU et GPU (Mac comme iOS) et l'integration sera complètemnet transparente.

avatar awk | 

@Elmediterraneo

L'intégration de quoi ?

avatar moon21 | 

... j'ai investi dans une saloperie de mac pro 213... qu'ils aillent se faire voir !

avatar awk | 

@moon21

Une des plus remarquable machine de l'histoire d'Apple, tu fais parti de ceux ayant souffert de soucis de fiabilité ?

avatar heret | 

merci d'arrêter de faire souffrir la grammaire !

avatar awk | 

@heret

Je fais ce que je peux avec ce que j'ai et tes injonctions n'y changeront hélas rien :-)

avatar chezyom | 

Pour être remarquable, ça elle l'est !!! Mais j'avoue ne pas arriver à savoir dans quel degré on se situe... 1er-2eme... Voir plus loin ???
@ Moon : Comme je te comprends !!!!

avatar awk | 

@chezyom

Au premier degrés : Une machine remarquablement visionnaire, très en avance sur son temps, qui pose les jalons du futur.

avatar Doctomac | 

Mon rêve..,,

avatar Avenger | 

Pour le commun des mortels, si la majorité des solutions logicielles (Os compris) n'étaient pas développées avec les pieds mais réellement optimisées, les processeurs actuels seraient largement assez puissants.

Quand on voit, sur papier, la puissance brute d'un ordinateur de base, c'est déjà énorme. Mais quand on se rend compte qu'un simple navigateur internet peut faire ramer l'ensemble, il y a quand même des questions à se poser.

Mais comment la mentalité est "La puissance est là, donc on peut se permettre de ne plus optimiser le code", c'est un peu normal qu'on est en pleine course à la puissance.

Je me souviens de l'époque où j'étais sur PC, avec les processeurs 286, 386, etc. Quand je changeais de processeur, c'était... wouaaaa, c'est rapide. Et quelques temps après, quand les mises à jour des applications suivaient, je me retrouvais comme si j'avais l'ancien processeur.

avatar macfredx | 

@Avenger :
D'accord avec toi.
J'ai commencé avec un Amstrad CPC et quand on voit ce que les programmeurs de jeux arrivaient à en faire à la fin ! Dans le même temps, sur PC, à chaque fois qu'un nouveau jeu sortait il fallait changer de machine (j'exagère à peine ).

avatar awk | 

@Avenger

Y'a qu'à faut qu'on

Que le monde serait simple avec les visions qui sont les tiennes et ce niveau de déni de la complexité.

avatar macfredx | 

@awk :
Si je ne suis pas d'accord avec le "développé avec les pieds", il faut quand même avouer qu'il y a une (bonne) marge de progression au niveau de l'optimisation (on est d'accord, c'est pas quelque chose de simple). L'augmentation constante des performances a quand même fait passer ce point au second plan (ça prend beaucoup de temps que les développeurs n'avaient pas forcément ou qu'ils préféraient utiliser autrement).

avatar awk | 

@macfredx

Croire que les enjeux d'optimisation et de performance ont aujourd'hui disparu est relativement caricatural.

Ils sont encore très présent même si les arbitrage de temps et de ressource ne les mettent pas toujours en avant, sans parler évidement des pb de niveau de bien des dev (On estime qu'une part très conséquente du code produit aujourd'hui, tout secteur confondu, l'est par des ressources fort peu expérimentées)

Après il y a de plus en plus une dualité entre enjeux de performances et de sécurité qui pèse de tout sont poids.

Enfin un point qui n'est pas ici abordé est l'inadaptation de l'architecture de bien des logiciels que nous utilisons, dont les fondations dates souvent de plusieurs décennies, à la réalité des CPU actuelles où les coeur se multiplient.

Fort peu de nos programmes savent tirer le plein potentiel des CPU actuelle et une remise à plat des architectures logiciel n'est pas économiquement envisageable dans bien des cas. Seul des parties du code sont adapté à la donne actuelle, petit à petit ... mais cela tient du cautère sur une jambe de bois.

Pour finir sur bien des usages lourds la remise à plat des workflow des utilisateurs afin de les optimiser offre de très grande ressources d'amélioration de la productivité mais est hélas assez rarement explorée.

avatar macfredx | 

@awk :
Je n'ai pas dit que l'optimisation avait disparue, mais qu'il était plus facile (et sous-entendu moins cher) pour les développeurs de se reposer sur l'évolution du hardware. C'est peut-être un peu moins vrai ces dernières années avec la moindre progression de la performance des processeurs...

avatar awk | 

@macfredx

L'optimisation ne peut plus se penser et s'envisager comme dans les années 80 :-)

Le niveau d'abstraction, l'architecture logiciel, les méthodologies ... n'ont plus rien à voir.

C'est presque caricatural de croire que l'on est devenu paresseux de part le seul gain mécanique de performance qu'apporte les évolution du hard et en tout cas c'est daté de mettre l'emphase sur cela.

Et dans les points positif on a aujourd'hui des outils d'analyses de la performances bien plus efficace que dans les passé afin de détecter les goulots d'étranglement, de comprendre ce qui ce passe et d'agir intelligemment quand c'est économiquement rentable.

Bref évitons d'être manichéen sur ces question et de les aborder avec des paradigmes datés ;-)

avatar macfredx | 

@awk :
Ok, je ne suis pas un spécialiste de la question et j'avoue que ma vision des choses est peut-être un peu datée ;-)
Mais c'est toujours intéressant de discuter de ce genre de choses avec toi.

avatar Avenger | 

@awk

- "Y'a qu'à faut qu'on", désolé, mais je n'ai pas dit cà. Je laisse cela aux financiers et aux départements marketing. Ils sont très fort, pour cela. Ils sont souvent les responsables du développement "avec les pieds", pour reprendre mon expression, en mettant souvent les développeurs dans des situations où il devient difficile de faire quelque chose de "propre".

- "Que le monde serait simple avec les visions qui sont les tiennes et ce niveau de déni de la complexité."

Du coup, parce que c'est complexe, mon commentaire est complètement caduque? Oui, le monde devient complexe et encore plus dans l'informatique. Mais il faut aussi être dans le déni en pensant qu'il n'y a rien à faire pour améliorer cela.

Des pistes? Arrêter de vouloir faire des nouvelles versions de gros trucs, tous les ans. Comme un Os, comme une Créative Suite. Eviter, quand on développe des nouveaux outils, de rendre foireux les anciens. Arrêter de vouloir réinventer la roue à chaque fois.

Pour les Geeks, dont je fais un peu partie, l'évolution peut prendre une tournure sympa. Mais crois-moi, pour beaucoup de personnes, les outils informatiques (ordis, smartphones, applications, etc.) deviennent de plus en plus complexes et fait perdre tout l'intérêt de les utiliser. Adieu le temps où il ne fallait penser à rien et juste profiter de la technologie. De plus en plus d'utilisateurs, qui ne s'y connaissent pas, commencent à avoir peur de faire la moindre mise à jour. Pourquoi? Car ils ont peur que cela amène son lot d'emmerdes, des trucs qui ne fonctionnent plus correctement, des lenteurs inexpliquées. Et souvent, il n'y a pas vraiment de solutions. Par contre, pour les vendeurs, "il n'y a qu'à" acheter un nouvel appareil, plus puissant.

Donc, oui, mon monde serait meilleur s'il n'y avait pas des personnes, comme toi, qui disent c'est trop complexe au lieu de se demander si c'est vraiment nécessaire de tout rendre complexe ;-)

avatar awk | 

@Avenger

Le soucis de ta posture que je caricaturais avec le "Y'a qu'à faut qu'on" c'est quelle regarde la problématique par le petit bout de la lorgnette et écarte d'un revers de manche bien des paramètres de l'équation.

En restant dans la relative caricature, elle est idéaliste et un rien naïve.

"Donc, oui, mon monde serait meilleur s'il n'y avait pas des personnes, comme toi, qui disent c'est trop complexe au lieu de se demander pourquoi c'est devenu si complexe ;-)"

Tu ne vois la complexité que je met en avant que sur des enjeux techniques ce qui est un cadre de pensée bien trop étroit.

Le monde n'est fait que de compromis et de pis-aller pas de chimériques perfections ;-)

Je suis d'accord pour considérer qu'il faut faire évoluer le point d'équilibre, même si je considère que les grands enjeux se place plus sur les questions de sécurité que de performance, mais je n'adhère pas à la vision idéaliste et un rien naïve qui nourrissait ta première contribution avec un gros fond de "c'était mieux avant" toujours aveuglant.

Dans un absolue chimérique c'est toutes les fondations du développement informatiques qui devraient être remise à plat pour les adaptées aux réalités et aux enjeux de notre époque tant les fondations sont datée et éloignées de l'état de l'art du génie informatique... mais c'est absolument utopique d'imaginer une telle tabula rasa

avatar Orus | 

Un GPU maison... Pfff... Apple veut nous enfermer dans son monde.

avatar awk | 

@Orus :
Ni plus, ni moins que la majorité des acteurs économiques

Pages

CONNEXION UTILISATEUR