Apple nourrit l'Imagination d'un GPU maison en recrutant des spécialistes

Stéphane Moussie |

À défaut d'acquérir Imagination Technologies, Apple recrute plusieurs de ses ingénieurs ainsi que son directeur de l'exploitation, John Metcalfe. Un petit tour sur LinkedIn révèle qu'au moins quatre ingénieurs du spécialiste des puces graphiques ont rejoint Apple récemment, sans doute à la faveur de la vague de suppression de postes annoncée en début d'année.

MacRumors s'est laissé entendre dire que la Pomme a mis en place une équipe dédiée au développement d'un GPU maison à Londres, à proximité du siège d'Imagination.

D'après Apple, les performances du GPU de l'iPhone ont été multipliées par 240 depuis le premier modèle, contre 120 fois « seulement » pour le CPU. Cliquer pour agrandir

Il s'agit d'un partenaire de premier ordre pour Cupertino, puisque c'est lui qui conçoit les GPU (PowerVR) des terminaux iOS — qui sont ensuite customisés par les équipes de Johny Srouji. En mars dernier, Apple avait démenti une rumeur d'acquisition de l'entreprise britannique, tout en précisant qu'il y avait bien eu des discussions à ce sujet.

En 2013, Apple avait déjà profité de la restructuration d'une entreprise pour faire grossir ses rangs de spécialistes en GPU. Il s'agissait alors d'AMD.

avatar ovea | 

Ça serait pas trop tôt pour amorcer la génération des calculs « sur une base graphique » quoi qu'il soit plus question d'unités de calculs pointus que d'affichage

avatar C1rc3@0rc | 

Lorsqu'on regarde l'evolution de l'informatique aujourd'hui on se rend compte que niveau CPU on est dans le marasme a cause d'Intel et sa politique de monopole absolu evidemment, mais aussi parce que la technologie sur le silicium a atteint ses limites.

Au niveau des GPU, il y a une plus grande marge de progression, mais le probleme du silicium est le meme.

Et le besoin de puissance autant en CPU qu'en GPU se fait de plus en plus sentir. On est rentré cette annee dans la logique de la 8k, et de la VR. Ces 2 evolutions importantes sont limités et ralenties par le manque de puissance des composants.
Pire, aucun Mac actuel ne peut faire de VR.

L'autre gros morceau c'est le "big data". Le marché est gigantesque, mais la puissance des machines est trop faible. Alors pour l'instant les constructeurs font patienter en bidouillant avec du cloud, mais c'est une vieille fausse solution qui a un avenir tres limité.

Va falloir donc attendre une grosse evolution de principe et d'architecture des machines informatiques. En attendant, faut optimiser l'existant, et comme il est maintenant prouvé que la gravure sous les 20nm n'apporte rien en terme de puissance, il reste que le changement et l'optimisation d'architecture.

Bien évidemment, le GPGPU et le multicore CPU sont des voies a creuser, mais le besoin d'optimisation est tel qu'il va falloir surtout debarrasser tous les scories du passé qui degradent les possibilités d'evolution.
Apple est une rare societé capable d'engager ce processus, et elle semble ici bien le faire. Reste a savoir si Apple va uniquement travailler sur le device et laisser mourir le PC en fonçant dans le cloud ou si la société va revenir a ses fondamentaux et fournir la puissance abordable a l'individu?

avatar awk | 

@C1rc3@0rc :
Je suis tombé parterre c'est la faute à Intel, le nez dans le ruisseau c'est la faute à Jonathan Ive :-)

avatar Moumou92 (non vérifié) | 

@C1rc3@0rc :
Aujourd'hui la puissance de nos machines est suffisante pour le commun des mortels... cela fait bien longtemps sur je ne change plus mes machines pour plus de puissance, mais pour d'autres critères... la "8K" ne sert à rien (''l'image est déjà parfaite en 4K), la vr est un gadget pour nerd... une config s'il y a 2 ans tourne toujours tres bien, au grand dame des fabricants qui ne savent plus quoi inventer pour pousser au renouvellement...

Bref pour moi la course à la puissance est fini, la course à l'armement est terminée car la guerre est finie et nous sommes dans une période de paix assurée par le fait que nos besoins sont plus que satisfait...

avatar awk | 

@Moumou92 :
Oui c'est là la réalité du marché que beaucoup ne veulent pas voir, les enjeux se sont déplacés vers d'autres considérations.

Après je serais bien moins radical que toi sur la potentiel émergence de nouveaux usages à un horizon plus ou moins lointain.

Nous vivons certes une période de relative stagnation, cela ne signifie pas pour autant que l'histoire de l'informatique est finie, loin s'en faut;-)

avatar macfredx | 

@Moumou92 :
1 avec juste peut-être un petit bémol sur ton dernier paragraphe ; on ne sait pas ce que l'avenir nous réserve...

avatar C1rc3@0rc | 

@Moumou92

"Aujourd'hui la puissance de nos machines est suffisante pour le commun des mortels..."

La puissance est suffisante pour faire ce que l'on pouvait faire il y a 5 ans. Il est évident que lire ses email, faire un budget dans excel, lire une video HD,... le besoin de puissance reste le meme. La n'est pas le probleme. Le fait que le CPU stagne implique que l'on doive se satisfaire de ce que l'on faisait.

Mais comme je le dis, bien que l'on parle de decroissance, le flot de données continu a augmenter autant en quantité qu'en complexité. D'ailleurs cette augmentation est souvent une apparence, car il s'agit plus de la prise en compte d'information qu'on négligeait, puisqu'on ne pouvait pas la traiter...
Et pour rappel l'informatique c'est la science et la technologie de gestion des flux d'informations.

Aujourd'hui aucun Mac vendu ne peut gerer la VR. Ok on en est au debut, mais ce n'est qu'un exemple.

Si tu connais un peu un secteur techno ou scientifique, tu vois la vague du big data qui est en train de déferler, qui commence a toucher quasi tous les secteurs, et en face y a que des bricolages d'empilement de vétustés pour essayer de surnager.

On est juste a un moment clé de l'histoire qui est aussi conséquent que celui de l'invention du transistor.
Le besoin etait la depuis longtemps, mais il manquait la technologie. Beaucoup ont dit lorsque le transistor est apparu que cela concernait un tout petit secteur, une petite niche, que les besoins etaient couverts par l'existant. Je ne connais pas de secteurs aujourd'hui qui n'ait pas été transformé par l'informatique... pas que l'informatique ait artificiellement transformer les choses, mais que l'on se soit rendu compte tardivement du besoin et des manques auxquels on s'etait habitué en disant: la puissance est bien suffisante!

Ce qui est navrant c'est que la philosophie du Mac semble morte en 2011.

avatar awk | 

@C1rc3@0rc :
C'était mort en 1984 soyons sérieux

128ko de RAM qu'est-ce que tu ceux faire avec ça :-)

avatar Ginger bread | 

@C1rc3@0rc :
Lol quand tu vois leurs choix de carte graphique ya de quoi se poser des questions.

avatar awk | 

@Ginger bread

Pourquoi ?

avatar NerdForever | 

@awk :
Bah cite une carte graphique performante sur iMac...

avatar awk | 

@NerdForever

C'est comme les Rolls Royce à la grande époque :

Puissance ?
Suffisante :-)

avatar NerdForever | 

@awk :
Puissance pour :
-réalité augmentée = insuffisante
-VR = insuffisante
-jeux 3D = insuffisante
Et pour plein d'autres usages = insuffisant

Après heureusement je suis d'accord pour la plupart des gens cela suffit mais dans ce cas un raspberry pi a 20€ suffit pour beaucoup...

D'ailleurs c'est l'ordinateur que je fais le plus acheter...

avatar awk | 

@NerdForever

Que veux tu Apple ne cible pas les Nerd et ne les a jamais ciblé.

AR, VR sont des marché à peine émergeant sur lequel arrivera certainement un jour au vue des effort déployé en interne mais absolument sans intérêt commercialement actuellement.

Le marché du JV est sur console et sur Wintel depuis très longtemps, Apple a déjà réussi a faire en sorte qu'il y est une honnête offre sur Mac, aucun enjeux à aller plus avant, rien a y gagner

Donc puissance suffisante pour les cible visées et l'état actuelle des marchés ;-)

avatar C1rc3@0rc | 

@NerdForever

Tu as raison.
70 a 80% de ce que l'on peut faire avec un Mac est aujourd'hui faisable avec un Raspberry Pi 3. Et encore, la souplesse du Raspberry permet de faire des choses que le Mac ne peut meme pas envisager.
Un Raspberry c'est 35€, faut lui rajouter clavier, souris, ecran, etc... mais bon on s'en tire pour 100€. Le prix d'un Macbook c'est 15 fois ça, et pourquoi faire?

Apres, on peut se dire: pourquoi vouloir qu'un PC puisse etre bon a tout alors que l'utilisateur ne va avoir besoin que d'une partie de ces possibilité?
Ça a ete l'idée derriere les consoles de jeux, qui sont en train de mourrir face a leur manque de puissance et de possibilité.

C'est aussi l'idée des device, mais la aussi le device est en phase critique: on voit que les smartphones se complexifiant et augmentant leur puissance tentent de répondre a des besoins couverts par des PC. Résultat, il deviennent surpuissants mais dysfonctionnels, car cette puissance est inaccessible, car au fond ce ne sont que des device, fonctionnellement limité, pas des PC universels! On pourra toujours rajouter des accessoires a un velo, multiplier les engrenages, rajouter une batterie,... jamais on en fera un jet ou un camion!

Et si on a besoin d'un camion de 700 chevaux, aucun velo ne le remplacera. Mais on pourra se dire que finalement le velo suffit.

avatar awk | 

@C1rc3@0rc :
Que le monde est mal fait quand même (Je résume à l'essentiel)

avatar heret | 

il est maintenant prouvé que la gravure sous les 20nm n'apporte rien en terme de puissance

Mince, moi qui pensais que la finesse de gravure faisait gagner en terme de consommation électrique, je suis ramené dans le droit chemin par un autre candidat au Nobel des discussions de comptware !

Roger, un muscadet !

avatar C1rc3@0rc | 

@heret

«Mince, moi qui pensais que la finesse de gravure faisait gagner en terme de consommation électrique»

Je te renvoi a la conjecture de Moore, a la thermo-dynamique et aux discours markting d'Intel...

avatar Benitochoco | 

GPU maison, ARM maison, je dis une machine full ARM pour 2018 !

avatar frankm | 

Tout à fait et le tout sous un hybride iOS / macOS

avatar macfredx | 

Beurk !
Chacun son métier et les vaches seront bien gardées... ?

avatar awk | 

@macfredx

Oui, mais non en fait

Déja en suivant cette logique Apple ne devrait pas faire le hard et le soft ce qui est pourtant sa grande force ;-)

avatar macfredx | 

Evidemment vu comme ça... ? Dans le cas présent, je pensais aux hybrides apparemment souhaités par frankm ;-)

avatar awk | 

@macfredx

Toute mes excuses j'avais sauté une marche, je pensais que tu t'adressais à Benitochoco.

Merci pour ton implication dans la sainte croisade contre cette monstruosité conceptuelle abjecte tenant du monstre de Frankenstein qu'est l'inepte hybridation des paradigmes d'IHM fruit d'une détestable paresse intellectuelle nourrie d'opportunisme marketing :-)

avatar Benitochoco | 

@Tous

Pas d'hybride, aucun intérêt. Mais un Mac ARM c'est l'avenir pour Apple. Ils ont déjà prouvé qu'ils sont aussi bon que Intel sur le sujet.

Pages

CONNEXION UTILISATEUR