La révolution RISC-V (4/4) : pour l'amour du RISC

Pierre Dandumont |

Le jeu d'instructions RISC-V est moderne, open source et possède beaucoup d'avantages par rapport aux ISA classiques comme l'ARM ou le x86. Dès lors, faut-il s'attendre à ce qu'Apple, Google et les autres en fassent leur nouvelle architecture de prédilection ? Éléments de réponses.

avatar MiMac_67 | 

Merci pour le titre. J’aurais été déçu de ne pas le voir sur un des épisodes 😁

avatar raoolito | 

@MiMac_67

je pense que Mickael a été consultant sur les titres, ou alors Pierre est désormais maître - es - titres fous sur macG 😛

avatar bunam | 

@MiMac_67

je plussoie ;)

Merci pour la série !!

avatar Labsyb | 

@MiMac_67

Une générique inoubliable : «  … les justiciers milliardaiiiiiiiires » 😂

avatar melaure | 

@Labsyb

Ca ne nous rajeunit pas, mais oui on regardé ça, Jonathan et Jennifer Hart …

avatar clystere | 

Top cette série !

avatar Nesus | 

Le dernier paragraphe est un parfait résumé. Une technologie prometteuse qui n’a pas d’intérêt pour le moment. Parce qu’aucun marché n’existe. Il suffirait toutefois qu’un acteur s’investisse dedans pour profondément changer la donne. 80% des problèmes seraient réglés parce qu’il y aurait des investissements, car des débouchés financiers, et le reste serait des optimisations de softwares qui pourraient aller très vite.
D’ailleurs pour les vieux qui ont connus le passage powerpc à intel, puis intel a ARM, nous avons pu constater à quel point les choses vont beaucoup plus vite aujourd’hui.
La prochaine ira assurément plus vite.

avatar DahuLArthropode | 

@Nesus

"le passage powerpc à intel, puis intel a ARM"

Pas sûr que le parallèle s’applique:
- Le passage de powerpc à Intel est un passage vers une technologie justement plus mûre et déjà plus répandue. C’est un ralliement, pas une révolution.
- Le passage à ARM n’a pas été rapide, il a commencé par des puces pour téléphones qui n’étaient pas très exigeants en puissance, qui se sont améliorés au fil des générations avant de pouvoir concurrencer les puces Intel, et en s’appuyant sur une architecture elle-même largement répandue. Ce n’est pas le passage qui a été rapide, seulement le dernier pas (même si c’est déjà très impressionnant, en effet).

avatar raoolito | 

@DahuLArthropode

et j’ajoute que dans le second cas ( le premier aussi mais moins) apple a fait un enorme travail en amont de plusieurs années pour adapter le software (metal par exemple) et les habitudes hardware (la ram soudée !) pour que le jour venu la transition se fasse « plus aisément »

avatar Nesus | 

@DahuLArthropode

Vous m’avez mal lu. Je ne parle que des 20% restant qui est la transition soft. Et cette transition soft avait mis plusieurs années avec Carbon, un peu moins d’années avec Rosetta et à peine deux ans avec Rosetta 2.

avatar DahuLArthropode | 

@Nesus

Peut-être vous ai-je mal lu. L’article en tout cas ne parle pas que d’un problème logiciel, mais aussi de puces peu performantes dans l’état actuel. La transition implique donc de mieux optimiser les processeurs développés sur cette architecture, si je n’ai pas aussi mal lu l’article.

avatar Nesus | 

@DahuLArthropode

Ça, ce sont les 80% dont je parle avant.

avatar DahuLArthropode | 

@Nesus

Si je résume votre pensée en vous relisant: si 80% des problèmes étaient réglés par des investissements adéquats, après, ça irait vite.
Mais d’après ce que je comprends, 80% représentent les4/5 des difficultés.

avatar Nesus | 

@DahuLArthropode

Je ne sais pas d’où vous sortez ce 4/5 eme.

avatar DahuLArthropode | 

@Nesus

Ça fait 80% :-)

avatar bozzo | 

@DahuLArthropode

Ça dépend de la taille des cinquièmes.

avatar DahuLArthropode | 

@bozzo

Vous êtes de Marseille? Vous voulez changer la recette du picon-citron-curaçao ?

avatar Nesus | 

@DahuLArthropode

Oui, merci, j’avais compris votre calcul, mais vous avez compté des carottes et des choux. Je parle de développement hardware et software et vous de problèmes. Il faut d’abord de la puissance et des processeurs qui valent plus de 50€ pour avoir de la puissance pour que le software puisse être correctement développé, que ça ait un intérêt de mettre du temps et de l’investissement. 100% du problème, c’est d’avoir un marché. C’est plus long et coûteux de dessiner des procs complets que de développer du soft. Surtout que la masse de travailleurs est incomparable (n’importe qui peut produire du code dans son garage) d’où le 80/20. La courbe de croissance étant totalement disproportionnée entre les deux investissements/temps, il est difficile de la comptabiliser autrement. Genre ffmpeg est un projet open source, (Fabrice Bellard, on t’embrasse).

Du coup, je ne sais pas d’où vous le sortez ce 4/5.

avatar DahuLArthropode | 

@Nesus

"Je parle de développement hardware et software et vous de problèmes."

Relisez votre premier commentaire au début du fil, et votre propre « 80% des problèmes ». Je maintiens ma première réponse, en ayant bien lu vos propos.
Tout le reste: J’ai cru alléger la conversation en faisant un peu d’humour. Pas plus. J’ai du mal à comprendre ce qui vous tient à cœur dans votre point de vue et qui mérite d’être défendu.

avatar Nesus | 

@DahuLArthropode

Ma phrase était beaucoup plus longue que cela. Il y avait une raison, mais effectivement en la tronquant, il est facile de déformer mon propos. Si j’ai fait l’ellipse sur : « problème [de développement] », le restant de ma phrase précise bien le propos.

J’expliquais que la courbe de production software s’est particulièrement développée et vous répondiez que ce n’était pas comparable, donc vous reniez la courbe de production, ce qui est une erreur. Sans compter que vous mélangez transition et changement, mais c’est une autre question (powerpc vers intel).

avatar InFunMatique | 

Ha Jonathan Hart !

avatar undidish | 

Merci pour cette série passionnante Pierre 🤓

avatar horatius | 

Comme toujours, série passionnante qui justifie pleinement mon abonnement. Merci Pierre et MacG.

avatar hptroll | 

Super série.

Est-ce que les deux points de l’article concernant les optimisations ne sont pas les mêmes ? Il me semblait que les compilateurs étaient désormais capables d’optimisation plus poussées que les humains. Quand les compilateurs seront au niveau, ils exploiteront aussi à fond les jeux d’instructions vectorielles, non ?

avatar fleeBubl | 

Une suite d’articles stimulante dont on distingue les enjeux d’ouverture qui dans le fond, sont très exigeantes.

Et à juste titre !

Ainsi va la Musique :
pour avoir la cadence, il faut sentir la cadence 🎼

CONNEXION UTILISATEUR