Intel abandonne déjà ses Compute Card

Stéphane Moussie |

Intel met un terme aux Compute Card, ses petites « cartes informatiques » destinées à alimenter toutes sortes de produits.

Image Tom’s Hardware.

« Nous croyons toujours que l’informatique modulaire est un marché où il existe de nombreuses possibilités d’innovation. Cependant, en examinant le meilleur moyen de saisir cette opportunité, nous avons décidé de ne pas développer de nouvelles Compute Card », a déclaré Intel à Tom’s Hardware.

À peine plus grosses qu’une carte de crédit, les Compute Card comprennent tous les composants nécessaires (processeur, RAM, stockage…) pour être le cœur de téléviseurs, tablettes et autres appareils électroniques.

Quand Intel les a présentées en 2017, leur principal argument était qu’il allait être possible de les remplacer dans le temps par de nouveaux modèles plus puissants. Un argument qui tombe à l’eau, puisqu’il n’y aura pas de nouvelle génération.

avatar JLG01 | 

Des promesses, encore des promesses qui n’engagent que ceux qui les font.

avatar Eltigrou | 

@JLG01

Sauf erreur de ma part, les promesses n’engagent que ceux qui les écoutent…
Je dis ça de façon cordiale et tout à fait amicale

😊

avatar xDave | 

@Eltigrou

Ceux qui y croient.

C’est une citation de politique. De Mr Henri Queuille.
3e république

avatar JLG01 | 

@Eltigrou

C’est volontairement délibéré.

avatar oomu | 

"possible de les remplacer dans le temps par de nouveaux modèles plus puissants"

mais surtout le concept est ABSURDE !

Évidemment que vous pouvez remplacer par "+ puissant" puisque vous changez quasiment TOUT l'ordinateur (manque juste l'écran et autre périphériques d'entrées/sorties, o joie de la flexibiltié et de la réutilisabiltié !)

Mais surtout:
- les interfaces d'interconnexion évoluent régulièrement (hé, faut bien justifier de vous revendre des appareils, et que l'industrie puisse se différencier de son concurrent), rendant ré-gu-liè-re-ment toute vélléité de mise à jour matérielle obsolète au bout de quelques années. Et cela très subtilement : (révision du bus, exigence d'alimentation en hausse, nouvelle "puce" contrôleur obligatoire, etc)

- le gag habituel : en imposant un format étriqué et standard, vous rendez problématique de faire évoluer les processeurs ou de risque de se retrouver dans une impasse d'ingénierie : le constructeur est infoutu de fournir un cpu "+ pwouiissant" sans augmenter les contraintes thermiques et ne réussissant pas à le caser dans le format défini des années auparavant sans restreindre absurdement la nouvelle puce.

Bref, régulièrement l'industrie fait le coup (c'est pas le premier format de cartes interchangeable, même si celui là était très petit, de promesse de machines "modulaires universelle et standard").

Et autres annonces que "ça y est, j'ai défini un nouveau format des Zordinateurs de demain pour tout le monde, y a juste à me payer , hé les mecs? les gonzes ? hé ho ? ".

Sur ce, je retourne lire la spécification CHREP.

avatar occam | 

@oomu

"Sur ce, je retourne lire la spécification CHREP."

L’édito d’Avram Piltch va dans votre sens, du titre :
https://www.tomshardware.com/news/intel-compute-card-bad-idea,38899.html
jusqu’à la dernière phrase :
« The question isn’t why it failed, but why companies keep tilting at windmills with a concept that doesn’t make sense in the 2010s and beyond. »

Si Stéphane Moussie l’avait cité, cela vous aurait évité de devoir délaisser la spec CHREP pour quelques précieux instants.

avatar oomu | 

honnêtement, j'avais plus envie de donner mon propre angle à l'ensemble que me reposer sur un article.

Cela dit, oui, si MacG avait repris et traduit le propos de l'édito, je n'aurais pas écrit ce commentaire brouillon et aurait consacré le temps économisé à méditer la spécification CHREP et l'échec du Network Computer de Sun/Oracle :)

Sur ce, j'ai un brouillon d'arguments frappés à écrire sur pourquoi Google Stadia est une catastrophe / banal / brillant / bullshit (les 4 simultanément).

avatar occam | 

@oomu

"honnêtement, j'avais plus envie de donner mon propre angle à l'ensemble que me reposer sur un article"

Ça, je n’en doute pas une seconde :)
Et j’ai bien aimé le ton de votre billet.

Mais la convergence était trop belle pour ne pas la signaler, et Avram ne mâche pas ses mots, lui non plus.

C’est pour cela que j’ai hâte de lire votre punch/counterpunch au sujet de Google Stadia, ça va tanguer !

avatar oomu | 

"C’est pour cela que j’ai hâte de lire votre punch/counterpunch au sujet de Google Stadia, ça va tanguer !"

je sais pas, pour l'instant, les conséquences à long terme de Stadia m'assomment. Me faut digérer. Et espérons que j'y arrive avant les annonces de Microsoft... :)

avatar rikki finefleur | 

oomu
SI les "les interfaces d'interconnexion évoluent régulièrement" aussi vite que vous le doites.
Il n'y aurait ni ordinateur portable , ni tel portable.. Ceux n'ayant que doit de vie 1 ou 2 années , ce n'est pas le cas.

Intel sous le format de cette carte a tout a fait raison.
Il est aujourd’hui absurde de laisser une machine avoir son propre os, son propre espace de stockage, alors que ceux ci ne nous appartiennent pas dans nos déplacements. Ce sont des machines du passé.

Mais c'est une voix future qui ne lui rapporte pas financièrement en comparaison de offre actuelles (processeurs) , d'ou sa volonté de ne pas trop pousser la chose. On en reparle dans dix ans, et nul doute que nous porterons dans une carte de crédit nos machines toutes entières, ou tout du moins une grosse partie.
Nos smartphones ont déjà remplacé une bonne partie de notre activité numérique, alors pourquoi doit on se plier a un os a l’intérieur d'une machine , alors que nous en disposons déjà d'un sur nous.

avatar oomu | 

"Il n'y aurait ni ordinateur portable , ni tel portable.. Ceux n'ayant que doit de vie 1 ou 2 années , ce n'est pas le cas."

je ne comprends pas cette phrase.

-
"Intel sous le format de cette carte a tout a fait raison."

tellement raison que ni l'industrie ni les clients ni les geeks ont suivi. et intel elle même a pas suivi.

-
"Il est aujourd’hui absurde de laisser une machine avoir son propre os, son propre espace de stockage, alors que ceux ci ne nous appartiennent pas dans nos déplacements. Ce sont des machines du passé."

hein ?

je ne comprends pas où vous voulez en venir.

Bien sur qu'une machine aura toujours son "os", c'est le logiciel qui anime la machine pour lui permettre d'exécuter des programmes et fournir des services à l'utilisateur.

Il n'existe aucune solution unique à tous les besoins et produits des multiples acteurs del'industrie (pas même Linux).

Donc oui y a des "os", firmware/systèmes d'exploitations et autres micro-codes.

Même si vous vous roulez dans la boue et que vous hurler "modernité, modernité je crie ton nom !"

"Mais c'est une voix future qui ne lui rapporte pas financièrement en comparaison de offre actuelles (processeurs) "

je ne comprends pas cette phrase.

"On en reparle dans dix ans, et nul doute que nous porterons dans une carte de crédit nos machines toutes entières, ou tout du moins une grosse partie."

hein ?

vous ne me comprenez pas.

Dire que "dans le futur les ordis seront super fins super cooooools", évidemment que cela surement le cas, sauf si le Soleil explose d'ici là (c'est pas prévu).

Mais c'est pas le point: Le projet d'intel était d'imposer un standard d'ordi "tout en un", basé technologies intel (c'est pratique pour intel ça) que le reste de l'industrie aurait simplement construit des "boitiers" ou "télé" et autres "consoles" qui se serait contenté de prendre l'intelligence vendue par Intel

Et disons que... hmmm... ben c'est con pour un industriel tel Samsung/Fujitsu/Lenovo/Apple/Hp/Hpe/Lg/Vizio/Nec/Sony/Microsoft/et ma grand mère d'abandonner leur commerce pour tout donner à intel.

Ainsi, et cela s'est vu peu de temps après le lancement, au delà des effets d'annonces et des habituels partenaire Intel qui font "oui oui", il n'y a eu quasiment aucun développement.

Et ce n'est pas la première fois qu'Intel tente ce gag d'essayer de vendre TOUTE LA SOLUTION elle même et d'aspirer le commerce de ses concurrents/partenaires. Cela va de "soc", de cpu intel fondu avec le controleur mémoire/gpu/réseau et autres tentatives de nuc.

Or ça ne décolle pas parce que:

- les clients ne suivent pas
- l'industrie n'a pas envie de se laisser bouffer, elle veut faire du pognon elle même.

c'est donc pas la "forme technologique" que vous devriez regarder, mais l'intérêt commercial et business de cette énième tentative d'imposer un format propriétaire d'ordinateurs.

avatar rikki finefleur | 

oomu

C'est simple, tu écris
" - les interfaces d'interconnexion évoluent régulièrement (hé, faut bien justifier de vous revendre des appareils, et que l'industrie puisse se différencier de son concurrent), rendant ré-gu-liè-re-ment toute vélléité de mise à jour matérielle obsolète au bout de quelques années."

Je te dis que c'est faux, sinon les smartphones ou ordi portable ou tout autre ordi auraient une durée de vie limitée a 1 ou 2 ans , ce n'est pas le cas. Ou alors tu t'es mal exprimé.

Quand au reste je ne suis pas sur qu'intel ait envie de pousser ce genre de format, pour s'auto flageller elle même , ou s'auto concurrencer pour un faible gain financier. . D’où son retrait.
Ce qui ne veut pas dire que l'idée de transporter sur soi de façon très petite son propre OS, sa propre interface de bureau ne sont pas l'avenir.

Les écrans d'ordi ne servant qu'a projeter cette image que l'on transporte.
Samsung est dans cette voie mais sans les moyens financiers et manquant encore de puissance au niveau technique, et un public pas encore assez réceptif.
D’ailleurs l'ensemble des constructeurs du hardware, n'ont aucun intérêt a généraliser ce format de miniaturisation extrême.

Bref, une toute petite firme avait bien inventé bien des concepts de l'iphone, sans avoir pu décoller. Le timing n'était pas le bon. Comme ici.

CONNEXION UTILISATEUR