Le microprocesseur est vieux d'un demi-siècle

Jean-Baptiste Leheup |

Il n'y a pas que chez Apple qu'on fête des anniversaires cette année. Après les 20 bougies de Mac OS X et de l'iPod, les 30 bougies du PowerBook et les 40 de l'installation d'Apple en France, c'est au tour d'Intel de fêter rien moins que les 50 ans de son premier microprocesseur, le fameux 4004.

Comme la marque le raconte sur son site, le 4004, premier microprocesseur commercialisé, est né d'une réflexion sur un projet de calculatrice pour laquelle Intel était un simple sous-traitant. En 1969, la société Nippon Calculating Machine Corporation (NCMC) avait passé commande à la toute jeune Intel, créée l'année précédente, d'une série de puces pour animer une petite calculatrice à imprimante.

avatar totoguile | 

C’est fou, 50 ans plus tard on reste sur le même schéma de cpu/ram/rom , avec bcp plus de complexité , de transistors, de puissance, mais toujours ce trio de base. C’était vraiment révolutionnaire a l’époque 😀

avatar raoolito | 

@totoguile

le pire c’est que lorsque l’on lit cela:
"Grâce à l'utilisation du silicium à la place des anciennes techniques de grilles en aluminium, ce processeur était deux fois plus dense que les puces qu'il remplaçait, avec des circuits d'à peine dix microns de largeur, dix fois moins qu'un cheveu ! Cette petite plaque de douze millimètres carrés, avec ses seize broches, renfermait une puissance de calcul comparable à celle de l'Eniac, un monstre de trente tonnes conçu vingt-cinq ans plus tôt. »

ben ca a air de deja entendu et, disons tres récent :D ?

avatar frankm | 

@totoguile

Comme le cerveau humain donc

avatar YetOneOtherGit | 

@totoguile

"C’est fou, 50 ans plus tard on reste sur le même schéma de cpu/ram/rom"

C’est encore plus fous: les principes architecturaux restent ceux posés en 45 par von Neumann et quelques autres personnes de cette époque.

Rien de fondamental n’a changé depuis 😉

avatar totoguile | 

@YetOneOtherGit

Sans oublier Boole et son algèbre 😀

avatar YetOneOtherGit | 

@totoguile

"Sans oublier Boole et son algèbre 😀"

J’ai peu abordé les fondements mathématiques ici 😉

Au passage je recommande un sympathique documentaire sur Georges Boole sur Arte actuellement

avatar YetOneOtherGit | 

@totoguile

"Sans oublier Boole et son algèbre 😀"

Désolé j’avais pas mis la présentation hiérarchique et j’ai cru que tu commentais mon autre contribution 😉

avatar orgongansol | 

Merci Macg pour la qualité substantielle de vos articles. +10000 pts de karma !

avatar Iounmoutef | 

Une fois encore, un article clair et bien documenté. Cela vaut la peine de payer son écot pour, outre l’actualité finement analysée et décryptée, pouvoir lire plein d'articles de ce même tonneau. Merci.

avatar RonDex | 

Merci pour cet article. Je serai vraiment très curieux de connaître l’évolution durant les prochaines décennies… vu l’évolution exponentielle de l’informatique : performance, miniaturisation, logiciel, Appareil photo du smartphone, etc.
Très difficile de s’imaginer le paysage high-tech dans les prochaines décennies. Il y a 30 ans, on aurait jamais pu imaginer le paysage high-tech actuel avec l’évolution ahurissant du matériel, logiciel, services etc. de plus en plus puissant, notamment grâce à Internet.
Je me demande quelle sera la prochaine grande révolution comparable à Internet.
Pour ma part, je suis certain (dupuis une petite dizaine d’années) que la prochaine révolution/amélioration au niveau des ordinateurs portables (a court/moyen terme) serait l’évolution des clavier mécanique (dernière pièce mécanique !) vers des écrans tactiles avec retour haptique (avec des écrans pliables au niveau de la charnière). On aurait des possibilités génial. Le clavier qui se configure différemment en fonction de la situation, l’utilisation d’un stylet pour prendre des notes, une surface d’affichage énorme. Et on aurait plus de problème, style clavier papillon !😁 en gros, un genre de gros Touch Bar 😜.
Il y a eu déjà il y a quelques années un prototype de ce genre. Mais il était très lourd, et Windows n’était pas du tout adapté (d’où l’avantage d’ Apple avec le matériel et le logiciel). Ça restait un prototype. Mais c’était très prometteur. Je n’ai plus de lit en tête.

avatar iChris015 | 

@RonDex

Le paysage high-tech des prochaines décennies ?!
Il est certainement préférable de ne pas y penser.
L’intelligence artificielle va tous nous bouffer.

C’est donc peut-être l’intelligence artificielle qui sauvera notre planète.

avatar sebasto72 | 

@iChris015
« L’intelligence artificielle va tous nous bouffer. »
Rien que ça !

avatar RonDex | 

@iChris015

Puisqu’on est beaucoup entrain de regarder Fondation d’Isaac Asimov, et/ou le lire ou le relire :
https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique
😅

avatar fte | 

@iChris015

"L’intelligence artificielle va tous nous bouffer."

C’est le classique mythe de la perte de contrôle de la création par son maître.

C’est le même mythe que le syndrome du rétroviseur : c’était mieux avant, dans le sens où ses origines sont très similaires. La peur du changement, des évolutions, ici technologiques.

L’homo a inventé la technologie il y a 3+ millions d’années. Nous sommes technologie. Plus que toute autre caractéristique, c’est notre capacité à créer de la technologie et notre dépendance à la technologie, qui nous distingue des autres espèces animales, primates en particulier.

En 3 mio d’années, nous n’avons pas perdu le contrôle de nos massues, chaussures ou tentes en peau de mammouth, silex, poteries, champs de blé, hauts fourneaux, imprimeries à caractères mobiles, ou téléphones portables.

Il faudrait un niveau d’intercontrôle très très supérieur à ce qui existe ou existera dans les décennies qui viennent pour s’approcher d’un point ou une hypothétique perte de contrôle ne puisse être stoppée en tirant la prise.

Car oui, il suffit de tirer la prise.

avatar iChris015 | 

@fte

« Car oui, il suffit de tirer la prise. »

Mort de rire.

avatar bl@ck warrior_69 | 

Y a encore pas mal de boulot quand même pour en arriver la, si on y arrive un jour... (Interview plutôt intéressante de Luc Julia, l'inventeur de Siri qui parle de ça justement : https://www.youtube.com/watch?v=FSl8uMo7SzA)

avatar pat3 | 

@bl@ck warrior_69

Je suis en train de l’écouter, mais j’ai toujours du mal avec Julia, parce quand tu l’écoutes il donne toujours l’impression qu’il a tout inventé…

avatar YetOneOtherGit | 

@pat3

"parce quand tu l’écoutes il donne toujours l’impression qu’il a tout inventé"

Un vrai Git comme beaucoup de bons de l’informatique 😁

On fait pas de pas de la bonne technologie avec de bons sentiments 🥸

avatar YetOneOtherGit | 

@iChris015

"L’intelligence artificielle va tous nous bouffer."

L’intelligence artificielle c’est sur Power Point, le ML sur Python 😄

Il y a tellement de bullshit sur l’IA 😉

avatar totoguile | 

@RonDex

C’est intéressant ce que tu dis, parce que ça a un peu à voir avec la réalité augmentée : comment avoir une sensation de touché avec un écran? Je me disais qu’Apple travaillait un aspect de la RA assez important avec l’audio et l’audio spacial intégré a de plus en plus de systèmes audio d’Apple.
On verra dans 10 ans, mais on aura peut être un casque sur la tête et des écouteurs dans les oreilles :-)

avatar RonDex | 

@totoguile

Merci. Réalité augmentée, intelligence artificielle… Difficile de prédire vers quoi on va s’orienter, et quelles seront les usages.

avatar pocketalex | 

@Ron Dex

"Pour ma part, je suis certain (dupuis une petite dizaine d’années) que la prochaine révolution/amélioration au niveau des ordinateurs portables (a court/moyen terme) serait l’évolution des clavier mécanique (dernière pièce mécanique !) vers des écrans tactiles avec retour haptique "

Ce genre de "révolution" c'est les "chevaux plus rapide" que l'on demandait à Ford

Un clavier amélioré n'est en rien une révolution. Cela restera un clavier... en plus couteux, et une hérésie : une UI dont les fondamentaux changent au gré des apps ou de l'OS ... hérésie parfaitement soulignée par la touch bar.

Pour ma part, je pense que trois révolutions nous attendent et vont radicalement changer notre utilisation de l'outil informatique (qui va disparaitre) = l'IA, l'AR et la VR

avatar pat3 | 

@RonDex

"Très difficile de s’imaginer le paysage high-tech dans les prochaines décennies. Il y a 30 ans, on aurait jamais pu imaginer le paysage high-tech actuel avec l’évolution ahurissant du matériel, logiciel, services etc. de plus en plus puissant, notamment grâce à Internet"

Je vais me permettre d’être un peu moins enthousiaste : oui, on fait dès choses formidables aujourd’hui, mais ça fox ruinée avec beaucoup d’injonctions et de régressions : par exemple, je téléphonais depuis mon ordinateur sans difficulté en 1997 (et pourtant c’était un Performa 6400 😉), mon courrielleur (Eudoraaaaah) était modulable, facilement programmable, gérait facilement l’envoi de mail différé…
Globalement l’industrie n’a cessé de progresser, individuellement je n’ai cessé de rencontrer de plus en plus de difficultés pour faire ce que je faisais avant avec facilité. J’ai plus d’injonction (automatisées qui plus est), de barrières, de contraintes pour gérer mon quotidien, plus d’objets redondants, plus de complexité d’interconnexion (il y a quinze ans, sur Mac, on branchait et ça marchait vraiment, sans mot de passe et relevé d’empreintes digitales.
Alors oui, on peut fermer ses volets depuis sa voiture et faire tourner son aspirateur depuis le boulot (et certes aussi opérer à distance à cœur ouvert, ce qui est déjà plus fondamental), mais on peut aussi envoyer dès tonnes de merdes derrière son écran, et passer 24h d’affilée derrière sa console. Le progrès a sa dose de gaspillage, et vu ce qu’on sait faire maintenant, je n’ose penser à ce qu’on sera capable de faire avec un ordi quantique dans les mains.

avatar max intosh | 

@RonDex

Prévision classique, mais ce devrait être un mini implant dans le cerveau et connecté qui sera l’avenir.

avatar YetOneOtherGit | 

@RonDex

"Très difficile de s’imaginer le paysage high-tech dans les prochaines décennies."

Pour s’en convaincre il suffit de lire les travaux de prospective d’il y a des décennies: on se trompe toujours sur des projections à long terme 😉

avatar laurent_iMac | 

Habituellement ce type d'invention se fait en temps de guerre, ici ce n'est pas le cas, pour simplement aider au calcul d'une calculatrice, on n'ose pas imaginer si cela avait été pour un hachoir a viande ou pour un bête réfrigérateur !!! Il nous tiendrais un discours sur l'art et la manière de conserver un aliment ?

avatar YetOneOtherGit | 

@laurent_iMac

"Habituellement ce type d'invention se fait en temps de guerre, ici ce n'est pas le cas"

l’acceleration fulgurante du passage de la mécanographie à l’informatique programmable est clairement issue de la WWII avec des investissements massifs sur ces technologies qui ont donné après guerre les premières machines de laboratoire puis les premières machines commerciales (UNIVAC I en 1951)

L’informatique moderne est né de la guerre avec d’une part les efforts de crypto-analyses et d’autres part l’exploration technologique dans tous les champs portée par une des plus grandes partouze de neurones de l’histoire de l’humanité : le projet Manhattan.

Quand aux efforts qui ont conduit à la création des circuits intégrés et des premiers micro-processeurs il doivent beaucoup à une autre forme de guerre : la guerre froide.

Avec d’une part la course à l’espace qui a cumulées avec Apollo et d’autres part les financements généreux de la recherche et de l’industrie part la DARPA.

La silicon valley doit énormément dans sa naissance aux financements militaires.

Et pour remonter dans le temps : la machine de Babbage qui donna à Ada Lovelace l’occasion de poser les fondements de la programmation existé et était financée pour des intérêts militaires : la production automatisée de tables de tire pour les canons.

Il n’y a sans doute que l’émergence de la mécanographie qui fut portée par des enjeux plus civile : l’obligation constitutionnelle aux USA de recenser la population pour adapter la représentation à la chambre des représentants (Le recensement de 1890 qui fut menée par Hollerith dont l’entreprise deviendra après quelques aventures un des éléments constitutifs d’IBM en 1911)

avatar fte | 

@YetOneOtherGit

"Il n’y a sans doute que l’émergence de la mécanographie qui fut portée par des enjeux plus civile"

Si tu regardes d’un peu plus près, tu verras qu’il y a quantité d’inventions qui ne sont que purement civiles. La majorité des énergies par exemple ont eu des débuts civils : le feu, la vapeur, l’électricité, les moteurs thermiques…

Il ne faut pas sous-estimer l’influence du militaire, mais il ne faut pas non plus le sur-estimer. Et il y a aussi le religieux. C’était une autre époque. Mais n’empêche.

avatar YetOneOtherGit | 

@fte

"Si tu regardes d’un peu plus près, tu verras qu’il y a quantité d’inventions qui ne sont que purement civiles"

Là je me cantonne dans le cadre du traitement de l’information 😉

avatar pat3 | 

@YetOneOtherGit

"la machine de Babbage qui donna à Ada Lovelace l’occasion de poser les fondements de la programmation existé et était financée pour des intérêts militaires : la production automatisée de tables de tire pour les canons."

Je n’arrive vraiment pas à comprendre comment îtunpeux faire de telles fautes d’orthographe. C’est mystérieux pour moi.

avatar YetOneOtherGit | 

@pat3

"C’est mystérieux pour moi."

C’est un talent 🤓

avatar fte | 

@laurent_iMac

"Habituellement ce type d'invention se fait en temps de guerre, ici ce n'est pas le cas,"

Crois-tu ?

Nous sommes perpétuellement en guerre… économique.

Tu croyais que c’était de la coopération gentillette ?

avatar YetOneOtherGit | 

@fte

"Crois-tu ?
Nous sommes perpétuellement en guerre… économique."

Dans l’histoire des technologies ont peut isoler des moteurs de l’innovation assez invariants :
- Le commerce
- La finance
- La productivité
- La conquête
- La guerre
- Les fonctions régaliennes

Et en paraphrasant Clausewitz : La guerre n’étant la continuation de tout les reste par d’autres moyens 🥸

avatar YetOneOtherGit | 

Et pour ceux qui comme moi aiment l’histoire de l’informatique : le manuelle de programmation du 4004 🤓

http://bitsavers.trailing-edge.com/components/intel/MCS4/MCS-4_Assembly_Language_Programming_Manual_Dec73.pdf

avatar tibcheshire | 

Je me suis toujours demandé, déjà à l’époque comment ils faisaient pour fabriquer/ graver des puces aussi petites, quels outils leur permettaient ça ??

avatar Jean-Baptiste Leheup | 

@tibcheshire

Excellente question ! Le principe est le même que pour la diapositives argentique ou les vidéoprojecteurs, avec une surface photosensible et un « masque » projeté dessus. Sauf que dans le cas des processeurs, les lentilles réduisent l’image projetée.

Voici une vidéo explicative d’Intel :
https://youtu.be/4oQoZF_KRCc

Et une page de l’institut de recherche en informatique fondamentale :
https://www.irif.fr/~carton/Enseignement/Architecture/Cours/Production/

avatar pat3 | 

@j-b.leheup

Excellente réponse !! Merci!

avatar DamienLT | 

@j-b.leheup

Merci beaucoup pour les liens c’est super intéressant 🙏🏼

avatar YetOneOtherGit | 

@tibcheshire

"Je me suis toujours demandé, déjà à l’époque comment ils faisaient pour fabriquer/ graver des puces aussi petites, quels outils leur permettaient ça ??"

en caricaturant à peine : comme aujourd’hui, mais avec des moyens moins avancés, grâce à de la Photolithographie

https://fr.wikipedia.org/wiki/Photolithographie

avatar elec | 

« le 6502 de MOS Technology, un clone à bas coût du 6800 que Motorola avait conçu pour s'attaquer au marché créé par Intel. »

Alors non ! Un microprocesseur 8 bits n’est pas un « clone » d’un processeur 16/32 bits, surtout quand il a été créé 4 ans avant ce dernier !

MOS Technology 6502 sorti en 1975
Motorola 68000 sorti en 1979.

Le 6502 a été sélectionné par Apple pour son Apple 1 en 1976 (puis l’Apple II l’année d’après) surtout parce qu’il n’était pas cher.
C’était à l’époque, et pour longtemps encore, le microprocesseur qui équipait les .. claviers des bornes d’arcade !

avatar YetOneOtherGit | 

@elec

"Alors non ! Un microprocesseur 8 bits n’est pas un « clone » d’un processeur 16/32 bits, surtout quand il a été créé 4 ans avant ce dernier !
MOS Technology 6502 sorti en 1975
Motorola 68000 sorti en 1979."

Si ce n’est que l’article parle du MC 6800 lancé en 1974 pas du 68000 😉

https://en.wikipedia.org/wiki/Motorola_6800

Le 6502 fut conçu par le grand Chuck Peddle qui était aussi un des pères du 6800 chez son employeur précédent: Motorola.

Et effectivement MOS réussi à produire un processeur très semblable au 6800 le 65001 mais coûtant 12 fois moins cher.

Cela value à MOS un beau procès de Motorola passablement énervé 😄

Toujours faire attention quand on se lance dans un péremptoire “Alors non !” la rédaction de MacGe fait un travail sérieux, tu aurais peut-être gagné à vérifier sérieusement 😉😎

avatar YetOneOtherGit | 

@YetOneOtherGit

« 65001»
6501 évidemment faute de frappe 😉

avatar elec | 

@YetOneOtherGit

Oups.. my bad j’avais mal lu.. 6800 évidemment ça change tout !
Merci d’avoir rectifié

avatar YetOneOtherGit | 

@elec

"Oups.. my bad j’avais mal lu.. 6800 évidemment ça change tout !"

ça nous arrive à tous 😉🖖

CONNEXION UTILISATEUR