Des processeurs capables de se tromper et plus rapides

Anthony Nelzin-Santos |
skitchedLes processeurs capables de se tromper sont plus rapides ou plus économes : c'est la conclusion des travaux d'une équipe de chercheurs de l'Université de Rice (Houston, Texas) menée par Krishna Palem. L'idée n'est pas de rendre nos ordinateurs moins fiables : elle vise plutôt à simplifier les circuits de puces dans des appareils communs où l'introduction d'erreurs n'est pas particulièrement grave.

L'équipe de Palem a par exemple mis au point un processeur de signal destiné aux prothèses auditives, présenté à la conférence DATE de Grenoble. Dans cette puce, les transistors chargés d'assurer l'absence d'erreurs ont tout simplement été retirés, ou du moins simplifiés : « je crois que c'est la première fois que quelqu'un regarde un circuit imprimé et dit "retirons les choses dont nous n'avons pas besoin" », sourit Palem.

« Nous avons montré que nous pouvons améliorer les performances tout en réduisant la consommation en rabotant les parties dispensables des ASIC », les processeurs spécialisés, ici dans le traitement de l'audio et de l'image. Les chercheurs estiment que d'ici la fin de leurs tests, ils seront parvenus à multiplier par deux les performances tout en divisant par deux la consommation.

Le taux d'erreur, lui, ne dépasse pas 8 % : Palem travaille depuis longtemps à l'application des concepts de la logique floue et de la probabilité bayésienne à la vérification d'erreurs dans les processeurs, qui utilisent traditionnellement la logique booléenne. Il faut cependant que les applications envisagées puissent tolérer l'introduction d'erreurs : l'équipe de l'Université de Rice se concentre donc pour le moment sur des processeurs hautement spécialisés comme les circuits des prothèses auditives. En théorie, le cerveau peut reconstituer les informations qui pourraient venir à manquer à l'échelle de la microseconde, et dans la pratique, l'autonomie serait quatre à cinq fois meilleure. « On gagne bien plus que ce que l'on perd » résume Palem.

De premiers designs de circuits pour les prothèses auditives utilisant les travaux de Palem devraient être présentés d'ici la fin de l'année. Ensuite, les chercheurs devraient s'attaquer à des processeurs plus complexes. On pourrait imaginer, au bout de la route, des smartphones bien plus économes et bien plus puissants : les SoC (systèmes sur puce) qu'ils utilisent sont de gros processeurs spécialisés.
Tags
avatar jantiochus | 
Ce serait vraiment incroyable!!! Tous nos appareils auraient un rapport performance/autonomie beaucoup mieux!!!
avatar itralala | 
Le premier processeur de ce genre a été testé à Tchernobyl. D'autres chercheurs du côté de Fukushima font des tests équivalents. Pfff. J'suis même pas drôle.
avatar Rigat0n | 
@ itralala : Non, même pas.
avatar Bibotonio | 
La perfection est atteinte non pas losqu'il n'y a plus rien à ajouter, mais lorsqu'il n'y a plus rien à retirer. Qu'il paraît...
avatar treizep | 
Intel avait ouvert cette voie avec ses premiers Pentium il me semble (bon je sors...).
avatar sebastiano | 
@treizep : AMD s'est même spécialisé là-dedans, au fil du temps ...
avatar béber1 | 
à partir de Defcon 3, c'est eux qui prennent le relai
avatar oomu | 
Si je comprends bien il s'agit de supprimer des circuits qui vérifient qu'il n'y a pas des erreurs de copie de données et autre redondances. Pourquoi pas si l'application ne se soucie pas des risques habituels de corruption de données qui arrive parfois dans les cpu et les mémoires.
avatar Pascal 77 | 
Le concept n'est pas neuf, je me souviens d'un article dans les années 90 sur la "logique floue", ou (en simplifiant à l'extrème, on remplace "oui" (1) et "non" (0) par "oui", "non" et "peut-être", ou la génération d'erreurs permettait de rendre les processus plus fiables … Va comprendre, Charles ! :-)
avatar Neurotron | 
C'est comme une secrétaire ! Vous voulez qu'elle tape vite avec des fautes ou tapes lentement en se relisant pour vérifier qu'il n'y a pas de faute ? C'est un choix… Le problème est plutôt au niveau de l'OS et des applis qui doivent être tolérantes aux pannes. Mais en gros, je vois un truc du genre « la fonction ne fait rien » au lieu de « la fonction provoque un plantage ».
avatar abstract | 
Comme les êtres humains et les cyborgs
avatar tanpax | 
L'université où l'on mange du riz. Bon ok c'était trop facile. Fallait que je la fasse celle la.
avatar Simeon | 
@ Pascal 77 le oui, non et peut être, correspond simplement à une logique trivalente (sans tiers exclu). La logique floue utilise une variante du concept d'appartenance de la théorie des ensembles classique.
avatar oomu | 
@Neurotron [23/03/2011 17:43] c'est quand le faible nombre d'erreur se remarque pas dans le résultat. un exemple, si à l'écoute d'une musique il y parfois une erreur dans le décodage, mais qu'à l'oreille elle est si infime qu'on peut pas l'entendre, il n'est pas besoin de la corriger et de mettre l'électronique derrière. Il suffit donc de connaître le taux d'erreur moyen des composants pour savoir si on peut se passer des corrections.
avatar Ali Ibn Bachir Le Gros | 
Microsoft a mis au point une couche logicielle qui modifie le fonctionnement du processeur pour atteindre le même résultat. La version 7 est sortie il n'y a pas longtemps.
avatar Kewl | 
Ces vramnt bie l'itoduton deeur e nfrmatqu..
avatar Neurotron | 
@ oomu Pas tout à fait. Les erreurs peuvent s'entendre non pas si elles sont peu nombreuses, mais quand leurs valeurs ne diffèrent pas trop de la moyenne. Dans ton exemple du son, quelques erreurs mais avec un différentiel très important ça peut faire des « plops ». Alors que plus d'erreurs mais de moindres valeurs ne vont pas s'entendre. C'est le principe des compressions : on tolère beaucoup d'erreurs, mais seulement si elles sont de faibles valeurs.
avatar philik | 
@Simeon : ha bin oui ! Expliqué comme ça, c'est limpide !! :-)
avatar Un Vrai Type | 
@Neurotron : Pour les couleurs, surtout en informatique, on a été habitué à un flou global (le bleu-vert est bleu sur certains écrans, vert sur d'autre, parfois même rose...). Pour le son, on a commencé par des "tchac" désagréables et finalement, on a opté pour des "modèles acoustiques" (on retire ce que l'oreille ne peut en théorie pas entendre pour mieux compresser). Mais il me semble qu'une fausse note nous fera bondir plus facilement qu'une fausse couleur (à cause du référentiel manquant pour la couleur, on ne connait pas celle que l'auteur veut appliquer, alors que la note, elle DOIT être dans une gamme restreinte dont l'oreille est habituée). Ce qui est vrai pour la musique ne l'est pas pour la voix (le cerveau compensant).
avatar ErGo_404 | 
Tom's Hardware parle aussi de smartphones, je ne comprends pas pourquoi. L'audio et éventuellement la vidéo à destination de l'être humain peuvent subir des pertes dans certaines conditions, mais du reste, la grande majorité de l'utilisation qu'on fait d'un processeur c'est du calcul déterministe, autrement dit la moindre erreur est intolérable. C'est pas pour rien qu'on a ajouté des circuits de contrôle d'erreur justement. On ne va pas améliorer tous les processeurs en supprimant la gestion des erreurs. Tout au plus certains DSP profiteront de cette amélioration, mais c'est tout.
avatar etx2 | 
Il me semble que c'est un peu comme cela que fonctionne le cerveau humain. Quand on voit une personne on se dit il fait 1m80 (a peu près) pluto "fort" (a peu pres 90kg), cheveux gris => ça doit être mon père.... C'est le nombre de test qui est important et pas la précision de chaque test individuel. Enfin je dis cela... je suis a peut près sur de dire des bêtises :d))))
avatar BlueVelvet | 
MAIS QU'EST CE VOUS DITES?
avatar dariolym | 
En gros, c'est tout l'inverse du Pentium4 à qui les erreurs coutaient un max de temps :)
avatar sield | 
Google le fait déjà avec ses traductions ;-)
avatar noAr | 
Je cherchais depuis un bail à employer le terme "sexy" de manière pertinente.

CONNEXION UTILISATEUR