Les nouveaux MacBook Pro codent les couleurs sur 8 bits

Anthony Nelzin-Santos |

Nous ne l’avons pas évoqué dans notre test, alors disons-le ici : si l’écran des nouveaux MacBook Pro prend en charge l’espace colorimétrique DCI-P3, il ne code pas les couleurs sur 10 bits. Contrairement aux iMac Retina 5K, et comme les iMac Retina 4K, les nouveaux MacBook Pro codent les couleurs sur 8 bits.

Ce que cela signifie ? Si les détails vous intéressent, vous les trouverez dans ce précédent article sur le sujet. Sinon, sachez simplement que l’écran des nouveaux MacBook Pro affiche « seulement » 16,8 millions de couleurs, alors qu’il pourrait en afficher plus d’un milliard s’il codait les couleurs sur 10 bits.

Soyons francs : sauf à ce que vous soyez un photographe prenant des fichiers RAW de 12 ou 14 bits, ou un graphiste travaillant sur des fichiers 16 bits, vous ne verrez probablement pas la différence. Alors que les deux modèles d’iMac diffèrent sur ce plan, les deux modèles de MacBook Pro sont logés à la même enseigne, aussi bien le 13 que le 15 pouces.

Si vous êtes un photographe prenant des fichiers RAW de 12 ou 14 bits, ou un graphiste travaillant sur des fichiers 16 bits, vous serez toutefois heureux d’apprendre que les nouveaux MacBook Pro gèrent parfaitement les écrans externes 10 bits. Le codage sur 10 bits prévient notamment le phénomène de banding, qui se manifeste par l’apparition de bandes dans des dégradés de couleurs très proches, comme dans l’étendue d’un ciel bleu.

Tags
avatar bluesteeleyes | 

et toi de celui qui n'a rien compris.
Maintenant, je ne suis pas étonné...

avatar Yohmi | 

@ bluesteeleyes
Je ne comprends pas non plus. Je ne m'en fiche pas éperdument. J'ai des éléments séparés. Je râle sur des « détails » techniques, ces fameux détails qui font la différence entre une machine pas chère et une machine à plusieurs milliers d'euros. J'ai également l'impression que tu mélanges tout, il y a des gens qui attachent de l'importance à ces détails, ce sont ces gens-là qui participent à l'image positive de certains produits (dont certains produits Apple). Et d'autres non, c'est normal.

J'avoue que cette news me surprend vraiment, et me déçoit. Mais j'attends d'en savoir un peu plus, car je ne comprends pas bien comment cela se traduit, l'écran à espace colorimétrique étendu fait partie des avancées importantes pour moi (et mes fichiers RAW 14 bits).

avatar Le docteur | 

"vous serez toutefois heureux d’apprendre que les nouveaux MacBook Pro gèrent parfaitement les écrans externes 10 bits. "
Encore un adaptateur ?

avatar calotype | 

Je ne suis pas un expert, mais pour que les gens comprennent:
Il y a deux choses à distinguer ici :
- Le gamut,ici P3 machin, qui représente ce que l'écran est capable de reproduire comme couleurs.
Imaginez un cercle avec dedans toutes les couleurs ou plutot les teintes. Le blanc est au centre et plus on s'écarte vers l'extérieur plus l'on va vers une couleur de plus en plus saturée. Il n'y a pas de noir.
Pour faire simple,les principaux gamuts - sRVB, AdobeRVB, P3 - sont " concentriques", c'est a dire que le P3 est celui qui peut reproduire le plus de couleur saturée ( on parle de couleurs qui sont franchement très colorées presque " fluo" ), il englobe le AdobeRVB qui est un peut plus petit , lui même englobant le sRVB qui est le plus petit.
Pour vous faire relativiser les choses, aujourd'hui les impressions photos classique ont une capacité de reproduction des couleurs à la ramasse , leur gamut est plus petit que le sRVB en bouffant les teintes les plus saturées.
Alors bon c'est bien beau toutes ces histoires mais on parle de capacités qui aujourd'hui sont enfermées dans le monde numérique des écrans.

- Le codage des couleur sur 8, 10, 12 ou encore 14 bits conditionne le nombre de nuances entre deux teintes.Effectivement comme souvent expliqué, le seul moyen de le voir c'est sur un dégradé. Dans l'esprit des gens un dégradé se doit d'être lisse, avec évolution continue d'une teinte. Mais en numérique ce n'est pas possible. L'évolution est discontinue. A 8 bits l'évolution est limite et elle est visible sur un dégradé, ce qui produit des cassures. A 10bits elle ne le sera plus. La différence entre les deux est visible sur notre dégradé qui sera , pour nos yeux , parfait. Mais elle est en réalité énorme et se fait ressentir en terme de poids de fichiers et de puissance de calcul requise.

Enfin il faut penser qu'un fichier possède les données, et un écran les traduits. Et que les un dépendent des autres, d'où la notion de chaine graphique.

avatar Alberto8 | 

Bon c'est clair maintenant, son nom est MacBook tout court.

avatar hugome | 

@Un Type Vrai

Tu délires un peu sur la HiFI. Dans les années 80 & 90, les gens s'achetaient des chaînes pour le prix d'un iPhone ou deux, et la qualité était nettement supérieure à ce qu'on trouve aujourd'hui au rayon Bluetooth de la Fnac.

Pages

CONNEXION UTILISATEUR