L’iMac Retina 5K passe à 10 bits, pas l’iMac Retina 4K

Anthony Nelzin-Santos |

« Les iMac apprennent à coder les couleurs sur 10 bits », proclame le blog Mac & i, relayé par MacBidouille. Après vérification pourtant, il semble que les choses soient plus compliquées qu’il n’y paraît. Si notre iMac Retina 5K code bien les couleurs sur 10 bits, ce n’est pas le cas de son petit frère l’iMac Retina 4K.

Ce que cela change ? L’écran de l’iMac Retina 4K fin 2015 est un écran ARGB8888, ce qui signifie que chacun de ses pixels est défini par quatre bytes de huit bits, autrement dit quatre octets. Le byte A code la transparence (alpha), R le rouge, G le vert (green), et B le bleu. Chacun de ses bytes contient huit bits, ce qui signifie qu’il peut « stocker » 256 valeurs. La transparence n’étant utilisée qu’au calcul, l’écran peut donc afficher 256x256x256 couleurs, soit 16,8 millions de couleurs(*).

Les informations système d’un iMac Retina 4K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur huit bits.
Les informations système d’un iMac Retina 4K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur huit bits.

L’écran de l’iMac Retina 5K fin 2015 est un écran ARGB2101010 : la couche alpha est codée sur deux bits, tandis que chacune des couleurs primaires est codée sur dix bits. Ces 10 bits permettent de « stocker » 1 024 valeurs : l’écran peut donc afficher 1 024x1 024x1 024 couleurs, soit plus d’un milliard de couleurs. Cette plus grande précision prévient notamment le phénomène de banding, qui se manifeste par l’apparition de bandes dans des dégradés de couleurs très proches, comme dans l’étendue d’un ciel bleu.

Cette fois-ci, les informations système d’un iMac Retina 5K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur dix bits.
Cette fois-ci, les informations système d’un iMac Retina 5K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur dix bits.

Nous avions mesuré une légère différence entre l’écran de l’iMac Retina 5K et celui de l’iMac Retina 4K, mais pas suffisante pour qu’elle puisse être considérée comme sensible, au contraire de leurs problèmes d’uniformité (lire : Test de l’iMac 21,5" Retina 4K (fin 2015)). Nos outils sont-ils défaillants ? Le signal DCI P3 est-il compressé sur le modèle 21,5 pouces ? Difficile de le dire à ce stade. Une chose est sûre : le gain est d’autant moins visible que les systèmes OpenGL sont encore limités à 8 bits dans la plupart des cas, et qu’il faudra sans doute attendre des optimisations avec Metal pour profiter pleinement du codage sur 10 bits.

Reste que les photographes prenant des fichiers RAW de 12 ou 14 bits et les graphistes travaillant sur des fichiers 16 bits attendaient avec impatience cette avancée, d’autant plus que les PC prennent en charge les écrans 10 bits depuis Windows 7. Mieux : les écrans 10 bits reliés à l’iMac Retina 5K fin 2015 sont désormais pleinement gérés par OS X El Capitan. Selon Mac & i, cette prise en charge s’étend même aux iMac Retina 5K fin 2014, qui passent de 8 à 10 bits avec OS X 10.11.1. Nous n’avons malheureusement pas le matériel nécessaire pour vérifier ces deux dernières informations.

(*) Les choses sont encore plus compliquées en réalité, mais ce résumé suffit largement pour comprendre la différence.

avatar Lopokova Lydia | 

@Mémoire Cache

Tu es libre de tes appréciations, qui j'en ai peur ne vallent pas mieux que l'ensemble de tes propos.

Pour le reste, je ne suis pas ici en recherche de légitimité, d'estime ou de considération... ce ne sont pas mes enjeux.

D'autant moins venant d'un fat prétentieux de ton espéce.

Ton propos est tellement idiot, ton acharnement à le defendre tellement psychotique, ton attitude face à tes nombreux contradicteurs tellement infantile, névrotique et odieux....

Qu'il n'y a nullement là matière a essayer de te donner les éléments qui te manquent et te permettraient de prendre un peu de hauteur pour enfin comprendre ce dont tu parles ... tu n'es pas là pour cela mais juste te rassurer sur ta stature.

Bref de tel propos se condamnent, une telle attitude se dénonce et celui qui les portes ne mérite qu'être rappellé à sa vacuité de baudruche prétentieuse.

L'échange constructif se mérite et tu es très loin de mériter autre chose que le plus profond mépris ou au mieux la compassion et la pitié.

avatar Un Type Vrai | 

Sophisme :
En 8 bits, nous avons à disposition 16,8 millions de couleurs.
L'oeil humain peux distinguer 2 millions de couleurs.
Donc inutile d'aller plus loin.

En réalité :
Selon les humains, les 2 millions de couleurs perçues ne sont pas les mêmes.
Rien ne garantie que les 16.8 millions couvrent les 2 millions de chaque humain (qui eux sont des millirads).

Exemple :
- Un gris parfait sur un écran sera souvent vu "légèrement vert" (les écrans corrigent cet effet)
- Un bleu-vert sera percu comme bleu-vert, franchement bleu ou franchement vert selon l'humain qui regarde.
- Entre deux dalles parfaitement calibrée, la même couleur va varier selon la technologie de la dalle (sur certaines nuance de couleurs)

Enfin, nous l'avons vu avec la compression audio (7bits vs 8bits pour la voix par exemple) : Aller plus loin que la perception apporte du confort (c'est bizarre, mais c'est comme ça, 30 images/s donnent mal au crane, 120images/s c'est plus confortable que 60 i/s...)

Bref, ptet ben ksé de la merde.
Mais ptet ben que non...

avatar iDanny | 

@Un Type Vrai :
Yep mais attention, un échantillonnage trop précis peut entraîner des artefacts sonores ou d'autres effets négatifs que j'ai plus en tête là à froid... Faudrait rouvrir la boîte de Pandore du débat sur les formats audio :)

Faites péter les SACD, Yeeaaaah !!! :))

avatar Mémoire Cache | 

"En 8 bits, nous avons à disposition 16,8 millions de couleurs.
L'oeil humain peux distinguer 2 millions de couleurs.
Donc inutile d'aller plus loin."

Euh... ouais... bah c'est ce que je dis...
Par contre si on descend sous les 8 bits, l'écran affichera moins de 2 millions de couleurs et là ça ne va plus.

"Selon les humains, les 2 millions de couleurs perçues ne sont pas les mêmes.
Rien ne garantie que les 16.8 millions couvrent les 2 millions de chaque humain (qui eux sont des millirads)."

Ouais, va dire ça aux scientifiques qui ont fait l'étude. Je pari qu'ils n'y ont pas pensé....

"Aller plus loin que la perception apporte du confort"

J'ai entendu cette légende concernant l'audio (une enceinte allant jusque 30 000 hz = meilleure confort bla bla bla) ça reste à prouver.
De toute façon la question ne se pose pas ici car les écrans "normaux" affichent 14 millions de couleurs imperceptibles supplémentaire. Parfait pour le confort non ?

avatar Sostène Cambrut | 

@Mémoire Cache

"Par contre si on descend sous les 8 bits, l'écran affichera moins de 2 millions de couleurs et là ça ne va plus."

Pour peu qu'il existe, un système 7 bits affiche 2 millions de couleurs.

2^7 x 2^7 x 2^7 = 128x128x128 = 2 097 152 couleurs.

Mais je voudrais pas avoir l'air de te contredire hein... T'as tellement l'air de savoir de quoi tu parles.

Et tant que t'y es, trouves moi un dégradé de gris pur étalé en linéaire (pas composite donc) dont je ne pourrais pas différencier les nuances pour voir ? Ça m'intéresse.

avatar Mémoire Cache | 

"Pour peu qu'il existe, un système 7 bits"

Ca n'existe pas.

avatar Lopokova Lydia | 

@Mémoire Cache

Remarquable mépris pour le propos de ton interlocutrice, à moins que tu ne comprenne pas le sens de "Pour peu qu'il existe" ou ce que peut-être une expérience de l'esprit.

C'est un des drame de l'époque pour le monde de l'informatique, le nombre de "professionnel" ayant un bagage théorique très faible se prenant pour des cadors.

Le chemin est pourtant fort long entre un BTS, un ingénieur de grande école, un Docteur es Science ...

Il y a un abîme de culture, de connaissance, de capacité d'abstraction, d'analyse, de synthèse, de mise en perspective, de largeur d'horizon ... entre ceux prétendant faire la même profession.

La morgue, la trivialité et la mauvaise foi de ces "informaticiens" fort limité est hélas souvent , elle, sans limite.

avatar nicochoc | 

@Lopokova Lydia :
Mémoire cache le Cortex de l'informatique

avatar Un Type Vrai | 

Les systèmes 7 bits existent... (bit de parité par exemple)
Il y a même des systèmes 9 et 13 bits...

Tout dépend ce que tu appelles "système".

Mais pour coder de l'information, ce qui est le cadre de l'article, ça existe !

avatar TotOOntHeMooN | 

On te dit : "pour peut qu'il existe"... Tu affirmes sans savoir.
Des afficheurs LCD fonctionnant en PWM sont en 7bit par composante et affichent donc bien 2 millions de couleurs.

D'autres sont même en 6bit (262144) et équipent de nombreux LCD et vidéoprojecteurs présents chez les particuliers depuis des années, alors même que l'utilisateur pense qu'il affiche bien du 24bit à l'écran.

L'oeuil n'a pas de réelle limite, comme tous les autres sens... Ils s'éduquent et diffèrent chez tous les individus.

avatar Mémoire Cache | 

@Sostène Cambrut

On parle d'affichage d'écran là... pas de qualité d'une photo...

avatar Un Type Vrai | 

Oui, tu dis exactement ça... Mais ça reste un sophislme...

avatar Lopokova Lydia | 

@Mémoire Cache

Jugement péremptoire et toute en finesse sur un sujet que tu ne méprise absolument pas visiblement.

Tout ce qui te dépasse n'est pas forcément de l'ordre du bullshit mon pauvre gars.

avatar Mémoire Cache | 

J'aime ce genre d'abruti fini qui parle, qui parle... mais sans jamais donner de consistance à leurs propos.
Tu me fais penser aux vieilles chouettes qui critiquent près de la machine à café.

Ah oui, ça ne sert à rien de répondre, je ne reviendrai plus sur cet article, j'ai fais le tour ;)

avatar TotOOntHeMooN | 

Pensez simplement aux photos en noir et blanc... En 10bit on passe de 256 niveaux de gris à 1024 niveaux de gris. La différence est visible. C'est un vrai plus de pouvoir l'afficher.

avatar rxme78 | 

Sur mon Apple Cinema HD 30" j'ai aussi du ARGB2101010. Et cet écran a 11 ans.

Mais ce n'est pas parce que l'entrée d'un écran est 10 bits que la dalle n'est pas 8 bits.
On voit cela tous les jours sur les télés UHD.

avatar mikele | 

Ah bon ? pour quelle marques / modèles ?
Parce que les Samsung SUHD sont réellement "10 bits" !
Mais bon, il est vrai que c'est clairement du haut de gamme (JS9000 et JS9500).

Et perso, je ne vois pas tous les jours dans mon entourage des téléviseurs 4K, même en entrée de gamme.

avatar mikele | 

@rxme78 "Sur mon Apple Cinema HD 30" j'ai aussi du ARGB2101010. Et cet écran a 11 ans."

C'est assez surprenant, parce que selon cet article assez renseigné (http://www.cmp-color.fr/affichage_10_bits.html), une liaison DVI n'a pas assez de bande passante pour des pixels 30 bits et il faut impérativement du (mini) display port (ou du HDMI 2.0).

Peut-être qu'avec le convertisseur mini display port vers DVI (double lien) requis pour l'Apple Cinema HD 30" cela pourrait fonctionner... Je dois encore avoir les deux dans un coin et je ferai le test un de ces jours en le branchant sur mon iMac 5K.

Edit : test effectué et positif ! Le Cinema HD 30" est en "mode 10 bits" lorsque connecté à un port thunderbolt (mini display port) via l'adaptateur DVI-D Apple "double link" (nécessaire lorsque la résolution dépasse 1920x1200).

Et toi tu l'as branché à quoi et comment, ton 30" Apple ?

avatar Locke | 

Sur mon...

- iMac Retina 5K, 27 pouces, fin 2015
- Profondeur de pixels : Couleurs 30 bits (ARGB2101010)

avatar NestorK | 

Yep, je confirme que c'est bon aussi pour l'iMac 5K 2014 ! Bonne nouvelle.

avatar kaviar | 

Il faudra m'expliquer comment un écran de 4090x2304 pixels peu afficher 16,8 millions de couleurs !
Que le pixel puisse prendre autant de valeur, oui, mais pas l'écran. Au maximum il affichera 9 437 184 couleurs.

avatar Yohmi | 

@kaviar :
Où as-tu vu le mot "simultanément" ?

avatar Martin_a | 

Le banding disparaîtra quand on regardera un RAW dans un logiciel photo mais pas sur les fonds d'écran ou autres fichiers JPEG, je précise pour les non-initiés :)

avatar HoulaHup | 

Donc si je comprends bien, le banding que l'on a déjà pu constater existe avant tout à cause de la compression des images, bien plus qu'à cause de l'encodage des couleurs sous 8 ou 10 bits ?

Sinon, je ne comprends pas trop pourquoi l'encodage de la transparence passe sous 2 bits ? 8 bits permettait quand même de gérer bien plus de subtilités dans la transparence non ? Après, ça permet surtout de conserver l'ensemble des infos sous 32 bits...

avatar mikele | 

je ne comprends pas trop pourquoi l'encodage de la transparence passe sous 2 bits ? 8 bits permettait quand même de gérer bien plus de subtilités dans la transparence non ?

La transparence est rarement gérée au niveau du moniteur. C'est au niveau de l'OS que se fait le "compositing" de l'image et c'est sur bien plus que 2 bits (en général 8).
Donc pas de problème.

avatar TotOOntHeMooN | 

Voila, tu réponds toi même à la question... C'est pour rester sur un format 32bit.
(2bit de transparence probablement pas utilisés au final, car sans grand intérêt sur 4 niveaux)

avatar protos | 

Moi j'ai un iMac 5K de fin 2014, il code aussi en 30 bits sous El Capitan. Je viens de vérifier :

Informations matériel :

Nom du modèle : iMac
Identifiant du modèle : iMac15,1
Nom du processeur : Intel Core i5
Vitesse du processeur : 3,5 GHz
Nombre de processeurs : 1
Nombre total de cœurs : 4
Cache de niveau 2 (par cœur) : 256 Ko
Cache de niveau 3 : 6 Mo
Mémoire : 16 Go
Version de la ROM de démarrage : IM151.0207.B05
Version SMC (système) : 2.22f16
Numéro de série (système) : C02NLA9SFY14
UUID du matériel : E48A1C70-5D60-5D45-B42A-2FF3F66C055D

AMD Radeon R9 M290X :

Jeu de composants : AMD Radeon R9 M290X
Type : Processeur graphique (GPU)
Bus : PCIe
Longueur de la voie PCIe : x16
VRAM (totale) : 2048 Mo
Fournisseur : ATI (0x1002)
Identifiant du périphérique : 0x6810
Identifiant de révision : 0x0000
Révision de la ROM : 113-C408A0-729
Version du gestionnaire EFI : 01.00.729
Moniteurs :
iMac :
Type de moniteur : Retina LCD
Résolution : Retina 5 120 × 2 880
Retina : Oui
Profondeur de pixels : Couleurs 30 bits (ARGB2101010)
Moniteur principal : Oui
Miroir : Désactivé
Connecté : Oui
Intégré : Oui

avatar NikonosV | 

32 bits sur mon hackintosh avec un LG 24EB23 IPS et gpu intel HD4600

avatar Sostène Cambrut | 

@NikonosV

Heu... Je crois qu'on parle vraiment pas de la même chose là...

NB: On parle de 30Bits parce que c'est 3x10Bits (10Bits par couleur). Donc au mieux, ton écran pourrait être en 33Bits ou 36Bits mais sûrement pas 32.

D'ailleurs le GPU intel HD4600 n'affiche pas plus de 16 millions de couleurs donc c'est bien du 3x8Bits

avatar Lopokova Lydia | 

Attention aux analogies périlleuses entre son et image, les mécanismes de perception sont fort différents, tout comme les enjeux de codage, de traitement et de restitution ;-)

avatar applehater | 

Tout' façon pour combattre les problèmes de banding le Viagra est bien plus efficace que passer de 8 à 10 bites.

avatar dtb06 | 

Les couleurs sur 10bits c'était une nouveauté de Windows 7 en 2009.

avatar NikonosV | 

@Sostène Cambrut

si c'est faux ce que j'ai dit c'est ce qui est affiché dans la photo de l'article, j'ai la même chose pour mon hackintosh
c'est marqué sur la capture : "Profondeur de pixels : couleurs 32 bits"

avatar TotOOntHeMooN | 

Toutes les cartes graphiques PC grand publique font du 32bit (ARGB8888) depuis plus de 10 ans. Il en résulte l'affichage RGB en 24bit. Rien à voir avec le 32bit (ARGB2101010) où il en résulte une image en 30bit. Bref, ne tenez pas compte de A (alfa channel) pour connaitre le nombre réel de couleurs affichables.

Pages

CONNEXION UTILISATEUR