L’iMac Retina 5K passe à 10 bits, pas l’iMac Retina 4K

Anthony Nelzin-Santos |

« Les iMac apprennent à coder les couleurs sur 10 bits », proclame le blog Mac & i, relayé par MacBidouille. Après vérification pourtant, il semble que les choses soient plus compliquées qu’il n’y paraît. Si notre iMac Retina 5K code bien les couleurs sur 10 bits, ce n’est pas le cas de son petit frère l’iMac Retina 4K.

Ce que cela change ? L’écran de l’iMac Retina 4K fin 2015 est un écran ARGB8888, ce qui signifie que chacun de ses pixels est défini par quatre bytes de huit bits, autrement dit quatre octets. Le byte A code la transparence (alpha), R le rouge, G le vert (green), et B le bleu. Chacun de ses bytes contient huit bits, ce qui signifie qu’il peut « stocker » 256 valeurs. La transparence n’étant utilisée qu’au calcul, l’écran peut donc afficher 256x256x256 couleurs, soit 16,8 millions de couleurs(*).

Les informations système d’un iMac Retina 4K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur huit bits.
Les informations système d’un iMac Retina 4K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur huit bits.

L’écran de l’iMac Retina 5K fin 2015 est un écran ARGB2101010 : la couche alpha est codée sur deux bits, tandis que chacune des couleurs primaires est codée sur dix bits. Ces 10 bits permettent de « stocker » 1 024 valeurs : l’écran peut donc afficher 1 024x1 024x1 024 couleurs, soit plus d’un milliard de couleurs. Cette plus grande précision prévient notamment le phénomène de banding, qui se manifeste par l’apparition de bandes dans des dégradés de couleurs très proches, comme dans l’étendue d’un ciel bleu.

Cette fois-ci, les informations système d’un iMac Retina 5K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur dix bits.
Cette fois-ci, les informations système d’un iMac Retina 5K fin 2015 sous OS X 10.11.1. L’écran déclare coder les couleurs sur dix bits.

Nous avions mesuré une légère différence entre l’écran de l’iMac Retina 5K et celui de l’iMac Retina 4K, mais pas suffisante pour qu’elle puisse être considérée comme sensible, au contraire de leurs problèmes d’uniformité (lire : Test de l’iMac 21,5" Retina 4K (fin 2015)). Nos outils sont-ils défaillants ? Le signal DCI P3 est-il compressé sur le modèle 21,5 pouces ? Difficile de le dire à ce stade. Une chose est sûre : le gain est d’autant moins visible que les systèmes OpenGL sont encore limités à 8 bits dans la plupart des cas, et qu’il faudra sans doute attendre des optimisations avec Metal pour profiter pleinement du codage sur 10 bits.

Reste que les photographes prenant des fichiers RAW de 12 ou 14 bits et les graphistes travaillant sur des fichiers 16 bits attendaient avec impatience cette avancée, d’autant plus que les PC prennent en charge les écrans 10 bits depuis Windows 7. Mieux : les écrans 10 bits reliés à l’iMac Retina 5K fin 2015 sont désormais pleinement gérés par OS X El Capitan. Selon Mac & i, cette prise en charge s’étend même aux iMac Retina 5K fin 2014, qui passent de 8 à 10 bits avec OS X 10.11.1. Nous n’avons malheureusement pas le matériel nécessaire pour vérifier ces deux dernières informations.

(*) Les choses sont encore plus compliquées en réalité, mais ce résumé suffit largement pour comprendre la différence.

avatar Anthony Nelzin-Santos | 
D'ailleurs, si vous avez un iMac Retina 4K, pouvez-vous vérifier si votre écran est bien en 8 bits aussi ? Regardez dans la section Cartes vidéo des Informations système (Applications/Utilitaires). Merci d'avance !
avatar w0rd3r | 
avatar mikele | 

Ouh la ! 3 écrans 4K (enfin 2 UHD + le retina 4K interne) pilotés par la CG Iris Pro 6200 intégrée au processeur intel ???
Et ça ne rame pas trop ?
Perplexe je suis.

avatar w0rd3r | 

Non du tout, tu peux voir l'article que j'ai écrit justement sur l'iMac 4K si tu veux http://b0b.fr/2015/10/17/retour-sur-le-nouvel-imac-4k/

avatar Nico-1971 | 

Bel article superbe site ;-)

avatar poulpe63 | 

merci pour l'article qui confirme ce que je pensais aussi : à investissement identique (env 2000€) un 21.5 pouce avec SSD sera un "meilleur" choix.

avatar w0rd3r | 

Le SSD est vraiment très rapide oui, et je ne pense pas que prendre une machine à 1500€ ou plus avec un HDD soit très sensé. Si tu imagines la revendre même dans 2 ans, personne ne l'achètera !

avatar w0rd3r | 

Merci Nico !

avatar jackhal | 

Pourquoi utiliser bit.ly ? On n'a pas forcément envie que cette boite apprenne quoi que ce soit de notre navigation, on ne sait pas ce qu'il y a derrière un lien réduit, c'est un poil plus lent, si un jour le service disparait le lien ne fonctionnera plus... bref je ne comprend pas (à moins que ce soit pour avoir des stats ?).
Même sur Twitter c'est devenu un doublon de leur propre service.

P.S. : eh MacG, les 8 secondes quand on envoie "trop rapidement" alors qu'on ne fait que corriger une faute, puis les 13 secondes etc, c'est lourd.

avatar florian1003 (non vérifié) | 

Byte en anglais c'est octet ...

avatar nayals | 

Et ?

avatar TotOOntHeMooN | 

Byte est à l'origine utilisé pour exprimer un ensemble de bit. Il n'est pas forcément égal à 8...
Donc la phrase dans le texte est juste. (on utilise en anglais Byte au lieu de Octet à tort)

avatar bibi81 | 

Un peu comme parler de week-end composé de samedi et dimanche qui est équivalent à une fin de semaine.

Macg à la place de "stocker" je vous conseille "représenter".

avatar byte_order | 

A noter que octet existe aussi en anglais, et qu'il est le nom officiel d'une séquence de 8 bits.

avatar Lopokova Lydia | 

@byte_order

La langue française offre même le jolie quartet pour les agrégats de 4 bit (Nibble en anglais)

avatar TotOOntHeMooN | 

MDR. Un quartet c'est nibble en anglais. (message en réponse édité)

avatar Lopokova Lydia | 

@TotOOntHeMooN

Les joies diOS :-)

Merci c'est corrigé :-)

avatar TotOOntHeMooN | 

;)

avatar TotOOntHeMooN | 

En anglais, c'est un groupe (de musique) composé de 8 personnes.

avatar Lopokova Lydia | 

@TotOOntHeMooN

Désolé tu n'as pas que Byte dans ma langue tu as aussi Octet, là forme est rare et datée mais elle existe et est licite ;-)

avatar TotOOntHeMooN | 

Oui, tu as effectivement raison.

avatar mikele | 

Je confirme que sur l'iMac 5K fin 2014 (M295X 4Go) l'item "Profondeur de pixels" sous OS X 10.11.1 est lui aussi passé à "Couleurs 30 bits (ARGB2101010)". Je n'ai pas vérifié en 10.11.0 mais je sais qu'avant sous Yosemite c'était bien ARGB8888.
C'est donc effectivement une très très bonne nouvelle pour l'usage photo sur ces machines ! :-D

avatar Mémoire Cache | 

"soit plus d’un milliard de couleurs"

Etant donné que l'oeil humain ne peut distinguer que 1 à 2 millions de couleurs, le 10 bits n'est que du bullshit commercial.

Merci au revoir.

avatar vrts | 

@Mémoire Cache : ahahaha, y a toujours un type pour la sortir celle là...un peu comme les gars qui disent que 60fps ne sert à rien car à l'oeil humain n'en voit que 30...

va falloir se renseigner un peu avant de sortir de telles legendes l'ami hein...merci au revoir...

on va faire court, fais un google pour le reste (mots clés : banding, 30 bit, etc) : https://cdn.photographylife.com/wp-content/uploads/2014/07/Human-Spectrum-vs-sRGB-vs-Adobe-RGB.png

avatar Mémoire Cache | 

@vrts

"un peu comme les gars qui disent que 60fps ne sert à rien car à l'oeil humain n'en voit que 30..."

Non là tu dis de la merde + je n'ai jamais dis ça.

avatar vrts | 

@Mémoire Cache : sauf que c'est du même niveau = ignorance totale...

avatar Mémoire Cache | 

Non parce que l'un est vrai (et flagrant au passage) et l'autre est totalement faux.
Ignare va.

avatar Sostène Cambrut | 

@Mémoire Cache

Sauf qu'en 8 Bits, le dégradé d'une couleur ne peut se faire que sur 256 valeurs qui sont toutes parfaitement perceptibles.

Donc le bullshit c'est surtout ton commentaire...

avatar Ducletho | 

@Sostène Cambrut :
Tout fait d'accord avec toi !

avatar bibi81 | 

On peut aussi passer par une palette...

avatar Mémoire Cache | 

@Sostène Cambrut

Sauf que j'ai jamais eu de problème de dégradé avec tout les écran 8 bits où j'ai du bossé dessus. On arrête pas le progrès n'est-ce pas ?

Donc bullshit toi même

avatar iJoke | 

@Mémoire Cache :
Peu importe le nombre de bit à l'écran quand on a de la merde dans les yeux.

avatar Mémoire Cache | 

10/10 pour les deux + je bosse dans le numérique

Toi par contre tu as de la merde dans le cerveau..

avatar Shralldam | 

@Mémoire Cache :
Que tu le veuilles ou non, le phénomène du banding existe.

avatar Mémoire Cache | 

@Shralldam

Je n'ai jamais dis qu'il n'existait pas. C'est soit ta photo est trop compressée, soit t'as un écran de merde. En tout cas, des bon écrans 8bits peuvent afficher des dégradés parfait.

avatar vrts | 

@Mémoire Cache : tu peux bosser dans le numerique et être incompetent, la preuve avec ce que tu racontes... Fais un google 2 sec et tu comprendras peut être le workflow 10 bits / 30 bits et pourquoi c'est loin d'etre du bullshit.

Après si ton boulot c'est de faire des sites web, effectivement ce n'est pas pour toi.

avatar Mémoire Cache | 

@vrts

En tout cas je suis infiniment plus compétent que toi parce que je n'ai pas le don de tout mélanger.

Le workfliw 10bits et plus en photo a tout son intérêt car il capte un max d'info (qui sont imperceptible) permettant ainsi d'édité la photo à sa guise sans provoquer de distortion et de garder une image de qualité même après traitement. C'est pareil avec l'audio WAV 24bits (ou même des vidéos MXF) l'oreille humaine ne distinguera aucune différence entre un WAV 16bits et 24bits (et je dirais même avec un bon MP3 320kbps) par contre pour bosser dessus de manière professionnel, c'est quasi indispensable.

Par contre, un oeil humain ne peut distinguer plus de 2 millions de couleurs/nuances. Les écrans affichent déjà 16 millions, ce qui est largement assez. Avoir un écran qui affichent des tons que tu ne vois pas n'a aucun intérêt. C'est purement PHYSIQUE. C'est comme un 4K sur un écran de téléphone, ça ne sert à rien.

Bref, ferme la maintenant et arrête de te ridiculiser.

Ciao

avatar DeaDPooL | 

@Mémoire Cache :
T'es démonstrations sur les numériques peuvent-êtres battent en brèches.
Exemple, l'oreille humaine donne une fréquence audible maximale à 20 KHz, hors écoute un CD de super tramp par exemple, puis le même album en vinyle, le vinyle est beaucoup plus flatteur.
Le vinyle permet des attaques jusque 70 KHz, la théorie dit qu'on ne les entends pas et pourtant d'une manière ou d'une autre on les perçois.
C'est ce qui rend le son des vinyles plus chaleureux.

avatar Lopokova Lydia | 

@Mémoire Cache

"je bosse dans le numérique"

Le belle argument d'autorité absolument foireux, quand on en est là c'est qu'on a vraiment rien en stock.

La seule chose qui compte ce sont tes contribution et elles ne dénotent vraiment pas d'une formation intellectuelle de qualité, ni d'une maitrise réelle des sujets.

"Bosser dans le numérique" ça va du technicien de surface au PhD :-)

Vaste éventail :-)

avatar Mémoire Cache | 

Sinon j'ai lâcher d'autres arguments dans les autres posts.
Apprends à lire au pire ?

avatar Lopokova Lydia | 

@Memoire Cache

L'argumentation de Patrick à elle seule valide l'ineptie de ton propos.

Nulbesoin de rebondir sur tes fumeuses considèrations techniques mal digérées, tes énervements de chihuahua cocaïnomane ou tes arguments d'autorité foireux.

Tes énervements et ton comportement ne font que montrer le terible besoin de légitimité qui est le tien et qui doit te manquer IRL

Un honnête homme aurait depuis longtemps reconnu avoir dit une grosse bêtise, toi tu fais feu de tout bois pour nier l'évidence et défendre un pitoyable quant à soit.

Espérons que tu es au moins l'excuse de la grande jeunesse.

Tu ne t'en rend pas compte mais tes propos, leur structuration, ton attitude, tes références, tes arguments triviaux, ton incapacité à monter en abstraction ... montre quelle est la réalité de ton parcours académique.

Tu joues à être bien plus que ce que tu vaus réellement

avatar Lopokova Lydia | 

@iJoke

Le pb ne se trouvent pas au niveau des yeux mais plus au niveau des capacités cognitives :-(

avatar Yohmi | 

@Mémoire Cache :
C'est pourtant perceptible (j'ignore si ça vient exactement de là, n'ayant pas d'écran 10 bits pour comparer).

avatar Thibs69 | 

@Mémoire Cache :
Il n'y a pas que le nombre de couleur en lui même qui compte.
C'est au niveau des nuances de couleur que cela change pour l'œil humain. Elles sont beaucoup plus riches quand la profondeur colorimétrique est codée sur 10 bits. Et quand on développe ses fichiers RAW sur 14 ou 16 bits, c'est mieux !

avatar Mémoire Cache | 

@Thibs69

Les 1 à 2 millions de couleurs perceptibles comprennent aussi les nuances. C'est logique, il n'existe pas 2 millions de couleurs, mais une infinité de nuances.

Tu payeras plus cher pour un écran qui affichera des nuances que tu ne verras pas. C'est excellent.

avatar patrick86 | 

"Etant donné que l'oeil humain ne peut distinguer que 1 à 2 millions de couleurs, le 10 bits n'est que du bullshit commercial."

Oui, c'est tellement l'argument marketing du siècle d'Apple affiche en gros, police San Francisco, taille 42 et rouge gras clignotant "le nouvel iMac 27 "Retina 5K code les couleurs de son écran sur 10 bits !"

Oh wait…

avatar Lopokova Lydia | 

@patrick86

Ce seul argument montre la crétinerie du propos, mais que veux-tu être un rien rationnel semble ne pas être la qualité première des énergumène en manque de reconnaissance :-)

Effectivement un argument marketing qui ne se voit qu'en fouillant et décryptant les informations de configuration du système c'est de l'ordre du raffinement marketing rare.

Nos nageons en plein ridicule idiot porté par un pseudo sachant en manque de reconnaissance nourri de connaissances superficielles mal digérées, affligeant :-(

Le vrai visage des cuistres.

avatar Mémoire Cache | 

Toi pour parler pour ne rien dire tu fais très fort.

Je résume ta crétinerie : "ouais il raconte du caca et c'est triste de voir ça :-( "

Sinon, histoire de bien te casser comme il faut: ai-je parlé uniquement de la dalle de l'iMac 5K 2015 pauvre crétin ? Et bien non, je parlais de cette caractéristique useless à but commerciale qui est parfois mise en avant dans les écrans "professionnels" au même titre que la 2K ou la 4K dans des écrans de petites tailles.

Va prendre tes cachets et va dormir si tu ne peux rien dire d'autre qui soit un tant soit peu intelligent.

avatar Lopokova Lydia | 

@Mémoire Cache

Le vrai visage des cuistres :-)

Continues à étaler tes limitations intellectuelle en t'énervant :-)

Après si par miracle tu as envie d'élargir vraiment tes connaissances sur un sujet que tu ne connais que trés superficiellement il y a de trés bon ouvrages à lire sur les complexe questions de colorimétrie de physilogie de la perception... certe un peu plus ardus que ce que tu maîtrises vaguement, mais qui sait....

Ta plus grande limite ces de croire connaitre en t'appuyant sur des savoirs plus qu'élémentaires et hélas fort mal digéré.

Je te laisse à tes entêtement et tes problémes de maturité, que la nuit te sois bonne.

avatar Mémoire Cache | 

Tu n'as toujours rien dis de pertinent sur le sujet, j'en déduis donc que tu n'y connais strictement rien. Recevoir des leçons d'un ignare est loin d'être ma tasse de thé.

Tache de ne plus faire perdre mon temps la prochaine fois.

Ciao ;)

Pages

CONNEXION UTILISATEUR