Pourquoi est-ce que l’on trouve toujours autant d’écrans 1080p ?

Nicolas Furno |

À l’origine de ce constat, un communiqué de presse envoyé par NEC pour une nouvelle gamme de moniteurs, dont certains équipés en USB-C. Comme c’est une caractéristique encore relativement rare, nous pensions traiter l’information sur le site, avant de réaliser que ces écrans flambant neufs et équipés de la dernière norme en matière de connectique n’étaient pas 4K. Les modèles d’entrée de gamme, sans USB-C, sont même limités au 1080p, alors que ce sont des écrans de 27 pouces.

NEC vend ce moniteur USB-C de 27 pouces à 1500 €… mais il faut se contenter d’une dalle 1440p.

NEC vise les entreprises avec cette gamme, pas le grand public, mais est-ce pour autant une excuse ? Comment peut-on vendre en 2018 un écran de 27 pouces plus de 300 € avec une dalle 1080p ? Le modèle avec USB-C bénéficie d’une meilleure définition, du 1440p, mais il est affiché à plus de 1500 € sur le site du constructeur. Et à ce tarif, ne pouvait-on vraiment pas glisser une dalle 4K ?

Le 1440p, soit 2 560 x 1 440 pixels, c’est la définition de tous les écrans 27 pouces depuis des années, chez Apple depuis au moins 9 ans et le premier iMac 27 pouces. Et cela fait même 14 ans si on considère le Cinema Display 30 pouces, un monstre qui affichait une définition record à l’époque de 2 560 x 1 600 pixels, soit du 1440p avec légèrement plus de pixels en hauteur. Une définition qui, en passant, a pratiquement disparu du paysage aujourd'hui, même si Dell continue de commercialiser un modèle de 30 pouces similaire.

Le Cinema Display 30 pouces a été commercialisé par Apple en 2004. Par certains aspects, le marché des écrans ne semble pas avoir évolué depuis cette glorieuse époque où l’on avait régulièrement du nouveau.

Le marché des écrans semble bloqué depuis une dizaine d’années, avec toujours les mêmes définitions proposées en règle générale. On trouve pléthore d’écrans 4K, c’est vrai, parfois même à des prix qui défient toute concurrence, à l’image de ce 28 pouces 4K de Samsung vendu moins de 290 €. Mais cette définition n’est pas devenue un standard et elle ne semble jamais vouloir le devenir, même sur les grands écrans. On peut ainsi facilement trouver des écrans de 32 pouces en 1080p, comme ce modèle de LG affiché à 236 €. Ce n’est pas cher, mais pour un usage bureautique courant, c’est dommage d’avoir une telle surface de travail physique et de ne pas vraiment pouvoir l’exploiter.

Difficile de caser plusieurs fenêtres sur du 1080p, alors qu’un écran de plus de 27 pouces est parfait pour cet usage. Mais le problème, c’est que ces considérations n’intéressent pas le marché, qui semble uniquement concentré sur une utilisation précise des moniteurs : les jeux. Même si les joueurs représentent certainement une minorité sur le marché des ordinateurs, c’est pour eux que les constructeurs semblent tous travailler. Les innovations, car il y en a toujours, ne sont pas du côté de la définition, mais de la fréquence des dalles.

Aujourd’hui, le mieux pour jouer n’est pas un moniteur 4K, mais un écran qui dépasse les 60 fps traditionnels pour proposer une vitesse de rafraîchissement supérieure. 100 Hz, 144 Hz, voire 180 Hz et même 240 Hz : on trouve des dizaines d’écrans qui font mieux, parce que le résultat est plus impressionnant en jeu. Et en général, ils sont bloqués au 1080p, les modèles plus haut de gamme peuvent atteindre le 1440p. Bon nombre de joueurs préfèrent en rester à la petite définition, pour éviter de changer de carte graphique.

Alienware AW2518HF, un écran 24,5 pouces dédié aux joueurs avec un rafraichissement de 240 Hz. Et une définition limitée à 1080p seulement…

Si le marché est autant déformé par les besoins des joueurs, c’est peut-être parce que cette catégorie est la seule qui achète encore des écrans d’ordinateurs. Le grand public a depuis longtemps tourné le dos aux ordinateurs fixes au profit des portables qui sont souvent utilisés seuls. Quant à la plus grosse masse des utilisateurs, ils sont dans un cadre professionnel où la définition de l’écran n’est pas souvent un critère. Déjà que la taille des moniteurs achetés en entreprise est parfois encore ridicule, alors allez essayer d’expliquer l’avantage de la 4K par rapport au 1080p.

Ce constat explique pourquoi NEC commercialise ces écrans destinés, justement au monde professionnel. Et pourquoi la majorité des modèles vendus sur internet sont destinés en priorité aux joueurs. Mais il n’empêche que cela fait une dizaine d’années maintenant que la définition n’a pas bougé et l’arrivée de la 4K ne semble rien y faire.

C’est d’autant plus frustrant que la définition de l’écran est l’une des caractéristiques les plus visibles sur un ordinateur. On disait plus tôt que la fréquence de rafraichissement était plus importante pour jouer, mais c’est un paramètre qui reste mystérieux pour la majorité des utilisateurs. Alors qu’un écran Retina, où les pixels ne sont plus visibles à l’œil nu, c’est un concept nettement plus facile à « vendre », puisque cela se voit. Nettement plus que le passage de la DDR3 à la DDR4, ou bien d’un SSD SATA à un modèle NVMe, par exemple.

Les pixels sont très faciles à repérer sur un écran standard. En 4K, ce serait beaucoup plus difficile et l’affichage serait ainsi plus net.

La 4K n’est même pas la panacée

Pour ne rien arranger à l’affaire, la 4K n’est même pas la définition parfaite que tout le monde devrait adopter. Certes, la 8K arrive à grand pas, mais cela reste de l’ordre du rêve, ou en tout cas ce n’est pas pour aujourd'hui. En attendant, il y a mieux que la 4K pour les grands écrans. Ce n’est pas pour rien qu’Apple a opté pour de la 5K dans ses iMac 27 pouces et dans l’écran conçu par LG avec son approbation et qui fait office de moniteur Apple faute de mieux.

La 4K est parfaite pour succéder au 1080p, c’est quatre fois plus de pixels (deux fois plus à la verticale, deux fois plus à l’horizontale) et on peut ainsi bénéficier d’un affichage Retina @2x. Sous macOS, c’est le cas par défaut d’ailleurs, le système combine quatre pixels physiques en un seul pixel logique et affiche la même quantité d’informations, mais avec une bien meilleure définition. Le rendu est plus net, les pixels ne sont plus visibles.

La différence apportée par le « Retina » sur macOS : quatre fois plus de pixels, de quoi les faire disparaître l’œil nu.

À partir de 27 pouces toutefois, la 4K commence à montrer ses limites puisqu’en partant de l’idée de quatre pixels pour un, on se cantonne au même affichage utile que le 1080p. Concrètement, la dalle dispose bien de 2 160 pixels de haut, mais le système n’en affiche que 1 080, comme si vous aviez un écran Full HD. Pour bénéficier de 1 440 pixels de haut en Retina, il faudrait 2 880 pixels physiques en hauteur, soit la définition d’un écran 5K.

Pour simplifier les choses, si la 4K est le mode Retina du 1080p, la 5K est le mode Retina du 1440p. Pour bien faire, il faudrait privilégier cette définition au-dessus de 27 pouces, alors que la 4K peut suffire pour les écrans plus petits. Hélas, le marché a choisi et les écrans 5K restent extrêmement minoritaires. Il faut dire qu’ils sont aussi compliqués à gérer aujourd'hui, ils nécessitent souvent deux câbles : bref, il y a de bonnes raisons actuellement d’en rester à 4K.

D’autant plus que macOS gère très bien ces nouvelles définitions, comme nous l’expliquions dans cet article dédié à la 4K. Le système d’Apple peut afficher un moniteur 4K dans sa définition physique de base (3 840 x 2 160 pixels), ou bien en vrai Retina (1 920 x 1 080 pixels), mais plusieurs crans intermédiaires sont proposés. Dans le lot, on a un mode qui simule le 1440p que l’on avait auparavant sur ces tailles d’écran. Ça n’est pas aussi net que le mode @2x, mais c’est nettement moins flou qu’un écran traditionnel, donc c’est un compromis qui peut être acceptable.

macOS reconnaît un écran 4K comme un modèle Retina et propose ainsi ces différents modes

Pour finir, restons avec les Mac, mais évoquons les portables d’Apple. Si le constructeur a été le premier à passer dans le monde du Retina, avec le MacBook Pro 15 pouces présenté en 2012, il n’a jamais évolué depuis. Toute la gamme propose aujourd'hui du « faux » Retina, une définition physique insuffisante pour proposer une définition logique @2x, où chaque pixel affiché à l’écran est créé par quatre pixels sur la dalle. C’est un compromis qui était parfaitement logique il y a six ans, mais à l’heure où bon nombre de constructeurs concurrents proposent des portables dotés d’un écran 4K, on aimerait voir des évolutions sur ce point.

Une dalle 4K sur les MacBook Pro 13 ou 15 pouces serait idéale pour offrir un affichage par défaut parfaitement net, comme sur les iMac Retina. On imagine qu’Apple attend de pouvoir le faire avec suffisamment d’autonomie, c’est probablement le point qui bloque encore aujourd'hui.

Tags
avatar fte | 

@BeePotato

"Je ne me prononcerai pas sur ce point, ne connaissant pas l'implémentation actuelle de ce rendu dans Mac OS et étant donc incapable de comparer sa complexité avec celle du calcul d'un nombre plus élevé de pixels."

J’ai lu un article sur technet de Microsoft comparant les rendus hidpi sans aliasing et ClearType, l’aliasing est ce qui coûte le plus cher. D’ailleurs, le texte est rendu d’abord à plus haute résolution afin de pouvoir ensuite lisser selon les subpixels.

OK, c’est pas la même méthode qu’Apple. La différence est clairement visible à l’écran... lowdpi. En hidpi les différences s’amenuisent.

avatar BeePotato | 

@ fte : « J’ai lu un article sur technet de Microsoft comparant les rendus hidpi sans aliasing et ClearType, l’aliasing est ce qui coûte le plus cher. »

J’imagine que tu voulais écrire « anti-aliasing » plutôt qu’aliasing.
Je veux bien un lien vers cet article, si tu le retrouves.

avatar Marco787 | 

@ Nicolas Furno

Article très interessant, merci.

"D’autant plus que macOS gère très bien ces nouvelles définitions".

Contrairement à Windows, qui même avec Windows 10, a un peu de mal, notamment pour gérer des écrans aux résolutions différentes (ex : portable + écran externe). (Ayant Windows 10 via BootCamp sur mon MBP 13" 2017, je peux confirmer que la gestion est bien inférieure.)

Cela pouarrait-il être un élément qui explique la stagnation à 1080 des écrans, sachant que par définition, l'essentiel sera connecté à des PC Windows et non des Mac ?

avatar Pascal-007 | 

Super dialogue de sourd, ici. @Nicolas Furno, je te lève mon chapeau !

avatar BeePotato | 

@ Pascal-007 :
De toute façon, dès qu'on aborde ce sujet, on voit tout de suite rappliquer les hordes de ceux qui n'ont toujours pas compris ce qu'était le retina et à quoi ça servait, accompagnés de ceux expliquent que puisqu'eux-mêmes ont trop mauvaise vue pour voir la différence alors ça n'est utile à personne. :-)
Et c'est sans compter ceux qui passent juste pour troller.

avatar Pascal-007 | 

Ça résume assez bien la situation, en effet!

avatar Dimemas | 

N'importe quoi....

avatar BeePotato | 

@ Dimemas : « N'importe quoi.... »

Catégorie 1. ;-)

avatar Hasgarn | 

Article très intéressant !

avatar RomanYeager | 

C’est sur que pour de la bureautique le 4K n’est pas utile sauf si on ouvre plusieurs fenêtre et qu’il veut en avoir un aperçu tout le temps. Mais le 1080p est vraiment trop limité pour Logic Pro X par exemple.

avatar oomu | 

j’utilise encore le Cinema Display 30 pouces que j’ai acheté à sa sortie.
Cet écran était fabuleux et j’attends encore un 30 pouces qui me satisfera complètement pour le remplacer.

Je suis assez mortifié par la froideur de l’industrie actuellement. Soit la résolution n’est guère intéressante, soit la dalle est perfectible (pas de haute fréquence et colorimétrie déficiente).

Mais surtout, il faut faire le bond à Thunderbolt 3 (et display port 1.4), j’attends donc le duo d’un mythique nouveau mac pro et légendaire écran 30 pouces (ou 32, 34, je ne suis pas sectaire :) )

-
« les pixels, plus il y en a, moins on les voit » .

avatar oomu | 

"Je préfère largement avoir 2 écrans 1440p qu'un seul 4K... »

oui mais... deux 4K ? hmmMMm ? :)

avatar JoTaPé | 

@Nicolas : très bien tout ça, mais quelle est la résolution de l'oeil humain ? Traduit en pixels/pouce à distance normale de l'écran.

avatar vavavoum94 | 

Parce qu’à distance raisonnable un 1080p suffit et ne semble pour l’œil pas moins bon qu’un 4K tout en restant moins fatiguant

avatar BeePotato | 

@ vavavoum94 : « Parce qu’à distance raisonnable un 1080p suffit »

Non, ça ne suffit pas à obtenir une bonne résolution pour l'affichage de texte.
Il y a une trentaine d'années, tout le monde était content de voir arriver les imprimantes à jet d'encre permettant enfin d'obtenir pour pas trop cher une sortie à 300 ppp (réservée jusque là aux imprimantes laser bien plus chères). À l'époque, la différence de qualité avec les imprimantes matricielles et leur résolution nettement plus faible (144 ppp pour une ImageWriter II) ne faisait absolument pas débat. Tout le monde était bien conscient du gain.

Il est toujours étonnant pour moi de constater que, de nos jours, le même saut en résolution soit aussi mal compris par tant de personnes — alors même qu'il a eu lieu il y a déjà quelques années sur les smartphones.

« et ne semble pour l’œil pas moins bon qu’un 4K »

Évidemment que si. Sauf, bien sûr, si on parle d'un écran tellement petit que le 1920x1080 y correspond à une résolution déjà bien suffisante, mais le débat ici ne porte pas sur ce type d'écrans.

« tout en restant moins fatiguant »

En quoi cela serait-il moins fatigant ?

avatar Vivid (non vérifié) | 

"que ces écrans flambant neufs et équipés" 'sont équipés' cela pique beaucoup moins.. :-)

avatar alecail | 

1/ Certains demandent des ecrans 4k pour des portables...
Alors OK, mais que personne ne viendra se plaindre quand la coque du macbook sera si chaude qu'il faudra le toucher avec des maniques...

2/ Pas assez de place sur un 1080p ? C'est le même argument que l'espace disque.. Plus on en a, plus on en met.
Les données grandissent avec l'espace disponible. Je suis sûr que j'ai des fichiers en double pour un taille de plusieurs centaines de Go, mais en même temps il me reste plusieurs To de libre..
Pareil pour le nombre de pixels, le nombre d'onglets ouverts, etc..
J'ai programmé sur CPC.. en mode 2 on arrivait a 640x200, mais en général on restait en mode 1, 320x200...

avatar BeePotato | 

@ alecail : « Plus on en a, plus on en met. »

Tout à fait. Mais du coup, pourquoi s'interdire d'en avoir plus ?
Parce que la règle inverse existe aussi : moins on en a, moins on en met.

« J'ai programmé sur CPC.. en mode 2 on arrivait a 640x200, mais en général on restait en mode 1, 320x200... »

Oui, mais en 320x200, on n'essayait pas d'afficher des fenêtres.
À la rigueur, une meilleure comparaison aurait été avec les Mac d'origine : sur leur 512x342, on mettait déjà plusieurs fenêtres (enfin, pour les modèles correctement dotés en RAM) — du coup, pourquoi avoir un quelconque écran plus grand ? Vu comme ça, même 1920x1080, c'est beaucoup trop ! :-)
Et pourtant, bien que je sois très nostalgique du Mac SE, ce n'est pas cet aspect-là qui me manque le plus.

avatar alecail | 

mon argument c'était que quelque soit l'époque et la technologie, il y en a toujours pour dire que ce n'est pas assez, et d'autres qui s'en sortent très bien avec ce qui existe. J'ai un écran 1440p mais si j'avais un peu plus grand ou moins grand ça ne changerait pas grand chose en fait.

avatar Matgamer (non vérifié) | 

"Bon nombre de joueurs préfèrent en rester à la petite définition, pour éviter de changer de carte graphique." Rectification: même une 1080Ti ne permet pas de faire tourner les derniers gros jeux en 4K 60fps et les modèles inférieur encore moins, donc c'est aussi un problème de puissance brute.

avatar jeanba3000 | 

Si des écrans à 1500€ et même plus (cf gamme arts-graphiques chez Eizo…), c'est aussi pour répondre aux besoins de pros sur la qualité, le contrôle de la colorimétrie, la constance, la durabilité… et comme généralement ils récupèrent la TVA et amortissent comptablement le matériel, ça revient moins cher et de toute façon ce sont des outils qui permettent de gagner sa vie.

avatar EBLIS | 

@Nicolas
"C’est d’autant plus frustrant que la définition de l’écran est l’une des caractéristiques les plus visibles sur un ordinateur. On disait plus tôt que la fréquence de rafraichissement était plus importante pour jouer, mais c’est un paramètre qui reste mystérieux pour la majorité des utilisateurs."

Et pourtant c'est LA caractéristique qui a été mise en avant pour les iPad, et les gens dans les Apple store le remarquaient "ooooh c'est vachement fluide, ça ne saccade pas, je n'ai pas mal aux yeux." (Phrase entendue plusieurs fois autour de ces tablettes quand il m'arrive d'aller en magasin).

avatar iluro_64 | 

Pourquoi est-ce que l’on trouve toujours autant d’écrans 1080p ?

Quel charabia ! Messieurs les Rédacteurs, châtiez un peu votre français.

Pourquoi trouve-t-on toujours autant d'écrans 1080p ? N'est-ce pas plus élégant ? Plus léger ? Ne cédez pas à la monde linguistique de la gente politico-médiatique !

avatar EBLIS | 

Mode pas monde ;-)

avatar Indecence | 

Ils se la joue made in Apple. Prix élevé, rien sous le capot. Juste beau pour épater la galerie.

avatar Vivid (non vérifié) | 

@elblis
'monde' va bien aussi... il a surement une licence

avatar lepoulpebaleine | 

Moi j’attends le futur Mac Pro pour y mettre un double écran 5K. ?
Avec je l’espère une carte graphique qui ferra bien le job.
J’ai juste un peu peur du prix... ?

Pages

CONNEXION UTILISATEUR