OS X 10.7.3 perd son option HIDPI

Florian Innocente |
La dernière version bêta d'OS X 10.7.3 a fait au moins une victime, la disparition d'une option pour l'affichage haute définition des interfaces d'applications. MacRumors explique qu'il y avait dans ces 10.7.3, à l'intérieur de la fenêtre Lire les informations, une case à cocher pour basculer l'application en mode HIDPI à son prochain lancement. Une option présente, mais jamais fonctionnelle. Cette case a maintenant disparu avec la bêta distribuée cette nuit. Ce va-et-vient montre au moins que le sujet de l'indépendance de la résolution dans OS X n'a pas été complètement oublié chez Apple.

hdpdi

Ce mode d'affichage surnommé "retina display" en écho à celui utilisé dans les iPhone 4 et 4S était revenu dans l'actualité à la faveur d'une rumeur d'écrans à très haute définition (ou densité de pixels) pour les prochains MacBook Pro (lire Rumeur de MacBook Pro "Retina Display").

IUdisplay

Tags
avatar Anonyme (non vérifié) | 
Quel feuilleton ! La résolution indépendante était déjà au programme de Tiger…
avatar alexadvance | 
En même temps, avec les résolutions actuelles, ce mode n'a aucun sens... Travailler en 960x640 c'est pas top top....
avatar Rez2a | 
Peut-être une façon de brouiller les pistes et de faire réapparaître cette option le jour où elle sera fonctionnelle, avec des beaux écrans qui vont bien ? Au-dessus : le Retina ce n'est pas forcément du 960x640, mais un dpi suffisant pour ne plus distinguer les pixels à quelques centimètres de distance.
avatar ErGo_404 | 
[quote]alexadvance [21/12/2011 17:44] En même temps, avec les résolutions actuelles, ce mode n'a aucun sens... Travailler en 960x640 c'est pas top top.... [/quote] Le retina c'est une question de résolution (en DPI) par rapport à ta distance de vue et non pas une question de définition (en pixels²). Je pense d'ailleurs que l'appellation est fausse, les écrans actuels sont probablement déjà proche du retina vu la distance à laquelle on les regarde.
avatar nums | 
Quel rapport avec la seconde photo d'illustration? S'agit-il d'un exemple de faible résolution?
avatar itralala | 
C'est peut être parce que ça empêchait les blu-ray de fonctionner ?
avatar Martin_a | 
@nums : 'Quel rapport avec la seconde photo d'illustration? S'agit-il d'un exemple de faible résolution?' Pareille... À quoi sert cette photo de boîte mail ???
avatar nicogala | 
@ErGo_404 : c'est plutôt l'acuité visuelle qui fait référence, l'angle selon lequel on parvient à discriminer 2 points (en gros ça correspond à 0,33mm à 1m de distance) ce qui fait que mon écran de 20" en 1600x1050 est "rétina" dès lors que je me trouve à 75cm de lui(manque de bol je suis en général enter 55 et 65cm :/ ... mais on vit très bien avec :p ) Pour nums : justement c'est pour illustrer le fait que l'on peut grossir les éléments d'interface sans les pixelliser, ce qui permettra de continuer à afficher du texte (dans les menus) avec une taille lisible même avec de très hautes résolutions.
avatar Anonyme (non vérifié) | 
ErGo_404 : [quote]Je pense d'ailleurs que l'appellation est fausse, les écrans actuels sont probablement déjà proche du retina vu la distance à laquelle on les regarde.[/quote] pas du tout. Regarde un texte sans antialiasing : c'est ultra moche http://maxvoltar.com/images/24.png l'antialiasing n'est pas une solution, la preuve : voilà une image avec de gauche à droite : normal antialiasé, normal aliasé, rétina aliasé, rétina antialiasé http://img35.imageshack.us/img35/6680/textiv.png Bien sûr comme on ne peut pas visualiser du retina sur un écran normal, les pixels sont doublés et il faut s'éloigner. Quand tu arrives à ne plus distinguer les pixels du retina aliasé, tu vois toujours que le normal antialiasé a l'air flou et que le normal aliasé est difforme. L'antialiasing est quasiment un luxe sur du retina, alors qu'en normal il est nécessaire tout simplement pour avoir des courbes qui ressemblent à des courbes, ou des droites qui ne ressemblent pas à des marches d'escalier. Tout ça pour dire qu'on est encore loin du Retina (en tout cas sur la plupart des écrans, et particulièrement sur les 21,5 et 24").
avatar nicogala | 
@sunjohn : regarde un 20" à 1m de distance et dis-moi si tu arrives à voir les pixels, si oui tu auras droit au tire honorifique "oeil de lynx" ;)
avatar Florian Innocente | 
@martin_a "Pareille... À quoi sert cette photo de boîte mail" Clique le lien d'article qui est au dessus de cette capture.
avatar Anonyme (non vérifié) | 
nicogala : eh mais c'est hallucinant ton truc, c'est trop génial, merci ! je connaissais le coup du "si ton écran est trop petit, il suffit de te rapprocher pour le voir plus grand", et maintenant tu m'apprends que pour avoir un meilleur pitch il suffit de s'éloigner. merci, vraiment merci. je n'ai qu'à faire les deux en même temps et j'aurais un écran plus grand ET avec un meilleur pitch.
avatar stéphane83 | 
Pourquoi parlez vous de 960*640? Les résolutions actuelles ont déjà dépassées ça...
avatar skizoboy | 
@Stephane83: Parce qu'il est question du mode HIDPI, ça donne un affichage très "propre" par contre niveau échelle c'est comme si la définition de ton écran était divisée par deux. Perso j'ai testé sur mon 24" normalement en 1920x1200… bon bah c'est joli mais 960x600 c'est pas utilisable a moins de 2m.
avatar polhochon | 
@sunjohn Laisse tomber, ils n'y comprennent rien. Ils confondent tout. On ne peut rien pour eux. Et encore avec des dalles numériques c'est bien plus simple qu'avec les tubes cathodiques.
avatar nicogala | 
"On" ne parle de 960x640 que (et uniquement pour ça) parce que c'est tout bêtement la résolution de l'iPhone 4 (& S) qui est le seul a avoir la dénomination "retina" , pas du tout parce que c'est "plus propre" ou que sais-je... faut suivre hein. @sunjohn : oui et ? Quel est le but de ton propos ? Dire que tant que tu n'auras pas au moins 300dpi sur ton 27" ça sera de la merde ? T'en feras quoi de tes 300dpi, tu te colleras à 10cm de ton écran ? Tu n'as pas l'air de te rappeler des 17" en 1024x768... là d'accord c'était très perceptible, mais franchement de nos jours à distance "normale" d'utilisation, les 100-120dpi pour un grand écran fixe est les 130-140dpi pour un portable c'est plus que confortable. Ils monteraient à 150dpi pour les grands écrans et 200dpi pour les portables ça serait peut-être le top mais ça servirait à rien d'aller au-delà... à part flatter l'ego du client. M'enfin, commercialement ça permettrait de nécessiter plus de puissance GPU, donc de vente de modèles plus puissants etc, donc plutôt intéressant, en effet...
avatar lmouillart | 
@nicogala le gros intérêt du rétina sur les Mac/PC TV c'est qu'il faudra acheter des nouveau média/lignes internet/ appareil d'acquisitions (APN/CAM) machines etc. Donc vive le 4K et le rétina. Sinon on aura des vidéo ou photo format timbre poste.
avatar domd | 
Hey polhochon, je crois que c'est l'heure, tu sembles fatigué ...
avatar baptiste2097 | 
Vous me faites rire avec vos histoires de distance... Quand on vous montrera un iMac retina à côté d'un non-retina vous comprendrez l'utilité (même si le 27" actuel est pô dégueu). Franchement dire que ça ne sert à rien c'est quand même incroyable, ne serait ce que pour l'affichage du texte. Aussi j'ai une question : pourquoi parle-t-on de HiDPI ne devrait on pas dire HiPPi ?
avatar Anonyme (non vérifié) | 
nicogala : c'est surtout le but de ton propos qui est incohérent : "à 75cm c'est comme du rétina mais je suis plutôt à 55-65 cm" (donc tu vois les pixels) et tu me conseille de me mettre à 1m ? Bah super, à 10m le 3G et le 4S sont aussi tous les deux des Retina... mais pas en utilisation réelle. Avoir une meilleure résolution améliore la lecture, point. Quand l'antialiasing se fait sur une matrice composée de 4x plus de point, c'est plus net et c'est un vrai plus. Tu ne t'en rends pas compte parce que tout ce que tu vois est "optimisé pour la lecture à l'écran" (hinting...) mais dès que tu prends des polices qui ne sont pas optimisées pour l'écran, l'antialiasing est beaucoup plus présent et les caractères sont nettement plus flous. Il y a plein de polices qu'on s'interdit sur le web parce qu'à des petites tailles, c'est vraiment trop flou. Même avec ton "presque retina". De plus les antialiasings actuels utilisent souvent des astuces basées sur la disposition des leds dans les LCD ce qui rend parfois bien crado. C'est ce qu'on appelle le subpixel et celui de Windows est une horreur à mes yeux : je vois les couleurs dans un texte sensé être noir. Un peu de doc, tiens : http://www.smashingmagazine.com/2009/11/02/the-ails-of-typographic-anti-aliasing/ Donc non, ça n'est pas équivalent. Même quand tu ne vois plus les pixels (enfin... que tu crois), c'est plus flou si la résolution est juste limite et que l'illusion fonctionne en utilisant des astuces. Après si tu me dis que tu ne vois une droite parfaite sur cette image: http://img716.imageshack.us/img716/8492/linge.png c'est qu'il y a un problème. Et puis le retina serait bien agréable avec Exposée par exemple. Un dézoom qui reste lisible, je suis pour. De toute façon je ne vois pas pourquoi on se contenterait de ce qu'on a maintenant alors que les fabricants sont capables d'améliorer l'existant et qu'on peut constater la différence. On ne nous force pas à acheter.
avatar Anonyme (non vérifié) | 
lmouillart : bah justement, dans tes exemples tu en as un qu'on peut te retourner : l'immense majorité des appareils photo produisent déjà des images ayant des résolutions bien meilleures que ce que les écrans actuels sont capables d'afficher. Il est impossible d'afficher une image en ratio 1:1 sauf à zoomer sur une partie de l'image. Donc à la place, on dézoome et on se tape un antialiasing au passage. Mais c'est moins grave que pour le texte : on a rarement un détail de petite taille qui se détache nettement et qu'on fixe. Malgré tout ceux qui ont un bon appareil photo vont apprécier d'avantage le résultat avec la prochaine génération d'écran. Si le reste suit, bien sûr (contraste, couleurs, uniformité...).
avatar nutella3 | 
Faut savoir qu'un Retina sur Mac demanderait des GPU très puissants et du contenu à afficher "qui suit". Merci de pas confondre résolution (en ppp ou dpi) et définition (en pixels carrés). :)
avatar BeePotato | 
@ nutella3 : « Faut savoir qu'un Retina sur Mac demanderait des GPU très puissants » Les GPU sont déjà plutôt puissants par rapport à ce qu’on leur demande de faire tous les jours, non ? L’idée ne serait évidemment pas de leur demander de faire de l’affichage 3D complexe à cette résolution. « et du contenu à afficher "qui suit". » Le contenu est déjà là pour la majeure partie, en fait : une telle augmentation de résolution est surtout intéressante pour le texte, améliorant beaucoup le confort de lecture. Et l’affichage de texte, vectoriel par nature, profitera automatiquement de l’augmentation de la résolution. Une grosse partie des composants de l’interface graphique, fournis par le système, suivra aussi (enfin, on l’espère — pour l’instant, Apple n’a visiblement pas fini de tous les adapter). « Merci de pas confondre résolution (en ppp ou dpi) et définition (en pixels carrés). » Notons que les deux sont très liés quand on ne change pas la taille de l’écran — et c’est justement le principe de ce mode « HiDPI » : augmenter la résolution via une augmentation de la définition plutôt que via une diminution de la taille des écrans. Le tout en conservant une taille d’affichage identique pour les éléments graphiques.
avatar nicogala | 
@sunjohn : la droite je la vois bien lisse à... 2m sur mon écran 100dpi, je n'ai pas d'iPhone 4 pour voir si on la voit bien lisse à 30cm de distance (quelqu'un confirme ?) C'est évident ce que tu dis, je ne le nie pas, mais à quel moment seras-tu satisfait de ce que tu auras ? 200dpi ? 300dpi ? 400dpi ? Pour ce qui est des contenus : qd vous aurez un 27" "retina" ça vous donnera du 7000*4300 pixels à peu près, votre pauvre vidéo en 1920x1080 ou même le fameux "4K" de 4096x2160 seront tout petits au milieu de l'écran, faudra upscaler pour afficher un fullscreen et ça sera dégueu comme un divx de 700Mo de nos jours. Pour les photos, faudra avoir minimum un reflex (ou un moyen format) à capteur fullframe de 30Mp pour afficher en plein écran en 1:1, soit des appareils à +10 000€ (avec objectifs) donc ça intéressera pas grand monde avant très longtemps... Pour le texte ça ne sera pas une nécessité, mais un confort. Mais tout le reste en pâtira car l'écran n'est plus dévolu au seul texte depuis plus de 10 ans déjà : quelle carte graphique fera tourner le dernier jeu en 7000x4300 ? Que donnera un jeu en 2800x1720 sur un tel écran ? Ça fera juste pitié pour les gamers. Et pour les softs de rendu 3D ? quel gouffre ! ou alors les softs ne feront du rendu temps-réel qu'en mode ultra dégradé, réservant la pleine définition que pour l'export final... C'est toujours une course à plus de ci, plus de ça, mais au final sera-t'on capable de dire "stop ça va maintenant c'est très bien, pas la peine d'aller au-delà" ? Comme c'est le principe moteur de la consommation c'est pas gagné...
avatar BeePotato | 
@ nicogala : « mais à quel moment seras-tu satisfait de ce que tu auras ? 200dpi ? 300dpi ? 400dpi ? » Je crois qu’il l’a déjà plus ou moins dit (ou au moins sous-entendu) : à la distance habituelle à laquelle il se place par rapport à son écran, quelque chose entre 250 et 300 points par pouce devrait le satisfaire pleinement. Cela dit, ce qu’il a rappelé plus clairement, c’est que toute amélioration dans ce domaine est bonne à prendre, même si elle ne permet pas d’atteindre le seuil de non distinction des pixels. « Pour ce qui est des contenus : qd vous aurez un 27" "retina" ça vous donnera du 7000*4300 pixels à peu près » Le 27 pouces Apple actuel fait du 2560x1440. Une version compatible avec ce mode HiDPI affichera donc du 5120x3880. « votre pauvre vidéo en 1920x1080 ou même le fameux "4K" de 4096x2160 seront tout petits au milieu de l’écran » Pourquoi la vidéo serait-elle affichée en tout petit ? Qui serait assez stupide pour demander à l’afficher à un pixekl d’écran pour un pixelk de vidéo ? « faudra upscaler pour afficher un fullscreen » Pour afficher en plein écran sur un 27 pouces actuel, il faut déjà recourir à une mise à l’échelle. Aucun changement de ce côté-là. « et ça sera dégueu comme un divx de 700Mo de nos jours. » Il est tout à fait stupide de penser ça. Au contraire, la mise à l’échelle profitera de la résolution plus élevée pour produire un résultat plus fin que maintenant — le même film s’affichera donc plus joliment que maintenant. « Mais tout le reste en pâtira car l'écran n'est plus dévolu au seul texte depuis plus de 10 ans déjà » Pourquoi 10 ans ? Personnellement, ça fait 25 ans que j’utilise des Macs, qui affichent en permanence bien d’autres choses que du texte.
avatar BeePotato | 
« Pour les photos, faudra avoir minimum un reflex (ou un moyen format) à capteur fullframe de 30Mp pour afficher en plein écran en 1:1 » Plutôt 15 Mp, en fait (voir calcul plus haut). Mais je suis de toute façon d’accord que l’affichage en plein écran n’intéressera que peu de monde. Cela dit, la possibilité d’afficher même des photos de cette taille en 1:1 dans une fenêtre — elle-même entourée d’autres fenêtres comme des palettes d’outils — est tout de suite plus intéressante. ;-) « quelle carte graphique fera tourner le dernier jeu en 7000x4300 ? » 5120x3880. Mais pourquoi voudrait-on absolument faire tourner les jeux à cette définition ? Alors que cet écran sera parfaitement capable de les afficher, sans aucune déformation, à la définition actuelle, qui est déjà très élevée pour ce genre de logiciels ? Rien n’oblige à tourner à la définition native d’un écran, hein. « Que donnera un jeu en 2800x1720 sur un tel écran ? » 2560x1440. Ben il donnera strictement (pas « à peu près », mais [u]strictement[/u]) la même chose que sur un 27 pouces actuel. C’est tout l’intérêt de quadrupler la définition plutôt que de ne l’augmenter que d’un chouilla à la fois : ça simplifie énormément l’affichage des éléments graphiques non disponibles à la nouvelle résolution, et ça permet, si on le souhaite, de faire tourner certains logiciels à la résolution actuelle sans aucune déformation.
avatar nicogala | 
Tu prends plaisir à appliquer tes propres calculs à mes exemples, mais je ne t'ai pas parlé de "quadrupler" une [b]définition[/b] (d'ailleurs laquelle ? Celle du MBA (@135dpi) ? Celle de l'iMac (@108dpi) ? ) mais bien d'atteindre une certaine [b]résolution[/b] : 300dpi sur un 27 ça fait bien 7000x4300 (donc 30Mp) et c'est tout l'objet de mon propos : quelle sera la résolution qui satisfera les gens exigeants comme vous d'un côté et les utilisateurs principaux (de masse) dans leur utilisation multimédia de tous les jours ? A la limite que le principe existe (et soit au point) dans l'OS c'est bien, mais ça servira surtout à des "pros" sur des écrans externes hauts de gamme...(jusqu'à tant que tout le reste suive) Accessoirement on se cogne que tu affiches autre chose que du texte depuis 25ans (je suis sur mac depuis 22 ans mais j'en fais pas un argument) car d'une il n'y avait pas de films ou de photos telles qu'aujourd'hui, et de deux si on parle d'informatique multimédia généralisée grand public ça date de moins de 15 ans. (ne me dis pas que ça date de 16 ans, point ne sert d'être pointilleux ici) Tu juges la définition actuelle déjà très élevée pour les jeux vidéos... d'autres la juge déjà assez bonne pour du texte. Les avis divergent toujours selon les chapelles que les autres défendent... Bref, ce qui est indéniable c'est la capacité des cartes graphiques qui va devoir croître d'autant.
avatar BeePotato | 
@ nicogala : « mais je ne t'ai pas parlé de "quadrupler" une définition (d'ailleurs laquelle ? » Ben celle de l’écran 27 pouces Apple dont tu parlais. Tout simplement. Et je ne vois pas pourquoi tu viens ensuite nous parler de résolution pour choisir de quelle définition je parlais. :-P « mais bien d'atteindre une certaine résolution : 300dpi sur un 27 ça fait bien 7000x4300 (donc 30Mp) » Ah, ok. Désolé, moi je me mettais bêtement dans le contexte de l’article, qui parle du mode HiDPI de Mac OS, celui qui vise un doublement de la résolution des écrans compatibles (quelle que soit leur résolution d’origine) et non une résolution précise. Notons d’ailleurs que tu ne mentionnais pas de résolution précise dans ton propos, te contentant de parler de résolution « retina », ce qui est vague car décrit par Apple comme une résolution angulaire et donc dépendante de la distance d’observation. Enfin, bref, pas la peine de parler dans le vide d’un écran 27 pouces à 300 ppp juste pour faire peur en sortant des chiffres trop gros pour la technologie actuelle. Ici, on parle du mode HiDPI, donc de quadrupler la définition actuelle, ce qui semble à la portée de la technologie dont on dispose maintenant (enfin, mis à part le problème de l’écran lui-même, dont on ne dispose pas encore, et peut-être pas avant un bon moment). « A la limite que le principe existe (et soit au point) dans l'OS c'est bien, mais ça servira surtout à des "pros" sur des écrans externes hauts de gamme...(jusqu'à tant que tout le reste suive) » Faux. Ça servira à n’importe qui achetant une machine avec ce type d’écran — très probablement des portables pour commencer. « Accessoirement on se cogne que tu affiches autre chose que du texte depuis 25ans (je suis sur mac depuis 22 ans mais j'en fais pas un argument) » Note bien que je me cogne que tu t’en cognes. ;-) « car d'une il n'y avait pas de films ou de photos telles qu’aujourd’hui » Ben des images, tout de même, on en affiche depuis longtemps.
avatar BeePotato | 
« Tu juges la définition actuelle déjà très élevée pour les jeux vidéos... d'autres la juge déjà assez bonne pour du texte. Les avis divergent toujours selon les chapelles que les autres défendent... » Rien à voir : je le juge déjà très élevée pour la capacité actuelle des cartes graphiques. Ce n’est en rien une question de goût. Juste une remarque tout à fait objective. Tout de contraire d’un avis expliquant que 100 ppp suffisent bien pour le texte.

CONNEXION UTILISATEUR