iMac Retina : toujours pas de mode d’affichage cible, et probablement jamais plus

Anthony Nelzin-Santos |

Les iMac Retina 4K et 5K 2017 ne prennent pas en charge le mode « d’affichage cible ». Ce n’est pas une surprise : cette fonction, qui permet d’utiliser l’écran du tout-en-un comme l’écran externe d’un autre Mac ou par exemple d’une console de jeux, a disparu avec le passage au Retina. Mais il se dit qu’elle pourrait bien ne jamais revenir.

Nous évoquions, dans notre test de l’iMac Retina 5K 2017, une lacune de la norme Thunderbolt 3, qui comprend DisplayPort 1.2 (suffisante pour les écrans 4K et les écrans 5K à deux demi-dalles) mais pas DisplayPort 1.3 (nécessaire pour les écrans 5K à dalle unique). L’adoption du Thunderbolt à la mi-2011 avait déjà compliqué le fonctionnement du mode d’affichage cible, inauguré par l’iMac 27 pouces fin 2009.

Apple pourrait tenter de surmonter cet écueil technique… mais ne semble pas en avoir la moindre envie. Selon un représentant d’Apple cité par AppleInsider, en effet, « il n’est pas prévu que cette fonction réapparaisse » dans de futurs modèles. Voilà qui a le mérite d’être clair.


avatar docdav | 

Quel dommage pour tous les possesseurs de MB et d'iMac.
Penser à l'utilisateur...ils ont oublié...

avatar C1rc3@0rc | 

Objectivement je vois pas l'utilité.
L'iMac est un "all-in-one" on l'achete pour ça, pas pour en faire un ecran ou pour y connecter un ecran de son choix (enfin on peut connecter un second ecran, mais bon)

Autant le mode "target" est necessaire pour la maintenance, autant transformer un iMac en simple ecran???

Ce qui serait une reparation d'aberratio ce serait deja de rendre la RAM et le SSD accessibles et remplaçable. L'autre priorité c'est un cadre VESA d'origine!, comme ça n'importe quel constructeur peut enfin proposer un pied ergonomique a la place de la connerie de Ive qui ne permet que de recycler les vieux complement annuels des encyclopedies...

avatar SartMatt | 

L'utilité, c'est par exemple si tu n'as pas la place pour avoir plusieurs écrans, mais que tu as plusieurs sources (ordinateur, box TV, console...). Perso j'ai rarement eu une seule source connectée à mes écrans successifs...

avatar C1rc3@0rc | 

Ben dans ce cas tu achetes pas un all-in-one a ecran de 27", t'achetes un ecran multi-entree, ou mieux un switch qui dispactch l'ecran et le clavier entre les equipements...

De mon coté j'ai un ecran avec 4 entree: une pour mon serveur, 2 pour mes Mac, et une pour mes projets raspberry/arduino
Je switch des uns aux autres avec 1 boutons et j'ai meme un mode PIP capable d'incruster la video d'une source dans l'autre ou de partagé l'ecran en 2... ok c'est un 21/9.

avatar SartMatt | 

"Ben dans ce cas tu achetes pas un all-in-one a ecran de 27","

Ben pour les gens qui veulent un Mac, y a quand même pas trop le choix hein... Entre le Mac Mini anémique et le Mac Pro surdimensionné pour la plupart des utilisateurs, il n'y a que l'iMac...

avatar C1rc3@0rc | 

Sur ce coup tu n'as pas tort, la gamme Mac est tres desequilibrée et pas coherente... pour forcer les gens a prendre de l'iMac.

Mais c'est un mauvais calcul pour Apple: l'iMac accumule ainsi toutes les critiques et rancoeurs de ceux qui a defaut de mieux sont obligés de le prendre et s'en trouvent penalisé. L'iMac devenant alors l'antichambre du switch ou du hackintosh.

Ceci dit, il me semble que le MacPro n'est pas surdimensionné, le probleme c'est son prix. Mais bon avec l'iMacPro, le MacPro va devenir bon marché en comparaison :(

Mais il me semblle me souvenir que dans ton cas tu n'as pas de Mac

avatar fte | 

@C1rc3@0rc

"tu achetes pas un all-in-one"

Ah tiens. On achète quoi dans ce cas ?

avatar pat3 | 

@C1rc3@0rc

C'est quel modèle ?

avatar ddrmysti | 

Ou alors t'achète un all-in-one capable d'accepter des sources externe comme le faisaient les iMac avant. T'as jamais envisager celle solution comme possible sous prétexte que ce n'est pas ce que tu fais ?

avatar C1rc3@0rc | 

Si j'ai envisagé la solution mais ce n'en est pas une. Et non pas parce que cela ne convient pas a mon gout ou a mon utilisation, mais parce que c'est incoherent, dysfonctionnel et ineficace.

avatar ddrmysti | 

En quoi c'est incohérent, dysfonctionnel et inefficace ? Parce que tu ne le fait pas ? Tout comme tes pavés servant à rétablir la vérité sur l'inutilité de l'apple watch qui font toujours beaucoup rire ceux comme moi qui en ont une et qui la trouvent très utile ?

Si encore t'avais un argument qui ne tenait pas du "moi je ne fais pas comme ça, donc ceux qui le font sont dans l'erreur, ils devraient faire comme moi"

avatar harisson | 

@C1rc3@0rc

Marrant, j'ai le même setup écran sur mon bureau principal ^_^ (rasp/duino, 1 serveur Mac, 1 mac desktop, 1 serveur linux)

avatar C1rc3@0rc | 

marrant en effet, mais je pense qu'on est un certain nombre a avoir ce genre d'environnement.

Tu fais pas du GPGPU sur des donnees environemales collectées par des drones, entre autres, des fois?

avatar harisson | 

Je fais actuellement du BCI, du machine learning et des sciences cognitives (traitement et analyse EEG entre autres).

avatar fte | 

@C1rc3@0rc

Tu.

Je l'ai utilisé plusieurs jours par semaine pendant plusieurs années.

avatar occam | 

@C1rc3@0rc

"la connerie de Ive qui ne permet que de recycler les vieux complement annuels des encyclopedies..."

S'il y a une chose qui finira un jour ou l'autre par tuer l'iMac, c'est donc Wikipedia... ?

avatar Bigdidou | 

@occam

"S'il y a une chose qui finira un jour ou l'autre par tuer l'iMac, c'est donc Wikipedia... ?"

Remarque, si les dégâts de wikipedia,étaient aussi circonscrits, on s'en sortirait.
Je crains qu'il soient plus étendus et profonds ;)
Et toujours pas de cours lecture critique et de recherche d'une information ciblée dans les différents cours de sciences dures ou humaine au lycée, et même durant les premières années de fac dans certaines filières.

avatar debione | 

J'irai plus loin que toi... Pourquoi attendre le lycée? Les jeunes d'aujourd'hui sont des l'âge de dix ans sur le net, et un truc qui m'a vraiment marqué avec mon enfant de 8 ans a l'école c'est le manque de connaissance absolue des profs concernant les nouvelles technos... De ce point de vue c'est le néant absolu dans l'éducation, on en est encore dans les années 70 ( les claques en moins heureusement)

avatar occam | 

@Bigdidou

Nous nous éloignons du sujet de ce fil, mais l'occasion est trop belle pour ne pas ajouter un autre angle d'éclairage.

En 2006, à l'âge Précambrien donc (en ce qui concerne Wikipedia) je participais à un colloque organisé par des facultés allemandes et suisses sur la question : « Faut-il proscrire Wikipedia à l'université ? »
La meilleure réponse fut donnée par un biologiste moléculaire : Non, il faut l'y écrire.

Ma contribution, sur le double thème du « bazar et de la cathédrale » d'une part, du Hitchhiker's Guide to The Galaxy comme précurseur de Wikipedia d'autre part, fut précédée d'une citation :

« Parce qu’ils auront confiance dans ce qui est écrit, c’est par l'extérieur, par des impressions venues d'autrui, et non plus du dedans et du fond d’eux-mêmes, que les hommes chercheront à se ressouvenir. ...
Tu donnes à tes disciples seulement la présomption d'avoir appréhendé la science, mais non pas la science elle-même. Quand ils auront, en effet, beaucoup appris en autodidactes, ils s’imagineront devenus très savants, et ils ne seront pour la plupart que des ignorants présomptueux, des savants imaginaires au lieu de vrais scientifiques. »

Ce sombre passage fit l'accord général, à l'exception notable d'un helléniste distingué venu se perdre dans le labyrinthe d'internet. Il ricanait doucement, pour avoir reconnu le passage, tiré du « Phaîdros » (Phèdre) de Platon, écrit vers 370 avant notre ère. Platon y fait raconter à Socrate l'histoire du dieu égyptien Thot, apportant aux Égyptiens le divin cadeau de l'écriture. Mais le roi d'Égypte, Thamous, saisit immédiatement le péril intellectuel de cette innovation technologique et fit au dieu la réponse citée.

De tout temps, les progrès de la civilisation ont aussi marqué sa ruine. De tout temps, le vrai savoir s'est perdu et la sagesse a disparu. De tout temps, nous sommes au bord du précipice.
L'important, c'est de faire un grand pas en avant, le regard dans les étoiles... ?

avatar Nico S | 

@occam

"De tout temps, les progrès de la civilisation ont aussi marqué sa ruine. De tout temps, le vrai savoir s'est perdu et la sagesse a disparu. De tout temps, nous sommes au bord du précipice."

...quand-même. Dans une discussion qui parle d'une fonctionnalité d'un iMac. Y en a qui semblent adorer l'odeur de leurs pets.

avatar Bigdidou | 

@Nico S

"Dans une discussion qui parle d'une fonctionnalité d'un iMac. Y en a qui semblent adorer l'odeur de leurs pets."

Vous avez tout à fait raison.
Les insultes et les propos désobligeants sont bien plus intéressants.
On prend son plaisir où on peut.

avatar C1rc3@0rc | 

@Nico S

Ben y a quand meme un nombre, certes de plus en plus reduit, de personnes utilisant un Mac pour leur travail, et fatalement en parlant d'usage, on parle du cadre. Et certains ont un travail ou ils creent et produisent de l'information, parfois complexe, et sont alors amené a raisoner selon leurs habitudes, avec de la logique et des arguments...

Tout le monde n'admire pas les qualités de l'iMac pour regarder TF1 sur son petit canapé de sa chambre de bonne en banlieue parisienne...

avatar Bigdidou | 

@occam

"La meilleure réponse fut donnée par un biologiste moléculaire : Non, il faut l'y écrire."

Certes.
Mais c'est hélas un voeux pieu.
Loin de moi l'idée qu'il faut conserver le savoir à quelques uns, bien au contraire !
Internet est un formidable outil de diffusion de la connaissance vulgarisée (au bon sens du terme) ou très pointue. Nous vivons un rêve fou que nous n'imaginions même pas quand nous étions étudiants.
Ce que je reproche à Wikipedia, c'est son mode de fonctionnement et sa qualité très inégale et aléatoire.
Difficile de faire confiance dans des domaines que je ne connais pas quand des domaines que je connais, les choses sont exposées avec un parti pris évident ou en reprenant de veilles notions tout à fait dépassées.
Ca reste quand même du sport d'aller chercher la bonne info sur internet, d'autant qu'elle est souvent cachée dans des moteurs de recherche ou des bases de données spécialisées (toute la littérature scientifique par exemple).
Après, je n'ai pas de modèle à opposer à celui de wiki, c'est vrai, sans compter le prix d'accès souvent très élevé de l'accès à la littérature scientifique, qu'elle soit de base ou très pointue.

avatar harisson | 

@Bigdidou

Pour ma part, je pense que wikipedia ne peut être qu'un vague point d'entrée pour un début de savoir. Il ne peut être une référence même si il a le mérite d'exister.

Pour la recherche d'info ("la bonne"), il faut se constituer sa propre base de références qu'elle soit juste ou non, pertinente ou non, mais toujours être au plus proche de l'émetteur de la source (qui peut elle-même être biaisée par la subjectivité de son auteur ou le contexte dans lequel il se trouve). Pour le scientifique, il y a arXiv qui peut-être un bon point de départ ;)

La citation d'@occam est, de mon point de vue, très savoureuse parce que nous sommes condamnés à n'être que des ignorants présomptueux (scientifiques ou non).

avatar Bigdidou | 

@harisson

Nous avons donc à peu près le même point du vue.
Je viens de relire la page wiki sur la morphine, c'est effrayant, et très mal écrit en plus.
Je regrette qu'on forme aussi peu les collégiens et lycéens (voire les étudiants de fac) à la stratégie de recherche de l'information sur le web.
Je vois bien pour leurs exposés : on leur 'interdit" d'utiliser wiki, mais on ne leur enseigne pas d'autre alternative, au fond.Mais on va encore nous dire qu'on dérange en bavardant.

avatar harisson | 

@Bigdidou

J'ai été, dans mes études supérieures, outre l'ingénierie informatique et autre "managerie", formé à la veille, l'information et l'intelligence économique (je suis tombé sur ce module un peu par hasard ^_^) et je peux te dire que la recherche d'informations sur Internet (et en général) est un vrai sacerdoce, voire un exercice un peu vain...

Je pense qu'il manque un outil de mesure sur wikipedia pour définir la fiabilité des informations d'une page (certes, qui aurait tendance à être subjectif ou superficiel), mais bon comme toute encyclopédie (papier ou électronique), si on n'approfondit pas le sujet qui pourrait nous intéresser en multipliant les supports (expérience individuelle personnelle et pro, bibliographies papier de référence, publications scientifiques, suivi de personnes du domaine concerné à travers leurs blogs, commentaires sur des sites d'informations voire marchands, émissions télés même si, avec le temps, elles deviennent, à mon sens de moins en moins pertinentes, malgré quelques micro-fulgurances*, émissions radios, etc).

Concernant l'enseignement, je dois t'avouer, qu'à mon sens, il y a plusieurs problèmes fondamentaux liés à la surcharge informationnelle (le fameux déluge d'informations et de données).

Définir des stratégies de recherche de l'information sur le web ne me paraît pas une bonne approche, j'aurai plutôt tendance à définir un référentiel multi-support sur un sujet donné et inciter l'élève à creuser et créer son référentiel enrichi (et si il ne le fait pas, tant pis pour lui , note < 10 ^_^).

--

"Mais on va encore nous dire qu'on dérange en bavardant."

Il faudrait, à mon avis, que tu échanges ton point de vue avec d'autres personnes (parents d'élèves, fondation wikipédia, voire politiques) qui seraient plus à l'écoute sur ces problématiques.

--
*J'ai regardé hier nuit l'émission sur France2, et un académicien (Marc Lambron) a indiqué que l'académie avait dans l'intention de mettre à dispo, gratuitement, l'intégralité de leur dictionnaire \o/.

avatar MarcMame | 

@C1rc3@0rc

Je suis tout à fait d'accord avec toi.
JE n'utilise pas cette possibilité DONC elle est forcément inutile.
Être égocentrique a parfois du bon...

avatar occam | 

@docdav

"ils ont oublié..."

Plus précisément, ils ont embarqué une lacune et débarqué une fonction.

avatar iapx | 

J'ai eu plusieurs iMac 27", depuis un 2009 jusqu'au premier iMac 27" 5K, avec des laptops (MacBook Pro retina 13", plusieurs et MacBook retina 12" plusieurs).

Mon mode d'usage était toujours de passer le MacBook en mode "cible" (Target) et là d'utiliser a CPU puissante, la GPU t la RAM de l'iMac en gardant ainsi mes données dans l'ordinateur portable, pas de synchronisation, mon bureau et tout parfaitement là où je l'attend: le meilleur des deux mondes.

Et on peut encore le faire à travers USB3 bien sûr pour un MBr 12" et un iMac 27" 5K récent!

avatar Wolf | 

C'est dommage c'est ces petits détails qui font la différence entre un Mac et un PC (sans oublier l'énorme bouze qu'est Windows)

avatar fte | 

@Wolf

Il y a ceux qui ne savent pas l'utiliser et qui pensent que c'est une bouse, et les autres qui ont appris.

avatar macfredx | 

@fte

Sans aller jusqu'à dire que c'est une bouse (ce qui est faux), je n'ai toujours rien trouvé qui pourrait me donner envie de passer sur Windows à la maison (au boulot je n'ai pas le choix... ) ?

avatar fte | 

@macfredx

J'ai avec surprise découvert une gestion des fenêtres extrêmement agréable et pratique et un support multi-écran irréprochable.

Aucune saute de wifi aussi, et des transferts réseau SMB beaucoup plus rapides.

avatar tbr | 

@fte
1/ Il y a ceux qui ne savent pas l'utiliser
2/ et qui pensent que c'est une bouse,
3/ et les autres qui ont appris.

3/ Je pratique (ou plutôt je suis contraint) ce truc depuis Windows 3.1 (alors je connais)
2/ et depuis que j'utilise Mac (en 2006), je ne l'apprécie que mieux
1/ Bref, d'expérience, je sais donc très bien les utiliser tous les deux et je ne parle pas d'utilisation occasionnelle (15h/j en moyenne depuis 3.1)

Mais Windows restera toujours une bouse pour pas mal de raison inhérente à son ergonomie incompatible avec ma productivité au travail.

C'est bien simple — BYOD —, je perds un temps fou en manipulations stupides avec le Windows 7 , que je n'ai pas à supporter sur Sierra... je passe les détails

avatar fte | 

@tbr

Ah pardon, pendant un très court instant j'ai cru que tu disais que Windows était une bouse, alors que tu disais que tu trouvais Windows déplaisant pour toi. Désolé.

avatar Bloodwave | 

" C'est bien simple — BYOD —, je perds un temps fou en manipulations stupides avec le Windows 7 , que je n'ai pas à supporter sur Sierra... je passe les détails "

Dommage de ne pas donner de détails, car dans ce cas, il est difficile de juger si ce sont les manipulations qui sont stupides, ou bien le manipulateur...

avatar tbr | 

@Bloodwave

"Dommage de ne pas donner de détails, car dans ce cas, il est difficile de juger si ce sont les manipulations qui sont stupides, ou bien le manipulateur..."

Tu as raison. Difficile pour moi de les décrire mais je vais essayer.

2 exemples :

1/ je travaille en graphisme — Adobe Photoshop, Illustrator et Indesign — et j'ai souvent Safari et un TextEdit ouverts pour y puiser des ressources...
Bref, le train-train quotidien.

> sur Sierra, Si une fenêtre est ouverte et a le focus, cela n'empêche point de manipuler "par-dessous" les autres fenêtres. Par exemple, je peux donc avoir le focus sur une zone de texte à remplir dans Indesign et glisser mon curseur hors du logiciel Adobe — que j'ai fenêtré — pour sélectionner/copier ce que je veux, sans perdre indesign de vue, dans TextEdit, ouvert juste à côté, en petit, et le coller dedans.

> Sur Windows, impossible de manipuler quelque élément que ce soit "par dessous" si tu n'as pas le focus. Il faut que ce qui serait ton éditeur de texte devienne l'élément principal, en étant au-dessus de ton logiciel de PAO, pour pouvoir copier ton texte, puis sélectionner de nouveau ton logiciel de PAO... pour coller ledit texte. Si tu as pas mal de fenêtres ouvertes, bon courage pour retrouver celle qui t'intéresse.

C'est complètement débile ! Ce genre de conneries est si exaspérante que je craque. Mon calmant > Sierra et sa facilité d'emploi.

2/ plus navrant encore, surtout pour mon boulot. Je n'ai plus le terme* technique exact mais si je zoome beaucoup sur un caractère,

> sur Sierra, l'anti-aliasing* garde un effet de flouté plus naturel, plus proche de ce que cela donnera réellement.

> tandis que sur Windows, c'est simplement dégueulasse, grossier. Bref, inexploitable.

On dirait que Microsoft ne sait pas ce que c'est de bosser autre chose que des feuilles de calcul Excel, des camemberts copiés/collés dans PowerPoint, etc.

Bref, ces 2 exemples seulement...

Et ce dernier, pour la route : Quickview ! Inexistant sur Windows. Indispensable pour moi. Je l'utilise absolument partout, à tel point que je découvre parfois au hasard de nouvelles subtilités. Ce truc est génial !

* il ne s'agit à proprement parlé d'anti-aliasing, il me semble, mais d'une manière très particulière qu'a Apple de traiter l'affichage des caractères sur ses écrans.
Je me demande si c'est encore le cas avec le Retina.
En tout cas, je n'ai pas ce type d'écran avec mon "vieux" MacBook Pro de 2012 mais je peux dire que c'est plus efficace que le hp et son écran pourri.

avatar Bloodwave | 

Donc en résumé, dans TON boulot pour TON utilisation, parce que tu dois faire un clic de plus pour sélectionner une fenêtre et que tu as des difficultés à te repérer dans les fenêtres (franchement autant je comprends pour l'histoire du clic de sélection, mais alors pour ne pas réussir à repérer la fenêtre...) 

Pour le flou et l'aliasing, cet illustrateur qui utilise un Ipad et une Surface arrive pourtant à faire un zoom vectoriel, .Après je ne suis ni graphiste ni illustrateur, on parle peut être de deux choses différentes. https://youtu.be/fpZK_DRjLgs

Pour Quick Look, il n'y a pas de logiciel en natif certes, mais tu peux trouver des alternatives assez facilement (Seer de mémoire). 

"Mais Windows restera toujours une bouse pour pas mal de raison inhérente à son ergonomie incompatible avec ma productivité au travail."

Mouais, on va dire que ça ne correspond pas à TES usages bien précis plutôt. Note que je peux dire la même chose de MacOS me concernant.

avatar Nico S | 

@Wolf

"énorme bouse", tu peux développer ?

avatar Madalvée | 

Tant pis, ça ne me manquera pas, je ne savais pas que ça avait existé… Mais pour le prix de l'iMac Pro ils pourraient faire un effort sur ces petits détails.

avatar alan1bangkok | 

Un banal miroir ..et le tour est joué

avatar xDave | 

C'est très con.
Surtout le jour où la CM meurt et qu'on ne peut même plus utiliser liMac comme écran.
Effectivement la bécane est moins chère qu'un autre ordinateur + écran 5K mais durée de vie limitée.

avatar SartMatt | 

À la base, ce qui est très con, c'est le tout en un, qui aligne la durée de vie de tous les composants sur celle du moins durable...

Parce que de toute façon, si la CM est foutue, même les iMac avec mode target ne sont à priori plus utilisables en mode target... L'entrée vidéo n'est en effet pas branchée directement au scaler de l'écran, mais à la carte mère...

Donc ça dépend au minimum du bon fonctionnement du CPU (c'est lui qui exécute le bout de logiciel qui permet d'activer ou non le mode target), de la RAM (utilisée par le CPU), de l'électronique de la carte mère qui gère la bascule du port...

Et accessoirement, utiliser un iMac en mode target comme écran principal, il me semble que ça consomme nettement plus qu'utiliser un écran dédié...

avatar C1rc3@0rc | 

«Donc ça dépend au minimum du bon fonctionnement du CPU»

Avant le CPU, il y a l'alimentation et la connectique...

Et il me semblait que le mode target etait au niveau du BIOS. Ou alors tu parles du mode target de l'ecran et pas du mode target qui consiste a voir le Mac comme un simple disque dur.

avatar SartMatt | 

"Avant le CPU, il y a l'alimentation et la connectique..."
On partait de l'hypothèse où c'est la carte mère qui est défectueuse, pas l'alim. Pour que le mode target marche avec une carte mère défectueuse, il faut quand même que pas mal de fonctions assurées par la carte mère marchent, et en premier lieux la gestion du CPU.

Et c'est valable pour les deux mode target, même si la gestion soft de ces modes se fait au niveau de l'EFI : c'est le CPU qui exécute le code de l'EFI !

avatar John McClane | 

@SartMatt

Effectivement mon iMac mi-2010 chauffait énormément en mode Target lorsque j'y branchais ma PlayStation ! Je le branchais avec un adaptateur HDMI-MiniDisplayPort, et je pense que l'iMac "travaillait" pour afficher la console sur l'écran.
En tout cas c'était bien pratique.

avatar xDave | 

Je suis bien d'accord avec toi, le AIO c'est le mal! :-)
Le tout soudé c'est le mal !

Je ne sais pas si ce mode "écran" est utilisable si la CG est morte sur l'iMac, je n'ai pas d'iMac de cette génération.
En revanche j'ai eu pas mal d'ordinateurs différents et mon constat est que le point de fragilité le plus courant après le disque dur est la carte graphique. Que ça soit sur du soudé (iMac, Portable) ou de la tour PCI.

avatar curly bear | 

Et comme Apple ne met pas à jour son Mac mini, je suis un peu inquiet. Si mon iMac claque, je ne vois pas ce que je peux faire pour avoir un écran que je peux partager entre un Mac et un MacBookPro.

avatar C1rc3@0rc | 

Acheter un ecran ?

Sinon, je vois pas le rapport avec le Mac Mini.

avatar debione | 

Et rapporter l'autre (celui de l'iMac) en magasin pour finir au fin fond d'une décharge en Inde ou en Afrique... Une belle leçon d'écologie sauce Apple...

Bon en même temps comme ils disent dans la pub: "Quoi des espèces sont en voie d'extinction? Pas grave on en trouvera d'autre" ou "2 degré? Mais c'est quedalle"

Pages

CONNEXION UTILISATEUR