AMD : le support de la Radeon VII est en vue sur Mac

Mickaël Bazoge |

AMD a dévoilé sa nouvelle Radeon VII début janvier, un bien joli GPU qui pourrait trouver sa place dans les futures machines Pro d’Apple. Il reste cependant à développer les pilotes qui vont bien, et visiblement les travaux ont commencé. macOS 10.14.4, actuellement en bêta, contient un identifiant PCI au nom de la dernière carte Vega d’AMD.

Pierre Dandumont rapporte que la Radeon est référencée dans une poignée de pilotes AMD dans la seconde bêta de macOS 10.14.4, mais que l’accélération vidéo est encore aux abonnés absents. Le GPU n’est pas pris en charge par les boîtiers externes, et pas pas non plus par Windows 10 via Boot Camp en eGPU.

Le support de la Radeon VII est donc dans les tuyaux du côté d’AMD et chez Apple. Tant mieux, car cette carte a quelques arguments à faire valoir : gravure en 7 nm, bande passante de 1 024 Go/s, 16 Go de mémoire vive, des performances à la hauteur de la RTX 2080 de Nvidia.

Selon les premiers retours chez Tom’s Hardware ou Les Numériques, les performances sont certes au rendez-vous mais les tests pointent le bruit de la carte, sa consommation énergétique et son prix (elle est actuellement vendue 739 €). C’est là qu’on regrette l’absence de support des GPU Nvidia dans macOS Mojave, qui serait bêtement bloqué par la direction d'Apple

Source
Tags
avatar jackhal | 

"C’est là qu’on regrette l’absence de support des GPU Nvidia dans macOS Mojave, qui serait bêtement bloqué par la direction d'Apple…"

Il y a des Mac dont on peut changer le GPU ?

avatar Mickaël Bazoge | 
Dans les boîtiers externes. Sinon il y a les anciens Mac Pro -> https://www.macg.co/mac/2018/09/mac-pro-apple-liste-les-cartes-graphiques-compatibles-avec-macos-mojave-103717
avatar Moonwalker | 

eGPU et Hackintosh ce n'est pas le problème d'Apple.

Est-ce que les Mac Pro équipés des deux cartes indiquées dans l'article cité fonctionnent avec Mojave ? Là est la question.

avatar Mickaël Bazoge | 
Le hackintosh certes, mais macOS Mojave prend en charge les eGPU (après, il faut que la carte de l'eGPU ait les pilotes qui vont bien, certes).
avatar fousfous | 

Il ne faut pas oublier que les cartes AMD bénéficient d'instructions utilisé par les logiciels pro et chez nvidia pour avoir ces mêmes instructions il faut payer bien plus chère, les GeForce sont faites pour les joueurs et pas pour les Pro.
C'est d'ailleurs pour ça qu'Apple prend du AMD, beaucoup plus adapté pour les pros que du nvidia.

avatar Mamdadou | 

@fousfous

Cela dépend de ce que vous entendez par pros... Les Nvidia sont plus adaptées pour du 3D ou du ML/DL.

avatar occam | 

@fousfous

"C'est d'ailleurs pour ça qu'Apple prend du AMD, beaucoup plus adapté pour les pros que du nvidia."

Ben voyons :
https://www.pugetsystems.com/labs/articles/Premiere-Pro-CC-2019-CPU-Roun...

Les résultats relativement piteux des Mac laissent planer un doute quant à la notion de Pro, dans l’usage fait par Apple des GPU AMD.

Pour ce qui en est de Nvidia, pardon, mais même au prix fort, j’en redemande :
https://www.pugetsystems.com/labs/articles/SOLIDWORKS-2019-Quadro-GPU-Pe...

Quand un Mac Pro sera capable de performances de cet ordre de grandeur, le débat AMD vs Nvidia aura un sens. Dans l’état, c’est une dispute théologique sur le sexe des anges.

avatar fousfous | 

@occam

Lit l'article d'anantech, ils parlent un peu des performances FP64.

avatar Mamdadou | 

@fousfous

Sauf que sur ces cartes la consommation est bien plus importante.

avatar Shralldam | 

@fousfous

Ceux qui font du calcul parallèle, notamment en rendu GPU, diront le contraire. Et les GeForce conviennent très bien à cet usage. On voit des PC équipés avec plusieurs 1080 Ti pour ce type d’application. Pourtant, ce sont des cartes « gaming ».

avatar oomu | 

ça donne d'excellents résultat rien qu'avec iray en mode architecte. Le gain est presque linéaire (lié au nombre de coeurs cuda à génération égale).

NVidia d'ailleurs a hésité à franchement forcer à quadro ou à laisser du semi-pro viable avec de simples cartes de jeu. Actuellement, l'idée est, comme chez intel avec les -X, d'avoir un segment "enthousiaste" très cher et haute perf sans tomber dans les prix du monde pro, pas de support, et quelques fonctionnalités jugées non essentielles bridées.

Et sinon, y a les produits tesla pour du e-gpu en masse, aux prix taillés pour entreprises (en gros: hors de prix).

avatar en ballade | 

@fousfous

🤪🤪🤪

avatar bigVince | 

@fousfous
Je pense que tu ne sais pas de quoi tu parles camarade. Monteurs et animateurs temps réels utilisent la techno CUDA pour l’accélération. Une techno pro NVIDIA transformant le gpu en super calculateur pour les opérations lourdes (encodages, effets temps réel, filtres dynamiques, etc..). Seule Apple FCPX (ou presque) tire partie des gpu AMD bas de gamme destinés au gaming et c’est la raison du changement. Ces cartes coûtent moins cher et les MacBook Pro sont orientés freelance qui sont la cible marketing de FCPX et qui sont plus près de leurs sous que les studios de compositing. Malheureusement pour ceux qui sont multitâches, comme moi, la suite Adobe CC a fait le choix des perfs et de CUDA depuis des années. J’avais pris un MBP 2014 équipe d’une 750M parce que les bench en encodage MP4 sont sans appel en comparaison avec les mbp Amd 2017. Je suis contraint de rester sous 10.13 car Apple bloque les pilotes NVIDIA sous Mojave. Si cela dure, je serais contraint de switcher PC pour maintenir mon workflow Adobe et garder mes clients... je suis vert...
Bref, les cartes AMD ne sont pas orientées pro, mais ce sont des bouses cheep orientées gaming et profit pour Apple. CQFD.

avatar flux_capacitor | 

NVIDIA CUDA & Adobe, ainsi que les softs pros de montage vidéo et de compositing (hors Apple FCP, qui utilise OpenCL) : tu as tout dit. Les foufous pro-AMD lentes bruyantes et consommatrices (mais pas chères !) vivent dans un monde alternatif bien peu en rapport avec la réalité.

avatar Pipes Chapman | 

ça c'est un discours... et comme toute " pensée obligatoire" ... pas forcément la réalité

que se passe -t-il quand on juge "sur pièce" , concrétement

(oups ... :) )

avatar fte | 

@fousfous

"les GeForce sont faites pour les joueurs et pas pour les Pro."

Tsss. Je vais aller dire ça aux divers pros que je fréquente qui ont des GeForce. Ils vont bien se marrer.

"C'est d'ailleurs pour ça qu'Apple prend du AMD, beaucoup plus adapté pour les pros que du nvidia."

Sérieusement ? 🔮

avatar Ghaleon111 | 

Et ouais, chez Apple on paye une fortune pour n'être compatible qu’avec des cg à la ramasse avec moins de technologie que chez nvidia et qui en plus bouffe énormément d'énergie en plus d'êtres bruyante!
En plus en egpu c’est incompatible avec boot camp donc inutilisable sur Windows qui a les drivers les plus performant.
Raz le bol de cette prison qui n’est plus aussi doré qu’avant.

avatar Mamdadou | 

@Ghaleon111

"À la ramasse" n'exagérons rien quand même. Ces cartes offre des perfs très convenables (niveau d'une 2060/70).

avatar Ghaleon111 | 

@Mamdadou

700 euros pour ce niveau de perfs et une conso hallucinante c’est un peu à la ramasse et en plus pas de dlss.

avatar oomu | 

tutut, le geek ne communique qu'en hyperbole

on dit donc "*insert manufacturer of the day* fait un produit à peine digne d'un cafard sous ecstasy du siècle dernier, véritable sac à vomi".

Cela dit, je continue de penser qu'Apple a eu tort, pour le client final hein, nous, d'avoir choisi uniquement AMD.

avatar koko256 | 

Ah.... les foufous qui achètent pas chers. Quels c...

Belle mentalité.

avatar oomu | 

haha oui, quels cuistres, je leur jette mon champagne à la figure.

avatar oomu | 

une des principales différences entre les geforce et quadro (la déclinaison "pro" pour station de travail), c'est le support de FP64, le calcul en nombre flottant (à virgule) sur 64b.

Mais le FP64 n'est pas nécessaire pour nombre de tâches pro, dont par exemple le rendu 3D (via CUDA) ou le montage vidéo.

De fait, les geforces sont peut être des cartes "gaming", mais on les retrouve très souvent chez les enthousiates, les semi-pro, les indépendants et nombre de professionnels.

Les versions TI ont un grand nombre de coeurs cuda, 11Go de v-ram et sont tout à fait capables de bouffer du travail.

-
AMD a aussi des déclinaisons "pro" de ses cartes, "Radeon Pro" et autres noms selon les années. Avec divers choix pour les différencier des cartes grand public.

-
A mon sens, le choix unilatéral d'AMD par Apple est une erreur majeure. Apple fait l'impasse totale, sans donner le choix à ses clients, sur CUDA.

Or, CUDA est redoutablement efficace et répandu. NVidia y a investit sans cesse et cela se voit, pendant qu'OpenCL reste négligé, et cela même par Apple. Au final, on a moins de performance pour le même prix en calcul gpu sur amd que sur nvidia.

Sans parler que nombre de logiciels font l'impasse sur opencl pour ne proposer que du cuda. Ou que la partie opencl si existante est en retard.

-
et pour le jeu vidéo, encore une fois, j'aurais tendance à dire que nvidia est bien plus intéressant qu'amd. Maintenant que les gpu nvidia vont s'ouvrir à "freesync" (dans sa version normalisé VESA), c'est je pense le dernier frein qu'un joueur passionné pouvait avoir.

avatar Un Type Vrai | 

Reste l'autre débat, Vulkan vs Metal.
Apple s'isole et on va finir avec un Quickdraw 3D, technologie superbe mais tellement isolé et qui a fini par ne plus évoluer qu'il faudra tout jeter et recommancer de 0.
C'est pas compliqué, chaque fois qu'Apple a tourné le dos au standards de fait, ça se fini mal.

Donc oui, Apple devrait se mettre a Cuda, Nvidia et Vulkan pour être dans la course dans 5 ans.

avatar davideneco | 

Plus rapide carte du marché maintenant

La 2080ti en pls

CONNEXION UTILISATEUR