Nvidia va bientôt abandonner la version macOS de CUDA

Nicolas Furno |

Cela fait tant d’années qu’Apple boude Nvidia au profit d’AMD pour les puces graphiques dédiées des Mac que c’était inévitable. Déjà que les cartes graphiques de dernière génération ne sont pas prises en charge officiellement par macOS, voilà un indice de plus que le constructeur abandonne peu à peu la plateforme. La version 10.2 de CUDA sera la dernière à prendre en charge macOS, les suivantes seront réservées à Windows et Linux.

CUDA est l’acronyme de Compute Unified Device Architecture et c’est une solution propriétaire de Nvidia qui permet d’exploiter une carte graphique pour exécuter des calculs génériques à la place du processeur. C’est une technologie concurrente d’OpenCL, un standard créé notamment par Apple et qui a longtemps été mis en avant dans macOS, même si Metal est censée prendre le relai. De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution maison.

CUDA a longtemps été privilégié par Adobe, pour l’accélération graphique de ses apps et notamment de Premiere, son outil de montage vidéo. C’est toujours le cas sous Windows, mais pour macOS, les apps sont aussi compatibles OpenCL et même avec Metal pour les versions les plus récentes. C’est peut-être aussi ce qui a poussé Nvidia à abandonner plus franchement encore les Mac.

Source
Tags
avatar raoolito | 

"De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution maison »

Je sors cette phrase à chaque fois que trop de gens me disent « mais crotte, pourquoi Cuda c’est pas un standard  ? »
Parce que Cuda est aux cartes Nvidia ce que Metal est à iOS/MacOs, pro-pri-é-tai-re
Perso je regrette plus l’abandon d’openGL/ CL sur Mac que l’absence de cuda.

avatar mimolette51 | 

Pour OpenGL je regrette aussi. Pour OpenCL beaucoup moins... OpenCL veut faire le meilleurs en permettant à un même code de tourner aussi bien sur CPU que GPU, hors c'est une grosse erreur : CPU et GPU ont des botlleneck très différents qui implique de coder différemment pour avoir le meilleurs résultat, c'est là que CUDA prend tout son sens.

avatar occam | 

@raoolito

Bein, dans les domaines qui me concernent, puisque j’y travaille, tant l’abandon du CUDA sur Mac que celui d’OpenCL par Apple, c’est splash suivi de pschitt.

Pour mémoire, au symposium HPC de Bristol, il y a dix ans exactement :
« New OpenCL software standard (based on CUDA and pushed by Apple) will probably run on all platforms »
https://people.maths.ox.ac.uk/gilesm/talks/bristol_hpc.pdf

Récemment, rapport sur l’état d’OpenCL d’Andreas Klöckner, qu’il n’est plus besoin de présenter ici :
« While Apple originated the OpenCL standard, the implementations they ship are borderline unusable due to bugs.
For CPU work, POCL can be built on macOS with little trouble (or see below under ‘Shipping Software’).
For GPU work, Linux provides a nicer environment. 
»

Update June 2018: Apple has deprecated OpenCL in favor of their own graphics abstraction, Metal, that is unavailable on any other platform. »
https://mathema.tician.de/the-state-of-opencl-for-scientific-computing-in-2018/

Apple a tout fait pour s’extirper de toute une catégorie de calcul scientifique. Domaine où sa présence était jadis vibrante, et bénéficiant d’un support quasi inconditionnel des utilisateurs et des devs scientifiques. On ne les reverra pas de sitôt.

avatar byte_order | 

@raoolito
> "De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution
> maison »
>
> Je sors cette phrase à chaque fois que trop de gens me disent
> « mais crotte, pourquoi Cuda c’est pas un standard ? »

Le hic, c'est que, contrairement a ce que cet article - qui cite un très vieil article datant de 2013 commer argument - NVidia *supporte* OpenCL. Ils fournissent une implémentation d'OpenCL pour leurs GPU, en parallèle de leur API CUDA proprio.

Par ailleurs, y'a des technos comme POCL qui permettent d'utiliser OpenCL avec un backend CUDA.

C'est surtout l'arrêt de la signature des pilotes de nVidia pour macOS qui empêche aujourd'hui d'utiliser des GPU nVidia sous macOS. Et cet arrêt est purement arbitraire (et probablement discriminatoire selon les lois de la libre concurrence, au passage).

avatar melaure | 

@byte_order

NVidia n'a pas obligation de développer pour macOS, mais si c'était le cas il faudrait aussi obliger Apple a livrer macOS pour n'importe quel PC (ce qui permettrait de s'affranchir du matos figé soudé et des configs riquiqui pour prix maxi).

avatar byte_order | 

@melaure
Je pense que Apple n'a pas fait d'effort pour signer les pilotes de nVidia parce que cela arrange sa stratégie financière (en particulier, pour vendre ses Mac Pro 2019 hors de prix avec *ses* cartes GPUs). C'est là que je pense qu'il y a potentiellement une entrave discriminatoire.

Mais je pense aussi que NVidia n'a pas fait particulièrement d'effort, tout simplement parce que l'usage de ses GPUs dans des Macs est désormais clairement une niche vraiment trop petite pour justifier les coûts de support de cette plateforme ultra-minoritaire chez leurs clients.

avatar stephane1982 | 

dommage !!!

avatar Fennec72 | 

Est-ce que sous Catalina les NVIDIA GeForce GT 750M fonctionnent avec Metal, notamment pour les app Adobe CC 2020?

avatar fousfous | 

Bonne nouvelle, nvidia avait réussi à presque verrouiller le marché avec ça, maintenant on respire avec AMD qui reprend des couleurs!

avatar romgiotti | 

@fousfous

Financièrement peut être des couleurs, mais sur les cartes, ils sont toujours nazes. Quels faux culs ceux qui se disent du métier des arts et utilisent des cartes AMD 😂

avatar fousfous | 

@romgiotti

Bah justement niveau carte AMD est plutôt pas mal, la différence c'est qu'ils se concentrent sur le milieu de gamme au lieu de faire des navires amiraux. Ça viens de la la différence de perception entre nvidia et amd, et quand je vois le prix des 2080...

avatar Valiran | 

@fousfous

Oui sauf que le marché a besoin de 2080Ti comme des 1650. AMD ne produit pas de 2080Ti parce qu’ils y arrivent pas. Dire quils se concentrent sur le milieu de gamme est faux.

avatar fousfous | 

@Valiran

Y a quand même la Vega 2 duo qui arrive.

avatar byte_order | 

@fousfous
Quand je vois le prix du Mac Pro 2019 et les perfs de ses GPUs pour ce prix, la différence de perception semble relever d'un champ de distorsion bien connu...

avatar pocketalex | 

@byte_order

vous comparez une carte certes puissante, je dis pas, mais conçue et dédiée pour jouera au jeux vidéos, la 2080Ti, et une carte Pro dédiée aux application GPU pros, la Vega 2 Duo

Comparez la Vega 2 Duo avec une P6000, ce sera un minimum plus sérieux

On est pas loin des gens qui comparent l'iPhone 11 avec un Reflex haut de gamme. C'est sur, l'iPhone 11 égale le reflex sur un certain type de photos, avec un certain éclairage. Le truc tout con, tout bête, ce que dès qu'on sort de ce cadre, l'iPhone 11 est à peu près aussi utile qu'un appareil Photo Fisher Price.

Et sinon on peut critiquer AMD autant que l'on veut ... les 5500m 8Go sont aussi performantes sinon plus que les GTX 1650 livrées dans les configs concurrentes (review laptopmag MacBook Pro 16 vs Dell XPS 15, j'attends de trouver des tests plus poussés ), donc à performances égales, dire que l'un "c'est de la merde" et l'autre "c'est génial" me parait un raisonnement fort douteux

avatar byte_order | 

@pocketalex
> vous comparez une carte certes puissante, je dis pas, mais conçue et dédiée
> pour jouera au jeux vidéos

Vous sur-estimez les différences de performance entre les modèles haut de gamme grand public et les modèles brandés comme "Pro".
La conception de l'architecture de ces GPU n'est pas "dédiée" au jeu vidéo ou pas, c'est sur le banc de validation que la puce est brandée, en fonction du nombres d'unités de calcul, de mémoire, de la bande passante maxi que les tests ont validé comme opérationnels.

Je pense sincèrement que 2 2080Ti ont plus de puissance que la Vega 2 Duo, par exemple.
En tout cas, dans les usages CPGPU que j'ai pu expérimenté (analyse d'ondes radio), la Vega II testé chez nous était légèrement en dessous de ce que l'on obtient avec la 2080Ti.

Par ailleurs, ce n'est pas moi qui ait osé comparer une 2080Ti et les dernières AMD 5x00, hein, mais @fousfous, qui pense que derrière le prix d'une 2080Ti y'a qu'une, je cite, "différence de perception entre nvidia et amd".

Enfin, où ai-je qualifié les GPU AMD de "merde" !? J'ai réagi uniquement sur la mise sur le même plan des dernières AMD et d'une 2080Ti, alors qu'elles ne le sont clairement toujours pas au niveau performance.

avatar marc_os | 

Nvidia, Microsoft, mêmes combats en des temps différents pour rendre le client captif via des technos propriétaires et fermées.
Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas ! Et si on le fait, alors juste un peu pour mieux dire oui mais.

avatar stefhan | 

@marc_os

Apple d’une certaine manière aussi...

avatar mansour | 

@marc_os

Oui mais à priori Metal et tout autant propriétaire 🤔

avatar marc_os | 

@ skynext

Apple ne fabrique pas de CG que je sache.

avatar TheUMan | 

Ah bon... et dans les appareils iOS y a quoi de l'Intel, du Nvidia ou de l'AMD ?
Toute la stratégie Apple est orientée vers la gamme de procs ARM (maison, les AX) et les CG seront également maison...
C'est pas innocent qu'ils poussent METAL depuis des années.

avatar marc_os | 

@ TheUMan
Ok. Explique moi alors le rapport entre iOS et Nvidia.
On parle des Mac ici, pas des iTrucs !

avatar byte_order | 

@marc_os
> On parle des Mac ici, pas des iTrucs !

Vous avez dit :
"Apple ne fabrique pas de CG que je sache."

Vous ne parliez pas de mac, vous parliez d'Apple.

Et Apple produit bien des GPU. Dans ses propres puces ARM, mais aussi sous la forme de cartes MPX pour le nouveau Mac Pro.

avatar marc_os | 

@ byte_order
Me contexte, mon cher, ne pas oublier le contexte !

avatar byte_order | 

@marc_os

En l'occurence, c'est vous qui avez chercher à sortir du contexte.
Le contexte c'est celui de l'article : une technologie permettant d'exploiter les capacités matérielles d'un GPU.
Votre propre commentaire "Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas !", ré-itérait ce contexte.

Ce dans votre commentaire suivant, en tentant de balayer un post qui soulignait que dans ce contexte, Apple abusait elle aussi de techno proprio avec Metal, que *vous* avez généraliser à toute technologie en dehors du contexte des technos des GPU.

L'oubli (si tant est qu'il s'agit bien d'un oubli involontaire, ce dont je doute fort), est donc de votre fait, ici.

avatar pocketalex | 

@marc_os

Moi il y avait un standard que j'adorais, c'était Flash. Bien programmé, avec des devs qui s'appellent des devs, on sortait des expérience interactives exceptionnelles, prenant en charge la puissance des appareils, donc optimisés, etc

Son principal souci : n'importe quel pouilleux de base pouvait sortir une animation lourde et moche qui plombe la machine qui va le lire, et bien souvent pour un usage inutile et ou du HTML serait préférable

Mais on m'a expliqué ici que c'est propriétaire, et que du HTML 5 nécessitant 4x plus de devs super pointus et couteux pour faire la même chose, c'était mieux

ce sont les mêmes qui m'expliquent ici que CUDA c'est parfaitement génial, et que c'est dommage que ça tourne pas sur Mac

En toute logique quoi

avatar mimolette51 | 

Non ça n'a strictement rien à voir, coder du cuda ou de l'OpenCL, ça demande le même genre de compétences. Et le noob peut faire de la merde aussi bien sur CUDA qu'OpenCL.
Propriétaire ou pas n'y change strictement rien!!!
Et il en est de même pour métal, si tu code ton shader comme une merde, ca sera mauvais!

avatar marc_os | 

@ pocketalex

Flash bien programmé ?
Non mais sans blague ?
Tu l'as utilisé ?
Pour ma part j'ai vu le tournant autour de 2000 avec Flash 5 quand ils ont abandonné toute optimisation Mac et ont fournit un machin optimisé pour Windows.
Avec un IDE où le curseur pouvait clignoter en même temps dans plusieurs champs de saisie. Impossible de savoir lequel a le focus, obligé de cliquer sur un champ avant de saisir une valeur. Avec un copier/coller qui faisait que la chaîne à coller pouvait contenir un caractère null terminal "visible", faisant boguer le collage.
Sans oublier les performances qui se sont dégradées au fil du temps.
Enfin, Flash n'a jamais été un standard de quoi que ce soit. Ça été juste un outil génial au début pour faire des animations vectorielles qui n'a ensuite été petit à petit utilisé que pour des pubs ou pour masquer la vraie source des vidéos affichées afin que nous ne puissions pas les stocker sur nos ordis...

avatar fousfous | 

@marc_os

Enfin même pour Windows si c'était un poil complexe les animations ça ramait à mort flash, quand je voyais les jeux qui tournait à côté sur mon ordi sans problème je me disais qu'il y avait un petit soucis d'optimisation.

avatar pocketalex | 

@fousfous

"quand je voyais les jeux qui tournait à côté sur mon ordi sans problème je me disais qu'il y avait un petit soucis d'optimisation"

euh, quels jeux ? des jeux du commerce ? des apps windows x86 ? tu compares des pommes et des poires là

avatar fousfous | 

@pocketalex

Je sais pas, crisis par exemple.

avatar pocketalex | 

crisis ???? 😳😳😳

on est sérieux la ? 🙄

avatar pocketalex | 

@marc_os

"Flash bien programmé ?
Non mais sans blague ?
Tu l'as utilisé ?"

Je ne suis pas dev flash, du moins pas dev as3. Je me suis arrêté à l'as2, après c'est un autre métier, un métier de développeur, moi je suis Directeur Artistique, donc je travaillais avec des gens bien plus compétent que moi pour la partie développement.

Mais oui, j'ai utilisé Flash, de sa première version vers 1997 à la fin (on va dire vers 2013, même si certains acharnés ont prolongé le plaisir), soit toute la durée de vie de cet outil

A l'arrivée d'as3, tu avait un véritable environnement de dev et avec de bonnes équipes, tu sortais de belles choses, bien optimisées (compteur de FPS sur chaque projet pour assurer la fluidité quelque soit la machine), mais je ne comprends pas ton commentaire car le développement n'est pas QUE l'affaire d'un outil, mais, me semble t'il, aussi et surtout du talent des développeurs.
Donc si certains sortaient des bouses lourdes et lentes, peut-être fallait il juger le développeur, plutôt que l'outil...

"Sans oublier les performances qui se sont dégradées au fil du temps."

Mouais ...

"Flash n'a jamais été un standard de quoi que ce soit"

Pas un standard W3C, non, tout comme CUDA n'est pas un standard mais une techno proprio, ce qui est mon unique point de discussion (expliquer au gens que telle techno proprio est mal, car proprio, pas standard, pas ouvert, pas documenté .... pour dire le contraire le lendemain sur une autre techno tout aussi fermée, mais tout d'un coup elle est géniale et il serait de bon aloi de l'imposer partout)

avatar en chanson | 

@marc_os

Tu as oublié Apple dans le genre 'rendre le client captif'

avatar marc_os | 

@en chanson

Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?
Non. De même, Apple a toujours permis de lire des disquettes MS-DOS sur Mac alors que Windows n'a jamais permis lire le format HFS, propriétaire certes, mais 100 % documenté contrairement à NTF propriétaire aussi mais non documenté.
Et si les concurrent ne sont pas capables de faire aussi bien qu'Apple, c'est pas la faute à Apple !

avatar byte_order | 

@marc_os
> Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?

J'ignorais que Google et DropBox étaient des technlogies de GPUs.

> Non.

Ben l'arrêt du support d'OpenGL, d'OpenCL et le refus de supporter Vulkan c'est pas Microsoft ni les lémuriens qui en sont responsables, mais bien une décision prise à Cupertino.

> Et si les concurrent ne sont pas capables de faire aussi bien qu'Apple, c'est pas la faute
> à Apple !

On parle toujours de GPUs là !?
Si oui, ~rires~ !!!

avatar marc_os | 

@byte_order

Je répondais à la généralité « Apple dans le genre 'rendre le client captif »

avatar byte_order | 

@marc_os
Vous répondiez à une réaction à votre déclaration initiale :

> Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas !

Je vois mal comment nier le fait que supporter Metal, de facto, rend tout aussi captif d'Apple que de supporter CUDA rend de facto captif de NVidia !

Apple supporte quoi comme technos "libres" pour les cartes graphiques ?
OpenGL ? Niet, fini.
OpenCL ? Niet, fini.
Vulkan ? Niet, toujours pas.

Merci de compléter cette liste, donc, avec la ou les technos libres pour cartes graphiques que j'aurais oublié.

Pour rappel, le mot "libre" est important ici, tout comme dans votre déclaration initiale.

avatar mouahahaha | 

"Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?"

Amusant, quand apple impose de passer par ses équipe de validations pour avoir le droit d'exister sur l'app store. Et a donc le droit de vie et de mort sur toutes applications d'un developpeur voulant fournir une application pour ios. :)

Mozilla aimerait bien utiliser son PROPRE moteur de rendu, qui est OPEN SOURCE ET LIBRE, mais ne peut pas car apple impose unilatéralement à ses clients comme aux développeurs l'utilisation obligatoire et sans dérogation possible de webkit...

Tu disais du coup ?

avatar Crunch Crunch | 

Tellement STUPIDE que Apple ne prenne pas en charge les carte nVidia !
Il y a certainement une raison à cela, mais je ne le comprends pas…

avatar Soner | 

@Crunch Crunch

Financière je suppose. AMD doit vraiment baisser le froc jusqu’aux chevilles. Et comme Apple aime marger encore plus peut être que les autres...

avatar pocketalex | 

@Crunch Crunch

une logique de gros sous, tout simplement.

avatar osxkiller92 | 

@pocketalex Non. Juste, à mon avis, à cause des chipsets graphiques qui merdaient à tout va...

avatar pocketalex | 

@ osxkiller92

Peut-être ... de toutes façon, qui connait la vraie raison, à part Dieu ... et Tim ?

il y a eu effectivement une mauvaise série à une époque, sur des laptops, mais cela m'étonnerait que ce soit la principale raison, et AMD a surement rencontré des séries foireuses à un moment ou à un autre

Le gros manque de bol, c'est qu'Apple s'est choisi AMD pile avant le coup de mou de ce dernier (coup de mou = on arrive pas a faire des CG aussi bien que la concurrence : soit moins puissante, soit aussi puissante mais plus énergivore), coup de mou qui a trainé des années, et qui est partiellement rattrapé récemment, mais on est pas encore au ratio puissance/performance qu'nVidia offre

Tout cela est cyclique, c'est comme le match Intel/AMD, longtemps AMD était à la traine, et aujourd'hui, ils sont devant, loin devant. Quand on voit les derniers threadripper, le i9 perd énormément d'intérêt.

Mais manque de bol ... Apple avait choisi AMD pile au début d'un mauvais cycle. C'est con hein.

avatar mouahahaha | 

"et AMD a surement rencontré des séries foireuses à un moment ou à un autre"

Yen a eu pas mal des séries foireuses chez amd ces dernières années. C'est vraiment juste une histoire d'argent.

Si c'était vraiment pour des raisons techniques apple n'utiliserait plus les cpus d'intel mais les apu d'amd, avec potentiellement la possibilité d'avoir des features/optimisations exclusives, comme c'est le cas pour les consoles de salons.

avatar Pierre H | 

Exactement. La série noire de GPU portables, c'est une chose. La réalité c'est que pendant que Nvidia poussait CUDA (avec succès), ils se sont aussi mis sur le marché de l'autopilote des bagnoles, et avec beaucoup de succès. Au moment où Apple commençait à peine à s'y mettre. Et Apple n'a jamais supporté de se faire griller la politesse sur un marché où elle comptait être la plus forte.

avatar en chanson | 

Il serait intéressant de faire les benchmark de la suite Adobe avec bootcamp Windows et sous Mac os. Les drivers graphiques sont mieux optimisés sous Windows notamment ceux de AMD

avatar fte | 

AMD ou Nvidia, qu’importe finalement. Ce qui est emmerdant, c’est de ne pas avoir le choix.

Après, si on pense aux consoles, pas le choix non plus. Mais avec une conséquence heureuse : les jeux sont optimisés, plus ou moins, testés en tout cas, on peut l’espérer, souvent, pour AMD, avec sans aucun doute cette fois des drivers affichant un bon niveau de performance.

Dommage que cette conséquence heureuse ne se retrouve pas sur Mac. La différence entre les drivers macOS et les drivers Windows est... sensible. C’est bien dommage.

avatar Almux | 

Encore un coup dur pour la 3D sur Mac.
Dommage! Quand je pense au superbes performances lors de la sortie des Mac Pro Octo en 2008...
Il n'y a pas assez d'actionnaires Apple qui font de modélisation et de l'animation!!!

avatar pocketalex | 

@Almux

oui et non

CUDA, c'est une techno de GPGPU spécifique Nvidia, c'est une excellente techno, très utilisée, mais ... ce n'est pas la seule techno (OK, il faut que les développeurs implémentent les alternatives .... OK)

Il y a une alternative de chez AMD, notamment prise en compte par C4D Mac

Après, j'ai envie de te dire... la 3D sur Mac ... ça fait belle lurette que dès qu'on pousse le curseur du professionnalisme et de l'exigence, tout le monde est sur PC.
Et je suis pas sur que l'arrivée du Mac Pro change grand chose, la majorité des gars qui bossent dans ce domaine utilisent des cartes graphiques grand public type GTX 1080 ou RTX 2080, et pas des P6000, donc lâcher 20 ou 30000€ dans une tour Mac Pro pour avoir les mêmes perfs (en rendu 3D) qu'une tour à 7000€ ...

"Il n'y a pas assez d'actionnaires Apple qui font de modélisation et de l'animation!!!"

Voila, tu as touché l'origine du problème 😂🤣

Pages

CONNEXION UTILISATEUR