Nvidia va bientôt abandonner la version macOS de CUDA

Nicolas Furno |

Cela fait tant d’années qu’Apple boude Nvidia au profit d’AMD pour les puces graphiques dédiées des Mac que c’était inévitable. Déjà que les cartes graphiques de dernière génération ne sont pas prises en charge officiellement par macOS, voilà un indice de plus que le constructeur abandonne peu à peu la plateforme. La version 10.2 de CUDA sera la dernière à prendre en charge macOS, les suivantes seront réservées à Windows et Linux.

CUDA est l’acronyme de Compute Unified Device Architecture et c’est une solution propriétaire de Nvidia qui permet d’exploiter une carte graphique pour exécuter des calculs génériques à la place du processeur. C’est une technologie concurrente d’OpenCL, un standard créé notamment par Apple et qui a longtemps été mis en avant dans macOS, même si Metal est censée prendre le relai. De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution maison.

CUDA a longtemps été privilégié par Adobe, pour l’accélération graphique de ses apps et notamment de Premiere, son outil de montage vidéo. C’est toujours le cas sous Windows, mais pour macOS, les apps sont aussi compatibles OpenCL et même avec Metal pour les versions les plus récentes. C’est peut-être aussi ce qui a poussé Nvidia à abandonner plus franchement encore les Mac.

Source
Tags
avatar raoolito | 

"De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution maison »

Je sors cette phrase à chaque fois que trop de gens me disent « mais crotte, pourquoi Cuda c’est pas un standard  ? »
Parce que Cuda est aux cartes Nvidia ce que Metal est à iOS/MacOs, pro-pri-é-tai-re
Perso je regrette plus l’abandon d’openGL/ CL sur Mac que l’absence de cuda.

avatar mimolette51 | 

Pour OpenGL je regrette aussi. Pour OpenCL beaucoup moins... OpenCL veut faire le meilleurs en permettant à un même code de tourner aussi bien sur CPU que GPU, hors c'est une grosse erreur : CPU et GPU ont des botlleneck très différents qui implique de coder différemment pour avoir le meilleurs résultat, c'est là que CUDA prend tout son sens.

avatar occam | 

@raoolito

Bein, dans les domaines qui me concernent, puisque j’y travaille, tant l’abandon du CUDA sur Mac que celui d’OpenCL par Apple, c’est splash suivi de pschitt.

Pour mémoire, au symposium HPC de Bristol, il y a dix ans exactement :
« New OpenCL software standard (based on CUDA and pushed by Apple) will probably run on all platforms »
https://people.maths.ox.ac.uk/gilesm/talks/bristol_hpc.pdf

Récemment, rapport sur l’état d’OpenCL d’Andreas Klöckner, qu’il n’est plus besoin de présenter ici :
« While Apple originated the OpenCL standard, the implementations they ship are borderline unusable due to bugs.
For CPU work, POCL can be built on macOS with little trouble (or see below under ‘Shipping Software’).
For GPU work, Linux provides a nicer environment. 
»

Update June 2018: Apple has deprecated OpenCL in favor of their own graphics abstraction, Metal, that is unavailable on any other platform. »
https://mathema.tician.de/the-state-of-opencl-for-scientific-computing-i...

Apple a tout fait pour s’extirper de toute une catégorie de calcul scientifique. Domaine où sa présence était jadis vibrante, et bénéficiant d’un support quasi inconditionnel des utilisateurs et des devs scientifiques. On ne les reverra pas de sitôt.

avatar byte_order | 

@raoolito
> "De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution
> maison »
>
> Je sors cette phrase à chaque fois que trop de gens me disent
> « mais crotte, pourquoi Cuda c’est pas un standard ? »

Le hic, c'est que, contrairement a ce que cet article - qui cite un très vieil article datant de 2013 commer argument - NVidia *supporte* OpenCL. Ils fournissent une implémentation d'OpenCL pour leurs GPU, en parallèle de leur API CUDA proprio.

Par ailleurs, y'a des technos comme POCL qui permettent d'utiliser OpenCL avec un backend CUDA.

C'est surtout l'arrêt de la signature des pilotes de nVidia pour macOS qui empêche aujourd'hui d'utiliser des GPU nVidia sous macOS. Et cet arrêt est purement arbitraire (et probablement discriminatoire selon les lois de la libre concurrence, au passage).

avatar melaure | 

@byte_order

NVidia n'a pas obligation de développer pour macOS, mais si c'était le cas il faudrait aussi obliger Apple a livrer macOS pour n'importe quel PC (ce qui permettrait de s'affranchir du matos figé soudé et des configs riquiqui pour prix maxi).

avatar byte_order | 

@melaure
Je pense que Apple n'a pas fait d'effort pour signer les pilotes de nVidia parce que cela arrange sa stratégie financière (en particulier, pour vendre ses Mac Pro 2019 hors de prix avec *ses* cartes GPUs). C'est là que je pense qu'il y a potentiellement une entrave discriminatoire.

Mais je pense aussi que NVidia n'a pas fait particulièrement d'effort, tout simplement parce que l'usage de ses GPUs dans des Macs est désormais clairement une niche vraiment trop petite pour justifier les coûts de support de cette plateforme ultra-minoritaire chez leurs clients.

avatar stephane1982 | 

dommage !!!

avatar Fennec72 | 

Est-ce que sous Catalina les NVIDIA GeForce GT 750M fonctionnent avec Metal, notamment pour les app Adobe CC 2020?

avatar fousfous | 

Bonne nouvelle, nvidia avait réussi à presque verrouiller le marché avec ça, maintenant on respire avec AMD qui reprend des couleurs!

avatar romgiotti | 

@fousfous

Financièrement peut être des couleurs, mais sur les cartes, ils sont toujours nazes. Quels faux culs ceux qui se disent du métier des arts et utilisent des cartes AMD 😂

avatar fousfous | 

@romgiotti

Bah justement niveau carte AMD est plutôt pas mal, la différence c'est qu'ils se concentrent sur le milieu de gamme au lieu de faire des navires amiraux. Ça viens de la la différence de perception entre nvidia et amd, et quand je vois le prix des 2080...

avatar Valiran | 

@fousfous

Oui sauf que le marché a besoin de 2080Ti comme des 1650. AMD ne produit pas de 2080Ti parce qu’ils y arrivent pas. Dire quils se concentrent sur le milieu de gamme est faux.

avatar fousfous | 

@Valiran

Y a quand même la Vega 2 duo qui arrive.

avatar byte_order | 

@fousfous
Quand je vois le prix du Mac Pro 2019 et les perfs de ses GPUs pour ce prix, la différence de perception semble relever d'un champ de distorsion bien connu...

avatar pocketalex | 

@byte_order

vous comparez une carte certes puissante, je dis pas, mais conçue et dédiée pour jouera au jeux vidéos, la 2080Ti, et une carte Pro dédiée aux application GPU pros, la Vega 2 Duo

Comparez la Vega 2 Duo avec une P6000, ce sera un minimum plus sérieux

On est pas loin des gens qui comparent l'iPhone 11 avec un Reflex haut de gamme. C'est sur, l'iPhone 11 égale le reflex sur un certain type de photos, avec un certain éclairage. Le truc tout con, tout bête, ce que dès qu'on sort de ce cadre, l'iPhone 11 est à peu près aussi utile qu'un appareil Photo Fisher Price.

Et sinon on peut critiquer AMD autant que l'on veut ... les 5500m 8Go sont aussi performantes sinon plus que les GTX 1650 livrées dans les configs concurrentes (review laptopmag MacBook Pro 16 vs Dell XPS 15, j'attends de trouver des tests plus poussés ), donc à performances égales, dire que l'un "c'est de la merde" et l'autre "c'est génial" me parait un raisonnement fort douteux

avatar byte_order | 

@pocketalex
> vous comparez une carte certes puissante, je dis pas, mais conçue et dédiée
> pour jouera au jeux vidéos

Vous sur-estimez les différences de performance entre les modèles haut de gamme grand public et les modèles brandés comme "Pro".
La conception de l'architecture de ces GPU n'est pas "dédiée" au jeu vidéo ou pas, c'est sur le banc de validation que la puce est brandée, en fonction du nombres d'unités de calcul, de mémoire, de la bande passante maxi que les tests ont validé comme opérationnels.

Je pense sincèrement que 2 2080Ti ont plus de puissance que la Vega 2 Duo, par exemple.
En tout cas, dans les usages CPGPU que j'ai pu expérimenté (analyse d'ondes radio), la Vega II testé chez nous était légèrement en dessous de ce que l'on obtient avec la 2080Ti.

Par ailleurs, ce n'est pas moi qui ait osé comparer une 2080Ti et les dernières AMD 5x00, hein, mais @fousfous, qui pense que derrière le prix d'une 2080Ti y'a qu'une, je cite, "différence de perception entre nvidia et amd".

Enfin, où ai-je qualifié les GPU AMD de "merde" !? J'ai réagi uniquement sur la mise sur le même plan des dernières AMD et d'une 2080Ti, alors qu'elles ne le sont clairement toujours pas au niveau performance.

avatar marc_os | 

Nvidia, Microsoft, mêmes combats en des temps différents pour rendre le client captif via des technos propriétaires et fermées.
Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas ! Et si on le fait, alors juste un peu pour mieux dire oui mais.

avatar stefhan | 

@marc_os

Apple d’une certaine manière aussi...

avatar skynext | 

@marc_os

Oui mais à priori Metal et tout autant propriétaire 🤔

avatar marc_os | 

@ skynext

Apple ne fabrique pas de CG que je sache.

avatar TheUMan | 

Ah bon... et dans les appareils iOS y a quoi de l'Intel, du Nvidia ou de l'AMD ?
Toute la stratégie Apple est orientée vers la gamme de procs ARM (maison, les AX) et les CG seront également maison...
C'est pas innocent qu'ils poussent METAL depuis des années.

avatar marc_os | 

@ TheUMan
Ok. Explique moi alors le rapport entre iOS et Nvidia.
On parle des Mac ici, pas des iTrucs !

avatar byte_order | 

@marc_os
> On parle des Mac ici, pas des iTrucs !

Vous avez dit :
"Apple ne fabrique pas de CG que je sache."

Vous ne parliez pas de mac, vous parliez d'Apple.

Et Apple produit bien des GPU. Dans ses propres puces ARM, mais aussi sous la forme de cartes MPX pour le nouveau Mac Pro.

avatar marc_os | 

@ byte_order
Me contexte, mon cher, ne pas oublier le contexte !

avatar byte_order | 

@marc_os

En l'occurence, c'est vous qui avez chercher à sortir du contexte.
Le contexte c'est celui de l'article : une technologie permettant d'exploiter les capacités matérielles d'un GPU.
Votre propre commentaire "Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas !", ré-itérait ce contexte.

Ce dans votre commentaire suivant, en tentant de balayer un post qui soulignait que dans ce contexte, Apple abusait elle aussi de techno proprio avec Metal, que *vous* avez généraliser à toute technologie en dehors du contexte des technos des GPU.

L'oubli (si tant est qu'il s'agit bien d'un oubli involontaire, ce dont je doute fort), est donc de votre fait, ici.

Pages

CONNEXION UTILISATEUR