Nvidia va bientôt abandonner la version macOS de CUDA

Nicolas Furno |

Cela fait tant d’années qu’Apple boude Nvidia au profit d’AMD pour les puces graphiques dédiées des Mac que c’était inévitable. Déjà que les cartes graphiques de dernière génération ne sont pas prises en charge officiellement par macOS, voilà un indice de plus que le constructeur abandonne peu à peu la plateforme. La version 10.2 de CUDA sera la dernière à prendre en charge macOS, les suivantes seront réservées à Windows et Linux.

CUDA est l’acronyme de Compute Unified Device Architecture et c’est une solution propriétaire de Nvidia qui permet d’exploiter une carte graphique pour exécuter des calculs génériques à la place du processeur. C’est une technologie concurrente d’OpenCL, un standard créé notamment par Apple et qui a longtemps été mis en avant dans macOS, même si Metal est censée prendre le relai. De son côté, Nvidia n’a jamais pris en charge OpenCL, lui préférant sa propre solution maison.

CUDA a longtemps été privilégié par Adobe, pour l’accélération graphique de ses apps et notamment de Premiere, son outil de montage vidéo. C’est toujours le cas sous Windows, mais pour macOS, les apps sont aussi compatibles OpenCL et même avec Metal pour les versions les plus récentes. C’est peut-être aussi ce qui a poussé Nvidia à abandonner plus franchement encore les Mac.


Source
Tags
avatar pocketalex | 

@marc_os

Moi il y avait un standard que j'adorais, c'était Flash. Bien programmé, avec des devs qui s'appellent des devs, on sortait des expérience interactives exceptionnelles, prenant en charge la puissance des appareils, donc optimisés, etc

Son principal souci : n'importe quel pouilleux de base pouvait sortir une animation lourde et moche qui plombe la machine qui va le lire, et bien souvent pour un usage inutile et ou du HTML serait préférable

Mais on m'a expliqué ici que c'est propriétaire, et que du HTML 5 nécessitant 4x plus de devs super pointus et couteux pour faire la même chose, c'était mieux

ce sont les mêmes qui m'expliquent ici que CUDA c'est parfaitement génial, et que c'est dommage que ça tourne pas sur Mac

En toute logique quoi

avatar mimolette51 | 

Non ça n'a strictement rien à voir, coder du cuda ou de l'OpenCL, ça demande le même genre de compétences. Et le noob peut faire de la merde aussi bien sur CUDA qu'OpenCL.
Propriétaire ou pas n'y change strictement rien!!!
Et il en est de même pour métal, si tu code ton shader comme une merde, ca sera mauvais!

avatar marc_os | 

@ pocketalex

Flash bien programmé ?
Non mais sans blague ?
Tu l'as utilisé ?
Pour ma part j'ai vu le tournant autour de 2000 avec Flash 5 quand ils ont abandonné toute optimisation Mac et ont fournit un machin optimisé pour Windows.
Avec un IDE où le curseur pouvait clignoter en même temps dans plusieurs champs de saisie. Impossible de savoir lequel a le focus, obligé de cliquer sur un champ avant de saisir une valeur. Avec un copier/coller qui faisait que la chaîne à coller pouvait contenir un caractère null terminal "visible", faisant boguer le collage.
Sans oublier les performances qui se sont dégradées au fil du temps.
Enfin, Flash n'a jamais été un standard de quoi que ce soit. Ça été juste un outil génial au début pour faire des animations vectorielles qui n'a ensuite été petit à petit utilisé que pour des pubs ou pour masquer la vraie source des vidéos affichées afin que nous ne puissions pas les stocker sur nos ordis...

avatar fousfous | 

@marc_os

Enfin même pour Windows si c'était un poil complexe les animations ça ramait à mort flash, quand je voyais les jeux qui tournait à côté sur mon ordi sans problème je me disais qu'il y avait un petit soucis d'optimisation.

avatar pocketalex | 

@fousfous

"quand je voyais les jeux qui tournait à côté sur mon ordi sans problème je me disais qu'il y avait un petit soucis d'optimisation"

euh, quels jeux ? des jeux du commerce ? des apps windows x86 ? tu compares des pommes et des poires là

avatar fousfous | 

@pocketalex

Je sais pas, crisis par exemple.

avatar pocketalex | 

crisis ???? 😳😳😳

on est sérieux la ? 🙄

avatar pocketalex | 

@marc_os

"Flash bien programmé ?
Non mais sans blague ?
Tu l'as utilisé ?"

Je ne suis pas dev flash, du moins pas dev as3. Je me suis arrêté à l'as2, après c'est un autre métier, un métier de développeur, moi je suis Directeur Artistique, donc je travaillais avec des gens bien plus compétent que moi pour la partie développement.

Mais oui, j'ai utilisé Flash, de sa première version vers 1997 à la fin (on va dire vers 2013, même si certains acharnés ont prolongé le plaisir), soit toute la durée de vie de cet outil

A l'arrivée d'as3, tu avait un véritable environnement de dev et avec de bonnes équipes, tu sortais de belles choses, bien optimisées (compteur de FPS sur chaque projet pour assurer la fluidité quelque soit la machine), mais je ne comprends pas ton commentaire car le développement n'est pas QUE l'affaire d'un outil, mais, me semble t'il, aussi et surtout du talent des développeurs.
Donc si certains sortaient des bouses lourdes et lentes, peut-être fallait il juger le développeur, plutôt que l'outil...

"Sans oublier les performances qui se sont dégradées au fil du temps."

Mouais ...

"Flash n'a jamais été un standard de quoi que ce soit"

Pas un standard W3C, non, tout comme CUDA n'est pas un standard mais une techno proprio, ce qui est mon unique point de discussion (expliquer au gens que telle techno proprio est mal, car proprio, pas standard, pas ouvert, pas documenté .... pour dire le contraire le lendemain sur une autre techno tout aussi fermée, mais tout d'un coup elle est géniale et il serait de bon aloi de l'imposer partout)

avatar en chanson | 

@marc_os

Tu as oublié Apple dans le genre 'rendre le client captif'

avatar marc_os | 

@en chanson

Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?
Non. De même, Apple a toujours permis de lire des disquettes MS-DOS sur Mac alors que Windows n'a jamais permis lire le format HFS, propriétaire certes, mais 100 % documenté contrairement à NTF propriétaire aussi mais non documenté.
Et si les concurrent ne sont pas capables de faire aussi bien qu'Apple, c'est pas la faute à Apple !

avatar byte_order | 

@marc_os
> Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?

J'ignorais que Google et DropBox étaient des technlogies de GPUs.

> Non.

Ben l'arrêt du support d'OpenGL, d'OpenCL et le refus de supporter Vulkan c'est pas Microsoft ni les lémuriens qui en sont responsables, mais bien une décision prise à Cupertino.

> Et si les concurrent ne sont pas capables de faire aussi bien qu'Apple, c'est pas la faute
> à Apple !

On parle toujours de GPUs là !?
Si oui, ~rires~ !!!

avatar marc_os | 

@byte_order

Je répondais à la généralité « Apple dans le genre 'rendre le client captif »

avatar byte_order | 

@marc_os
Vous répondiez à une réaction à votre déclaration initiale :

> Supporter des technos libres et fonctionnant avec des CG concurrentes, surtout pas !

Je vois mal comment nier le fait que supporter Metal, de facto, rend tout aussi captif d'Apple que de supporter CUDA rend de facto captif de NVidia !

Apple supporte quoi comme technos "libres" pour les cartes graphiques ?
OpenGL ? Niet, fini.
OpenCL ? Niet, fini.
Vulkan ? Niet, toujours pas.

Merci de compléter cette liste, donc, avec la ou les technos libres pour cartes graphiques que j'aurais oublié.

Pour rappel, le mot "libre" est important ici, tout comme dans votre déclaration initiale.

avatar mouahahaha | 

"Apple t'empêche-t-elle d'utiliser Google ou DropBox ou n'importe quoi d'autre ?"

Amusant, quand apple impose de passer par ses équipe de validations pour avoir le droit d'exister sur l'app store. Et a donc le droit de vie et de mort sur toutes applications d'un developpeur voulant fournir une application pour ios. :)

Mozilla aimerait bien utiliser son PROPRE moteur de rendu, qui est OPEN SOURCE ET LIBRE, mais ne peut pas car apple impose unilatéralement à ses clients comme aux développeurs l'utilisation obligatoire et sans dérogation possible de webkit...

Tu disais du coup ?

avatar Crunch Crunch | 

Tellement STUPIDE que Apple ne prenne pas en charge les carte nVidia !
Il y a certainement une raison à cela, mais je ne le comprends pas…

avatar Soner | 

@Crunch Crunch

Financière je suppose. AMD doit vraiment baisser le froc jusqu’aux chevilles. Et comme Apple aime marger encore plus peut être que les autres...

avatar pocketalex | 

@Crunch Crunch

une logique de gros sous, tout simplement.

avatar osxkiller92 | 

@pocketalex Non. Juste, à mon avis, à cause des chipsets graphiques qui merdaient à tout va...

avatar pocketalex | 

@ osxkiller92

Peut-être ... de toutes façon, qui connait la vraie raison, à part Dieu ... et Tim ?

il y a eu effectivement une mauvaise série à une époque, sur des laptops, mais cela m'étonnerait que ce soit la principale raison, et AMD a surement rencontré des séries foireuses à un moment ou à un autre

Le gros manque de bol, c'est qu'Apple s'est choisi AMD pile avant le coup de mou de ce dernier (coup de mou = on arrive pas a faire des CG aussi bien que la concurrence : soit moins puissante, soit aussi puissante mais plus énergivore), coup de mou qui a trainé des années, et qui est partiellement rattrapé récemment, mais on est pas encore au ratio puissance/performance qu'nVidia offre

Tout cela est cyclique, c'est comme le match Intel/AMD, longtemps AMD était à la traine, et aujourd'hui, ils sont devant, loin devant. Quand on voit les derniers threadripper, le i9 perd énormément d'intérêt.

Mais manque de bol ... Apple avait choisi AMD pile au début d'un mauvais cycle. C'est con hein.

avatar mouahahaha | 

"et AMD a surement rencontré des séries foireuses à un moment ou à un autre"

Yen a eu pas mal des séries foireuses chez amd ces dernières années. C'est vraiment juste une histoire d'argent.

Si c'était vraiment pour des raisons techniques apple n'utiliserait plus les cpus d'intel mais les apu d'amd, avec potentiellement la possibilité d'avoir des features/optimisations exclusives, comme c'est le cas pour les consoles de salons.

avatar Pierre H | 

Exactement. La série noire de GPU portables, c'est une chose. La réalité c'est que pendant que Nvidia poussait CUDA (avec succès), ils se sont aussi mis sur le marché de l'autopilote des bagnoles, et avec beaucoup de succès. Au moment où Apple commençait à peine à s'y mettre. Et Apple n'a jamais supporté de se faire griller la politesse sur un marché où elle comptait être la plus forte.

avatar en chanson | 

Il serait intéressant de faire les benchmark de la suite Adobe avec bootcamp Windows et sous Mac os. Les drivers graphiques sont mieux optimisés sous Windows notamment ceux de AMD

avatar fte | 

AMD ou Nvidia, qu’importe finalement. Ce qui est emmerdant, c’est de ne pas avoir le choix.

Après, si on pense aux consoles, pas le choix non plus. Mais avec une conséquence heureuse : les jeux sont optimisés, plus ou moins, testés en tout cas, on peut l’espérer, souvent, pour AMD, avec sans aucun doute cette fois des drivers affichant un bon niveau de performance.

Dommage que cette conséquence heureuse ne se retrouve pas sur Mac. La différence entre les drivers macOS et les drivers Windows est... sensible. C’est bien dommage.

avatar Almux | 

Encore un coup dur pour la 3D sur Mac.
Dommage! Quand je pense au superbes performances lors de la sortie des Mac Pro Octo en 2008...
Il n'y a pas assez d'actionnaires Apple qui font de modélisation et de l'animation!!!

avatar pocketalex | 

@Almux

oui et non

CUDA, c'est une techno de GPGPU spécifique Nvidia, c'est une excellente techno, très utilisée, mais ... ce n'est pas la seule techno (OK, il faut que les développeurs implémentent les alternatives .... OK)

Il y a une alternative de chez AMD, notamment prise en compte par C4D Mac

Après, j'ai envie de te dire... la 3D sur Mac ... ça fait belle lurette que dès qu'on pousse le curseur du professionnalisme et de l'exigence, tout le monde est sur PC.
Et je suis pas sur que l'arrivée du Mac Pro change grand chose, la majorité des gars qui bossent dans ce domaine utilisent des cartes graphiques grand public type GTX 1080 ou RTX 2080, et pas des P6000, donc lâcher 20 ou 30000€ dans une tour Mac Pro pour avoir les mêmes perfs (en rendu 3D) qu'une tour à 7000€ ...

"Il n'y a pas assez d'actionnaires Apple qui font de modélisation et de l'animation!!!"

Voila, tu as touché l'origine du problème 😂🤣

Pages

CONNEXION UTILISATEUR