Pour Ming-Chi Kuo, il faudra attendre 2025, 2027 voire 2028 pour la voiture Apple

Mickaël Bazoge |

Ce n'est ni demain la veille, ni en 2024 que l'on pourra demander à Siri de nous conduire quelque part dans une voiture Apple flambant neuve. Ming-Chi Kuo rebondit sur les folles rumeurs de ces derniers jours en y jetant un gros paquet d'eau froide : selon l'analyste-qui-voit-tout, l'Apple Car ne sortira pas du garage de Cupertino avant 2025 à 2027, au plus tôt. Il y a deux ans, le même Kuo estimait que ce véhicule pouvait sortir « entre 2023 et 2025 ».

Vroum avec Jony Ive, Marc Newson et Bono.

Si Ming-Chi Kuo est revenu sur son estimation, c'est que le calendrier d'Apple n'est « pas clair ». Si le développement a effectivement été lancé cette année, alors la voiture pourrait être disponible entre 2025 et 2027. Mais l'analyste de TF Securities ne serait pas étonné que la commercialisation du véhicule soit repoussée à 2028, voire plus tard encore, en fonction de l'évolution du marché des voitures électriques et autonomes.

Kuo pense qu'Apple n'a pas nécessairement toutes les cartes en main pour réussir à s'imposer dans ce secteur, en prenant exemple sur le semi-échec du HomePod (l'analyste écrit même que la demande pour le HomePod mini a été « plus faible que prévu »). La concurrence dans le secteur automobile est bien plus féroce que sur celui des enceintes connectées, ajoute-t-il. Penser qu'une voiture Apple connaitra forcément le succès est « périlleux » à ce stade, selon lui, car si le constructeur peut en remontrer à n'importe qui sur le plan matériel, il serait moins bien armé que d'autres dans le domaine de l'intelligence artificielle et du big data.

« L'une de nos préoccupations concernant la voiture d'Apple est que lorsqu'elle sera lancée, les autres constructeurs de voitures autonomes auront accumulé au moins cinq ans de données et elles seront mieux adaptées pour l'apprentissage automatique. Comment Apple parviendra-t-elle à surmonter ce retard ? »

Ce point d'interrogation concernant les capacités AI d'Apple, c'est peut-être ce qui a poussé le constructeur à donner à John Giannandrea, le grand manitou de l'apprentissage automatique, les rênes du projet Titan (lire : John Giannandrea reprend le projet Titan, et Bob Mansfield sa retraite).

avatar Florent Morin | 

Aujourd’hui, cette idée paraît aussi dingue et irréalisable qu’un Mac ARM en 2015.

avatar occam | 

@FloMo

La comparaison est sphériquement incorrecte : fausse, quel que soit l’angle sous lequel on l’examine.

La seule idée dingue et saugrenue en 2015 eût été de ne pas prédire le remplacement des CPU x86/x64 par des architectures ARM plus efficaces et plus performantes, à plus ou moins brève échéance, ainsi que l’harmonisation matérielle et logicielle de toute la gamme qui en découlerait.

À un niveau plus général — et Kuo met le doigt dans la plaie avec une précision toute clinique — il s’agit, d’un côté, de choses qu’Apple maîtrise parfaitement ; de l’autre, de domaines où Apple doit absolument faire ses preuves à l’échelle requise : Big Data, ML, AI.

avatar Furious Angel | 

@occam

Je suis pas sûr qu’il fallait prendre à ce point ce commentaire au premier degré.

avatar occam | 

@Furious Angel

Sphériquement.
Sous tous les angles d’incidence concevables, y compris compris celui du degré.
Sinon, pourquoi aurais-je pris soin de placer une formule more geometrico ? 😎

avatar Florent Morin | 

@occam

Concernant la partie ML, des chercheurs du CNRS qui travaillent sur des réseaux de neurones électroniques ont fait le constat inverse par rapport au M1.

avatar YetOneOtherGit | 

@FloMo

"Concernant la partie ML, des chercheurs du CNRS qui travaillent sur des réseaux de neurones électroniques ont fait le constat inverse par rapport au M1."

Occam ne remet pas en cause, il me semble, les ressources de traitement ML proposées par Apple que ce soit au niveau hardware ou outil de développement.

C’est du côté des usages qu’Apple n’est pas forcément au pinacles comparé à ses concurrents. En grande partie par justement un manque de données disponible en comparaison avec ces concurrents, différences de modèle économique oblige.

avatar Florent Morin | 

@YetOneOtherGit

Je pense qu’Apple vise l’apprentissage non-supervisé à moyen terme.
À court terme, la clé sera le Private Federated Learning.

Apple a juste pris son propre chemin.

Après, je peux me tromper. On est dans de la prospective pure. 😁

avatar YetOneOtherGit | 

@FloMo

"Après, je peux me tromper. On est dans de la prospective pure. 😁"

Je ne me risquerais pas à la moindre prospective sur le sujet ;-)

avatar Florent Morin | 

@YetOneOtherGit

On se fait un peu plaisir. 😁

Ça me donne envie de me pencher sur des sujets un peu plus bas niveau.

C’est un peu le soucis en ce moment : on peut difficilement être sur la connaissance des frameworks macOS / iOS qui évoluent à grande vitesse (Swift, SwiftUI, Combine, Core ML, ...). Et en même temps sur des sujets comme Metal, Accelerate, Core ML « bas niveau », LLVM.

avatar YetOneOtherGit | 

@FloMo

"C’est un peu le soucis en ce moment : on peut difficilement être sur la connaissance des frameworks macOS / iOS qui évoluent à grande vitesse (Swift, SwiftUI, Combine, Core ML, ...). Et en même temps sur des sujets comme Metal, Accelerate, Core ML « bas niveau », LLVM."

Il y a toujours un moment où pour continuer à monter en abstraction il faut paradoxalement descendre pour connaître le sous-jacent ;-)

avatar jopaone | 

@FloMo

Peut on lire cette étude du CNRS quelque part? Ça m’intéresse bcp

avatar Florent Morin | 

@jopaone

Ce n’est pas une étude. C’est une émission d’une heure dans la Méthode Scientifique sur France Culture.

J’avais posé la question du M1 via Twitter par rapport à l’intérêt du Neural Engine. Et plus tard dans l’émission le sujet de la mémoire unifiée a aussi été évoqué.

https://www.franceculture.fr/emissions/la-methode-scientifique/la-method...

avatar jopaone | 

@FloMo

Merci beaucoup 🙏

avatar occam | 

@FloMo

Il faut voir à quelle échelle se situent les problèmes actuellement traitables sur M1 (et plus généralement sur Apple Silicon) par les moyens développés chez ou pour Apple et dont on a pu avoir une idée au moins indirecte.

Il faut contraster cette échelle avec celle des problèmes à traiter pour intégrer les données fournies par tout un parc de véhicules (ou, disons pour nous placer au niveau d’abstraction du laboratoire, d’« agents autonomes »). Sans parler de ceux liés à la gestion d’un tel parc en temps réel.

En schématisant, nous sommes devant un système à cadres concentriques : DL < ML < autonomous AI.

Apple possède une assise remarquable en DL, dont nous venons de voir les premiers fruits. Les iBidules vont l’intégrer de plus en plus. Les possibilités vont s’accroître en conséquence, et elles vont surprendre plus d’un.

Dans le cadre ML élargi, Apple commence à intégrer dans Silicon les capacités que vous évoquez. Reste à voir les logiciels, reste surtout à voir la question décisive de l’échelle.
Là encore, il faudra se décider : eau sucrée, ou Masters of the Universe. C’est une décision industrielle plus que conceptuelle.

Le dernier cadre, autonomous AI, est celui où Ming-Chi Kuo note l’apparent retard d’Apple par rapport à la plupart des autres acteurs, connus du grand public ou moins. (Je dis « apparent » pour le cas où Apple aurait caché l’équivalent d’un MegaWatson dans un silo balistique désaffecté de l’Arizona.) C’est le domaine où la concurrence possède l’expérience indispensable des problèmes liés à l’échelle, à la multiplication des agents et aux multitudes de données à traiter, données dont elle dispose également déjà.

avatar Florent Morin | 

@occam

Sur le logiciel, entre Catalina et Bug Sur (mais aussi entre iOS 13 et iOS 14), Apple a quasiment multiplié par deux ses performances sur la partie entraînement de modèles. Ce qui l’a amené à passer d’un retard vis à vis de TF2 à une avance.

Sachant que sur la partie entraînement accessible aux développeurs, le GPU n’est pas sollicité. Mais il l’est dans Create ML. Et on n’en sait rien pour le Neural Engine.

Aujourd’hui, Apple exploite son réseau pour ré-entraîner des modèles localement puis en centralisant les résultats avec une anonymisation au passage. C’est un peu commencer par le plus compliqué là où d’autres acteurs ne s’embarrassent pas du sujet vie privée.

Je pense qu’aujourd’hui on n’a encore rien vu sur le potentiel d’Apple en terme de ML.
Chacun avance ses pions et, comme à son habitude, Apple dévoilera son jeu en fin de partie.

Après, concernant les IA autonomes telles que survendues par Tesla et qui doivent toujours arriver en fin d’année, je n’y crois pas un seul instant. Du moins, pas avec nos connaissances actuelles du sujet. On n’a pas l’ombre d’une piste de travail.

On est sur une vision à 5-10 ans avec Apple Silicon. Le temps d’exploiter le matériel et d’optimiser le logiciel. Tout en montant en compétences sur les points de faiblesse.

D’ici là, je pense qu’on saura faire du non-supervisé. C’est dans le domaine du plausible vu la vitesse à laquelle les travaux avancent. Sans atteindre le niveau d’une IA autonome, ça pourrait changer la donne.

Les années à venir s’annoncent passionnantes. 😁

avatar Sindanárië | 

@occam

"est sphériquement incorrecte : fausse, quel que soit l’angle sous lequel on l’examine"

🍻santé aussi 🤪

avatar Malouin | 

@occam

Voilà donc le sachant spécialiste des puces x86. Et donc des véhicules connectés...
...Tous ces spécialités qui sont justes là pour donner des leçons. C’est fatiguant.

avatar occam | 

@Malouin

Reposez-vous. Vous en avez bien besoin.

avatar Malouin | 

@occam

Si tu le dis... ça me conforte du contraire !

avatar Adodane | 

@FloMo

Il y avait déjà des Mac ARM avant cela, et dans le M1 il n’y a que les 8 cœurs qui sont ARM, le reste c’est des accélérateurs divers. Et les cœurs custom Apple sont juste un peu plus rapides que ceux de qualcomm par ex.

avatar Florent Morin | 

@Adodane

Il y avait des Mac ARM avant 2015 ?

Concernant les 8 coeurs, il me semblait qu’il y avait 8 coeurs CPU, 8 coeurs GPU et 16 coeurs Neural Engine, le tout dans une architecture ARM avec mémoire unifiée.

avatar Adodane | 

@FloMo

Oui les Mac avec puce T2 donc l’accélération matérielle H264/265 doit être équivalente à la puce M1.

Pourquoi le GPU serait ARM ? Et le neural engine ? Quel rapport avec des instructions ARM ?

avatar raoolito | 

@Adodane

Euuuuh entre une puce T2 et une puce M1 il y a quand meme un minde hein?

avatar Adodane | 

@raoolito

Pas pour l’encodage H264/265.

avatar Florent Morin | 

@Adodane

Le H265 est géré par les processeurs Intel de 6ème génération.

Le traitement de l’image du T2 était utilisé pour améliorer la qualité de la webcam. (Exposition automatique, etc)

Pages

CONNEXION UTILISATEUR