Apprentissage automatique : les puces Ax et M1 font la leçon

Florent Morin |

La puce A14 des iPhone 12 et la M1 des premiers Mac Apple Silicon disposent d'un nouveau Neural Engine à 16 cœurs capable d’exécuter 11 000 milliards d’opérations à la seconde. En somme, à en croire Apple, une bête de course pour l’apprentissage automatique (machine learning) jusqu'à deux fois plus puissant que la version de l'A12. Ce nouveau moteur dédié aux tâches d'intelligence artificielle tient-il ses promesses ? C'est ce que nous allons voir.

Image Apple

L'apprentissage automatique, comment ça marche ?

L’apprentissage automatique, qui fait partie des domaines de l'intelligence artificielle, est de la prédiction à partir de données. Par exemple, si les données sont issues d’une image, je peux prédire avec un certain niveau de fiabilité que celle-ci représente un chien. Si ces données sont issues d’un tableur, je peux déduire un résultat à partir de paramètres en entrée.

Il y a plusieurs techniques permettant d’effectuer ces prédictions. Ces techniques sont, pour faire simple, des algorithmes paramétrables et les paramètres de ces algorithmes sont des modèles. Et, pour tout cela, il faut un jeu de données de référence en entrée.

Si on reprend l’exemple de la reconnaissance d’un chien dans une photo, je vais donner des millions de photos de chiens à mon outil d’entraînement qui va comparer les photos et trouver leurs points communs. À partir de là, un modèle va être généré. Ce modèle contient toutes les informations permettant de détecter un chien dans une photo. Cette première étape est particulièrement gourmande en ressources.

avatar hernani | 

Super article ! Ça m’a aidé à mieux comprendre comment marche le neural engine et finalement le principe de l’apprentissage automatique 👌🏼

avatar Super Dude | 

@hernani

+1
Super article 👌🏻

avatar andr3 | 

@hernani

+10 👍

avatar pga78 | 

+1 bravo excellent article pour moi aussi ! Apple a de l’avance là !!

avatar djpoulet | 

Bravo pour l’article très didactique pour les novices comme moi 👍
Je ne regrette vraiment pas mon abonnement au club vu la qualité des articles qui lui sont réservé.

avatar cecile_aelita | 

@djpoulet

Idem !!
Ça fait plaisir de voir des articles dans l’esprit de vulgarisation de concepts complexe et technique (façon « c’est pas sorcier » c’est un réel compliment !!) plutôt que des articles de rumeurs et de ragots!!

avatar Faabb | 

Merci pour cet article !
NVidia a acheté ARM plus tôt cette année. Par ailleurs ils sont déjà à la pointe de SoC destinés à l’AI (voitures autonome).
On pourrait voir rapidement des puces de technologie comparable à celle d’Apple dans des PC grand public si Windows sort sa version ARM.
C’est une révolution 🔱

avatar Hideyasu | 

@Faabb

Après il y a un truc que la concurrence maîtrisera difficilement, c’est l’intégration que tout ces composants.
Visiblement Apple y arrive, mais la preuve avec les soc ARM pour Android, c’est pas si facile de faire des équivalents même avec une architecture similaire

avatar Nesus | 

@Faabb

Peu de chance, pour créer un processeur comme celui-ci et pouvoir le commercialiser, il faut un gros volume de vente. Et ça peu de gens peuvent se le permettre. En prototype, les foigts dans le nez, en commercialisation...

avatar Wutanggg | 

Il y a bien les rumeurs sur le projet Titan chez Apple... !

avatar Grēgórios | 

C’est bien beau tous ces chiffres et superlatifs tous les ans mais dans la pratique je constate que photo a bien du mal à reconnaître et grouper les visages correctement et de manière exhaustive (Google le fait sans problème) et la compréhension de Siri est elle aussi très limitée.

avatar cecile_aelita | 

@Grek0497

C’est justement ce qu’explique l’article 🙂.
Il y a une part la puissance et de l’autre le modèle !
Apple a une puissance indéniable mais des modèles ... plus faiblards!
Là où Google/android aura une puissance bien moindre mais des modèles de base bien plus poussée (forcément, ils ont beaucoup plus de data).🙂

avatar standelap | 

@romainB84

Et surtout sur Apple c’est deporté en local tandis que sur Google la grosse machine qui trie est sur des serveurs lointains (confidentialité)

J’ai bon ?

avatar cecile_aelita | 

@standelap

Ça semble être la philosophie en effet 🙂.
Après comme je ne bosse pas en R&D ni chez l’un ni chez l’autre (comme 100% des lecteurs de macg et autre site), on n’en reste à ce que l’on peut déduire 😉.

avatar raoolito | 

@romainB84

en plus beaucoup de monde ignore l’option tout en bas de chaque serie de visage pour améliore rles selections.
alors vous cliquez sur un des visages,, vous allez tout en bas et il y a une option pour « confirmer des photos additionnelles »
Prenez 10/15mn pour confirmer/infirmer les photos et au fur et à mesure du temps (à refaire une fois par mois par exemple) le travail sera de plus en plus reussi automatiquement :)

avatar iMathieu | 

@Grek0497

Ici, le souci vient plus de la variabilité des données utilisées pour l’apprentissage des modèles. Google s’est tellement goinfré grâce aux photos stockées (ou autres data) gratuitement chez eux, qu’ils ont pu affiner leurs modèles et les rendre bien plus précis. On peut appliquer le même raisonnement pour Amazon. Ce n’est pas pour rien qu’Alexa, notamment, est plus pertinente actuellement que Siri.

avatar Grēgórios | 

@iMathieu

J’avais bien compris. Mon point était que chaque année Apple va passer une demie heure à nous expliquer comment son neural engine est fantastique à coup de gros chiffres. Dans la pratique ça stagne. Siri est comme depuis des années souvent à côté de la plaque et Photo est très limité.

avatar frankm | 

@Grek0497

Et le clavier iOS qui fait de la merde. Et qui m’emmerde à souhaits à écrire merde.

avatar Nesus | 

@Grek0497

Comme l’article le dit, c’est race que vous ne l’utilisez pas. Siri fonctionne parfaitement chez moi pour tout ce que je lui demande.
Sauf si votre critère c’est de demander à Siri si le PSG a gagné hier soir. Là effectivement, Google restera longtemps meilleur. En tout cas, temps qu’Apple ne sort pas un moteur de recherche.

avatar iMathieu | 

Excellent article 👍
De ce point de vu, Apple a une avance non négligeable et ouvre pas mal le champ des possibles pour l’avenir !

avatar YosraF | 

Article intéressant mais on reste sur sa faim...
le deep learning ne fonctionne pas par analogie comme décrit dans l’article c’est pas comme ça que fonctionne un réseau de neuronnes mais passons. Les data scientist travaillent tous avec des grosses GPU, faire un entraînement sur le téléphone c’est cool, mais moyennement utile. Ce qui serait intéressant c’est de comparer des temps d’inferences sur des réseaux un peu plus lourd comme MaskRcnn et de comparer à des GPU Nvidia 2080 ou autre qui sont très coûteuses pour les communs des mortels. Le jour où Apple arrivera à des perf équivalentes alors on peut s’attendre à une vraie révolution comme le fait depuis peu tesla avec ses propres processeurs.

avatar Florent Morin | 

Aujourd'hui, on a une vision très orientée utilisateur final. L'apprentissage sur téléphone est là pour de la personnalisation et/ou de l'amélioration de modèle (complétion automatique, suggestion d'apps, suggestion d'actions, etc). Pour enrichir l'expérience utilisateur. Les choses se mettent en place. Le sujet de 2021 sera très probablement le "Private Federated Learning" sur lequel Apple travaille depuis quelques années et qui devrait arriver dans la boite à outils des développeurs.

Les usages pros, avec des processeurs dédiés, arriveront probablement plus tard. On ne peut rien prédire aujourd'hui, mais le ratio performances / énergie consommée des A14 / M1 est un bon indicateur.

Du jour où Apple mettra en place une machine pour les pros, je pense que je ferai appel à des data-scientists pour expliquer les avantages éventuels par rapport à la concurrence dans un autre article qui sera forcément un peu moins à la portée de tous.

avatar YosraF | 

@FloMo

Merci pour les éclaircissements sur ta vision du sujet.

Je le partage entièrement. L’entraînement sur le téléphone a des bénéfices. Notamment pour « calibrer » son modèle et améliorer ces performances.

Néanmoins, au delà de l’entraînement, le temps d’inference sur le téléphone plutôt que de passer par des architectures complexes et coûteuses sur AWS est un vrai plus. De plus, c’est conforme avec ce qui est défendu par Apple car ça part le plus souvent sur des serveurs qui réutilisent nos propres données à des fins commerciales.

Aujourd’hui, on utilise des cartes graphiques pour faire de l’IA en soi c’est débile, c’est fait pour de la vidéo. Donc avoir des processeurs spécialement conçu pour comme le fait Apple ou Tesla (qui ont quitté Nvidia) on a envie de comprendre ce qu’on peut gagner dans un futur assez proche :)

avatar cecile_aelita | 

Excellent article comme on les aime 😍!!
Donc si j’ai bien compris, la plus grosse plus value en apprentissage automatique en 2020 chez Apple, c’est la capacité de pouvoir re entraîner le modèle qui a servi de référence directement en local sur sa machine ? (Et d’avoir un modèle encore plus personnalisé)
Cela permet également aux développeurs de s’affranchir de proposer une mise à jour de l’appli avec un modèle mis à jour du coup ? (Ou il n’y a aucune corrélation?)
Par exemple : le modèle initial pour détecter « un chien » comporte à la base 500 000 photos... si chez moi j’ai 10 000 photos de chiens, cela va améliorer le modèle pour la détection directement sur ma machine? Sans que cela nécessite de devoir remonter au développeur pour qu’il propose une mise à jour de son appli avec un modèle amélioré ? Ou cela n’a rien à voir ?

avatar Florent Morin | 

Aujourd'hui, Apple utilise en effet cette capacité pour personnaliser l'expérience au sein de iOS / macOS. Ce n'est pas encore totalement disponible pour les développeurs. Par contre, depuis cette année, les modèles sont actualisables via le cloud.

Et, justement, pour reprendre l'exemple de la detection du chien, le modèle pourrait être amélioré localement et éventuellement centralisé vers un serveur pour améliorer le modèle principal dont des copies améliorées pourraient ensuite être redistribuées, etc.

Le challenge technique actuel d'Apple est de permettre cette centralisation des améliorations tout en garantissant le respect de la vie privée. Pour cela, la technique qui est en train d'être mise au point consiste à "brouiller" les améliorations avec de fausses données. Ce brouillage serait "nettoyé" au moment du ré-apprentissage du fait du volume de données. Après, c'est du Apple : c'est de la sur-mesure de protection de la vie privée, car l'amélioration du modèle ne permet que difficilement de retrouver une information personnelle.

avatar cecile_aelita | 

@FloMo

Oki !
Merci pour ces éclaircissements !! Ça semble bien prometteur pour les applis utilisant le machine lezrning en tout cas !!

avatar Hideyasu | 

Super article, ça annonce que du prometteur pour l’avenir

avatar Hasgarn | 

Chapeau! Quel article !
Vulgariser ça, c’était pas gagné et c’est pourtant réussi.
👏👏

avatar Brad64 | 

Très intéressant et bien expliqué 👌

avatar Florent Morin | 
Merci à tous pour vos commentaires. 😁
avatar raoolito | 

@FloMo

c’est mérité !
je me sens à chaque fois un peu bete quand je termine un de vos articles (oui oui) mais ce qui est entré est toujours un grand pas
merci !

avatar Florent Morin | 

@raoolito

👍

avatar RonDex | 

Super article. C’est justement un point que je ne comprenais pas par rapport à ce processeur avec toute sa partie de machine Learning.
Merci pour ces articles de fond. Ce qui justifie largement un abonnement !

avatar Marcos Ickx | 

@RonDex

+1 👍

avatar Oracle | 

Merci pour ces éclaircissements bienvenus !

avatar Marcos Ickx | 

« le score avec le Mac mini M1 (c'est identique avec le MacBook Air M1) est simplement hallucinant »

Je pensais que CoreML utilisait tous les cœurs, et donc aussi les cœurs GPU.

Sachant que le MacBook Air d’entrée de gamme n’a que 7 cœurs GPU, ne devrions-nous pas voir une différence entre les deux ?

avatar Florent Morin | 

@Marcos Ickx

Core ML n’exploite pas encore toutes les possibilités matérielles pour la partie entraînement. Mais ça s’améliore.

La beta macOS 11.1 est déjà plus performante dans Create ML. Ça devrait suivre ensuite dans Core ML. Progressivement.

D’ici juin, ce sera au top je pense. Et la WWDC21 devrait clairement être orientée ML. Avec de nouvelles avancées côté usage.

Si en plus on a des machines pro, ça peut faire très très mal.

avatar MartyNick | 

Merci pour cet article ! Bonne vulgarisation

avatar Rom 1 | 

Article intéressant (comme toujours), on comprend mieux les enjeux de l'IA.

avatar flabelline | 

Merci pour l'article. Il serait interessant de voir ce que donne ces résultats en utilisant l'accélération des cartes NVIDIA. Car CUDA sert beaucoup pour les applications d'apprentissage profond. Or sur Mac, Apple a fermé la porte de CUDA depuis High Sierra. Il faudra comparer avec le même programme sous Linux.

avatar flabelline | 

Merci pour l'article. Les tests sont interessant. Serait-il possible de comparer avec le même apprentissage mais sur un PC Intel sous Linux utilisant une carte graphique NVIDIA (en utilisant CUDA) ? Car Apple a abandonné le support CUDA depuis High Sierra.

avatar Florent Morin | 

@flabelline

On pourra peut-être, mais plus tard. Quand Tensorflow utilisera pleinement le M1. Sachant qu’on compare circuit intégré et circuit dédié, ce qui rend la comparaison difficile.

avatar David Finder | 

Merci pour cet article (et les autres du même genre aussi).
Comme déjà dit par d’autres, ça justifie nettement l’abonnement.
J’adore cette période, depuis qu’Apple place ses billes, petit à petit. On en voit clairement maintenant le résultat, avec les Mac Apple Silicon et les performances des puces mobiles (tant pour l’A14 que le M1).
Nous sommes en train de vivre la révolution informatique que l’on attendait, et pressentait, venant d’Apple, et le futur s’annonce clairement excitant !

Vivement demain 18h pour en appprendre plus sur ce sujet passionnant qu’est le Machine Learning. J’ai mon billet pour la conférence !

Merci à toute l’équipe !

avatar Florent Morin | 

@David Finder

Et bien, à demain alors 👍

avatar balou | 

@David Finder

Cela justifie à posteriori mon réabonnement effectué il y a 3 jours.

avatar BingoBob | 

J’adore ces types d’articles. Merci !

CONNEXION UTILISATEUR