Apprentissage automatique : les puces Ax et M1 font la leçon

Florent Morin |

La puce A14 des iPhone 12 et la M1 des premiers Mac Apple Silicon disposent d'un nouveau Neural Engine à 16 cœurs capable d’exécuter 11 000 milliards d’opérations à la seconde. En somme, à en croire Apple, une bête de course pour l’apprentissage automatique (machine learning) jusqu'à deux fois plus puissant que la version de l'A12. Ce nouveau moteur dédié aux tâches d'intelligence artificielle tient-il ses promesses ? C'est ce que nous allons voir.

Image Apple

L'apprentissage automatique, comment ça marche ?

L’apprentissage automatique, qui fait partie des domaines de l'intelligence artificielle, est de la prédiction à partir de données. Par exemple, si les données sont issues d’une image, je peux prédire avec un certain niveau de fiabilité que celle-ci représente un chien. Si ces données sont issues d’un tableur, je peux déduire un résultat à partir de paramètres en entrée.

Il y a plusieurs techniques permettant d’effectuer ces prédictions. Ces techniques sont, pour faire simple, des algorithmes paramétrables et les paramètres de ces algorithmes sont des modèles. Et, pour tout cela, il faut un jeu de données de référence en entrée.

Si on reprend l’exemple de la reconnaissance d’un chien dans une photo, je vais donner des millions de photos de chiens à mon outil d’entraînement qui va comparer les photos et trouver leurs points communs. À partir de là, un modèle va être généré. Ce modèle contient toutes les informations permettant de détecter un chien dans une photo. Cette première étape est particulièrement gourmande en ressources.


avatar romainB84 | 

@FloMo

Oki !
Merci pour ces éclaircissements !! Ça semble bien prometteur pour les applis utilisant le machine lezrning en tout cas !!

avatar Hideyasu | 

Super article, ça annonce que du prometteur pour l’avenir

avatar Hasgarn | 

Chapeau! Quel article !
Vulgariser ça, c’était pas gagné et c’est pourtant réussi.
👏👏

avatar Brad64 | 

Très intéressant et bien expliqué 👌

avatar Florent Morin | 
Merci à tous pour vos commentaires. 😁
avatar raoolito | 

@FloMo

c’est mérité !
je me sens à chaque fois un peu bete quand je termine un de vos articles (oui oui) mais ce qui est entré est toujours un grand pas
merci !

avatar Florent Morin | 

@raoolito

👍

avatar Ron Dex | 

Super article. C’est justement un point que je ne comprenais pas par rapport à ce processeur avec toute sa partie de machine Learning.
Merci pour ces articles de fond. Ce qui justifie largement un abonnement !

avatar Marcos Ickx | 

@RonDex

+1 👍

avatar Oracle | 

Merci pour ces éclaircissements bienvenus !

avatar Marcos Ickx | 

« le score avec le Mac mini M1 (c'est identique avec le MacBook Air M1) est simplement hallucinant »

Je pensais que CoreML utilisait tous les cœurs, et donc aussi les cœurs GPU.

Sachant que le MacBook Air d’entrée de gamme n’a que 7 cœurs GPU, ne devrions-nous pas voir une différence entre les deux ?

avatar Florent Morin | 

@Marcos Ickx

Core ML n’exploite pas encore toutes les possibilités matérielles pour la partie entraînement. Mais ça s’améliore.

La beta macOS 11.1 est déjà plus performante dans Create ML. Ça devrait suivre ensuite dans Core ML. Progressivement.

D’ici juin, ce sera au top je pense. Et la WWDC21 devrait clairement être orientée ML. Avec de nouvelles avancées côté usage.

Si en plus on a des machines pro, ça peut faire très très mal.

avatar MartyNick | 

Merci pour cet article ! Bonne vulgarisation

avatar Rom 1 | 

Article intéressant (comme toujours), on comprend mieux les enjeux de l'IA.

avatar flabelline | 

Merci pour l'article. Il serait interessant de voir ce que donne ces résultats en utilisant l'accélération des cartes NVIDIA. Car CUDA sert beaucoup pour les applications d'apprentissage profond. Or sur Mac, Apple a fermé la porte de CUDA depuis High Sierra. Il faudra comparer avec le même programme sous Linux.

avatar flabelline | 

Merci pour l'article. Les tests sont interessant. Serait-il possible de comparer avec le même apprentissage mais sur un PC Intel sous Linux utilisant une carte graphique NVIDIA (en utilisant CUDA) ? Car Apple a abandonné le support CUDA depuis High Sierra.

avatar Florent Morin | 

@flabelline

On pourra peut-être, mais plus tard. Quand Tensorflow utilisera pleinement le M1. Sachant qu’on compare circuit intégré et circuit dédié, ce qui rend la comparaison difficile.

avatar David Finder | 

Merci pour cet article (et les autres du même genre aussi).
Comme déjà dit par d’autres, ça justifie nettement l’abonnement.
J’adore cette période, depuis qu’Apple place ses billes, petit à petit. On en voit clairement maintenant le résultat, avec les Mac Apple Silicon et les performances des puces mobiles (tant pour l’A14 que le M1).
Nous sommes en train de vivre la révolution informatique que l’on attendait, et pressentait, venant d’Apple, et le futur s’annonce clairement excitant !

Vivement demain 18h pour en appprendre plus sur ce sujet passionnant qu’est le Machine Learning. J’ai mon billet pour la conférence !

Merci à toute l’équipe !

avatar Florent Morin | 

@David Finder

Et bien, à demain alors 👍

avatar BingoBob | 

J’adore ces types d’articles. Merci !

Pages

CONNEXION UTILISATEUR