L'intelligence artificielle, du data center au microcontrôleur

Stéphane Moussie |

Appuyez sur la petite baguette magique, et Pixelmator Photo embellit automatiquement votre image. De la magie ? Non, du machine learning, comme l’indiquent les initiales ML à côté de la baguette.

Grâce à leur moteur neuronal dédié, les puces Apple A11 et A12 des terminaux iOS sont capables d’effectuer des centaines de milliards d’opérations d’apprentissage automatique par seconde, ce qui rend le coup de baguette magique quasi instantané. Ce n’est toutefois que le bout de la chaîne.

On ne s’en rend pas compte quand on utilise Pixelmator Photo ou toute autre app exploitant des techniques de machine learning, mais l’éditeur a dû préparer son tour.

On parle, en intelligence artificielle, d’une phase d’entraînement. Dans le cas de Pixelmator Photo, 20 millions de photos ont été analysées pour que l’app « apprenne » à modifier correctement les vôtres. Un volume énorme qui implique un matériel adapté. C’était le thème de la table ronde « le hardware de l’IA » qui s’est tenue le 11 avril, lors du salon SIDO à Lyon.

Plus doués que les CPU pour les traitements parallèles, les GPU ont pris une place primordiale dans les procédures d’entraînement, pose en introduction Serge Palaric, VP Embedded EMEA chez Nvidia. Le spécialiste des GPU propose depuis plusieurs années tout un éventail de solutions et de produits dédiés à l’intelligence artificielle, de la carte graphique indépendante jusqu’à l’utilisation directe de ses centres de données.

C’est également le cas d’IBM, qui a noué un partenariat avec Apple l’année dernière. Les développeurs iOS peuvent faire appel à la plateforme Watson pour entraîner leurs algorithmes avec de nombreuses données et ensuite les intégrer à leur application grâce au framework Core ML d’Apple.

« Chez IBM, les data centers ne sont pas uniformes », indique Xavier Vasques, IBM Systems Technology Center Director. Il est nécessaire de diversifier l’équipement des centres de données pour optimiser les traitements, car chaque projet a ses spécificités. « Le temps passé à entraîner un modèle, c’est du temps qui ralentit l’innovation. [L’entraînement] peut durer des semaines, voire des mois », fait-il valoir.

Dans ce contexte, « il faut penser le hardware différemment, trouver de nouvelles approches pour s’affranchir des goulots d’étranglement. » Un exemple à suivre, c’est le cerveau humain, un cerveau qui « fait rêver » IBM et les autres experts. Plusieurs entreprises planchent actuellement sur des puces neuromorphiques, c’est-à-dire des puces qui miment le fonctionnement du cerveau.

« Grâce à ses circuits neurone-synapse, notre cerveau dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique le chercheur Damien Querlioz dans un dossier du CNRS. En imitant ce fonctionnement, les puces neuromorphiques consomment beaucoup moins d’énergie que les autres neurones artificiels.

Un autre champ d’exploration dans le hardware de l’intelligence artificielle est l’ordinateur quantique, un nouveau type d’ordinateur aux performances exceptionnelles. Pourquoi dès lors ne pas concentrer toute sa R&D sur l’informatique quantique, si elle est si remarquable ? Parce qu’elle sera dédiée à des tâches spécifiques, elle ne remplacera pas tous les ordinateurs traditionnels, répond Xavier Vasques. Et puis avant que l’informatique quantique ne se démocratise, il faut répondre aux problématiques du quotidien, commente Nicolas Coudert, IoT Business Lead chez Microsoft.

Table ronde « le hardware de l’IA » au SIDO 2019. Crédit : MacGeneration (CC BY-SA 4.0)

L’une de ces problématiques, c’est la capacité à exécuter le modèle entraîné, la phase d’inférence, là où c’est le plus pertinent. Dans une voiture autonome, vous n’allez pas attendre que les données enregistrées par les capteurs soient envoyées vers le data center, analysées là-bas, puis que la réponse soit transmise à la voiture pour que celle-ci se mette à freiner quand une personne déboule devant elle. Il y a suffisamment de place dans un véhicule pour caser un ordinateur qui traite les tâches en local — c’est ce qui est appelé dans l’industrie l’edge computing, le traitement des données à la périphérie, en opposition au cloud computing, centralisé.

Mais les contraintes de place sont parfois extrêmes. Il n’est pas possible de faire entrer une carte graphique ni même une puce de la taille de l’Apple A12 dans tous les objets que l’on veut rendre intelligents. La start-up toulonnaise Cartesiam entend répondre à ce cas de figure avec un framework capable d’apporter l’intelligence artificielle, tant la phase d’apprentissage que celle de l’inférence, dans des objets munis de simples microcontrôleurs très peu puissants.

L’exemple donné par Joël Rubino, PDG de Cartesiam, est celui de Bob, une sorte de stéthoscope de machines industrielles qui détecte et qualifie les anomalies en écoutant les vibrations. « Tout ça, c’est réalisé dans le capteur, sans connexion au cloud », déclare-t-il, en soulignant que c’est un avantage pour la sécurité, car les données ne sortent pas de l’entreprise.

Faut-il pour autant couper toute connexion au cloud ? Non, car en remontant l’info, une analyse de l’ensemble du parc devient réalisable. « La stratégie edge est complémentaire de celle du cloud », résume Joël Rubino.

Dit autrement, l’intelligence artificielle est une intelligence collective, qui allie le data center au microcontrôleur, l’ordinateur quantique à la puce la plus basique, le big data à la donnée individuelle.

avatar nemrod | 

Quelle est ta définition de l’IA ?

avatar J'en_crois Pas_mes yeux | 

@nemrod "Quelle est ta définition de l’IA ?"
Excellente question. L'intelligence humaine n'a pas une définition, quand à l'intelligence artificielle : on est dans le fantasme.
Une autre question se pose à travers l'article :
celle de "l'amélioration des photos" par l'intelligence artificielle.
Plutôt qu'amélioration je dirai normalisation pour ne pas dire crétinisation.
(soit la transformation se fait "en intelligence partagée" AVEC le photographe et nous avons bien une amélioration, soit le processus échape au regard artistique du preneur de photo,...

avatar marenostrum | 

Emprunt au latin classique intellegentia, ‘aptitude à comprendre’, aussi analysable en intelligent et -⁠ence ; du latin classique intellegere, ‘comprendre’.

avatar nemrod | 

@marenostrum

Pardon ?

avatar marenostrum | 

c'est du copier-coller de l'Antidote (logiciel dictionnaire) du mot Intelligence dans la partie Etymologie. y a pas mieux que l'étymologie pour comprendre ce que veut dire un mot.
la plupart des mots ont perdu la définition d'origine, en plus c'est des emprunts du latin (langue étrangère pour le français), bref pour ça qu'on les confond aujourd'hui.

avatar nemrod | 

@marenostrum

Je ne vois pas l’intérêt, pour ma part je comprends ce mot t j’ai fait du latin, tu me sembles être passé à côté.

avatar marenostrum | 

et marenostrum alors tu sais ce que veut dire ?

avatar nemrod | 

@marenostrum

Non, et je ne vais pas chercher mais te laisser étaler ta confiture bien que je m’interroge sur l’intérêt de la discussion. Pour ma part c’est l’abus de l’emploi du terme IA qui m’intéresse

avatar marenostrum | 

eux ils sont obligés de lui coller un mot pour se comprendre. si la définition est large tant mieux pour tout le monde.

avatar nemrod | 

@marenostrum

Une définition n’est pas « large »

avatar marenostrum | 

le fait est que l'Intelligence est une définition large. comme la plupart des mot, dans le dictionnaire. pour ça y a une page d'explications.

avatar J'en_crois Pas_mes yeux | 

@ marenostrum
définition large, définition flou, définition multiple...
Cela implique mot qu'il vaut mieux éviter d'utiliser si l'on veut se faire comprendre
ou à la rigueur qu'il serait nécessaire de redéfinir avant de l'utiliser
si l'on veut penser avec rigueur éviter de dire n'importe quoi

avatar Bigdidou | 

@J'en_crois Pas_mes yeux

« définition large, définition flou, définition multiple... »

Effectivement.
La définition de l’intelligence est tautologique, puisque c’est l’ensemble,des processus cognitifs qu’on mesure avec les tests d’intelligence..
on reconnaît effectivement plusieurs types d’intelligence, mais ça reste des constructions artificielles.
Les différents processus cognitifs, eux, peuvent être mesurés de façon reproductible et corresponde à une réalité neurophysiologique (et comportementale).

avatar nemrod | 

@marenostrum

??

avatar J'en_crois Pas_mes yeux | 

@ marenostrum "si la définition est large tant mieux pour tout le monde."
Non.
Une définition "large" n'est pas un avantage mais un inconvénient. C'est au contraire la précision des mots qui permet une réflexion intelligent. Par contre, des mots flottants permettent de dire beaucoup de bêtises.
L'inconvénient du mot "intelligence" dans ce cas de figure est qu'il est chargé de fantasme et donc se prête plus à la manipulation qu'à la connaissance des processus sous-jacent

avatar J'en_crois Pas_mes yeux | 

@marenostrum
Comprendre implique la notion de "conscience", ce qui n'est pas du domaine de l'intelligence artificielle.

avatar nemrod | 

@J'en_crois Pas_mes yeux

J’ai compris ? mais je ne voyais pas l’intérêt du message en question.

avatar J'en_crois Pas_mes yeux | 

@ nemrod
Merci

avatar nemrod | 

@J'en_crois Pas_mes yeux

La seule que je connaisse est celle du Turing, du coup le reste n’est que marketing...

avatar J'en_crois Pas_mes yeux | 

@nemrod
La proposition de Turing me parait être un non sens :
Le fait que l'on soit incapable de différencier deux objets ne signifie aucunement que les 2 objets sont de même nature.
"Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur." n'implique aucunement que l'ordinateur face appel à de "l'intelligence"

avatar nemrod | 

@J'en_crois Pas_mes yeux

Quelle est ta définition ?

avatar J'en_crois Pas_mes yeux | 

@ nemrod "Quelle est ta définition ?"
De l'intelligence ?
- Contrairement aux objets, l'intelligence n'existe pas en dehors de la définition qu'on lui donne. Les définitions qu'on peut lui donner sont multiples, chacune peut être pertinente comme outil de réflexion par rapport aux objectifs qu'on se donne, mais il faut rester conscient qu'elle n'est qu'un outil et ne renvoie pas à un objet réel.
J'aurai tendance à parler au pluriel "d'intelligences". Si la mémoire et le calcul sont des éléments nécessaires, la conscience, le fait de comprendre (prendre avec soi) me parait essentiel. Mais pardessus tout quand j'entend le mot "intelligence" je me méfie de la charge fantasmagorique qui sous-tend la plupart du temps l'usage du mot.
Un tableau de maître et une copie parfaite peuvent être impossible à reconnaître. Pourtant les intelligences en œuvre dans leur processus d'élaboration sont différentes et les peintures sont dans leur essence différentes.

avatar marenostrum | 

"Un tableau de maître et une copie parfaite peuvent être impossible à reconnaître".

non un tableau de maitre on peut pas le copier. on devient millionaire si on y arrive. on pouvait devenir maitre, aussi grand que lui.
ces tableaux là ont toujours (et même de plus en plus) beaucoup de valeur parce que on peut pas les reproduire. le peintre lui-même ne peux pas reproduire deux fois la même chose même s'il le veut.

avatar J'en_crois Pas_mes yeux | 

@ marenostrum
"non un tableau de maitre on peut pas le copier"
Aucun problème, Merci pour la correction... Bien que j'aurai cru que sans outil scientifique beaucoup d'experts pouvaient être induits en erreur (et la totalité des non-experts)...
Mais de tout manière, cela ne change rien à mon propos : si un jour on arrivait à faire une copie qui soit indiscernable de l'original, cela ne démontrerait aucunement l'équivalence entre la copie et l'original, et encore moins l'équivalence des processus ayant permis à leurs créations.
Et sur ce point j'imagine que nous sommes d'accord.

avatar ShyWhere | 

informatique cognitive ?

avatar occam | 

@J'en_crois Pas_mes yeux

"La proposition de Turing me parait être un non sens :"

Afin que chacun puisse se faire une idée de la proposition de Turing, ainsi que des questions qu‘il y soulève :
https://academic.oup.com/mind/article-pdf/LIX/236/433/9866119/433.pdf

avatar Benitochoco | 

@J'en_crois Pas_mes yeux

Un intelligence artificielle c'est un lecteur de MacG... euh pardon je m'égare ! C'est simplement un algorithme capable pour le moment d'apprentissage. Mais le mot est un peu galvaudé c'est vrai. Article sympa en tout cas.

avatar marenostrum | 

je pense que l'algorithme sert qu'à choisir la bonne réponse (parmi une dizaines), il essaye de faire le juste chois. mais l'apprentissage c'est les gens derrière qui le font (un article sur Alexa de Amazon en parlait sur ce site même, qui avait des gens derrière l'assistant). les machines sont incapables de le faire toute seules. comme pouvait le faire homme, même le moins intelligent des hommes, qui lui est autonome.

Chaplin rigolait déjà avec ça à son époque. normal étant intelligent il était clairvoyant. tandis les scientifiques et les journalistes ils pensaient que dans les années 2000 (on les a dépassés) on seraient capables de faire des robots autonomes. c'est juste du bla bla pour que quelques gens spéculateurs ou charlatans touchent de l'argent. on va mourrir avant nous.

avatar J'en_crois Pas_mes yeux | 

@marenostrum
Une fois "lâché" un algorithme peut être "autonome". (tout dépend de la définition du concept "autonome")
Comme malheureusement l'algorithme qui a "décidé" du sort funeste des 2 Boeing. Quand à "l'apprentissage", il peut être guidé par des humains ou se faire de manière autonome, mais ce n'est pas un "apprentissage" comme on entend quand on utilise ce concept pour les êtres humains...

avatar BeePotato | 

@ marenostrum : « je pense que l'algorithme sert qu'à choisir la bonne réponse (parmi une dizaines), il essaye de faire le juste chois. mais l'apprentissage c'est les gens derrière qui le font »

Non. L’apprentissage est bien évidemment automatique.
Mais il est fait à partir des indications données par des humains, car pour apprendre il faut bien partir d’une base où on nous montre ce qui constitue une bonne réponse et ce qui constitue une mauvaise réponse.
Et comme l’apprentissage peut se poursuivre plus tard pour affiner le modèle, les interventions des humains pour Alexa consistent à ajouter sans cesse des exemples de bonnes et mauvaises réponses, à partir de cas réels d’utilisation.

« les machines sont incapables de le faire toute seules. comme pouvait le faire homme, même le moins intelligent des hommes, qui lui est autonome. »

C’est beau à en tirer une larme. :-)
Sauf qu’en fait, si on laissait ce moins intelligent des hommes tout seul avec sa soi-disant autonomie, ça ne le mènerait pas bien loin en matière d’apprentissage. L’homme aussi a besoin, au début de sa vie, d’avoir des parents (ou un groupe d’humains) qui lui fournissent tout un tas d’exemples et lui indiquent les bonnes et mauvaises réponses. C’est le même principe qui a été repris ici.

avatar Bigdidou | 

@BeePotato

“L’homme aussi a besoin, au début de sa vie, d’avoir des parents (ou un groupe d’humains) qui lui fournissent tout un tas d’exemples et lui indiquent les bonnes et mauvaises réponses. C’est le même principe qui a été repris ici.”

Tout à fait, mais nous avons bien d’autres systèmes d’apprentissage, et surtout des systèmes qui nous indique si ce que nous apprenons est pertinent ou pas.
C’est toute la magie de l’intégration de nos systèmes (mémoire/émotions/raisonnement/récompense et j’en passe), tout ça sous régulation génétique et de l’environnement.
On n’est pas près d’obtenir si performant, petit et économe en énergie avec des machines ;)

Je n’imaginais pas le génie de gens comme Turing, le Big Bang qu’ont constitués leurs travaux bien au delà de l’informatique, et tout ce que lui doivent les neurosciences et les sciences cognitives avant d’avoir lu un papier à ce sujet assez récemment.

avatar BeePotato | 

@ Bigdidou : « et surtout des systèmes qui nous indique si ce que nous apprenons est pertinent ou pas. »

Ce qui revient à la même chose.

avatar J'en_crois Pas_mes yeux | 

@Benitochoco
j'ai rien contre les algorithme bien au contraire...
sauf bien sur quand il font piquer du nez le Boeing 737 dans lequel je voyage.
"l'intelligence" c'est un mot concept, il est suffisamment flou ou multiple pour être gravement inefficace pour réfléchir ou discuter. C'est un mauvais outil de la pensée. Quel ouvrier utiliserait un couteau suisse ou une prise multiple. Meilleur moyen pour bousiller la vis ou l'écrou sur lequel il travail.
S'il parait évident qu'un algorithme ne peut pas "comprendre", il faut aussi se méfier de l'utilisation du mot "apprendre". Avec des guillemets je n'aurai aucun problème sur l'utilisation du terme, si l'on garde bien à l'esprit que le processus "d'apprentissage" de l'algorithme est différent de celui de l'homme (apprendre comprendre et conscience de soi ne sont pas chez lui des concepts séparés)

avatar BeePotato | 

@ J'en_crois Pas_mes yeux : « apprendre comprendre et conscience de soi ne sont pas chez lui des concepts séparés) »

Ah ? C’est à se demander pourquoi il a inventé trois mots différents pour les désigner, alors. :-)

avatar J'en_crois Pas_mes yeux | 

@BeePotato
heu...
3 mots différents pour exprimer 3 significations différentes...
Que ces 3 mots soient "reliés" n'empêchent aucunement que leurs sens n'est pas le même.
le processus d'apprentissage (chez l'homme) conduit à la connaissance qui modifie sa conscience. 3 concepts différents mais reliés (chez l'homme)
Quand on utilise le terme "apprentissage" pour une machine, le terme n'est plus relié à la connaissance ou à la connaissance. On utilise donc un mot qui n'a plus la même définition.
Ce n'est pas un problème tant qu'on garde bien à l'esprit que le processus "d'apprentissage" des machine est différent du processus "d'apprentissage des machine".

avatar BeePotato | 

@ J'en_crois Pas_mes yeux : « Quand on utilise le terme "apprentissage" pour une machine, le terme n'est plus relié à la connaissance ou à la connaissance. »

Euh… c’est pas faux ! :-)

« Ce n'est pas un problème tant qu'on garde bien à l'esprit que le processus "d'apprentissage" des machine est différent du processus "d'apprentissage des machine". »

Ah. C’est pas faux non plus ! ;-)

avatar J'en_crois Pas_mes yeux | 

@BeePotato Merci
Flute : en te lisant je me relis et trouve une boulette :-(
Je voulais dire :
« Quand on utilise le terme "apprentissage" pour une machine, le terme n'est plus relié à la connaissance ou à la conscience. »
Mais probablement avais-tu corrigé.

avatar J'en_crois Pas_mes yeux | 

deuxième boulette (de ma part) Je voulais écrire :
« Ce n'est pas un problème tant qu'on garde bien à l'esprit que le processus "d'apprentissage" des machine est différent du processus "d'apprentissage des êtres humains". »
deux erreurs... je me demande si les lecteurs ont pu rétablir le sens , :-(

avatar Bigdidou | 

@J'en_crois Pas_mes yeux

« Quand on utilise le terme "apprentissage" pour une machine, le terme n'est plus relié à la connaissance ou à la conscience. »

Il n’est surtout plus relié aux émotions. Les processus qui déterminent si quelque que nous apprenons, avons appris, le résultat d’un raisonnement, bref toute pensées est pertinent ou pas font intervenir les circuits des émotions. (Limbique avec sa partie corticale).
Enlève le système limbique et tu te retrouve dans la situation d’un ordinateur gavé au deep learning, incapable d’analyser la pertinence de ce qu’il produit.
Tu trouveras sur internet le cas Phineas Gage en long et en large.
Nous n’avons pas une conscience directe du contenu de notre mémoire qui doit être placé dans une zone tampon et volatile pour cela.

avatar BeePotato | 

@ J'en_crois Pas_mes yeux : « Mais probablement avais-tu corrigé. »

Oui, pour être honnête, je dois avouer que celle-ci, je l’avais corrigée. C’est la deuxième qui me posait plus de difficulté.

avatar cecile_aelita | 

La puce A11 est ouverte à tout core ML et accessible par les développeur ?
Je pensais que le NPU de l’A11 était uniquement dédié à du machine learning pour FaceID, et que seul l’A12 était ouverte à autre chose que faceID?

avatar Brice21 | 

@romainB84

CreateML : https://developer.apple.com/machine-learning/

L’apprentissage du modèle se fait sur Mac mais le modèle tourne sur iOS.

avatar monsieurg33K | 

Des centaines de milliards d’opérations? Il me semblait, de mémoire, qu’on était à 600 millions pour l’A11 et 5 milliards pour l’A12.

avatar reborn | 

@monsieurg33K

C’est pas 600 milliards pour l’A11 et 5 trillions pour l’A12 ?

avatar cecile_aelita | 

@reborn
exactement : 0,6TFlop pour l'A11
et 5 TFlop pour l'A12

avatar 0MiguelAnge0 | 

@romainB84

Lea réseaux neuronnaux se définissent plus en terme de MACS (Multiple-Accumulation per second) qu’en GFlops...

Ces réseaux sont spécialisés pour faire efficacement ces opérations de base pour de l’analyse. Les cartes graphiques peuvent également le faire mais avec des demandes énergétiques élevées.

avatar iPop | 

"c’est le cerveau humain, un cerveau qui « fait rêver » "

C’est simplement un modèle, émotionnel certes, mais juste un modèle à reproduire. Le souci c’est qu’il est variable.

avatar Bigdidou | 

@iPop

« C’est simplement un modèle, »

Certes, mais un modèle qui est très loin d’être encore modélisé.
Le cerveau humain garde encore bien des particularités, qui même si elles sont partiellement modélisées, ne peuvent pas être reproduite.
Ce qui est sidérant dans le cerveau, c’est l’intégration des systèmes et les possibilités infinies de régulation interne et externe.

avatar Poklo | 

[modéré] FI

avatar Mike Mac | 

@Poklo

Il y a peu (ou pas ?) de femmes chez MacGe au même titre qu'il y en a peu dans ces fils de discussion. Les rapports de force comparatifs dans la high-tech sont peut attractifs pour les femmes.

Plus pragmatiques, elles utilisent les technologies et ne perdent pas leur temps à gloser dessus.

Pages

CONNEXION UTILISATEUR