L'intelligence artificielle, du data center au microcontrôleur

Stéphane Moussie |

Appuyez sur la petite baguette magique, et Pixelmator Photo embellit automatiquement votre image. De la magie ? Non, du machine learning, comme l’indiquent les initiales ML à côté de la baguette.

Grâce à leur moteur neuronal dédié, les puces Apple A11 et A12 des terminaux iOS sont capables d’effectuer des centaines de milliards d’opérations d’apprentissage automatique par seconde, ce qui rend le coup de baguette magique quasi instantané. Ce n’est toutefois que le bout de la chaîne.

On ne s’en rend pas compte quand on utilise Pixelmator Photo ou toute autre app exploitant des techniques de machine learning, mais l’éditeur a dû préparer son tour.

On parle, en intelligence artificielle, d’une phase d’entraînement. Dans le cas de Pixelmator Photo, 20 millions de photos ont été analysées pour que l’app « apprenne » à modifier correctement les vôtres. Un volume énorme qui implique un matériel adapté. C’était le thème de la table ronde « le hardware de l’IA » qui s’est tenue le 11 avril, lors du salon SIDO à Lyon.

Plus doués que les CPU pour les traitements parallèles, les GPU ont pris une place primordiale dans les procédures d’entraînement, pose en introduction Serge Palaric, VP Embedded EMEA chez Nvidia. Le spécialiste des GPU propose depuis plusieurs années tout un éventail de solutions et de produits dédiés à l’intelligence artificielle, de la carte graphique indépendante jusqu’à l’utilisation directe de ses centres de données.

C’est également le cas d’IBM, qui a noué un partenariat avec Apple l’année dernière. Les développeurs iOS peuvent faire appel à la plateforme Watson pour entraîner leurs algorithmes avec de nombreuses données et ensuite les intégrer à leur application grâce au framework Core ML d’Apple.

« Chez IBM, les data centers ne sont pas uniformes », indique Xavier Vasques, IBM Systems Technology Center Director. Il est nécessaire de diversifier l’équipement des centres de données pour optimiser les traitements, car chaque projet a ses spécificités. « Le temps passé à entraîner un modèle, c’est du temps qui ralentit l’innovation. [L’entraînement] peut durer des semaines, voire des mois », fait-il valoir.

Dans ce contexte, « il faut penser le hardware différemment, trouver de nouvelles approches pour s’affranchir des goulots d’étranglement. » Un exemple à suivre, c’est le cerveau humain, un cerveau qui « fait rêver » IBM et les autres experts. Plusieurs entreprises planchent actuellement sur des puces neuromorphiques, c’est-à-dire des puces qui miment le fonctionnement du cerveau.

« Grâce à ses circuits neurone-synapse, notre cerveau dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique le chercheur Damien Querlioz dans un dossier du CNRS. En imitant ce fonctionnement, les puces neuromorphiques consomment beaucoup moins d’énergie que les autres neurones artificiels.

Un autre champ d’exploration dans le hardware de l’intelligence artificielle est l’ordinateur quantique, un nouveau type d’ordinateur aux performances exceptionnelles. Pourquoi dès lors ne pas concentrer toute sa R&D sur l’informatique quantique, si elle est si remarquable ? Parce qu’elle sera dédiée à des tâches spécifiques, elle ne remplacera pas tous les ordinateurs traditionnels, répond Xavier Vasques. Et puis avant que l’informatique quantique ne se démocratise, il faut répondre aux problématiques du quotidien, commente Nicolas Coudert, IoT Business Lead chez Microsoft.

Table ronde « le hardware de l’IA » au SIDO 2019. Crédit : MacGeneration (CC BY-SA 4.0)

L’une de ces problématiques, c’est la capacité à exécuter le modèle entraîné, la phase d’inférence, là où c’est le plus pertinent. Dans une voiture autonome, vous n’allez pas attendre que les données enregistrées par les capteurs soient envoyées vers le data center, analysées là-bas, puis que la réponse soit transmise à la voiture pour que celle-ci se mette à freiner quand une personne déboule devant elle. Il y a suffisamment de place dans un véhicule pour caser un ordinateur qui traite les tâches en local — c’est ce qui est appelé dans l’industrie l’edge computing, le traitement des données à la périphérie, en opposition au cloud computing, centralisé.

Mais les contraintes de place sont parfois extrêmes. Il n’est pas possible de faire entrer une carte graphique ni même une puce de la taille de l’Apple A12 dans tous les objets que l’on veut rendre intelligents. La start-up toulonnaise Cartesiam entend répondre à ce cas de figure avec un framework capable d’apporter l’intelligence artificielle, tant la phase d’apprentissage que celle de l’inférence, dans des objets munis de simples microcontrôleurs très peu puissants.

L’exemple donné par Joël Rubino, PDG de Cartesiam, est celui de Bob, une sorte de stéthoscope de machines industrielles qui détecte et qualifie les anomalies en écoutant les vibrations. « Tout ça, c’est réalisé dans le capteur, sans connexion au cloud », déclare-t-il, en soulignant que c’est un avantage pour la sécurité, car les données ne sortent pas de l’entreprise.

Faut-il pour autant couper toute connexion au cloud ? Non, car en remontant l’info, une analyse de l’ensemble du parc devient réalisable. « La stratégie edge est complémentaire de celle du cloud », résume Joël Rubino.

Dit autrement, l’intelligence artificielle est une intelligence collective, qui allie le data center au microcontrôleur, l’ordinateur quantique à la puce la plus basique, le big data à la donnée individuelle.

avatar nemrod | 

Quelle est ta définition de l’IA ?

avatar J'en_crois Pas_mes yeux | 

@nemrod "Quelle est ta définition de l’IA ?"
Excellente question. L'intelligence humaine n'a pas une définition, quand à l'intelligence artificielle : on est dans le fantasme.
Une autre question se pose à travers l'article :
celle de "l'amélioration des photos" par l'intelligence artificielle.
Plutôt qu'amélioration je dirai normalisation pour ne pas dire crétinisation.
(soit la transformation se fait "en intelligence partagée" AVEC le photographe et nous avons bien une amélioration, soit le processus échape au regard artistique du preneur de photo,...

avatar marenostrum | 

Emprunt au latin classique intellegentia, ‘aptitude à comprendre’, aussi analysable en intelligent et -⁠ence ; du latin classique intellegere, ‘comprendre’.

avatar nemrod | 

@marenostrum

Pardon ?

avatar marenostrum | 

c'est du copier-coller de l'Antidote (logiciel dictionnaire) du mot Intelligence dans la partie Etymologie. y a pas mieux que l'étymologie pour comprendre ce que veut dire un mot.
la plupart des mots ont perdu la définition d'origine, en plus c'est des emprunts du latin (langue étrangère pour le français), bref pour ça qu'on les confond aujourd'hui.

avatar nemrod | 

@marenostrum

Je ne vois pas l’intérêt, pour ma part je comprends ce mot t j’ai fait du latin, tu me sembles être passé à côté.

avatar marenostrum | 

et marenostrum alors tu sais ce que veut dire ?

avatar nemrod | 

@marenostrum

Non, et je ne vais pas chercher mais te laisser étaler ta confiture bien que je m’interroge sur l’intérêt de la discussion. Pour ma part c’est l’abus de l’emploi du terme IA qui m’intéresse

avatar marenostrum | 

eux ils sont obligés de lui coller un mot pour se comprendre. si la définition est large tant mieux pour tout le monde.

avatar nemrod | 

@marenostrum

Une définition n’est pas « large »

avatar marenostrum | 

le fait est que l'Intelligence est une définition large. comme la plupart des mot, dans le dictionnaire. pour ça y a une page d'explications.

avatar J'en_crois Pas_mes yeux | 

@ marenostrum
définition large, définition flou, définition multiple...
Cela implique mot qu'il vaut mieux éviter d'utiliser si l'on veut se faire comprendre
ou à la rigueur qu'il serait nécessaire de redéfinir avant de l'utiliser
si l'on veut penser avec rigueur éviter de dire n'importe quoi

avatar Bigdidou | 

@J'en_crois Pas_mes yeux

« définition large, définition flou, définition multiple... »

Effectivement.
La définition de l’intelligence est tautologique, puisque c’est l’ensemble,des processus cognitifs qu’on mesure avec les tests d’intelligence..
on reconnaît effectivement plusieurs types d’intelligence, mais ça reste des constructions artificielles.
Les différents processus cognitifs, eux, peuvent être mesurés de façon reproductible et corresponde à une réalité neurophysiologique (et comportementale).

avatar nemrod | 

@marenostrum

🖖🏻

avatar J'en_crois Pas_mes yeux | 

@ marenostrum "si la définition est large tant mieux pour tout le monde."
Non.
Une définition "large" n'est pas un avantage mais un inconvénient. C'est au contraire la précision des mots qui permet une réflexion intelligent. Par contre, des mots flottants permettent de dire beaucoup de bêtises.
L'inconvénient du mot "intelligence" dans ce cas de figure est qu'il est chargé de fantasme et donc se prête plus à la manipulation qu'à la connaissance des processus sous-jacent

avatar J'en_crois Pas_mes yeux | 

@marenostrum
Comprendre implique la notion de "conscience", ce qui n'est pas du domaine de l'intelligence artificielle.

avatar nemrod | 

@J'en_crois Pas_mes yeux

J’ai compris 😉 mais je ne voyais pas l’intérêt du message en question.

avatar J'en_crois Pas_mes yeux | 

@ nemrod
Merci

avatar nemrod | 

@J'en_crois Pas_mes yeux

La seule que je connaisse est celle du Turing, du coup le reste n’est que marketing...

avatar J'en_crois Pas_mes yeux | 

@nemrod
La proposition de Turing me parait être un non sens :
Le fait que l'on soit incapable de différencier deux objets ne signifie aucunement que les 2 objets sont de même nature.
"Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur." n'implique aucunement que l'ordinateur face appel à de "l'intelligence"

avatar nemrod | 

@J'en_crois Pas_mes yeux

Quelle est ta définition ?

avatar J'en_crois Pas_mes yeux | 

@ nemrod "Quelle est ta définition ?"
De l'intelligence ?
- Contrairement aux objets, l'intelligence n'existe pas en dehors de la définition qu'on lui donne. Les définitions qu'on peut lui donner sont multiples, chacune peut être pertinente comme outil de réflexion par rapport aux objectifs qu'on se donne, mais il faut rester conscient qu'elle n'est qu'un outil et ne renvoie pas à un objet réel.
J'aurai tendance à parler au pluriel "d'intelligences". Si la mémoire et le calcul sont des éléments nécessaires, la conscience, le fait de comprendre (prendre avec soi) me parait essentiel. Mais pardessus tout quand j'entend le mot "intelligence" je me méfie de la charge fantasmagorique qui sous-tend la plupart du temps l'usage du mot.
Un tableau de maître et une copie parfaite peuvent être impossible à reconnaître. Pourtant les intelligences en œuvre dans leur processus d'élaboration sont différentes et les peintures sont dans leur essence différentes.

avatar marenostrum | 

"Un tableau de maître et une copie parfaite peuvent être impossible à reconnaître".

non un tableau de maitre on peut pas le copier. on devient millionaire si on y arrive. on pouvait devenir maitre, aussi grand que lui.
ces tableaux là ont toujours (et même de plus en plus) beaucoup de valeur parce que on peut pas les reproduire. le peintre lui-même ne peux pas reproduire deux fois la même chose même s'il le veut.

avatar J'en_crois Pas_mes yeux | 

@ marenostrum
"non un tableau de maitre on peut pas le copier"
Aucun problème, Merci pour la correction... Bien que j'aurai cru que sans outil scientifique beaucoup d'experts pouvaient être induits en erreur (et la totalité des non-experts)...
Mais de tout manière, cela ne change rien à mon propos : si un jour on arrivait à faire une copie qui soit indiscernable de l'original, cela ne démontrerait aucunement l'équivalence entre la copie et l'original, et encore moins l'équivalence des processus ayant permis à leurs créations.
Et sur ce point j'imagine que nous sommes d'accord.

avatar ShyWhere | 

informatique cognitive ?

Pages

CONNEXION UTILISATEUR