TensorFlow : Google ouvre son intelligence artificielle

Nicolas Furno |

Derrière un nombre croissants de produits Google, il y a une intelligence artificielle capable de comprendre une requête et d’y répondre. Google Now essaie de comprendre ce qu’on lui dit et en cas de doute, tente de deviner la requête la plus probable. Google Photos reconnaît des formes sur les photos et permet à l’utilisateur de trouver toutes les images contenant un objet du quotidien. Google Translate améliore aussi ses traductions en fonction du contexte, grâce à cette même intelligence.

Pour obtenir cette intelligence et surtout pour l’améliorer et l’enrichir, Google a mis au point TensorFlow, un système informatisé d’apprentissage qui est capable, non seulement de comprendre une requête, mais aussi d’améliorer sa compréhension. Sundar Pinchai, le PDG de Google, estime que les smartphones et ordinateurs sont aujourd’hui au niveau d’un enfant de 4 ans et qu’il reste encore une immense marge de progrès.

C’est en partie pour cette raison que TensorFlow n’est plus un produit réservé à Google, mais un outil open-source que tout le monde peut utiliser. N’espérez pas construire votre propre moteur de recherche avec le code fourni par l’entreprise toutefois. Il s’agit en fait un système de programmation qui représente des calculs informatiques sous la forme de graphiques, où chaque nœud est une opération.

TensorFlow reste en fait un outil très générique, à adapter à chaque cas de figure. Mais c’est l’outil de base utilisé par Google pour concevoir ses produits et notamment pour permettre aux chercheurs et aux développeurs de communiquer et de transformer une recherche théorique en produit concret. Tout est expliqué sur le site officiel pour comprendre les concepts et installer le code nécessaire à l’utilisation du système.

avatar macdr | 

J'ai été très étonné de cette comparaison avec un enfant de 4 ans. Après vérification, Il écrit plutôt que "les ordinateurs ne peuvent toujours pas faire aujourd'hui ce qu'un enfant de 4 ans fait sans efforts".

Cela me rassure de sa part. On ne peut pas raisonnablement comparer un ordinateur avec un système nerveux.

avatar Stardustxxx | 

@macdr
Tu veux plutôt parler du cerveau plutôt que du système nerveux ?

Les méduses ont un système nerveux!!!

avatar le ratiocineur masqué | 

"Google Photos reconnaît des formes sur les photos"

Définitivement non on ne peut pas le comparer avec un système nerveux.... sauf si celui-ci est particulièrement étriqué et sous-développé (ce qui est le cas pour nos amis racistes) : http://www.bfmtv.com/international/google-confond-le-portrait-d-afro-americains-avec-des-gorilles-898885.html

avatar macdr | 

@ le ratiocineur ...
Incroyable. Un exemple d'auto-génèse de bêtise par une "intelligence" artificielle. J'en suis tout ému. Merci pour le lien!
Cela donne un avant goût des catastrophes à venir si on laisse trop tôt un programme interpréter à notre place. Si ça commence comme ça, j'ai très peur avec Google cars...

avatar Stardustxxx | 

@macdr
Au contraire, cet incident est très instructif. Il démontre que les techniques de deep learning fonctionnent de facon semblable au cerveau humain, et font le même genre d'approximation que certains.
Sa solution au problème est connu, c'est un problème d'entrainement du reseau de neurone, il faut lui donner plus de données. C'est le même principe que quand tu arrives dans un pays que tu n'a jamais visité, au début tu trouves qu'ils se ressemblent tous, et au bout d'un moment tu percois les nuances, ton cerveau s'est entrainé.

Si on veut que les programmes interprêtent a notre place, ils faut leur laisser une chance pour les évaluer et les améliorer.

avatar macdr | 

Non, le deep learning ne fonctionne pas de façon semblable au cerveau humain!! Même si il peut parfois obtenir des résultats semblables.
On en est très loin et on a peut-être pas intérêt à vouloir chercher à imiter le fonctionnement du cerveau pour le moment. On ne comprend pas encore assez comment il fonctionne. Le deep learning, avec sa façon de fonctionner, donne déjà des résultats très impressionnants et je suis impatient de voir la suite. Ce que cet exemple montre, c'est qu'il y a des choses sur lesquelles il ne faut pas se planter.
La bêtise ici ne vient pas principalement des algorithmes de Google. Ils échouent parfois, c'est normal. La bêtise vient de la vanité de ceux qui l'ont balancé sur la toile sans réfléchir aux conséquences de certaines erreurs pouvant émaner de ces algorithmes. Fort heureusement ils ont très vite réagi.

avatar Stardustxxx | 

@macdr
Le Deep Learning est basé sur le biologique, c'est vrai que j'ai généraliser car on est sur un site grand public. Mais le deep learning est insipiré par le cortex visuel des primates, partie très importante du cerveau humain.

Pourquoi bétise, il est difficile de prévoir ce qui va sortir de ces algos. Si il faut tester chaque cas avant de sortir la techno, dans 20 ans on aura toujours rien. Je connais peu d'industrie qui sortent un produit parfait au premier coup. Donc il est normal qu'il y a des ratés.

avatar macdr | 

C'est justement le problème: la généralisation (demande à ceux qui sont sur la photo).
C'est terrible cette manie anthropomorphique de toujours vouloir comparer à l'humain.
On peut généraliser pour tenter de simplifier les choses mais si à la fin c'est pour que les gens s'imaginent que le deep learning fonctionne comme le cerveau humain, c'est dommage.
Nous avons quelques connaissances, parcellaires, de la logique d'input-output de quelques réseaux neuronaux du cortex visuel primaire des primates. Heureusement que le deep learning ne s'est pas basé que là-dessus sinon Google n'en serait pas là. Et que fait-on avec les périodes critiques ? En aura-ton besoin pour avoir des algorithmes plus performants ? Est-ce que l'on souhaite que les algos se fassent avoir par les illusions d'optique comme nous ?

Pourquoi bêtise? Dans cet exemple précis c'est l'image de Google qui prend. Il y a tout de même quelques sujets sensibles qu'ils auraient pu verrouiller. D'ailleurs ils l'ont fait depuis.
L'intelligence chez Google va devoir être sociétale. C'est un des grands challenges de Google.

A moins de vouloir tout passer à ces algos sous prétexte qu'ils sont jeunes. Mais là pour le coup, si on s'inspire des humains, cela ne marche pas très fort. Tu as des enfants ? Essaye ;)

avatar Stardustxxx | 

@macdr
"C'est terrible cette manie anthropomorphique de toujours vouloir comparer à l'humain."
Ca dépend pour quoi. Dans certains cas c'est pertinent de comparer a l'humain.

"Nous avons quelques connaissances, parcellaires, de la logique d'input-output de quelques réseaux neuronaux du cortex visuel primaire des primates"
Il y a eu des gros progres, nous avons une bonne idéee de comment fonctionne le cortex visuel des primates : http://www-staff.informatik.uni-frankfurt.de/seminare/Literatur/KJ12-VisualHierarchyRevisionRed.pdf ou http://www.scholarpedia.org/article/Models_of_visual_cortex

"Pourquoi bêtise? Dans cet exemple précis c'est l'image de Google qui prend. Il y a tout de même quelques sujets sensibles qu'ils auraient pu verrouiller. D'ailleurs ils l'ont fait depuis."
Il faut être devin maintenant, connaître tout ce qui pourrai choquer les gens... Tu ne peux pas garantir d'éviter tous les sujets sensibles.

"A moins de vouloir tout passer à ces algos sous prétexte qu'ils sont jeunes. Mais là pour le coup, si on s'inspire des humains, cela ne marche pas très fort. Tu as des enfants ? Essaye ;)"

Si on passe a ces algorithmes, c'est pas parce qu'ils sont jeunes, mais qu'ils donnent de bon résultats, en tout cas des résultats bien meilleur que les autres techniques.

C'est quoi le rapport avec les enfants ? Ils sont jeunes ? ;)

avatar macdr | 

Je sais bien qu'il y a eu de gros progrès sur le système visuel. Cela ne devrait cependant pas te suffire pour affirmer "que les techniques de deep learning fonctionnent de facon semblable au cerveau humain".
C'est déjà très excitant de constater que l'ont peut tenter d'appliquer certaines observations des input-output d'aires corticales pour explorer la reconnaissance d'objet par des systèmes artificiels. A ce sujet l'article de l'équipe de Wiskott auquel tu fais référence est très agréable à lire, je te remercie pour le lien. Mais comme tu pourras le lire dans le point 8 et la conclusion, il ne s'agit pas d'imiter le fonctionnement du cerveau humain, mais de s'inspirer de quelques principes tirés de nos connaissances actuelles sur le système visuel du primate pour les recherches futures dans le design de systèmes de vision artificiels. De mon point de vue, il est même probable le développement de ces systèmes aident en retour à orienter nos recherches sur la compréhension du système visuel des mammifères.

"Il faut être devin maintenant, connaître tout ce qui pourrai choquer les gens... "

Il ne s'agit pas du tout de cela. Internet est déjà rempli d'images pouvant être très choquantes pour certains. Il suffit d'aller chercher des images médicales. Il n'est pas question de filtrer. De toute manière c'est impossible. Mais ce qui est remarquable dans l'erreur produite par les algos de Google, c'est qu'il touche à un sujet de société. Les africains ont été assimilés pendant des siècles à des animaux, avec toutes les conséquences catastrophiques sur le plan humain que l'on connait. Google est à l'opposé de cela. C'est donc assez terrible qu'un de leurs produit leur envoie ce résultat à la figure. Et c'est pour cela que j'ai parlé, au second degré, "auto-génèse de bêtise par une intelligence artificielle". Evidemment qu'à part ce triste exemple le système est plutôt impressionnant par sa performance. Allez Google !

CONNEXION UTILISATEUR