L'œil de l'ordinateur

Arnaud de la Grandière |
Alors que l'état de l'art en matière d'intelligence artificielle fait des progrès de saut de puce sur le plan théorique, un de ses champs d'application fait en revanche des progrès fulgurants qui pourrait bien révolutionner notre approche de l'informatique.

Les dernières estimations prédisent que l'ordinateur parviendra à égaler l'intelligence humaine d'ici un demi-siècle, mais pour l'heure nous ne sommes pas même capables de reproduire l'intelligence d'un nourrisson.

Tout au plus, la dernière annonce tonitruante d'IBM dans ce domaine de recherche, prétend-t-elle égaler celle d'un chat (une annonce sujette à caution qui s'est attiré les foudres du responsable d'un projet concurrent dont l'intelligence se limite à celle du rat). La performance serait remarquable mais à remettre en perspective : les supercalculateurs sont pourtant en passe d'égaler le nombre d'opérations à la seconde dont est capable un cerveau humain. Le problème est à la fois structurel et logistique : nous comprenons encore trop peu le fonctionnement du cerveau humain, c'est pourquoi IBM a également lancé une initiative de cartographie détaillée de notre matière grise afin de mieux en appréhender le fonctionnement. D'autre part, certains chercheurs estiment que le développement d'une intelligence artificielle nécessite le même bain de stimulation sensorielle dont les êtres vivants bénéficient.

L'ordinateur comprend ce qu'il voit

Concernant ce dernier point, la reconnaissance visuelle fait précisément des progrès sidérants. Jusqu'ici les ordinateurs étaient aptes à détecter un mouvement par le biais d'une caméra, ou à reconnaître certaines formes simples prédéterminées. C'est notamment par ce biais que la reconnaissance de caractères s'est développée.

Désormais, les ordinateurs sont non seulement capables de reconnaître des visages humains (comme la fonction dédiée à cet effet dans iPhoto), mais également leur état émotionnel en fonction de leur expression. Apple a notamment déposé un brevet dans ce sens (voir notre article Apple brevette du motion tracking, dans lequel vous pourrez également trouver quelques exemples pratiques en vidéo). Dans le domaine de la surveillance vidéo, il leur est possible d'observer les interactions entre différentes personnes, et de déterminer si une bagarre a lieu.

Il existe également des moteurs de recherche graphiques, dans le sens où ils sont capables de reconnaître le contenu d'une image plutôt que de se baser sur sa description. C'est le cas de la fonction Images Similaires de Google Image, ou encore du moteur TinEye qui vous ramènera toutes les images similaires à celle que vous lui fournissez et qu'il aura pu trouver sur le net. On commence à voir apparaître également des moteurs de recherche d'images basés sur leur contenu, comme Tiltomo ou Alipr.

Ce sont des moteurs semblables qui permettent par exemple à l'application Amazon pour iPhone de retrouver les caractéristiques d'un objet donné à partir d'une simple photo de celui-ci.

L'interprétation du traitement des données

D'autres outils exploitent les bases de données d'images et la recherche de forme, telle cette impressionnante démonstration d'universitaires chinois permettant de constituer son propre photomontage automatiquement à l'aide de mots clés et de formes sommaires (voir notre article Du photomontage automagique).

D'autres encore, comme Photosynth de Microsoft, permettent d'exploiter le geotagging des photos trouvées sur Flickr pour les replacer dans un contexte tridimensionnel, voire pour reconstituer en nuages de points la géométrie des monuments les plus photographiés. Toujours chez Microsoft, le projet Natal a fait couler beaucoup d'encre lors de sa présentation : une caméra vidéo couplée à un capteur infrarouge permet d'interpréter en temps réel les mouvements des joueurs sans le moindre harnachement (voir notre article Microsoft veut enterrer la manette), quoique nombre de démonstrations faites lors de la présentation soient sujettes à caution, comme la démonstration de Milo par Peter Molyneux. De même, si Google propose aujourd'hui aux utilisateurs de son service de cartographie de modéliser eux-mêmes les bâtiments en 3D (voir notre article Building Maker : le nouveau jeu de construction de Google), tôt ou tard les photos aériennes seront couplées à Google Street View pour reconstituer les bâtiments en 3D automatiquement.

Une représentation virtuelle du monde réel

Si jusqu'ici il était possible aux ordinateurs de constituer une représentation en 3D sommaire de leur environnement à l'aide de deux caméras, comme c'est le cas des rovers envoyés sur Mars par la NASA, en leur offrant une vision binoculaire comme la nôtre, on arrive désormais à des résultats équivalents avec une seule caméra, voire une seule image fixe. Ainsi, l'université de Stanford a mis au point un logiciel capable de faire une estimation en 3D à partir d'une simple photo, reproduisant en cela certaines connexions synaptiques dédiées à cette même tâche dans le cerveau humain.



Un autre universitaire de Cambridge est arrivé à un résultat plus impressionnant encore : il suffit de montrer un objet sous toutes ses coutures à une seule caméra pour que non seulement son logiciel en reconstitue un modèle tridimensionnel en temps réel, mais qu'il soit en plus capable de le "tracker" dans l'espace instantanément.



Cette dernière capacité permet de transformer n'importe quel objet en marqueur fiduciaire pour la réalité augmentée, de loin la méthode la plus précise pour ce type d'applications (voir notre article L'iPhone 3GS augmentera la réalité). De même, le système permet de faire une "copie virtuelle" de tout objet pour l'intégrer dans une représentation en réalité augmentée. Un tel système ouvre tant de perspectives qu'il est difficile de mesurer l'étendue de toutes les applications pratiques, à commencer par des interfaces homme-machine basées sur des objets réels qu'on manipulerait pour donner diverses instructions à l'ordinateur. Initialement le créateur de ProForma, Qi Pan, avait pour projet de "virtualiser" des scènes extérieures, mais a fini par réaliser que la tâche était trop lourde à réaliser en temps réel pour le matériel actuel. Il s'est donc rabattu sur cette solution de modélisation d'objets, mais n'espérez pas qu'une telle technologie soit rapidement disponible pour les appareils mobile. L'universitaire projette de distribuer une démonstration pour Windows et Linux d'ici quelques mois.

On le voit, en cumulant bases de données en ligne, cloud computing, reconnaissance visuelle, interprétation des données, et réalité augmentée, on voit arriver l'émergence d'une fusion du monde réel et du monde virtuel, d'une zone encore mal définie qui serait à l'intersection des deux mondes, autrefois hermétiques l'un à l'autre. Alors que l'iPhone a mis Internet dans la rue, il nous devient de plus en plus facile de numériser notre environnement.
avatar iSisyphe | 
Excellent article !
avatar houlala63 | 
ça fait [url=http://fr.wikipedia.org/wiki/Singularité_technologique]peur ...
avatar PixelCat | 
Superbe article !!!
avatar Flibust007 | 
Nous ne sommes, non plus, pas capables de reproduire - en création pure - même un brin d'herbe. Alors ....
avatar oomu | 
c'est bien.
avatar blazouf | 
Excellent article !! C'est un peu l'age d'Or de Macgé en ce moment ! Du vrai contenu avec des analyses passionantes ! Continuez ! :)
avatar Bonofox | 
C'est super tout ça... N'empêche, on est en 2009 et on sait pas soigner un rhume, ma livebox met toujours trois plombes a s'allumer, les voitures volent pas mais consomment et puent, mon chien est toujours aussi con! Bref, le progrès...ben, je m'en fout un peu
avatar kubernan | 
[i]L'ordinateur comprend ce qu'il voit[/i] : Volontairement abusifs comme termes :-) : 1- Un ordinateur ne "voit" pas. La caméra est juste une interface destinée à soumettre des données. 2- Un ordinateur ne "comprend" pas non plus, tout au plus un programme [i]catégorise[/i] les données en fonction de calculs de probabilités. Ainsi on obtient donc le même genre de performance que les algorithmes bayesiens de traitement des spams : l'ordinateur "comprend" lorsqu'il "voit" un e-mail s'il s'agit d'un spam ou non. Qu'y-a-t-il de différent entre aujourd'hui et hier (disons les années 90) : la puissance de calcul et la baisse des coûts, tout simplement. En effet, c'est [b]dès le début des années 90[/b] (1991 au M.I.T. plus précisément) que des algorithmes fiables et puissants (aux mêmes basés sur des processus mathématiques déjà connus) ont permis de détecter et reconnaître les visages. Dès cette époque la vision par ordinateur fournissait des techniques pour détecter, suivre et reconnaître les gens et leurs actions.
avatar Anonyme (non vérifié) | 
@Blazouf : Je plussoie ! Il y a du vrai contenu dans vos articles, comparé à certains de vos confrères (ok, 1 seul en particulier que je ne citerais pas aheum!M4E aheum!! kof kof*) qui ne se rabattent plus que sur de l'actu people et des news de 3 lignes. Enfin bref. Merci
avatar shora | 
kubernan a raison. Je travaille dans le domaine des neurosciences de la vision justement, notamment dans la reconnaissance d'objet. Les algorithmes de reconnaissance d'objet qui sont utilisés en informatique sont clairement très impressionnants et fonctionnent très bien. Cependant, je peux vous assurer qu'ils n'ont RIEN de ce qu'on appelle de l'intelligence (ou très peu). On est encore à des années lumières de ce que fait le cerveau humain (pourtant les neurones ont des capacités de calcul ridicule en comparaison avec un ordinateur contemporain). Ca fait maintenant un moment que l'on pense que l'IA qui rattrape l'humain est pour très bientot (cf 2001 de Kubrick qui retranscrit exactement ce que pensait les chercheurs du MIT à ce moment là). Pourtant on en est encore très loin.
avatar shora | 
Comme dit kubernan, la principale différence avec les années 80 est dans la puissance de calcul. Pour vraiment rendre des machines intelligents, on aura besoin d'un vrai nouveau modèle (qui n'est pas encore là).
avatar Arnaud de la Grandière | 
à remettre en perspective avec cette démonstration enregistrée en… 1971 http://www.youtube.com/watch?v=O1oJzUSlTeY
avatar Manueel | 
Merci Shora merci Kubernan, Une camera ne voit rien, un ordinateur ne voit rien et ne comprend rien. si la puissance de calcul a fait un bond, il n'y a pas même l'ébauche d'intelligence dans un ordi, et je crois que la série d'articles que j'avais écrits dans Macworld 1998 restent d'actualité. Big blue n'est pas plus intelligent que Kasparof. Il n'a pas même l'ébauche d'une intelligence Un ordi n'est pas plus capable de faire de l'art que la queue d'un anne à laquelle on aurait attaché un pinceau etc.
avatar Manueel | 
Macworld 11 .Aujourd’hui, il est plus que jamais nécessaire d’être performant, d’être efficace, de faire parti des gagnants, d’être compétitif, sinon... le chômage. Le grand Kasparov battu par un ordinateur ! Même le champion des hommes doit à présent s’incliner face à ces monstres au cerveau de silicium qui peu à peu nous remplacent. Avec la révolution copernicienne, l’homme découvrit qu’il n’était pas le centre de l’univers. Un peu plus tard, Darvin nous apprit que nos glorieux ancêtres étaient des singes et enfin, aujourd’hui nous nous apercevons que notre prétendue intelligence supérieure pouvait-être mise en échec par quelques microprocesseurs. Voici qui devrait définitivement rabattre la morgue de cette espèce humaine. Sur France Info, Jérôme Colombain raconte : “ on s'aperçoit qu'avec une somme colossale de calculs, l'ordinateur approche aujourd'hui les frontières de la créativité. C'est pour le moins déroutant. Il s'est passé de drôles de choses au cours du match Deeper Blue-Kasparov. A la fin de la deuxième partie, l'ordinateur a presque “ bluffé ” le champion du monde comme l'aurait fait un joueur humain. ” “Un ordinateur qui s’approche des frontières de la créativité” : jolie figure de style, mais sérieusement, avant de s’en approcher, encore faudrait-il qu’il en ait pris la route. Bluffé, nous le sommes pour sur, mais non pas par Deep Blue qui en l’absence de tout phénomène de conscience, en serait bien incapable, mais par notre anthropocentrisme et notre propre ignorance. L’ordinateur est dépourvu de la moindre parcelle de volonté et de pensée et si certains parlent un peu trop vite d’intelligence artificielle, il ne faut pas nous leurrer, dans l’état actuel des recherches, la différence entre les processus mentaux humains et les calculs des ordinateurs n’est pas d’abord une question quantitative de rapidité et de taille de mémoire mais un problème qualitatif provenant d’une différence de nature. Contrairement à ce qu’affirmait Turing dans les années
avatar Manueel | 
1950, qu’un automate réussisse à leurrer par son activité des examinateurs en simulant des comportements humains ne suffit pas pour démontrer l’équivalence des processus en jeu. Et quand des programmes informatiques prétendent aujourd’hui “écrire de la poésie”, ce n’est pas l’intelligence de l’ordinateur qui m’interroge mais bien plutôt la bêtise de l’examinateur. Les ordinateurs sont à l’heure actuelle d’autant plus incapables de reproduire le comportement de l’homme que l’on ignore encore presque tout du mode de fonctionnement de ce dernier. Le terme d’“intelligence artificielle” est utilisée de façon totalement abusive. Car si l’on accepte l’idée que l’intelligence est relié à notre capacité de connaissance, d’invention et de compréhension, alors l’incarnation des processus de pensée dans un corps situé dans un “ monde intelligible” en devient la condition nécessaire. Faudra-t-il que l’ordinateur croque un jour de la pomme, pour qu’il ait enfin accès à la connaissance ? Alors et seulement, il comprendra les notions du bien et du mal, il sera capable de perception, de volonté, de liberté et de jugement moral, enfin il connaîtra l’exquise souffrance des problèmes existentiels. Mais comment se fait-il que l’ordinateur, -pas même assez intelligent pour être traité d’imbécile- réussisse pourtant à nous battre dans certains domaines ? La question est d’importance. En tirer quelques leçons nous permettrait d’éviter, quelques années après être sorti major d’une brillante école, de nous trouver relégué à l’état de vieillerie dépassée par un ordinateur plus puissant. L’homme aura, dans le domaine de la puissance brut de calcul, bien du mal à rester dans le futur compétitif. L’ordinateur n’a pas fini de progresser. Moins cher, plus rapide, moins sujet à des erreurs, une mémoire sans défaut, partout là où sa supériorité sera manifeste, il se substituera à l’homme. Et si jusqu’à présent, il se contentait de reléguer au chômage les travailleurs qui occupaient les tâches sub
avatar Manueel | 
les tâches subalternes, dès demain, c’est aux plus hautes fonctions que sa destinée l’appelle. Avec l’arrivée des programmes experts, nous allons assister petit à petit au remplacement de l’homme dans les plus hautes sphères de décision. Les “experts” humains et autres “gestionnaires” ne devraient plus tarder à se trouver mis au rebut, remplacés par des ordinateurs qui rempliront ces tâches plus efficacement, avec beaucoup moins d’erreurs et pour un coût dérisoire. Chefs d’entreprises et grands hommes plolitiques devront bientôt leur céder leur place. À moins qu’enfin dans nos écoles nous nous souvenions que pour diriger un pays ou une entreprise, il ne suffit pas de savoir calculer le meilleur choix possible en minimisant les risques et les coûts et en maximalisant les gains, mais d’être capable dans une situation donnée, de substituer au probable, un désirable. Côte à côte, dans ce refus du réel, Christophe Colomb, de Gaulle, Martin Luther King auraient pu dire “I have a dream”. Être à la fois explorateur et découvreur, inventeur et batisseur, voici la vocation de tous les hommes, et c’est là où l’ordinateur , utilisé comme prothèse de notre mémoire et de notre puissance de calcul, n’est pas destiné à nous remplacer mais au contraire à nous libérer des tâches contingeantes afin que nous puissions donner toute notre mesure dans notre travail de création. Macworld 11. Chronique Humeur. Mon dieu... Que les ordinateurs sont bêtes
avatar kubernan | 
@Manueel et shora : ce que je voulais dire n'est pas seulement qu'un ordinateur est dépourvu d'intelligence (tout le monde le sait), mais surtout que ce qui nous parait extraordinaire aujourd'hui n'est qu'une conséquence de l'évolution de la puissance. Ce qui est extraordinaire c'est que ces techniques (par exemple la reconnaissance des actions d'individus) existaient il y a presque 20 ans déjà.
avatar Arnaud de la Grandière | 
Le MIT et Harvard s'associent pour simuler le cortex visuel et donner une vraie vision aux ordinateurs:
avatar Romuald | 
[b]@ kubernan[/b] [i]L'ordinateur comprend ce qu'il voit : Volontairement abusifs comme termes :-) : 1- Un ordinateur ne "voit" pas. La caméra est juste une interface destinée à soumettre des données.[/i] L'oeil animal ne fait rien d'autre, non ? [i]2- Un ordinateur ne "comprend" pas non plus, tout au plus un programme catégorise les données en fonction de calculs de probabilités.[/i] Et le cerveau, qu'est-ce qu'il fait ? Quand tu décides de donner un coup de volant pour éviter une poule qui traverse la route, c'est parce que ton oeil a envoyé des données à ton cerveau, que celui-ci les a analysées en continu, et qu'en fonction de ce qu'il en a déduit tu braques(probabilité d'écraser la poule, catégorie 'ce que je ne veux pas faire' = 1, action = coup de volant pour l'éviter). Je caricature un peu, mais on peut réduire la fonction du cerveau à cela. Reste deux points à éclaircir : quelle est la capacité, en équivalent octets, d'un cerveau humain moyen ? et combien de données est-il capable de traiter en parallèle (équivalent multicoeur CPU) ? Bonne journée à tous :)
avatar shenmue | 
@Romuald: +1 On sent surtout de gros à priori chez Kubernan. Un ami à moi est roboticien, il travaille sur l'IA et clairement on a quand même dépassé le stade de la machine non pensante et inerte. Ce qui ne veut pas dire pour autant qu'on est pas très loin de l'intelligence humaine. Ce n'est pas tout ou rien. C'est à dire soit l'intelligence humaine (comme si il n'y avait que celle là qui puisse définir le terme d'intelligence) et le néant en terme de capacité autonome d'adaptation. Ceux qui parlent sur ce sujet semblent clairement mal renseignés ou enfermés dans leurs spécialités.
avatar shenmue | 
@Kubernan:"ce que je voulais dire n'est pas seulement qu'un ordinateur est dépourvu d'intelligence (tout le monde le sait)" Pourtant il y a bien dès aujourd'hui des ordinateurs intelligents. tu embles ne relier l'intelligence qu'aux capacités conceptuelles humaines. Mais ce n'est pas cela.
avatar kubernan | 
@Romuald : Tu es en train de dire que la cerveau calcul des probabilités. C'est un peu comme si tu disais que les dauphins ont appris la dynamique des fluides. Ce n'est pas que tu caricatures un peu, tu caricatures beaucoup. Ensuite tu parles de traiter les données en parallèles, c'est bien joli, mais ça ne résout rien : tout calcul pouvant être effectué par un ordinateur parallèle peut l'être aussi par un ordinateur séquentiel.
avatar kubernan | 
@shenmue : On cause d'intelligence artificiel, autrement dit : une machine peut-elle penser ? Alors évidement, selon ta sensibilité tu peux interpréter : les cailloux ou les arbres pensent-tils ? Pour certains oui. Tu peux aussi t'émouvoir si un robot te fait un clin d'oeil. Mais je suis curieux, je veux bien que tu demandes à ton ami un exemple de machine pensante.
avatar fantomx6 | 
Sauf que pour un stimuli exterieur au corps humain on a (en résumé) : 1) Une ou plusieurs zones du cerveau qui s'active 2) Un réponse électrique 3) Un réponse chimique 4) une réponse physiologique De plus, même si les "robots" nous dépassent un jour, il leur manquera la seule chose qui rend l'homme "UNIQUE" : L'Ame
avatar Manueel | 
shenmue Tu dénonces les a priori mais ton intervention manque sacrement de contenu : Tu affirmes que les ordinateurs ont de l'intelligence moi j'affirme que les ordinateurs n'ont pas la moindre once d'intelligence... Pour éviter les combats stériles il serait indispensable que nous définissions les termes que nous employons. Et peut-être alors pourrons nous découvrir que l'on est d'accord ou encore comprendre notre désaccord dans un respect mutuel Définir une notion comme l'intelligence est indispensable avant d'affirmer que les ordinateurs en sont pourvus ou dépourvus. Ca peut-peut-être t'étonner, mais le terme intelligence ne renvoie pas à une réalité évidente, mais construite par la définition qu'on donne au terme. (et qui par conséquence varie) Donc ne critique pas les autres et leur a priori, mais densifie ta pensée jusqu'a ce que puisses émerger pour moi lecteur que je suis, qu'il y a bien de l'intelligence dans celui qui écrit Pardon d'avoir joint un article long de 5000 caractères paru dans Macworld sur ce sujet (j'en ai d'autres sous le coude) mais j'aurais bien du mal à faire mieux car je l'ai travaillé plus de cent heures
avatar Nesus | 
L'homme créer la machine recopie avec excellence.
avatar Hindifarai | 
@ shenmue Merci pour votre tissu d'âneries habituelles :) . L'intelligence est actuellement reconnue comme la capacité à reconnaître un pattern. Un pattern est une sorte de schéma court et simple qui "résume" bien un ensemble d'observations particulières potentiellement détaillés et compliquées. Trouver des pattern à partir d'une base d'exemples c'est "induire" une règle, une théorie et c'est ce que tente d'évaluer les tests de QI et ce que tache de reproduire les algos d'intelligence artificiel (réseaux de neurones, arbre de décisions, Support Vector Machines, programmation logique inductive, classeurs bayesiens naifs ...). Les problèmes d'inductions sont souvent durs, particulièrement avec des ressources de temps et d'espace limitée et c'est probablement pourquoi la notion d'intelligence est (pour moi) très liée a ce pouvoir inductif en contexte de ressources limitées. Prouver qu'un pattern matche ou non un ensemble d'exemples donnés est un raisonnement déductif et c'est très souvent un problème plus simple pour un même domaine (exemple la SLD-resolution qui prouve que des clause logique sont vrai ou fausse en DATALOG est plus simple que la programmation logique inductive qui cherche a écrire un programme logique en DATALOG qui "explique" un ensemble d'exemples positifs et négatifs). Pour faire simple à partir du moment où les capacités déductives sont limitées en espace et temps, et que la base de connaissance déductive n'est pas plus autonome dans son évolution, non les machines ne sont pas réellement intelligentes, elles le simulent bien par contre. Notez bien que l'on est ici très loin de l'article que l'on est censé commenter.
avatar Romuald | 
@kubernan [i]Tu es en train de dire que la cerveau calcul des probabilités.[/i] Exactement. Mais la on quitte le domaine de l'intelligence artificielle pour celui de la philosophie... De mon point de vue toute (je dis bien TOUTE) décision prise par un animal résulte d'un calcul (inconscient) de probabilités, la décision prise étant celle qui a le plus de chances de produire un effet bénéfique à plus ou moins long terme, 'l'intelligence' consistant justement à évaluer les effets à long terme plutôt qu'à court terme. Mais cela n'engage que moi. [i]C'est un peu comme si tu disais que les dauphins ont appris la dynamique des fluides.[/i] Ils l'ont fait à l'insu de leur plein gré, ça s'appelle l'expérience, la mémoire, l'acquis, comme tu veux. [i]Ce n'est pas que tu caricatures un peu, tu caricatures beaucoup. Ensuite tu parles de traiter les données en parallèles, c'est bien joli, mais ça ne résout rien : tout calcul pouvant être effectué par un ordinateur parallèle peut l'être aussi par un ordinateur séquentiel.[/i] Je n'en disconviens pas, le parallélisme permet seulement d'aller un peu plus vite, non ? et si tu veux avoir un ordinateur qui réagit comme un homme, ça m'étonnerait qu'il s'en tire sans parallélisme.
avatar bugman | 
Tiens, ça me rappelle un site qui m'a toujours fait halluciner (www.20q.net)
avatar Hindifarai | 
@ Romuald +1 Ce qu'on peut assimiler à un calcul de probabilités inconscient chez l'être humain est à rapprocher du parcours d'un arbre décisionnel en IA. Chaque expérience vécue ou constatée peut forger un nouveau chemin décisionnel, et suivant le pattern à un instant t et un but recherché on décide du parcours le plus adapté, celui qui a le plus de chances d'aboutir(des paramètres de temps et d'événements exterieurs peuvent intervenir dans ce choix). Ce qu'on peut assimiler de manière simple à l'expérience" est un des domaines qui fait défaut en IA, avec la difficulté de faire évoluer ces chemins décisionnels et donc de simuler une réelle intelligence adaptative.
avatar DrFatalis | 
"De plus, même si les "robots" nous dépassent un jour, il leur manquera la seule chose qui rend l'homme "UNIQUE" : L'Ame" Ben voyons. L'âme est une invention, pas un fait. Cela fait partie de l'obscurantisme religieux.L'âme n'existe pas: nous sommes des singes. L'intelligence n'est peut être, aussi, qu'un processus émergent de la complexité. Il y a de cela quelques temps, j'avais travaillé sur un intéressant problème "philosophico-technique": des automates mobiles nantis de circuits très simples adoptaient des comportements différents dans un environnement composé de différentes sources lumineuses. Des observateurs humains attribuaient automatiquement une "intelligence", une "volonté" à ces mobiles. La question qui se posait était alors la suivante: si des circuits simples simulent aisément aux yeux d'un observateur certains comportements interprétés comme "intelligents", alors est)ce que ce que nous appelons l'intelligence ne serait tout simplement que la manifestation visible de circuits cérébraux moins compliqués que prévu, mais plus nombreux ? En ce cas, l'intelligence éventuelle des machines ne saurait être jaugée à l'aune humaine, cas particulier parmi d'autres formes d'intelligence. Car il ne s'agit pas de simuler, mais de créer. Tiens, en passant, une idée dérangeante (qui n'est pas de moi, mais présentée par Delahaye dans "logique & calcul). Si l'on peut un jour simuler l'intelligence humaine, alors le nombre de ces "sim" ne sera pas limité. Il y en aura des milliards. Dès lors, quelle est la probabilité pour que vous fassiez partie des "vrais" intelligences humaines, en nombre limité, ou des "sim" dont le nombre est virtuellement bien plus grand ? Bonne pilule verte!
avatar Anonyme (non vérifié) | 
" Viens avec moi si tu veux vivre " Bonne journée :)
avatar kubernan | 
@Romuald : je ne sais pas si le débat est si philosophique que cela à ce niveau. Je me méfie des choses qui se ressemblent (un avion vole mais pourtant il ne pond pas des oeufs) et des principes trop réducteurs. Je ne crois pas que le cerveau se contente de calculer des probabilités : un programme informatique manipule seulement des symboles, mais le cerveau leur donne un sens. Mais attention, je ne dis pas que la pensée est à jamais interdite pour les machines. Je dis qu'en l'état actuel, elle l'est.
avatar lennoyl | 
Oh non pitié ! Pas ici ! Pas de "tonitruant", je vous en prie ! On entend ce mot dans tous les médias, et c'est rarement à bon escient.
avatar Arnaud de la Grandière | 
Et si c'est à bon escient, il ne faudrait pas se servir de ce mot sous prétexte que "tous les médias" le font?
avatar Schwarzer Stern | 
Nonoche, pas la peine d'être tonitruant, merci.
avatar PA5CAL | 
@kubernan : dans ce domaine, cela fait déjà longtemps que les ordinateurs ne se contentent plus de calculer des probabilités. En imitant le fonctionnement du cerveau (réseaux neuro-mimétiques), certains sont capables d'apprendre par eux-mêmes à associer des stimuli à des états internes et à en effectuer une analyse complexe, puis de construire à partir de cela des raisonnements afin d'orienter leur action vers des buts fixés. Si l'on n'a pas encore fait de machine à l'image du cerveau d'un homme érudit, intelligent, généraliste, autonome et motivé (à quoi bon, d'ailleurs ?), on a en revanche reproduit de nombreux comportements intelligents spécifiques, qu'on retrouve dans le règne animal ou chez l'être humain. Par exemple, au début des années 90, les militaires savaient déjà faire des viseurs intelligents capables de trouver et d'identifier visuellement des cibles potentielles (éventuellement camouflées) en temps réel, puis d'agir en conséquence. Ce n'était pas dans les laboratoires du MIT, mais chez nous, en France. ...
avatar PA5CAL | 
... Certaines machines peuvent « donner un sens » à ce qu'elles perçoivent. Mais si ce concept signifie beaucoup plus de votre point de vue, alors on se doit bien d'entamer un débat philosophique (en partant de préférence sur des bases où l'on ne considèrerait pas d'emblée la machine comme incapable d'intelligence, ni qu'une «âme» serait nécessaire, par exemple). Au final, on pourrait bien conclure que, de ce point de vue, beaucoup d'êtres humains sont eux aussi bien souvent incapables de donner un sens à ce qu'ils perçoivent, tandis que dans les mêmes circonstances une machine suffisamment puissante et disposant des objectifs, des règles et des informations nécessaires pourrait probablement y parvenir. À mon sens, les réalisations sont actuellement beaucoup plus limitées par des considérations d'utilité, de contrôlabilité et de coût économique. Le fait de s'astreindre à ne reproduire que quelques fonctions minimalistes suffisamment intéressantes sur des PC ne peut que réduire les possibilités et augmenter les difficultés de réalisation. Les fonctions «intelligentes» qu'on voit surgir au fil du temps ne sont pas vraiment révolutionnaires, mais apparaissent surtout parce qu'on a su les rendre rentables et dignes d'intérêt.

CONNEXION UTILISATEUR