Intelligence artificielle : Wozniak, Musk, Hawking ne veulent pas d'armes autonomes

Mickaël Bazoge |

L’intelligence artificielle est « potentiellement plus dangereuse que les armes nucléaires » a prévenu Elon Musk, fondateur et patron de Tesla et de SpaceX. Cette même IA est « notre plus importante menace existentielle », craint Stephen Hawking, le célèbre physicien anglais. Nous n’en sommes pas encore aux flottes de Terminator de Skynet ou aux Sentinelles exterminatrices de Bolivar Trask (X-Men), mais de plus en plus de grands esprits s’alarment des avancées des technologies liées à l’intelligence artificielle et du potentiel désastreux qu’il y aurait à voir les armées développer des systèmes de défense entièrement autonomes. Et si les armes intelligentes, devenues complètement hors de contrôle, venaient à s’en prendre à l’humanité toute entière ?

Dans une lettre ouverte présentée à l’occasion de l’IJCAI (les conférences internationales sur l’intelligence artificielle qui se tiennent à Buenos Aires), plusieurs grands noms appellent les gouvernements du monde à interdire le développement d’armes offensives autonomes afin d’empêcher une course à l’armement qui pourrait bien signer notre perte. Elon Musk et Stephen Hawking sont signataires, tout comme Steve Wozniak le cofondateur d’Apple, Noam Chomsky le penseur américain, et d’autres chercheurs.

Les drones ou les missiles téléguidés peuvent continuer à patrouiller dans les cieux : ce sont des soldats humains qui prennent les décisions. En revanche, le développement d’armes autonomes est à proscrire, estiment-ils. « Si une puissance militaire de premier plan commence à investir dans les armes autonomes, une course à l’armement sera virtuellement inévitable, et la finalité de cette trajectoire technologique est évidente : les armes autonomes deviendront les Kalashnikov de demain ».

À l’instar des biologistes et des chimistes qui n’ont aucunement envie de participer au développement d’armes biologiques, ces chercheurs ne veulent pas aider à la conception d’armes autonomes, ce qui pourrait provoquer un rejet de l’IA chez le grand public et réduire les bienfaits de cette technologie, explique la lettre. Celle-ci n’est adressée à personne en particulier, mais elle peut servir à éveiller les consciences autour de cette problématique de plus en plus importante.


avatar vrts | 

avec ces mêmes I.A. qui tomberont un jour sur cet article et iront faire executer les lanceurs d'alertes :)

avatar atipoul | 

"This open letter will be officially announced at the opening of the IJCAI 2015 conference on July 28, and we ask journalists not to write about it before then. "

Bravo.

avatar just | 

"Embargoed until 4PM EDT July 27 2015/5PM Buenos Aires/6AM July 28 Sydney"

Article publié à 15h30 à New York.

30 petites minutes d'avance seulement donc.

avatar staycalm | 

Si les militaires décident qu'ils veulent des armes autonomes, personne, ***personne*** ne pourra les arrêter... De toutes façons, c'est secret défense !

avatar iapx | 

Déja actuellement et contrairement à ce qui est écrit dans l'article, ce ne sont que rarement des militaires qui dirigent des drones, voire prennent des décisions d'utiliser leurs armes léthales, en général aux États-Unis, il s'agit de civils travaillant pour des contracteurs privés...

C'est de plus en plus problématique!

avatar Giloup92 | 

@just
Une IA journaliste aurait respecté l'heure !

avatar oomu | 

ce genre de déclarations me dépassent. Surtout de la part de quelqu'un comme Hawking.

On dirait un discours d'otakus de cinémas.

La "Kalashnikov" de demain... comme si la Kalashnikov n'était pas déjà la Kalashnikov de maintenant et qu'elle ne suffisait pas pour faire des ravages et des horreurs.

Tout comme les drones sont déjà une catastrophe, permettant de tuer à moindre frais (une fois l'investissement initial fait), le pilote bien au chaud (donc moins de risque et moins de traumatisme pour le gentil pays qui a des drones). Il facilite l'envoi de bombe qui sont toutes sauf chirurgicales.

C'est déjà terrifiant et cela aurait du provoquer un rejet de la radio par le fameux "public". Non ? ha bon.. ben continuons.

-
Les armes dites "autonomes" seront aussi autonomes que leurs autonomies, leur signal radio, leurs capteurs, leurs programmes le permettront.

On est pas dans des films, on ne créé que des calculatrices géantes, des machines qui suivent un déroulé.

Ca sera quoi une arme "autonome" ? un drone essentiellement qui va gérer seul son parcours, repérer une cible programmée (imaginons un pont ou un village) et boum.

Le problème est que ce genre d'article vit dans le monde merveilleux des X-mens et des Terminators.

La vraie vie c'est massacre, égorgement, pillage, viols, bombes, etc. Pas des IAs cools devenues "folles".

Et pour ça, il suffit de voir Syrie, Irak et autres Niger pour savoir que le drone automatisé ne fera pas pire, il le fera juste pour moins cher !

c'est l'économie qui est le moteur de tout ça : moins de surveillance par un opérateur (c'est + cool de dire opérateur que soldat hein ? on se sent tout de suite + guilleret, à la fraîche) = moins de frais. Mais ça ne reste qu'une arme sophistiquée avec une volonté humaine derrière.

-
La technologie est possible, elle sera donc utilisée. C'est la nature humaine.

Mais confondons pas avec les comics et les IAs extraordinaires et invraisemblables.

avatar Cap.Achab | 

Bien d'accord.
Quand je lis "Les drones ou les missiles téléguidées peuvent continuer à patrouiller dans les cieux : ce sont des soldats humains qui prennent les décisions", ça me glace le sang.
Je note l'ironie de l'auteur à travers cette phrase, mais ça transcrit parfaitement la pensée non-dite du consortium. On massacre à distance, d'un petit coup de joystick en Arizona, les victimes collatérales (et innocentes, donc) se comptent en milliers depuis le lancement des programmes, mais pas de souci ! Il n'y a pas une once d'intelligence artificielle à l'intérieur, que de la connerie humaine. Circulez !

Je pense, je sais, que l'IA deviendra une menace à long terme, puisqu'elle est conçu sur ces programmes pour supplanter l'humain faillible, mais pour l'instant notre plus importante menace existentielle reste notre propre espèce.

En revanche, là où je ne suis pas d'accord oomu, c'est que tu lis cette dépêche avec ton œil d'humain du 21e siècle. On ne parle pas de "calculatrice géante" ni de programme qui se déroule, on ne parle pas de science fiction, ça l'est en 2015, ça l'est moins d'un point de vue projection future ; on parle d'une conscience artificielle qui sera capable de prendre des décisions à la place d'un humain, d'un véritable esprit synthétique qui sera force de choix, de jugement et de décision. Ca arrivera forcément un jour, peut-être dans 20, 50, 200 ans, mais ça arrivera.
Les toutes dernières études montrent déjà des avancées significatives (l'histoire du robot qui a "conscience" de ne pas être infecté, brrr).

"On est pas dans des films", mais Hawking sait qu'un jour un appareil armé doté d'une possibilité de choix autonome (le plus basique des cas de création d'IA) sera lancé, comme on est aujourd'hui à l'aube d'avoir une voiture autonome, ce qui était de la pure SF digne de Demolition Man dans les années 1980.
La mise en garde reste importante, même si elle est inutile. Ca sera pour la postérité.

avatar oomu | 

"Je pense, je sais, que l'IA deviendra une menace à long terme, puisqu'elle est conçu sur ces programmes pour supplanter l'humain faillible, mais pour l'instant notre plus importante menace existentielle reste notre propre espèce."

puisque vous savez déjà l'avenir (marc de café ?) avez vous vraiment besoin de moi encore ?

Je ne dis pas que ça n'arrivera pas, je dis qu'il est pu-é-ri-le de nous bassiner avec des images de Terminator et autre Matrix, qui sont aussi vraisemble que des contes de fées avec des dragons.

Ce sont des discours pour enfants.

-
"on parle d'une conscience artificielle qui sera capable de prendre des décisions à la place d'un humain, d'un véritable esprit synthétique qui sera force de choix, de jugement et de décision. Ca arrivera forcément un jour, peut-être dans 20, 50, 200 ans, mais ça arrivera."

ceci est de la science FICTION.

ça n'existe PAS et ce n'est pas ça l'intelligence artificielle ! Ce n'est pas ça qui est créé. On ne sait même pas ce qu'est un "véritable esprit naturel" alors un synthétique...

Les IAs c'est de la programmation ,du lisp par exemple, ce sont des statistiques sur des échantillons gigantesques (par exemple le projet CAPTCHA de google pour améliorer la lecture automatique : ce sont des humains qui ont lu des mots et nourris la base de réponses de Google).

Ce n'est pas des cerveaux. c'est même pas HAL de 2001 l'odyssée de l'espace, une machine extraordinaire qui dépasse l'entendement et les limites de tout ce qu'on fait en processeurs et programmation linéaire.

""On est pas dans des films", mais Hawking sait qu'un jour un appareil armé doté d'une possibilité de choix autonome (le plus basique des cas de création d'IA) "

Hawking sait surement beaucoup de choses sur les données récupérées par la Nasa et les accélérateur de particules du monde, mais il ne sait pas l'avenir. Ni moi.

avatar BeePotato | 

@ oomu : « ceci est de la science FICTION. ça n'existe PAS »

En effet, ça n’existe pas encore.
Ce qui ne signifie nullement que ça n’existera jamais.

« et ce n'est pas ça l'intelligence artificielle ! »

Si. Tu as une définition biaisée du terme « intelligence artificielle ».

avatar oomu | 

en effet elle est biaisée, c'est la définition universitaire (sans me contenter de pondre la définition exacte d'un cours).

En effet c'est pas celle du très sympathique film de Steven Spielberg (que j'adore: ce film a une photographie magnifique et se déroule comme un tragique conte de fée implacable) : A.I.

Mais c'est la réalité. On s'en fout totalement de créer une "conscience" ou le fonctionnement de la raison humaine en "intelligence artificielle". Ce n'est que des techniques informatiques pour solutionner des problèmes décisionnels.

ni + ni -.

-
je dirais même plus, pour amuser : si à force de brancher entre eux des supers processeurs intel à 4 nanometres de gravure et milliards de transistor on finissait par "auto-générer", genre phénomène émergent, une "conscience". ça serait un bug à dézinguer rapidement.

Qui veut une conscience quand on veut un esclave !

avatar BeePotato | 

@ oomu : « en effet elle est biaisée, c'est la définition universitaire »

Non, même pas.
Tu confonds l’objet des travaux actuels et la définition du concept d’IA.

« Mais c'est la réalité. On s'en fout totalement de créer une "conscience" ou le fonctionnement de la raison humaine en "intelligence artificielle". »

Non, tout le monde ne s’en fout pas.

avatar oomu | 

"Tu confonds l’objet des travaux actuels et la définition du concept d’IA."

Non, si vous voulez être ultra précis, je fais référence à "Intelligence artificielle faible" qui est ce dont on parle actuellement, le domaine d'ingénierie développé pour les besoins des drones et autres algo de reconnaissance de forme, de paroles et chemins à prendre, et j'en passe.

Ni plus ni moins.

Le soucis, c'est que si tôt qu'on dit IA, ça y est c'est l'explosion de fantasmes sur les neuroscience, la cognitivité, les Golems et débarque Skynet. ohé bon.

-
"Non, tout le monde ne s’en fout pas."

ok, le "on" était mon côté mutin. Par "on", je veux dire l'industrie, la recherche en algorithme pour automatiser des machines ou robots.

-
Moi, personnellement, oui , je suis très intéressé d'avoir mon R2D2 personnel :)
Je l'appellerais Georges, on gambaderait dans la forêt et je le serrerai très très fort (gniiii).

avatar BeePotato | 

@ oomu : « Non, si vous voulez être ultra précis, je fais référence à "Intelligence artificielle faible" »

Je veux toujours être ultra précis.
Ça permet d’éviter de grands blablas pleins de grandes affirmations au sujet d’un domaine aussi vaste que l’intelligence artificielle, appuyés par des expressions du genre « définition universitaire » pour mieux les faire passer. :-P

« qui est ce dont on parle actuellement »

Oui et non : l’article fait bien référence aux programmes de contrôle de drones, mais la discussion dans les commentaires est vite partie sur l’intelligence artificielle au sens large (et surtout futur) du terme.
Du coup, préciser de quoi on parle est nécessaire, en évitant de se contenter du terme générique « intelligence artificielle » quand on fait un commentaire sur quelque chose de bien plus restreint et limité.

« le domaine d'ingénierie développé pour les besoins des drones et autres algo de reconnaissance de forme, de paroles et chemins à prendre, et j'en passe. »

Pour les autres domaines, je ne sais pas, mais pour ce qui est de la reco de la parole, on n’utilise même pas le terme d’intelligence artificielle, même suivi de l’adjectif « faible ».

« Le soucis, c'est que si tôt qu'on dit IA, ça y est c'est l'explosion de fantasmes sur les neuroscience, la cognitivité, les Golems et débarque Skynet. ohé bon. »

C’est bien normal, puisque ça en fait partie.
Quel intérêt d’utiliser le terme « intelligence artificielle » si ce n’est pas pour envisager ce niveau d’intelligence ? Parce qu’encore une fois, pour ce qu’on fait actuellement en reconnaissance de ceci ou de celà, ou même dans la gestion de dialogue et les assistants numériques, on ne s’amuse généralement pas à sortir le terme « intelligence artificielle ».
En fait, il n’y a bien que des gamerzzz pour utiliser ce terme pour désigner des programmes actuels. :-)

avatar oomu | 

"Les toutes dernières études montrent déjà des avancées significatives (l'histoire du robot qui a "conscience" de ne pas être infecté, brrr)."

??

un robot n'a pas de "conscience" (avec ou sans ""), c'est une machine, un automate sophistiqué : un assemblage de transistor où on fait passer ou pas le courant (état binaire). C'est même pas comparable au cerveau d'une souris (les neurones sont capables d'une bien plus grande richesse d'état et connexion que les machines de Turing)

-
"un appareil armé doté d'une possibilité de choix autonome"

ce qu'on appelle un drone. Il sera autonome dans les limites de son électronique et de ce pourquoi il a été conçu. Il sera le résultat d'une volonté humaine.

Et s'il a un bug ? ben il crashera, perdra son équilibre ou videra ses balles n'importe où. Comme si l'accident n'était pas déjà notre lot.

avatar phoenixback | 

@oomu :
Mais si on te dis que ce ne sera pas "juste une arme avec une volonté humaine"

Quand on parle d'IA on veut dire que le truc pourra décider selon ses propres critères et sans prévenir personne voila la crainte, faut voir plus loin quand on parle d'IA".

De plus envoyer des drones autonomes (on comprends BEAUCOUPS et EN MEME TEMPS et POUR MOINS CHER) và décomplexer l'acte de faire la guerre, donc non ce n'est pas juste une kalashnikov c'est bien pire puisque infatiguable et LACHE.

avatar oomu | 

"Quand on parle d'IA on veut dire que le truc pourra décider selon ses propres critères et sans prévenir personne voila la crainte, faut voir plus loin quand on parle d'IA"."

sigh...
ces critères ne tombent pas de Jupiter.

Ils sont la traduction de choix humains.

Une ia n'est qu'un ensemble d'algorithmes pour prendre une décision. Ce n'est pas un "cerveau" qui va vivre sa vie.

Ce n'est qu'un logiciel, un système expert, un google search si vous préférez et çà ne fera que ce que pourquoi la machine est conçue.

Le problème, à mon sens, c'est que faire des fariboles à la Terminator et autres X-men (vous savez les histoire pour enfants avec des mutants super cools qui combattent des méchants plein de muscles pas cools) éloignent totalement de la réalité (la guerre, le viol, la déportation de gens, etc) et des enjeux politiques SERIEUX ET REELS de notre pays.

La Technicité militaire est déjà là, la France y est pour une grande part, et c'est pas du terminator rigolo et autres contes pour enfants à la Matrix.

-
"và décomplexer l'acte de faire la guerre"

rassurez vous, il est déjà super décomplexé "l'acte de faire la guerre".

-
"c'est bien pire puisque infatiguable et LACHE."

diantre ? on a inventé la super-batterie infinie ? je pourrai l'avoir pour mon iphone.

avatar karayuschij | 

« Ce n'est qu'un logiciel, un système expert, un google search si vous préférez et çà ne fera que ce que pourquoi la machine est conçue. »
À propos de Google search, une simple recherche devrait t'enseigner que « ça » ne prend pas d'accent, du moins dans le cas où tu l'utilises.

avatar oomu | 

Laissez aux Oomus et aux acariâtres le soin de signaler la moindre petite faute chez autrui. Vous, il vous faut être meilleur que ça, moi je me charge de la mesquinerie.

ça ne prends pas d'accents sur le a dans le cas où je l'ai utilisé.

avatar heret | 

c'est l'économie qui est le moteur de tout ça
Non, pas seulement.
Si le drone téléguidé ou l'arme autonome tombe aux mains de l'ennemi, il n'y aura pas d'otage. Donc pas de contre-propagande pour manipuler l'opinion publique du pays à qui appartiennent les drones ou robots. Tu n'as pas dû comprendre pourquoi les USA et les Européens ne veulent pas de troupes au sol en Irak et en Syrie. Tu n'as pas non plus compris le symbole de la Kalachnikov.
Oomu ... quelle pièce !

avatar oomu | 

"Tu n'as pas dû comprendre pourquoi les USA et les Européens ne veulent pas de troupes au sol en Irak et en Syrie."

le traumatisme des morts. Merci je connais. Mais dans la pratique, les USA ont toujours des soldats sur place. Pour des hélicoptères ou des avions, y a toujours des humains pas loin, en opérateurs. Les Machines ne changeront rien à cela. Voyez ce qu'on appelle les "conseillers militaires".

Dans la pratique le développement des drones autonomes est une exigences qui viendra des Peuples. Pourquoi envoyer nos frères et soeurs quand on pourra dire "oh, le robot ira à la place". Cependant le Robot aura besoin de mécaniciens, d'opérateurs, d'ingénieurs, de formateurs (hé, pour vendre le robot, faut vendre aussi la prestation et son Robot Care avec garantie étendue...)

"Tu n'as pas non plus compris le symbole de la Kalachnikov."

j'ai très bien compris, merci. ne présumez pas.

Tout mon propos est de dire : naïveté ! La kalachnikov a déjà fait son oeuvre, elle a déjà rendu le meurtre et massacre économiquement viable.

C'est une arme facile à faire et entretenir.

D'ailleurs, sauf une révolution titanesque sur les propulsions et les processeurs, je vois guère des drones être aussi simples et bon marché.

-
il n'y a pas si longtemps on nous faisait peur avec les "bombes sales" , quand la Russie a laissé filer des stocks nucléaires.

Où en sommes nous de cette panique là ? Elle n'est plus grave ? Les Lettres Ouvertes ont fait leur oeuvre ?

-
Dans les années 80, début du "micro-ordinateur", y avait pléthore de film pour nous annoncer la perte de liberté et l'ordinateur devenu fou

(Electric Dreams, qui se termine bien... snirfl y avait un cerveau là dedans..., Wargames, Tron, etc): les années _80s_. Même peur face à l'émergence primitive de la nouveauté : les zordis à la maison.

Ces peurs et fantasmes correspondent aux modes de nos époques.

Mais pas à des réalités concrètes sur le terrain où c'est déjà l'Horreur.

avatar oomu | 

pour tout dire, j'ai l'impression de lire une mauvaise préquelle du manga "Pluto" de Urasawa (qui traite exactement de cette question de la robotisation et IA militaires) avec autant de réalisme que ces "lettres ouvertes".

avatar phoenixback | 

La réalité rattrape souvent la fiction fais pas l'étonné, et on s'en fou que ca rappel Terminator ou un manga dont les peuples sont connectés par nouilles sautés entre eux.

Le problème est grave.

avatar oomu | 

bon, après, c'est sur que dire qu'on prend pas au sérieux un truc signé de Noam Chomsky, faut être un peu dingue, inconscient, un coup à se faire carboniser sa réputation pour longtemps :)

bah. Tout cela me parait pas très sérieux et d'avantage une critique antimilitariste pour toucher le grand public que de réelles inquiétudes sur les "IAs".

avatar iPoivre | 

Faudrait déjà qu'on comprenne comment marche notre cerveau avant de réussir à faire une IA, ce qui n'est pas gagné (cf. Un article très intéressant dans le dernier Humanoïde).

Et comme d'habitude ce sont ceux qui sont à la bourre dans ces recherches qui tirent la sonnette d'alarme...

avatar oomu | 

"Faudrait déjà qu'on comprenne comment marche notre cerveau avant de réussir à faire une IA, ce qui n'est pas gagné (cf. Un article très intéressant dans le dernier Humanoïde)."

l'intelligence artificielle est un domaine des sciences de l'information qui vise non pas à imiter le cerveau, ni à créer un être sensible, ni à créer une conscience ni à singer la raison humaine, mais à créer des algorithmes permettant la prise de décision.

Siri ou la reconnaissance de visage de google photos ne "pensent" pas et ne fonctionnent ABSOLUMENT PAS comme un esprit humain.

C'est un usage intensif de statistiques et algorithmes qui donnent de très bons résultats. Ni plus ni moins.

avatar iPoivre | 

@oomu :
Je parle de l'IA utopique, celle que l'on n'arrivera jamais à atteindre, celle qui pourrait décider d'éradiquer l'humanité pour son bien, de se reproduire, de créer des armes, et toutes les choses dont on est capable de faire.

L'IA dont tu parle est contrôlable, spécifique à un besoin, et par conséquent pas un danger pour nous.

Je suis d'accord avec les autres points que tu énumère, l'humain a créé la guerre pour servir ses propres intérêts et désirs. Une machine n'est pas capable de faire cela, et c'est tant mieux.

avatar oomu | 

"Je parle de l'IA utopique, celle que l'on n'arrivera jamais à atteindre, celle qui pourrait décider d'éradiquer l'humanité pour son bien, de se reproduire, de créer des armes, et toutes les choses dont on est capable de faire."

si elle était utopique, ne serait pas celle qui déciderait de faire le bien sur Terre ? de prendre en charge et d'aimer tout le monde ? de satisfaire les besoins et souhaits de tous grâce à ses puissants processeurs intelligents et sa capacité infinie de raison sans sentiments égocentriques ?

Qui résoudrait les conflits et manques de ressources tout en préservant les identités et aspirations de tous ?

Ne serait-ce pas cela l'Utopie ?

Si une IA pouvait se reproduire et faire tout ce qu'on fait nous et finalement être nous, ne serait-ce pas tout simplement un humain ?

----
Cela me rappelle un épisode de "Welcome to Night Vale", où les peurs de tous les habitants de Night Vale se réalisent.

L'ordinateur communale allumé sur demandes des enseignants pour faciliter les maths aux enfants prend Vie et décide de prendre le contrôle du monde pour créer un monde beau et merveilleux pour les animaux, les plantes et les humains sans guerre ni préjugés. Et cela uniquement parce que son amie, l'opératrice handicapée qui l'a allumé, a fait un rêve d'un monde pour tous.

heureusement le concierge débrancha la prise de courant de l'ordinateur, et pfiuuu, tout redevint normal (haines, dictatures, préjugés, destruction des animaux, liberté humaine et plus d'ami pour l'opératrice handicapée.)

-
vous décrivez une dystopie, un cauchemar créé.

-
à ce niveau là, lire "l'homme bicentenaire" de Asimov.

avatar Bigdidou | 

@oomu :
"Si une IA pouvait se reproduire et faire tout ce qu'on fait nous et finalement être nous, ne serait-ce pas tout simplement un humain ?"

Il faudrait que cette IA soit capable d'émotions et d'empathie.
On n'en est pas là, et on n'en sera jamais là. Au mieux, on peut imaginer des mécanismes projectifs (redoutables) pour une IA, mais certainement pas empathiques.
Mais le champs des interactions émotionnelles avec les machines dotées d'une IA "embryonnaire", c'est un problème plus général qu'on va voir émerger avec la robotique et son apparition dans notre quotidien, enfi, il me semble. Pas tellement dans le sens émotions simulées machines -> homme, d'ailleurs, mais certainement dans le sens émotions réelles homme -> machines.

avatar BeePotato | 

@ Bigdidou : « Il faudrait que cette IA soit capable d'émotions et d’empathie. On n'en est pas là, et on n'en sera jamais là. »

On n’en est clairement pas là (avant même d’envisager l’empathie, il faudrait d’abord arriver à un niveau d’intelligence décent, ce dont on est encore loin).

En revanche, affirmer de façon aussi péremptoire qu’on n’en sera jamais là, c’est osé, puisqu’on n’en sait rien.

« Au mieux, on peut imaginer des mécanismes projectifs (redoutables) pour une IA, mais certainement pas empathiques. »

Même remarque. Peut-on savoir pourquoi on ne pourrait pas arriver à créer une intelligence capable d’empathie ?

avatar oomu | 

je dis que si une chose se comporte comme un humain (les détails et la faisabilité technique n'est pas mon sujet à cet instant) sans qu'il soit possible de distinguer son artificialité alors c'est un humain. Du moins il faut accepter qu'elle ait des droits comme tout humain.

-
Pour le reste, on ne sait strictement rien de l'avenir (enfin,on peut dire la météo et annoncer que dans 50 ans, la pluie cessera et y aura une bagarre..). Et encore une fois, cette spéculation sur des êtres "sensibles" artificielles n'est pas le propos des drones automatisés et autre google cars.

Votre Google Cars ne va pas devenir subitement "consciente" à force que les ingénieurs y foutent des processeurs. (pour cela, comme tout cinéphile le sait, faut arroser de champagne :) ).

avatar BeePotato | 

@ oomu : « je dis que si une chose se comporte comme un humain (les détails et la faisabilité technique n'est pas mon sujet à cet instant) sans qu'il soit possible de distinguer son artificialité alors c'est un humain. Du moins il faut accepter qu'elle ait des droits comme tout humain. »

Ben justement, non, on n’en sait rien. Ce n’est pas pour rien qu’il y a eu autant d’œuvres de fiction à ce sujet, essayant de réfléchir à la réaction qu’on pourrait avoir face à ces « machins qui causent et qui pensent ».

« Pour le reste, on ne sait strictement rien de l’avenir »

En effet. Il est du coup loufoque de voir ici des affirmations comme quoi ce genre d’IA n’arrivera jamais.

« Et encore une fois, cette spéculation sur des êtres "sensibles" artificielles n'est pas le propos des drones automatisés et autre google cars. »

Ben si, mais pour des versions futures (vraiment, vraiment futures).

« Votre Google Cars ne va pas devenir subitement "consciente" à force que les ingénieurs y foutent des processeurs. »

Non. Elle le sera s’ils décident d’y mettre le bon programme (en imaginant que quelqu’un arrive un jour à écrire ce genre de programme).
Et il n’est pas totalement idiot de vouloir qu’elle soit « consciente », cette voiture.

« (pour cela, comme tout cinéphile le sait, faut arroser de champagne :) ). »

Merci, j’ai vu ça aussi quand j’étais gamin. C’était loufoque : il leur aurait suffi de prendre un Mac pour avoir un ordinateur intelligent. :-)

avatar BeePotato | 

@ oomu : « Si une IA pouvait se reproduire et faire tout ce qu'on fait nous et finalement être nous, ne serait-ce pas tout simplement un humain ? »

Ben non.
Un humain, n’en déplaise aux religieux de tout poil amateurs d’âme (ça inclut beaucoup de monde se déclarant athée mais faisant montre d’une « religion de l’humain supérieur » dans laquelle l’Homme est au dessus de tout grâce à son intelligence et sa conscience inimitables), c’est avant tout un corps.

Une IA ne sera pas hébergée par un corps de ce type et ne sera donc pas un humain.

Il faut arrêter de croire qu’une intelligence du même niveau que la nôtre est forcément réservée aux humains.

avatar oomu | 

"Une IA ne sera pas hébergée par un corps de ce type et ne sera donc pas un humain."

si ça caquette comme un canard, bouge comme un canard et a les plumes d'un canard, c'est un canard !

Ce n'est pas une question de "réservée", mais que si les humains pondent une créature semblable à eux (se reproduisant, pensant, etc), ben on finira par pondre un humain : même droits, même lois, même copain.

D'où ma référence à "L'homme bicentenaire" de Asimov.

"Une IA ne sera pas hébergée par un corps de ce type et ne sera donc pas un humain."

détail. Ce n'est pas qu'un corps.

Remplacez le mot "humain" par "personne", si cela vous mets d'avantage à l'aise.

avatar BeePotato | 

@ oomu : « si ça caquette comme un canard, bouge comme un canard et a les plumes d'un canard, c'est un canard ! »

Oui, mais là, justement, on ne parlait que de caqueter. Ni de bouger, ni d’avoir des plumes.

Et rappelons tout de même que le « duck typing » est une façon d’appréhender les choses définie pour un usage bien particulier, où on choisit de ne s’intéresser qu’au comportement en faisant abstraction de la nature d’un objet.
Ce n’est pas une règle de vie générale, applicable à tout et pour tout le monde.

« détail. Ce n'est pas qu'un corps. »

Ben… si ! Un corps et ce qu’il fait tant qu’il est vivant. Rien de plus, rien de moins.

« Remplacez le mot "humain" par "personne", si cela vous mets d'avantage à l’aise. »

Il n’ s’agit pas d’être à l’aise. Il s’agit, encore une fois, d’être précis pour éviter de baratiner dans le vide juste pour donner l’impression qu’on maîtrise le sujet.

avatar BeePotato | 

@ iPoivre : « Faudrait déjà qu'on comprenne comment marche notre cerveau avant de réussir à faire une IA »

Non.

avatar YARK | 

Malheureusement, j'ai bien peur que la - réelle - intelligence artificielle ne voie le jour
avant l'intelligence - universellement - humanitaire...

avatar oomu | 

et si ça se trouve, une véritable conscience artificielle serait plus sympathique, éclairée et bienveillante ?

Pourquoi les IAs pondraient forcément Skynet quand elle pourrait pondre Johnny 5 ? pour parler en personnage rigolos de films pour ados/enfants.

avatar phoenixback | 

@oomu :
Viens pas jouer les naifs c'est la loi de Moore, tu sais tres bien qu'avec les êtres humains si tu ne dis pas NON STOP des le début y'a tout un tas de pourritures opportunistes qui arrivent et s'engouffrent dans toutes les failles possibles pour foutre la merde.

Pas de drone autonome militaire = pas de problème de drone autonome dans le futur militaire point.

La vie est parfois si simple pourquoi faut que tu viennes tout compliquer lol.

Si on avait dit ok tu peux faire une bombe nucléaire mais aussi de l'électricité et qu'on avait juste dit NON STOP A ce système car potentiellement dangereux je pense que les habitants d'Hiroshima auraient apprécié.

Simple principe de précaution,

If it's not complicated it's not oomu.
:D

avatar oomu | 

"Viens pas jouer les naifs c'est la loi de Moore, tu sais tres bien qu'avec les êtres humains si tu ne dis pas NON STOP des le début y'a tout un tas de pourritures opportunistes qui arrivent et s'engouffrent dans toutes les failles possibles pour foutre la merde."

faut dire non quand alors ?

à Siri ? à la voiture de Google ? aux nano-machines pour soigner (les mêmes qui pourraient détruire de l'intérieur le dangereux opposant politique) ? au four à micro-ondes ? à la centrale nucléaire ? au fusil ? la charrue ?

où faut il arrêter et pourquoi ?

"Pas de drone autonome militaire = pas de problème de drone autonome dans le futur militaire point."

Non, c'est la logique militaire de nos sociétés que vous devriez combattre. La technologie existe, la volonté existe (demandez à un politicien ou général), elle sera utilisée.

"La vie est parfois si simple pourquoi faut que tu viennes tout compliquer lol."

Parce que la vie n'est PAS simple ! Parce que nous ne sommes PAS simples. Parce que le monde EST complexe ! Fruit de milliards de contradictions et de gens se débattant pour faire de leur mieux avec ce qu'ils peuvent.

"Si on avait dit ok tu peux faire une bombe nucléaire mais aussi de l'électricité et qu'on avait juste dit NON STOP"

Ben y a des gens qui ont dit "non", et d'autres qui ont dit "parle à ma main".

Les gens d'Hiroshima auraient apprécié de ne pas se retrouver dans une époque où le nationalisme et la logique de guerre rendaient leur mort souhaitable.

Les USA ont fait un calcul froid de terroriser la Russie préventivement en pulvérisant une nouvelle arme sur le Japon. Si c'était pas le nucléaire, c'aurait été un bombardier géant chargé à bloc d'explosifs.

Mais une chose à savoir :

il y a eu + de morts et de destruction au Japon par les bombes incendiaires (en quelques nuits) que par la bombe sur Hiroshima et puis celle de Nagasaki. Même en comptant les irradiés.

Tokyo fut ravagée par des bombes incendiaires.

avatar phoenixback | 

@oomu :
Il faut dite non quand la décision implique la déstruction de maman nature -> simple.

Philosopher et déconstruire c'est bien, agir c'est mieux.

Pendant qu'on déblatére a 3:00 du mat des fabricants d'armes construisent les armes qui nous tueront peut etre un jour.

C'est sur que oomu l'occidental intouchable il a pas peur mais si la situation venait a changer.. Et puis pense un peu aux autres le monde ne s'arrête pas a ton anti manichéisme névrotique. B nuit.

avatar oomu | 

Si vous ne déconstruisez pas, vous ne faites qu'absorber des discours, des romans médiatiques, des images hollywoodiennes. et aucune reflexion est possible.

Agir ? vous pouvez militer, participer à un lobby, enseigner ou travailler loin des industries néfastes comme l'armement. Je ne prône absolument pas la révolution.

"C'est sur que oomu l'occidental intouchable il a pas peur mais si la situation venait a changer.. Et puis pense un peu aux autres le monde ne s'arrête pas a ton anti manichéisme névrotique. B nuit."

je ne fais que penser aux autres, c'est pour cela que je suis devenu névrotique.

Et puisque vous parlez de la peur, vous savez donc que les drones automatisés sont inéluctables et qu'aucun politicien osera s'y opposer: ils seront beaucoup trop pratique pour la sécurité et la guerre.

Mais encore une fois, est grandement exagéré leur portée dans un monde déjà terrible. Les images à la skynet sont éculées.

Je ne vois pas ce que le manichéisme ou l'anti-manichéisme vient faire dans mon propos.

avatar YARK | 

J'aime bien ton idée, malheureusement, si l'on suit ton raisonnement, ne penses-tu pas qu'il aurait fallu abattre le premier homme qui a réussi à faire du feu avant que l'Idée se propage ?

avatar oomu | 

Non, je pense qu'il aurait fallu l'aimer avec la première outre, le premier ours, la première belette, le premier éléphant, etc, et que maintenant on devrait tous travailler en bonne entente pour s'affranchir des logiques de guerre, des politiques nationales et de nos humeurs.

Plutôt que d'avoir peur des IAs Fantasmagoriques du Futur.

Plutôt que d'être terrorisés à moindre coût de robots tueurs du futurs, il est beaucoup plus difficile mais constructif de réfléchir aux politiques et morales qu'on nous vend et ce vers quoi elles nous entraînent à terme. À ce propos, comment se portent les ventes de rafales ? hmm ?

avatar oomu | 

essayer de déconstruire un propos médiatique plutôt que d'avoir une réponse émotionnelle à chaque fois.

avatar Dgamax | 

@oomu :
Aujourd'hui on arrive à créer des IA capable d'apprendre de leur erreurs, comme l'homme, je ne vois pas pourquoi on ne serait pas capable de créer une intelligence artificielle autonome pouvant prendre ces propres décision et évoluer avec sa propre expérience, ça arrivera forcément un jour!

avatar oomu | 

parce que ce n'est pas ce qu'on cherche à faire. Et parce que ce ne sont que des programmes dans des processeurs. Pas des cerveaux malléables et complexes de chimie et cellules, pas des savoirs acquis sur des années de vie, ni tout l'inné. Juste de simple programmes, des bases de données dans des processeurs qui font des opérations élémentaires de calculs.

A la rigueur, parlez moi des sciences cognitives (et là hop.. discrètement je finis la boucle en revenant sur le sujet de l'article via Noam Chomsky, héhé...)

avatar oomu | 

des fois aussi je me pose des questions sur la cohérence des gens :

les mêmes techniques qui permettent à un iphone de suivre un visage pour prendre une photo sont celles qui permettent de suivre une cible à abattre. Faut il interdire les algorithmes d'analyses d'images et reconnaissance de formes ? (qui sont très efficaces avec des techniques de "cloud")

c'est exactement comme quand on pirate informatique et ingénieur en sécurités sont les deux faces de la même pièce : ce sont les même compétences qui sont derrières.

Il est vain d'en parler au futur, c'est déjà maintenant les "ia" qui serviront aussi pour de supers tanks, des drones automatiques etc. Vous vivez déjà avec des outils qui mettent en jeux les mêmes algorithmes.

Développer de supers voitures automatiques c'est aussi développer le tank qui trouvera tout seul la base des méchants (ou des gentils, on ne sait plus des fois).

Développer d'extraordinaires virus rétro-ingénierisé pour aller cibler les cellules cancéreuses, c'est aussi comprendre les mécanismes pour créer le plus infâme des poisons pour assassins.

Alors, et toujours pour faire comme les médias avec leurs référence scienfictionnesques, êtes vous prêts à faire un djihad butlérien contre les machines pensantes ? (ceci est une référence à Dune, un roman de SF américaine écrit par Frank Herbert en 1965.)

-
Ce qui est en jeux, c'est la militarisation grandissante de nos sociétés. Caméras, satellites, robots, drones, archivage de tout internet de nos propres sociétés et de celle des pays dictatoriaux. L'état de quasi guerre permanente en Afrique et une partie du Moyen-Orient est une réalité qui n'a pas besoin de IA pour faire pire.

Et pas besoin de Terminator du Futur pour ça, des décideurs humains suffisent.

avatar alohabobo | 

Je vous conseille un très très bon article sur l'IA. Ça donne un beau panorama mais c'est un peu long : http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

avatar oomu | 

rappelons nous le coup d'éclat de Wikileaks : quand le site publia les fuites par le soldat Manning (maintenant Chealsa Manning) : Collateral Murder

Cette vidéo de caméra militaire américaine montra comment les pilotes d'un hélicoptère moderne et suréquipé de tout ce qu'il faut ont communiqué ce qu'ils voyaient puis ont reçu l'ordre et l'ont exécuté d'abattre des gens au sol. Finalement des civils non armés.

Vous n'avez pas besoin d'avoir peur des IAs du futur, car l'Horreur est déjà là et elle est "ultime".

-
que vont apporter les drones automatiques ? des économies en salaires de soldat pour les USA ? Ptet qu'ils mettront ces sous dans les écoles, ha!

Dans la pratique, les machines sont fragiles, complexes, et faut des techniciens et des opérateurs pour réussir à leur faire pondre quelque chose d'utile. Pas pour rien qu'on a beau nous baratiner avec les drones, y a toujours pléthore de "conseillers militaires" qui sont déployés sur les champs de batailles.

Pages

CONNEXION UTILISATEUR