Intelligence artificielle : Wozniak, Musk, Hawking ne veulent pas d'armes autonomes

Mickaël Bazoge |

L’intelligence artificielle est « potentiellement plus dangereuse que les armes nucléaires » a prévenu Elon Musk, fondateur et patron de Tesla et de SpaceX. Cette même IA est « notre plus importante menace existentielle », craint Stephen Hawking, le célèbre physicien anglais. Nous n’en sommes pas encore aux flottes de Terminator de Skynet ou aux Sentinelles exterminatrices de Bolivar Trask (X-Men), mais de plus en plus de grands esprits s’alarment des avancées des technologies liées à l’intelligence artificielle et du potentiel désastreux qu’il y aurait à voir les armées développer des systèmes de défense entièrement autonomes. Et si les armes intelligentes, devenues complètement hors de contrôle, venaient à s’en prendre à l’humanité toute entière ?

Dans une lettre ouverte présentée à l’occasion de l’IJCAI (les conférences internationales sur l’intelligence artificielle qui se tiennent à Buenos Aires), plusieurs grands noms appellent les gouvernements du monde à interdire le développement d’armes offensives autonomes afin d’empêcher une course à l’armement qui pourrait bien signer notre perte. Elon Musk et Stephen Hawking sont signataires, tout comme Steve Wozniak le cofondateur d’Apple, Noam Chomsky le penseur américain, et d’autres chercheurs.

Les drones ou les missiles téléguidés peuvent continuer à patrouiller dans les cieux : ce sont des soldats humains qui prennent les décisions. En revanche, le développement d’armes autonomes est à proscrire, estiment-ils. « Si une puissance militaire de premier plan commence à investir dans les armes autonomes, une course à l’armement sera virtuellement inévitable, et la finalité de cette trajectoire technologique est évidente : les armes autonomes deviendront les Kalashnikov de demain ».

À l’instar des biologistes et des chimistes qui n’ont aucunement envie de participer au développement d’armes biologiques, ces chercheurs ne veulent pas aider à la conception d’armes autonomes, ce qui pourrait provoquer un rejet de l’IA chez le grand public et réduire les bienfaits de cette technologie, explique la lettre. Celle-ci n’est adressée à personne en particulier, mais elle peut servir à éveiller les consciences autour de cette problématique de plus en plus importante.


avatar kubernan | 

"Et si les armes intelligentes, devenues complètement hors de contrôle, venaient à s’en prendre à l’humanité toute entière ?"

Vraiment ?

avatar 0MiguelAnge0 | 

Moi ce qui m'amuse, c'est le besoin sur un site pro Applede préciser qui est Woz alors que Musk et Hawking, et bien, cela va de soi...

avatar Mickaël Bazoge | 

@0MiguelAnge0 :
Et heureusement, tous deux ont aussi droit à leur présentation.

avatar iPop | 

Qu'est ce que la conscience ? Un ensemble d'atome relié les uns aux autres ? Un ensemble de produits chimiques qui s'entremêlent ? Un ensemble de fils électriques ?
Personne ne peut répondre à ceci. Seulement, existe elle vraiment ?
L'ia est un danger pour l'humanité par principe du seul fait de sa présence. A moins que l'humain change.

A voir EXTANT, HYPERION, ETC....

avatar BeePotato | 

@ iPop : « Qu'est ce que la conscience ? Un ensemble d'atome relié les uns aux autres ? Un ensemble de produits chimiques qui s'entremêlent ? Un ensemble de fils électriques ? »

Non. C’est plutôt un ensemble d’informations évolutif, hébergé et entretenu par des trucs de ce genre.

avatar Antiphon | 

Dans le principe, je comprends que ces « génies » lancent une alerte. Cependant, je trouve que nous sommes loin de voir le début d'une intelligence artificielle apparaître. Pour le moment, ce qui s'en rapproche le plus dans notre quotidien, c'est Siri. Ça va pas très loin…

avatar Le docteur | 

Autre référence plus ancienne : Planète hurlante.

avatar Teeto | 

Sinon il s'agira de soldat robot piloter par des humains avec un casque genre Oculus et plein de capteurs (comme dans je ne sais plus quel film)... Et hop !

avatar Teeto | 

Oups...
* soldats robots pilotés

avatar Shralldam | 

Tout ce qui peut arriver va arriver.

avatar Orus | 

Ils ne veulent pas ? C'est plutôt amusant. Ces grands nom feignent apparemment d'ignorer le travail d'Isaac Asimov autour de la robotique et des trois lois. Ils tirent la couverture à eux; faire peur rapporte toujours.
Mais pourquoi parler d'IA artificielle ? Les premiers robots militaires n'ont, n'auront, pas besoin d'une grande intelligence. Un insecte, un poisson, pour définir et attaquer une proie n'a pas besoin d'un gros cerveau.
D'ailleurs nos amis coréens se sont déjà atteler à la tache, ils ont recrée les célèbre mitrailleuses du jeu Portal avec le Samsung SGR-A1 pour surveiller leur frontière. L'Asie n'a pas les mêmes considérations religieuses et moralistes autour des IA, elle va nous étonner.

avatar LeSedna | 

T'as toujours pas compris en fait !

avatar oomu | 

Pour tout dire, je me méfie d'avantage de l'impression 3D quand on me parle de l'impact de la kalachnikov.

avatar harisson | 

Au delà des grands noms, je remarque que le nombre de signataires oeuvrant dans ce domaine (~1 millier) est suffisamment important pour qu'on en tienne compte dans sa réflexion personnelle.

Pages

CONNEXION UTILISATEUR